메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
김연섭 (한국과학기술원) 이주장 (한국과학기술원)
저널정보
제어로봇시스템학회 제어로봇시스템학회 각 지부별 자료집 2012 ICROS 대전 · 충청지부 및 스마트모바일로봇연구회 합동 학술대회 논문집
발행연도
2012.12
수록면
168 - 171 (4page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
Classic robotics and the almost recent robots still rely on fixed behavior basd control. So, the recent paradigm of robots and robotics is increasing the robot"s ability that can deal with uncertainties in the real world. A general approach is Reinforcement Learning(RL). Neural Q-Learning was introduced in 2000 and it is based on Q-Learning for Linear Quadratic Regulation(LQR). We replace it with online neural Q-Learning and apply it to a simulation of a straightforward nonlinear mobile robot, Two-Wheeled Inverted Pendulum(TWIP) and we show that TWIP is successfully balancing.

목차

Abstract
1. 서론
2. 본론
3. 결론
참고문헌

참고문헌 (0)

참고문헌 신청

이 논문의 저자 정보

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2017-003-000682533