메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

전영진 (서경대학교, 서경대학교 대학원)

지도교수
조영완
발행연도
2019
저작권
서경대학교 논문은 저작권에 의해 보호받습니다.

이용수38

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
딥 러닝과 강화학습을 접목한 딥 강화학습은 다양한 분야에 활용 가능성을 보이며 실생활에 적용되고 있다. 또한 성공한 몇몇 사례들의 커다란 가능성을 통해 여러 분야에 걸쳐 폭 넓은 연구들이 이루어지고 있다.
본 논문은 오델로, 바둑, 체스 등과 같은 지능적 사고를 필요로 하는 보드게임에서 복잡한 상태와 형세판단 사이의 상관관계를 찾기 위해 실제 프로기사들의 대국을 답습한 CNN을 설계하고, 판단한 형세를 근거 삼아 최소최대탐색을 이용해 최적의 수를 찾는 의사 결정을 한다. 또한 형세 판단의 근거를 발전시키고자 강화학습 이론을 이용한 자가대국 학습방법을 제안한다.
지도학습 과정의 성능을 비교하기 위해 본 연구자가 선행연구 했었던 비교적 간단한 구조를 가진 지도학습 기반의 ANN 가치평가 네트워크[1]와 본 논문에서 제안하는 지도학습 기반 CNN 가치평가 네트워크와의 대국을 실행하여, 흑일 때 69.7%, 백일 때 72.1%의 승률을 보였다. 또한 지도학습 네트워크를 자가대국으로 policy-iteration기반의 강화 학습을 적용하여 발전시킨 네트워크와 앞서 말한 두 네트워크(ANN, CNN)와의 성능 비교도 실시하였으며 최종적인 승률은 흑일 때 ANN을 상대로100%, CNN을 상대로76%의 승률을 보였으며, 백일 때 ANN을 상대로100%, CNN을 상대로 78%의 승률을 보였다.

목차

I. 서 론 1
II. 지도학습 3
2-1. 학습 데이터 구성 4
2-1-1. 입력 특징 추출 5
2-1-2. 네트워크 출력 10
2-2. 네트워크의 구성 12
III. 의사결정 과정 15
3-1. 최소최대탐색 15
3-2. 알파-베타 가지치기(Alpha-Beta Pruning) 17
3-3. 게임에이전트의 의사결정 과정 19
IV. 강화학습 22
4-1. 강화학습 문제의 정의 22
4-2. 가치함수와 정책 23
4-3. 정책 iteration 24
4-4. 제안하는 강화학습 방법 25
V. 실험 및 결과 분석 31
5-1. 실험환경 31
5-2. 오델로 인공지능 에이전트의 성능 평가 32
5-2-1. 지도학습 네트워크 평가 32
5-2-2. 강화학습 네트워크 평가 39
VI. 결론 41
참 고 문 헌 43

최근 본 자료

전체보기

댓글(0)

0