메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

박대근 (공주대학교, 공주대학교 일반대학원)

지도교수
이완복
발행연도
2020
저작권
공주대학교 논문은 저작권에 의해 보호받습니다.

이용수22

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
매치 3 퍼즐 게임들은 주로 MCTS 알고리즘을 사용하여 자동 플레이를 구현하였지만 MCTS의 느린 탐색 속도로 인해 MCTS와 DNN을 섞거나 강화학습으로 인공지능을 구현하려 하고 있는 추세이다. 이에 본 연구는 매치 3 게임 개발에 주로 사용되는 유니티3D 엔진과 유니티 개발사에서 제공해주는 머신러닝 SDK를 이용하여 강화학습 에이전트를 손쉽게 개발하는 방법을 제안하며 게임 플레이 에이전트를 설계 및 구현하였다. 실험 결과 에이전트는 스테이지 클리어를 위해 비교 데이터보다 15% 적은 최소 7턴이 필요하였고 최대 필요 턴은 비교 데이터보다 10% 적은 18턴이 필요 했으며 평균적으로 11.04턴을 필요로하여 비교 데이터보다 평균 44%적은 턴 수를 필요로 하였다. 본 연구에서 설계 및 구현한 에이전트가 사람보다 더 잘 플레이하는만큼 기계와 인간 사이의 간극을 조절해줄 밸런스의 오차 범위만 잘 설정한다면 빠른 스테이지 개발에 도움이 될 것이라 생각한다.

목차

1. 서론 1
2. 배경 연구 3
2.1. 강화학습 적용 사례 3
2.1.1. 아타리 벽돌깨기 3
2.1.2. 블레이드앤소울 3
2.1.3. 쿠키런 4
2.1.4. 캔디 크러시 사가 5
2.2. 매치 3 게임 6
2.2.1. 주요 요소 6
2.2.1.1. 임무 9
2.2.1.2. 장애물 1
2.2.1.3. 특수 블록 10
2.2.1.4. 특수 블록 합체 11
2.3. Monte Carlo Tree Search 12
2.4. 강화 학습(Reinforcement Learning) 14
2.4.1. Q-Learning 14
2.4.2. Proximal Policy Optimization 15
2.5. 유니티 ML SDK 17
3. 설계 및 구현 20
3.1. 매치 3 게임 구현 20
3.2. 블록 구현 23
3.2.1. 일반 블록 25
3.2.2. 특수 블록 26
3.2.2.1. Four Match Block 26
3.2.2.2. LT Match Block 27
3.2.2.3. Five Match Block 28
3.2.3. 장애물 블록 29
3.3. ML 에이전트 구성 30
3.3.1. 관측 정보 정의 30
3.3.2. 행동 정보 정의 32
4. 실험 및 결과 34
4.1. 학습 환경 34
4.1.1. 스테이지 구성 34
4.1.2. 보상 설정 35
4.1.3. 비헤이비어 파라미터 36
4.1.4. 하이퍼파라미터 37
4.2. 비교 데이터 설정 38
4.3. 결과 분석 39
5. 결론 42
5.1. 연구의 결론 42
5.2. 연구의 한계점 43
5.3. 향후 연구 과제 43

최근 본 자료

전체보기

댓글(0)

0