메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

이동헌 (강원대학교, 강원대학교 대학원)

지도교수
이창기
발행연도
2021
저작권
강원대학교 논문은 저작권에 의해 보호받습니다.

이용수26

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
기계 독해는 기계가 입력으로 받은 문단을 분석하고 추론하는 것을 말한다. 기계 독해를 이용하여 주어진 질문과 문단을 이해하고 이에 알맞은 답을 출력하는 것을 기계 독해를 이용한 질의 응답이라 한다. 기계 독해 학습 데이터 구축은 어려운 작업으로, 문서에서 등장하는 정답과 정답을 도출할 수 있는 질문을 수작업으로 만들어야 한다. 이를 해결하기 위하여 최근 질문 자동 생성 연구가 활발히 연구되고 있다. 질문 생성은 기계 독해와 반대로, 문서와 정답을 보고 정답을 도출할 수 있는 질문을 생성하는 태스크이다. BERT는 최근 다양한 자연어 처리 태스크에서 뛰어난 성능을 보이고 있는 언어 모델로 대용량 코퍼스에 대하여 양방향성을 가진 트랜스포머(transformer)로 언어 모델을 학습한다. 사전 학습 된 BERT는 출력 층(layer)을 추가하여 자연어 처리 태스크에 적용할 수 있다. 본 논문에서는 기계 독해 학습을 위해 한국어 질의 응답 데이터 셋인 KorQuAD 1.0과 KorQuAD 2.0을 이용하며, 사전 학습 된 BERT 모델 위에 SRU(Simple Recurrent Unit)와 각 데이터에 적합한 자질을 추가한 모델과 정답이 속한 문서로부터 질문을 자동으로 생성해주는 모델에 복사 메커니즘을 추가한 BERT 기반의 Sequence-to-sequence 모델을 제안한다. 실험 결과, 본 논문에서 제안한 방법을 KorQuAD 1.0 데이터에 적용한 경우, 개발 셋에서 EM 85.35%, F1 93.24%의 성능을 보였으며, KorQuAD 2.0 데이터에 적용하였을 때는 EM 49.2%, F1 71.21%의 성능을 보였다. 또한, BERT 기반의 Transformer 디코더 모델의 성능이 기존 모델과 BERT + GRU 디코더 모델보다 좋았다.

목차

목 차 iii
I. 서 론 1
II. 관련 연구 4
1. BERT 4
2. SRU(Simple Recurrent Unit) 5
3. 기계독해 5
4. 질문생성 6
III. 전처리 및 자질 추출 7
1. KorQuAD 2.0 7
2. 질문 생성 데이터 9
IV. 학습 모델 10
1. BERT와 SRU를 이용한 한국어 기계 독해 10
5. BERT-SRU와 HTML Tag 자질을 이용한 한국어 기계 독해 12
6. BERT 기반 한국어 질문 생성 모델 14
V. 실험 및 결과 16
1. 실험 데이터 및 환경 16
1) KorQuAD 1.0 17
2) KorQuAD 2.0 17
3) 질문 생성 18
2. 실험 및 결과 19
1) KorQuAD 1.0 실험 및 결과 19
2) KorQuAD 2.0 실험 및 결과 20
3) 질문 생성 실험 및 결과 22
VI. 결 론 29
VII. 참고 문헌 31

최근 본 자료

전체보기

댓글(0)

0