메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

이재환 (서강대학교, 서강대학교 대학원)

지도교수
서정연
발행연도
2019
저작권
서강대학교 논문은 저작권에 의해 보호받습니다.

이용수24

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
인공 신경망 기계번역(Neural Machine Translation)은 인공 신경망을 활용하여 입력 문장을 벡터로 표현하고 그 벡터를 이용하여 번역 문장을 End-to-End 방식으로 출력하는 기법으로, 최근 다른 통계적 기반 번역 방법에 비해 높은 번역 성능을 나타내고 있는 중이다.
초기의 인공 신경망 기계 번역은 문장을 구성하는 기본 단위를 ‘단어’로 상정하고 이를 기반으로 사전을 구성하여 번역에 이용 하였다. 하지만 번역에 사용되는 사전의 크기를 무한정 늘릴 수는 없으므로, 사전에 등록되지 않은 단어가 등장했을 때(Out of Vocabulary 문제가 등장했을 때) 번역이 어려운 문제가 발생한다. 이를 해결하기 위해, 문장을 구성하는 단위를 단어보다 더 세부적인 것(Subword Unit)으로 상정하는 방법이 제안되었고, 그 구체적인 방법으로는 Byte Pair Encoding이 있다.
인공 신경망 기계번역은 대규모의 병렬 코퍼스가 존재할때에는 높은 성능을 나타내지만, 이런 대규모의 병렬 코퍼스가 존재하지 않는 언어쌍에 대해서는 그다지 높은 성능을 나타내지 못한다. 이를 해결하기 위해, Back Translation 기법을 통해 학습 코퍼스의 수를 증가시키는 방법이 제안된 바 있다.
본 논문에서는 한국어-영어 인공 신경망 기계 번역에 있어 BPE 기법과 Back Translation 기법을 적용하여 다양한 조건 하에 실험을 진행하였고, 두 기법을 적용 시킴으로써, 한국어-영어 인공 신경망 기계 번역의 성능을 향상시킬 수 있음을 확인하였다.

목차

1. 서 론 1
1.1. 연구의 배경 및 동기 1
1.2. 논문의 초점 2
1.3. 논문의 구성 3
2. 인공 신경망 기계 번역 관련 연구 4
2.1. 통계 기반 기계번역(Statistical Machine Translation) 4
2.2. 인공 신경망 기계번역(Neural Machine Translation) 5
2.3. Recurrent Neural Networks(RNNs) 9
2.4. Long Short Term Memory(LSTM) 10
2.5. Gated Recurrent Unit(GRU) 12
3. SUBWORD 유닛 기법과 역 번역 기법 14
3.1. Byte Pair Encoding(BPE) 14
3.2. 역 번역(Back Translation) 16
4. 실험 및 결과 분석 19
4.1. 실험 구성 19
4.1.1. 실험에 사용된 데이터 19
4.1.2. 실험 환경(Hyperparameter) 20
4.2. 제안 모델 21
4.3. 평가 방법 23
4.4. 실험 결과 및 분석 23
4.4.1 Baseline 모델과 BPE를 적용시킨 모델의 성능 비교 24
4.4.2 기존 병렬 코퍼스만 사용한 번역 모델과 역 번역 데이터를 추가한 번역 모델의 성능 비교 26
4.4.3 기존 병렬 코퍼스만 사용한 번역 모델과 선택적으로 성능이 높은 역 번역 데이터만 추가한 번역 모델의 성능 비교 28
4.4.4. 실제 번역 예시를 통한 각 모델의 번역 성능 확인 30
5. 결론 및 추후 연구 32
참 고 문 헌 34

최근 본 자료

전체보기

댓글(0)

0