메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
최승혁 (연세대학교) 송민 (연세대학교)
저널정보
Korean Institute of Information Scientists and Engineers Journal of KIISE Journal of KIISE Vol.48 No.1
발행연도
2021.1
수록면
119 - 127 (9page)
DOI
10.5626/JOK.2021.48.1.119

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
본 논문에서는 DSTC에서 제공하는 데이터를 기반으로 주어진 대화(Dialog)의 다음 문장을 찾는(100개 후보 중 1개의 정답) Dialog Response Selection System을 만드는 것을 목적으로 한다. 이를 위해 사전 학습 모델(Pre-trained Model)인 BERT를 활용하였다. BERT는 대용량 코퍼스에 대해 언어모델(Language Model)로 사전 학습이 되어있어 다목적으로 활용이 가능하고 높은 성능을 내는 장점이 있지만 모델 변형이 쉽지 않고, 입력 데이터 형태가 정해져 있어 성능 최적화를 위한 커스터마이징(Customizing)이 어렵다는 한계점이 있다. 이러한 특성을 보완하기 위해 BERT와 완전히 분리된 독립적 전이학습 모델을 제안한다. BERT를 파인-튜닝(Fine-tuning) 후 컨텍스츄얼 셀프-어텐션 벡터(Contextual Self-attention Vector)(수직(Vertical) & 수평(Horizonal) 히든 벡터(Hidden Vector)를 이용한 셀프-어텐션 벡터 추출)을 뽑아 전이학습 모델의 입력 데이터로 사용하였고 주어진 데이터를 효과적으로 사용하기 위해서 데이터 어그멘테이션(Data Augmentation)을 진행하였다. 이를 통해 최종적으로 22.85%의 성능개선을 달성할 수 있었다.

목차

요약
Abstract
1. 서론
2. 관련 연구
3. Dialog Response Selection을 위한 모델
4. 결론
References

참고문헌 (15)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2021-569-001489901