메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
황현선 (강원대학교) 이창기 (강원대학교)
저널정보
Korean Institute of Information Scientists and Engineers Journal of KIISE Journal of KIISE Vol.45 No.5
발행연도
2018.5
수록면
451 - 456 (6page)
DOI
10.5626/JOK.2018.45.5.451

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
Sequence-to-sequence 모델은 입력열을 길이가 다른 출력열로 변환하는 end-to-end 방식의 모델로, 높은 성능을 내기 위해 attention mechanism, input-feeding 등의 기술들을 사용하여 속도가 느려 실제 서비스에 적용되기 어렵다는 단점이 있다. 본 논문에서는 학습된 인공신경망을 실제 서비스에 적용하기 위해 효과적으로 모델을 압축하여 속도를 향상시키는 방법인 지식의 증류기법(Knowledge distillation)의 기술 중에서 자연어처리를 위한 sequence-level knowledge distillation을 한국어 구구조 구문 분석에 적용하여 성능저하를 최소화하여 모델 압축을 시도하였다. 실험 결과 hidden layer의 크기를 500에서 50까지 줄였을 때 baseline 모델보다 F1 0.56%의 성능향상을 보였고 속도는 60.71배 빨라지는 효과를 보였다.

목차

요약
Abstract
1. 서론
2. 관련 연구
3. Sequence-to-sequence 모델을 이용한 한국어 구구조 구문 분석
4. Knowledge Distillation
5. Knowledge Distillation을 이용한 한국어 구구조 구문 분석 모델의 압축
6. 실험
7. 결론
References

참고문헌 (11)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2018-569-002037975