메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

김진환 (광운대학교, 광운대학교 대학원)

지도교수
최영석
발행연도
2022
저작권
광운대학교 논문은 저작권에 의해 보호받습니다.

이용수33

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
자연어처리(Natural Language Processing, NLP)는 일상생활에서 사용하는 인간
의 언어 현상을 컴퓨터와 같은 기계가 이해하고 해석하여 묘사할 수 있도록 연구
하는 인공지능의 주요 분야다. 그 중에서 언어 모델(Language Model, LM)은 언어
의 문법 및 의미를 학습하여 모델링하고자 하는 단어 시퀀스에 확률을 할당하는
것에 목적을 두고 있으며 모델 크기 증가에 따른 성능이 향상 된 여러 연구 사례
를 기반으로 대규모 언어 모델(Large Language Model, LLM)에 대한 연구가 지속
적으로 진행되고 있는 추세이다. 이런 대규모 언어 모델은 단일 모델로 여러 과제
를 함께 수행할 수 있는 강건한 모델을 만들 수 있지만 모델을 학습하기 위해선
방대한 컴퓨팅 리소스와 엄청난 양의 학습 데이터 구축이 필수적이라는 단점이 있
다. 특히, 엣지 환경 및 모바일 디바이스와 같은 제한된 컴퓨팅 리소스를 가진 환
경에서는 사용이 제한되며 실시간 처리가 요구되는 환경에서 사용하는데 어려움이
있다. 이를 해결하고자 신경망 모델에서 사용되는 지식 증류(Knowledge
distillation)와 같은 경량화 기법들이 언어 모델에 적용되어 경량화된 언어 모델이
제안되었다. 하지만 여전히 언어 모델의 파마미터 수에 많은 비중을 차지하는 모
델 구조 변경 없이 진행되어 경량화에 한계가 있으며 고정된 모델 크기로 모델 경
량화가 수행된다는 한계점을 여전히 지니고 있다. 또한, 대부분의 언어 모델이 영
어나 중국어와 같이 세계적으로 많이 사용되는 언어에 특화되었기 때문에 한국어
기반 언어 모델에 대한 경량화 연구는 매우 미진한 상황이다. 본 연구에서는 지식
증류 기법을 한국어 기반 언어 모델에 적용하여 제한된 컴퓨팅 리소스 환경에서도
사용이 가능한 사전학습 한국어 언어 모델의 경량화 기법을 제안하였다. 그리고
저계수 분해(Low-rank factorization) 기법을 함께 적용하여 언어 모델의 파라미터
수의 많은 비중을 차지하는 순방향 신경망(Feed-forward Neural Network, FNN)
과 인코더 층(Encoder-layer)의 구조를 변경하여 경량화를 개선하였다.
제안된 방법의 검증을 위해 한국어 언어 모델을 평가할 때 주로 사용되는 공개된
8개의 한국어 말뭉치를 활용하였다. 또한, 지식 증류 정도에 따른 모델 성능에 대
한 영향을 검증하기 위해 기존 언어 모델의 Loss와 지식 증류 기반의 Loss 비율
을 30%, 50%, 70%로 증가하여 모델 성능을 평가하였으며 특히 53MB 모델 크기
를 가진 Small 모델에 Loss 비율을 50%로 학습한 모델이 432MB 모델 대비
96.697%의 우수한 모델 성능을 확인하였다. 이와 같은 실험 결과를 통해 제안하는
경량화된 사전학습 한국어 언어 모델이 제한된 컴퓨팅 리소스를 주어진 상황에서
자연어 처리 태스크의 효과적인 도구로 활용될 수 있음을 확인할 수 있다.

목차

제 1장. 서론 1
1.1 배경지식 및 연구목표 1
1.2 연구의 필요성 3
제 2장. 관련된 연구 7
2.1 사전학습 언어 모델(Pre-trained Language Model, PLM) 7
2.2 신경망 모델 기반 경량화 기법 9
제 3장. 제안 기법 13
3.1 지식 증류 기반 사전학습 한국어 언어 모델 경량화 13
3.2 경량화 모델 구조를 위한 저계수 분해 기법(Low-rank factorization) 18
제 4장. 결과 22
4.1 검증에 사용된 데이터 22
4.1.1 네이버 영화 감정 말뭉치 22
4.1.2 네이버 개체명 인식 말뭉치 23
4.1.3 단어 스크램블링 의역 말뭉치 23
4.1.4 한국어 자연어 추론 말뭉치 25
4.1.5 한국어 텍스트 의미적 유사성 말뭉치 26
4.1.6 한국어 질문 쌍 말뭉치 26
4.1.7 한국어 질의응답 말뭉치 27
4.1.8 한국어 혐오표현 말뭉치 28
4.2 한국어 기반 자연어처리 말뭉치에 대한 알고리즘 검증 29
4.2.1 지식 증류 기반 경량화된 사전학습 한국어 언어 모델 성능 평가 ? Tiny 모델 크기의 Student 모델 29
4.2.2 지식 증류 기반 경량화된 사전학습 한국어 언어 모델 성능 평가 ? Small 모델 크기의 Student 모델 34
4.2.3 지식 증류와 저계수 분해 기법을 결합한 경량화된 사전학습 한국어 언어 모델 성능 평가 38
제 5장. 결론 51
참고문헌 54

최근 본 자료

전체보기

댓글(0)

0