메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
김혜린 (부산대학교) 조상현 (부산대학교) 권혁철 (부산대학교)
저널정보
한국정보통신학회 한국정보통신학회논문지 한국정보통신학회논문지 제27권 제12호
발행연도
2023.12
수록면
1,473 - 1,479 (7page)
DOI
10.6109/jkiice.2023.27.12.1473

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
사전학습 언어모델을 활용하면 다양한 자연어처리 태스크를 수행하기 수월해진다, 일반적으로 태스크별로 미세조정 과정을 통해 추가로 모델을 학습시켜 사용하게 되는데, 사전학습 언어모델 구조의 특성상 다수의 딥러닝 계층이 상호작용하면서 학습이 진행된다. 인접한 계층들은 순차적으로 언어를 분석하며 이해하고 태스크를 학습하여 수행한다. 이때 모델의 언어 능력의 향상을 위해 추가적인 지식 주입을 한다면, 태스크에 대한 모델의 성능 향상에 긍정적인 영향을 줄 수 있다.
본 논문에서는 기존 미세조정 방식에 대한 새로운 패러다임을 제안한다. 이전 연구에 따르면, 모델이 데이터를 학습할 시에 모델 내 상위 계층과 하위 계층이 다른 역할을 수행할 수 있음을 확인하였다. 이를 기반으로 하위 계층에 통사적인 지식을 주입한 후에, 주입된 지식을 바탕으로 의미론적인 태스크를 미세조정하는 모델 학습 방식을 제시한다. 본 연구에서는 제안 방법을 세 가지 사전학습 언어 모델인 KLUE-BERT, KLUE-RoBERTa, KoELECTRA 로의 적용을 통해, KLUE benchmark의 MRC, NLI, STS 세 가지 태스크에서 최대 1.2%p의 성능 향상을 확인할 수 있었다. 제시한 방법론은 미세조정 과정에 대해 한층 유연한 통찰을 줄 수 있으며, 주입된 정보를 더욱 효율적으로 다룰 수 있는 기법을 통해 추가적인 성능 향상을 기대할 수 있을 것이다.

목차

요약
ABSTRACT
Ⅰ. 서론
Ⅱ. 관련 연구
Ⅲ. 실험
Ⅳ. 결론
Ⅴ. 한계
REFERENCES

참고문헌 (9)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

최근 본 자료

전체보기

댓글(0)

0