메뉴 건너뛰기
내서재 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

Combining Sentiment-Combined Model with Pre-Trained BERT Models for Sentiment Analysis
추천
검색
질문

감정 분석을 위한 BERT 사전학습모델과 추가 자질 모델의 결합

논문 기본 정보

자료유형
학술저널
저자정보
이상아 (서울대학교) 신효필 (서울대학교)
저널정보
Korean Institute of Information Scientists and Engineers Journal of KIISE Journal of KIISE Vol.48 No.7 KCI우수등재
발행연도
2021.7
수록면
815 - 824 (10page)
DOI
10.5626/JOK.2021.48.7.815

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
Combining Sentiment-Combined Model with Pre-Trained BERT Models for Sentiment Analysis
AI에게 요청하기
추천
검색
질문

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
대규모 코퍼스에 기반한 사전학습모델인 BERT 모델은 언어 모델링을 통해 텍스트 내의 다양한 언어 정보를 학습할 수 있다고 알려져 있다. 여기에는 별도의 언어 자질이 요구되지 않으나, 몇몇 연구에서 특정한 언어 지식을 추가 반영한 BERT 기반 모델이 해당 지식과 관련된 자연어처리 문제에서 더 높은 성능을 보고하였다. 본 연구에서는 감정 분석 성능을 높이기 위한 방법으로 한국어 감정 사전에 주석된 감정 극성과 강도 값을 이용해 감정 자질 임베딩을 구성하고 이를 보편적 목적의 BERT 모델과 결합하는 외적 결합과 지식 증류 방식을 제안한다. 감정 자질 모델은 작은 스케일의 BERT 모델을 적은 스텝 수로 학습하여 소요 시간과 비용을 줄이고자 했으며, 외적 결합된 모델들은 영화평 분류와 악플 탐지문제에서 사전학습모델의 단독 성능보다 향상된 결과를 보였다. 또한 본 연구는 기존의 BERT 모델 구조에 추가된 감정 자질이 언어 모델링 및 감정 분석의 성능을 개선시킨다는 것을 관찰하였다.

목차

요약
Abstract
1. 서론
2. 관련 연구
3. 감정 자질을 이용한 모델 학습
4. 실험 및 결과
5. 지식 증류
6. 결론 및 향후 연구
References

참고문헌 (22)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

댓글(0)

0

첫번째 댓글을 남겨주세요.