메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
이태준 (배재대학교) 채희석 (배재대학교) 송종근 (배재대학교) 정희경 (배재대학교)
저널정보
한국정보통신학회 한국정보통신학회논문지 한국정보통신학회논문지 제27권 제8호
발행연도
2023.8
수록면
968 - 974 (7page)
DOI
10.6109/jkiice.2023.27.8.968

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
Transformer 계열 신경망이 기존 자연어 처리 분야에서 활용된 RNN(Recurrent Neural Network) 대신에 많이 활용 되고 있다. 최근에는 이러한 신경망들이 기업 내부에서 업무 중에 사용하는 것이 개인정보나 기밀 사항 유출 우려로 사용을 금지하고 있고 이에 따라 기업 내부에서 모델을 개발하고 있다. ChatGPT와 같은 LLM(Large Language Model)의 개발은 데이터의 수, 파라미터의 개수, 학습 시간 등에 따라 개발하기 어려운 실정이다. 본 논문에서는 한국지능정보사회진흥원(NIA)에서 공개한 한국어-영어 번역 구어체 데이터를 활용해 파라미터를 줄여 학습하고자 한다. 전체 데이터셋 40만 개 중 1,000개를 사용해 파라미터 값을 설정한 결과 훈련 손실 값은 2.76의 검증 손실 값은 7.96으로 다른 값에 비해 가장 좋은 결과를 보였으며 시각화를 통해 이를 확인하였다. 이를 활용해 다양한 산업 분야에 활용이 가능할 것으로 사료된다.

목차

요약
ABSTRACT
Ⅰ. 서론
Ⅱ. 관련 연구
Ⅲ. 모델 설계
Ⅳ. 모델 학습 및 결과
Ⅴ. 결론
REFERENCES

참고문헌 (12)

참고문헌 신청

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0