메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학술저널
저자정보
임지선 (한국외국어대학교)
저널정보
한국외국어대학교 중국연구소 중국연구 중국연구 제100권
발행연도
2024.9
수록면
127 - 145 (19page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색

초록· 키워드

오류제보하기
기계 번역 (MT) 기술의 급속한 발전과 함께 기계번역의 성능 평가 역시 활발한 연구 분야가 되었다. 평가에는 주로 두 가지 방법인 자동과 수동평가가 있다. 수동 평가는 전문가가 다양한 기준을 기반으로 번역을 평가하는 것이 포함되는 반면, 자동 평가는 메트릭을 사용하여 번역 품질을 자동으로 평가한다. 자동 평가는 대량의 데이터를 빠르게 처리할 수 있고 비용과 시간을 크게 줄일 수 있지만 문맥과 어조와 같은 뉘앙스를 포착하는 데 어려움을 겪는다. 반면 수동 평가는 인간이 전반적인 품질을 세세하게 고려할 수 있지만, 주관적이고 시간과 비용이 크게 소요된다. 이때문에 수동 평가에서 평가자의 전문성과 신뢰성을 보장하는 것은 매우 중요하다. 두 방법의 장점과 단점을 고려할 때 수동 평가와 자동 평가를 결합하면 MT 품질 평가에 대한 보다 안정적인 접근이 가능하다. 이 연구는 자동 평가에 널리 사용되는 Bleu(Builing Evaluation Understudy) 메트릭을 중심으로 자동 및 수동 평가를 모두 사용하여 MT 품질을 평가하는 것을 목표로 한다. Bleu는 기계 생성 번역과 인간 참조 번역 간의 유사성을 측정하는 방식이다. 본 연구에서는 자동 및 수동 평가의 결과를 비교하여 전반적인 MT 품질을 검증하고 향후 평가 방법에 대한 개선 사항을 제안하는 것에 그 목표를 둔다.

목차

등록된 정보가 없습니다.

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

최근 본 자료

전체보기

댓글(0)

0