메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
이창기 (강원대학교) 최성필 (경기대학교) 정한민 (KISTI)
저널정보
Korean Institute of Information Scientists and Engineers 정보과학회논문지 : 소프트웨어 및 응용 정보과학회논문지 : 소프트웨어 및 응용 제41권 제6호
발행연도
2014.6
수록면
433 - 439 (7page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
자연어처리에서는 띄어쓰기 모듈과 품사 태거 같은 모듈들이 파이프라인 방식으로 연결되어 많이 사용되나, 이 경우 앞 단계의 오류가 뒷 단계에 누적되는 문제가 있다. 본 논문에서는 파이프라인 방식의 문제를 해결하기 위해 사용되는 일반적인 결합 모델을 확장하여, 두 작업이 동시에 태깅된 학습 데이터뿐만 아니라 한 작업만 태깅된 학습데이터도 동시에 학습에 사용할 수 있는 결합 학습 모델을 Latent Structural SVM을 확장하여 제안한다. 실험 결과, 한국어 띄어쓰기와 파이프라인 방식으로 연결된 품사태깅 성능은 96.77%였고, 기존의 한국어 띄어쓰기와 품사 태깅 결합 모델의 품사 태깅 성능이 96.99%였으나, 본 논문에서 제안하는 결합 학습 모델을 이용하여 대용량의 한국어 띄어쓰기 학습데이터를 추가로 학습한 결과 품사 태깅 성능이 97.20%까지 향상 되었다.

목차

요약
Abstract
1. 서론
2. 관련연구
3. Latent Structural SVM을 확장한 결합 학습 모델
4. 실험
5. 결론
References

참고문헌 (7)

참고문헌 신청

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2015-560-001658079