한국어 형태소 분석기(Korean Morphological Analysis)는 의미를 가지는 가장 작은 단위인 형태소(Morpheme)를 분석하고 알맞은 품사(Part-of-Speech)를 부착하는 단계로써 자연어 처리의 가장 기본적이고 필수적인 과정이다. 영어, 불어, 독일어 등 굴절어에서 사용되는 형태소 분석기는 띄어쓰기가 형태소이기 때문에 형태소 분리 과정이 필요 없지만 한국어는 띄어쓰기 단위가 하나 이상의 형태소 조합으로 이루어진 어절이기 때문에 형태소 분리 과정이 필요하다. 그리하여 기존의 형태소 분석은 형태소 분리 작업을 먼저 하기 위하여 형태소를 분석하여 형태소와 품사 쌍으로 후보를 두고 품사를 부착하는 두 단계로 분석을 하였다. 하지만 최근 음절 단위 입력의 형태소 분석기와 딥 러닝(Deep Learning)이 발전되면서 하나의 단계로 분석이 가능하다. 또한, 기존의 연구들은 정제된 말뭉치를 사용하여 학습 및 평가를 하였다. 하지만 최근 SNS, 웹 문서 등 발달되어 데이터가 증가하면서 빅데이터의 중요성이 대두되었다. SNS, 웹문서 등의 대량의 데이터, 말뭉치가 중요한 언어 자원으로 사용되고 있지만 정제되지 않은 데이터이기 때문에 기존에 시스템을 사용하면 올바른 분석이 될 가능성이 작다. 따라서 문법적 오류를 포함하는 연구에 대하여 성능 개선하는 연구가 중요하다. 본 논문은 한국어 형태소 분석기에 대하여 두 가지를 제안한다. 첫 번째, Bidirectional LSTM CRFs 모델을 기반으로 음절 단위 입력의 형태소 분석기를 구축한다. 또한 형태소 품사 분포를 사용하여 추가적으로 입력 확장하여 성능 개선을 한다. 그리고 기분석 사전(Pre-analyzed Dictionary)으로 명사 사전과 어절 사전을 사용하여 어절 단위 정확도를 향상시키고 형태소 불규칙 변환 사전을 사용하여 원형 복원을 한다. 두 번째, 말뭉치에 대하여 정제 과정을 거치지 않아 오타가 많은 데이터를 대상으로 알맞은 형태소 분석하는 방법을 제안한다. Bidirectional LSTM CRFs 모델의 입력으로 음절 정보뿐만 아니라 자모 정보를 추가하기 위해 음절 임베딩과 자모 임베딩을 concatenate하여 사용한다. 또한 자모 임베딩 구축 시 초성, 중성, 종성의 위치 정보를 넣어 구축하고 어절 단위 정보를 넣기 위하여 어절 단위 구분자를 추가하여 입력에 사용한다. 그리고 실생활에 자주 혼동되는 단어와 모바일 및 키보드의 입력 실수로 발생하는 오타를 분석하여 자주 발생하는 자모는 통합하였다. 그 후 통합한 자모 임베딩을 구축하여 실생활에 자주 틀리는 오타에 대해 높은 형태소 분석의 성능을 보인다.
본 논문의 학습 및 평가를 위하여 세종 말뭉치(Sejong Corpus)로 Bidirectional LSTM CRFs 모델을 기반으로 음절 단위 입력의 형태소 분석기와 오타에 효과적인 형태소 분석기를 개발하였다. 또한 오타에 효과적인 형태소 분석기는 세종 말뭉치와 음성 인식, 기계 번역 등에 유용하게 사용되는 의사 형태소 단위의 말뭉치를 사용하였다. 오타에 효과적인 형태소 분석기의 평가 데이터는 어절당 하나의 자모를 랜덤으로 발생시켜 평가하였으며, 자주 발생되는 오타에 대하여 평가하기 위하여 오타가 자주 발생되는 자모를 수정하여 평가하였다. 그 결과 자모와 음절을 concatenate하여 사용한 입력이 랜덤 오타를 내어 평가하였을 때 가장 높은 성능을 보였다. 또한 자주 틀리는 오타에 대해 분석하여 통합 자모 임베딩을 형태소 분석기에 사용하는 것이 자주 틀리는 오타에 대하여 향상된 성능을 보였다.
Korean Morphological Analysis is the most fundamental and essential process in natural language processing as it is a step of analyzing morphemes, which is the smallest meaningful unit, and tagging appropriate Part-of-Speech tags. The morpheme analyzer used in English, French, German, etc., does not require morphological separation because the spacing itself is based on morphemes. Korean requires a morphological separation process because the spacing unit is composed of one or more morpheme combinations. In addition, existing studies have learned and evaluated using refined corpus. However, data from SNS, web documents, etc. have increased and the importance of big data has emerged. Thus, a large amount of data from SNS, web documents, and corpora are used as important language resources but are not refined. Therefore, it is important to improve the performance of morphemic analyzers on typographical errors in such data. This paper proposes two approaches for Korean morphemic analyzer. First, this paper develops morpheme analyzer for syllable unit input based on Bidirectional LSTM CRFs model. We also improve the performance by inputting the morpheme part-of-speech distribution to the inputs of the bidirectional LSTM CRFs model. Using the noun dictionary and the eojeol dictionary as pre-analyzed dictionary, we improve the eojeol unit accuracy and use the irregular morpheme conversion dictionary. Second, we propose a morphological analysis method for typing errors in the data. The input to model concatenates syllable and jamo embeddings to add syllable information and jamo (character) information. Also, when constructing jamo embeddings, character location information and eojeol unit separator is added to input eojeol unit information. And then, jamo is randomly evaluated to artificially generate an error. And the common jamo was integrated by analyzing the words often mistaken in real life, and typos caused by typing mistakes on mobile devices. By integrating jamo embedding, we show high morphological analysis performance for typos that occur frequently in real life. The data in this paper use Sejong corpus for learning and evaluation. The proposed morphological analyzer, is effective for typos, uses a pseudo-morpheme corpus, and is useful for machine translation. The evaluation data of proposed morpheme analyzer is created by generating one jamo randomly per word. In order to evaluate the typos that frequently occur, the models correct the jamo where the typos frequently occur. As a result, the highest performance is obtained when random input is evaluated by concatenating jamo and syllable. Integrated jamo embedding also improves performance against typing errors.
Ⅰ. 서론 1Ⅱ. 관련 연구 51. 기존의 한국어 형태소 분석 및 품사 태깅에 대한 연구 52. 최근 한국어 형태소 분석기 및 정제되지 않은 데이터에 대한 연구 6가. 딥 러닝을 사용한 형태소 분석기에 대한 연구 6나. 정제되지 않은 데이터에 대한 연구 6Ⅲ. 제안 방법 81. Bidirectional LSTM CRFs를 이용한 음절 단위 형태소 분석기 8가. 전처리 및 Bidirectional LSTM CRFs 모델 8나. 불규칙 변환 사전 및 기분석 사전 적용 112. 자모 및 음절 임베딩을 사용한 오타에 효과적인 형태소 분석기 16가. 랜덤 오타 품사 태깅 성능 향상 17나. 자주 혼동하는 실생활 오타 품사 태깅 성능 향상 18Ⅳ. 실험 및 평가 211. 실험 데이터 21가. Bidirectional LSTM CRFs을 이용한 형태소 분석기 실험 데이터 21나. 오타에 효과적인 형태소 분석기 실험 데이터 222. 실험 결과 평가 23가. Bidirectional LSTM CRFs을 이용한 형태소 분석기 실험 결과 23나. 랜덤 오타와 자주 혼동하는 실생활 오타 실험 결과 25Ⅴ. 결론 및 향후 과제 32참고문헌 33Abstract 36