로봇 기자가 오탈자와 오정보 등 심각한 오류가 없이 기사를 빠르고 정확하게 제작하면서, 국내외 많은 언론사의 뉴스 편집국에 로봇 기자가 등장했다. 이 상황에서 로봇 기자의 능력을 개선하는 데에 필요한 체계적인 데이터베이스가 필요하다. 본 연구는 이러한 요구에 부응해 로봇 기자의 구성 요소에 도움을 줄 뉴스 언어 데이터베이스를 개발하고자 한다. 로봇 기자는 이 데이터베이스를 장착해 구조, 범주, 변수 등 구체적 개념으로 뉴스 텍스트를 분석할 수 있다. 본 연구는 이러한 데이터베이스를 개발하기 위해 국내 주요 일간 신문 10개 사와 3개 지상파 방송사가 보도한 사건 기사, 기획 기사, 사설을 두 번의 2주간 무작위 설정 주간에 걸쳐 수집해 이를 훈련 자료로 사용했다. 먼저 본 연구는 구조, 범주, 하위 범주, 변수 등 이론적 틀을 선행 연구와 연구 논리 등을 바탕으로 추출했다. 이 결과, 의미 구조, 이야기 구조, 수사적 구조, 구문론적 구조에 인물, 자원, 조직, 지식, 내용, 시제, 술어 형태 등 범주가 출현했고, 범주별로 공인, 이전 정보, 상황/장면 설명, 후속 결과, 구어성, 외래어 등 40개의 변수가 등장했다. 그러나 이 이론적 틀을 훈련 자료에 투입했을 때, 19,607개 단어가 행위, 능동형 등 31개 변수에 속하는 것으로 나타났다. 분석 대상인 언론사 유형을 주요 일간 신문과 지상파 방송사에서 종합편성채널, 보도전문채널, 뉴스 통신사, 인터넷 언론사, 지역 언론사 등으로 확장하면, 본 연구가 제안한 40개 변수에 해당하는 단어가 나올 가능성이 있다. 본 연구는 31개 변수와 대규모 단어로 구성된 뉴스 언어 데이터베이스를 검증하기 위해 〈한국경제신문〉과 <한국일보〉가 코로나19 국내 첫 확진자가 나온 2020년 1월 20일부터 1년간 보도한 사설 98건을 수집했다. 〈한국경제신문〉 사설에는 26개 변수, 〈한국일보〉 사설에는 23개 변수가 각각 등장했는데, 2개 신문의 사설은 문어적이고 중립적이며 이전 정보를 가장 많이 사용했다. 본 연구의 가장 큰 의의는 구조, 범주, 변수, 단어 등을 포함한 뉴스 언어 데이터베이스가 국내 언론학에 드물어 참신하고 독특한 가치가 있으며, 뉴스 언어를 이해할 때 도움이 된다는 점이다. 또한, 이 데이터베이스는 기자들이 뉴스 언어와 기사문을 어떻게 구성하는지를 유용하게 설명할 수 있으며, 본 연구 결과는 인공 지능형 뉴스 제작에 유의하게 이바지할 수 있다. 가령, 로봇 기자는 기사 작성의 논리를 평가하고 훈련용 기사에서 이러한 논리를 학습할 수 있다. 이후에 로봇 기자는 실제 기사를 일관되고 자동으로 작성하는 데에 이 논리를 적용할 수 있다.
Given their fast and accurate production with no significant errors (e.g., typos and misinformation), robot journalists have entered many newsrooms and secured their presence in Korea and abroad. This situation asks for a more systematic database for enhancing the ability of robot journalists. Given this need, this study develops a news language database, which can make up the elements of robot journalists. By installing the database, robot journalists can analyze news texts in terms of specific concepts, such as structure, category, and variable. For this purpose, as training data, this study collected massive amounts of straight stories, features, and editorials from 10 major daily newspapers and 3 major television networks via their corresponding websites during two randomly constructed weeks, twice. Before detailed analysis, this study first extracted a theoretical model, such as structures, categories, sub-categories, and variables, based on previous studies and research rationales. As a result, for semantic, script, rhetoric, and syntactic structures, person, resource, group, knowledge, content, tense, and verb form emerged. For each category emerged, public person, previous information, explanation of situation/scene, follow-up, orality, and foreign words. However, these theoretical frameworks applied to the training data, resulting in 31 variables, such as actions and active comprising 19,607 words. If the unit of analysis would include comprehensive programming channels, news channels, news agencies, Internet news media, and local news media, the 40 variables proposed in the theoretical model could emerge. This study collected one-year editorials (98) from Hankyung and Hankook Ilbo since the first COVID-19 patient to test the validity of the database containing 31 variables and the many words. In the Hankyung editorials, 26 variables appeared, while 23 variables emerged from those of the Hankook llbo. The two newspapers used literal words, took neutral tones, and expressed previous information in the editorials most frequently. The major contribution of this study includes that such a news language database is a rare case in the journalism discipline of Korea, which comprises structures, categories, variables, and words. So, the database provides fresh and unique values and insights into news language. Further, the database has practical utilities for explaining how journalists construct news language and news texts. The findings show meaningful contributions to artificial intelligence-based news-making in systematic ways. For instance, robot reporters could evaluate the logical patterns of story-writing and learn them from training news stories. They may apply such logical patterns to writing a story in a consistent and automatic manner.