메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
김유영 (동국대학교) 박명관 (동국대학교)
저널정보
한국중원언어학회 언어학 연구 언어학연구 제64호
발행연도
2022.7
수록면
69 - 91 (23page)
DOI
10.17002/sil..64.202207.69

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
This study is to compare the GPT-2-based neural-network language model (NLM) and humans in processing sentences with three different types of garden-path structure: NP/S(noun phrase/sentential complement); NP/Z(noun phrase/zero complement); MV/RR(main verb/reduced relative clause). It is to see whether the surprisal values calculated from the GPT-2 NLM display a similar pattern as human reading times in processing the three types of garden-path construction at issue; the surprisal of a sentence-internal word input, measured as the negative log-likelihood of the current observation according to the autoregressive language model, is used as a measure of input difficulty. It is found in this study that like humans, the GPT-2 NLM effectively distinguishes ambiguous from unambiguous sentences in each of them. However, the GPT-2 NLM deviates drastically from humans in recognizing garden-path effects, namely, the magnitude of cognitive load induced by processing a particular type of garden-path structure. Pending further articulations on the parallelism between reading time and surprisal, the GPT-2 NLM as a language learner is yet to attain a human-like ability to discern different types of garden-path structure in a fine-grained way.

목차

1. 서론
2. 이론적 배경
3. 심리 언어학 반응 시간(reaction time)과 신경망 언어 모델의 서프라이절(surprisal)
4. 실험 방법
5. 실험
6. 논의 및 결론
References

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0