메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
Jinsol Park (Seoul National University) Yunmo Koo (Seoul National University) Byung-Gon Chun (Seoul National University)
저널정보
Korean Institute of Information Scientists and Engineers 한국정보과학회 학술발표논문집 한국정보과학회 2021 한국소프트웨어종합학술대회 논문집
발행연도
2021.12
수록면
1,634 - 1,636 (3page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
Attention is the main mechanism that makes the Transformer architecture so promising. However, its time and memory complexity scale with 𝑂(n²) for a sequence length of 𝑛, which makes it difficult to apply attention to long sequences. A solution to this is sparse attention, which selectively computes the attention score ^_@span style=color:#999999 ^_# ... ^_@/span^_#^_@a href=javascript:; onclick=onClickReadNode('NODE11036159');fn_statistics('Z354','null','null'); style='color:#999999;font-size:14px;text-decoration:underline;' ^_#전체 초록 보기^_@/a^_#

목차

등록된 정보가 없습니다.

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

최근 본 자료

전체보기

댓글(0)

0