메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
임희주 (삼성전자) 최용석 (한양대학교)
저널정보
Korean Institute of Information Scientists and Engineers 정보과학회 컴퓨팅의 실제 논문지 정보과학회 컴퓨팅의 실제 논문지 제29권 제8호
발행연도
2023.8
수록면
378 - 383 (6page)
DOI
10.5626/KTCP.2023.29.8.378

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
컴퓨터 비전 분야에서 트랜스포머 모델을 사용하는 방안이 크게 대두되고 있다. 이미지를 뿐만 아니라 비디오 데이터에 대해서도 트랜스포머를 활용한 성능향상에 대해서 활발한 연구가 진행 중이다. ViViT[6]에서는 비디오의 시간적인 정보와 공간적인 정보를 두 종류의 트랜스포머로 학습하는 방안을 제안했다. 허나 처음 제안된 ViT를 포함하여 ViViT 및 또 다른 ViT 활용 모델들의 경우에도 학습된 CLS token 만을 사용하며 나머지 patch sequence는 고려하지 않는다. 본 연구에서는 self-attention을 통해 학습된 patch sequence의 정보를 활용하는 다양한 방안을 실험하였다. 이후 해당 방안들을 feature extraction network로 하여 비디오 캡셔닝 태스크를 수행하였다. 네가지 매트릭을 통해 성능평가를 진행하였고 캡셔닝 결과는 appearance feature 만을 사용했음에도 BLEU-4, METEOR, ROUGE-L 매트릭에서 SOTA 모델들과 근접한 결과를 보였다.

목차

요약
Abstract
1. 서론
2. 관련 연구 및 방안
3. 실험 및 결과
4. 결론
References

참고문헌 (15)

참고문헌 신청

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0