메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
Tien-Dat Tran (University of Ulsan) Xuan-Thuy Vo (University of Ulsan) Duy-Linh Nguyen (University of Ulsan) Kang-Hyun Jo (University of Ulsan)
저널정보
제어로봇시스템학회 제어로봇시스템학회 국제학술대회 논문집 ICCAS 2022
발행연도
2022.11
수록면
174 - 178 (5page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
Deep neural networks (DNNs) have attained the maximum performance today not just for human pose estimation but also for other machine vision applications (e.g., semantic segmentation, object detection, image classification). Besides, the Transformer shows its good performance for extracting the information in temporal information for video challenges. As a result, the combination of deep learner and transformer gains a better performance than only the utility one, especially for 3D human pose estimation. At the start point, input the 2D key point into the deep learner layer and transformer and then use the additional function to combine the extracted information. Finally, the network collects more data in terms of using the fully connected layer to generate the 3D human pose which makes the result increased precision efficiency. Our research would also reveal the relationship between the use of the deep learner and transformer. When compared to the baseline-DNNs, the suggested architecture outperforms the aseline-DNNs average error under Protocol 1 and Protocol 2 in the Human3.6M dataset, which is now available as a popular dataset for 3D human pose estimation.

목차

Abstract
1. INTRODUCTION
2. METHODOLOGY
3. EXPERIMENTS
4. CONCLUSION
REFERENCES

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0