메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
저널정보
한국컴퓨터교육학회 한국컴퓨터교육학회 학술발표대회논문집 한국컴퓨터교육학회 2016년도 하계학술발표논문지 제20권 제2호
발행연도
2016.8
수록면
73 - 76 (4page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
ResNet (Residual Network) 구조를 사용하면 수백 층 이상의 매우 깊은 인공 신경망도 성공적으로 훈련시킬 수 있으며, ResNet을 적용한 Deep Convolutional Neural Network은 그 우수성이 입증되었다. 하지만 ResNet을 제안한 연구에서는 보다 단순한 구조의 신경망에서의 ResNet의 효과와 신경망의 깊이에 따른 ResNet 적용 모델의 변화에 대한 정보는 결여되어 있다. 이에 본 연구는 ResNet 구조를 Multi-Layer Perceptron에 적용하여 그 변화와 특징을 비교 실험하였다. 실험 결과, 11개 층을 가진 신경망에서는 ResNet 적용 전후의 훈련 및 테스트 정확도가 거의 동일하였으나, 29개 층을 가진 신경망에서는 ResNet 구조 적용 후 약 5.5%의 테스트 정확도 상승이 관찰되었다. 또한, ResNet 구조를 적용하지 않은 모델은 38개 층 이상의 신경망은 수렴시키지 못하는 반면, ResNet을 적용한 모델은 65개층의 신경망도 성공적으로 수렴시켰으며, 훈련 및 테스트 정확도가 하락하는 문제도 발생하지 않았다. 결론적으로, ResNet 구조는 단순한 구조의 신경망에서도 효과를 발휘하며, 기존의 방법으로 수렴시키기 어려운 매우 깊은 인공 신경망을 수렴시키는데 도움이 되는 것으로 나타났다.

목차

등록된 정보가 없습니다.

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2018-037-003284448