메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
최준영 (베이다스) 유준혁 (대구대학교)
저널정보
제어로봇시스템학회 제어로봇시스템학회 논문지 제어로봇시스템학회 논문지 제25권 제9호
발행연도
2019.9
수록면
775 - 781 (7page)
DOI
10.5302/J.ICROS.2019.19.0118

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
Discretizing the Deep Neural Network (DNN) is enforced by a rounding function of weights and activations, which can severely degrade the performance of DNN. This paper categorizes the available quantization methods to be uniform or non-uniform according to the distribution of its quantized interval, and proposes a noble stochastic rounding method to reduce the accuracy loss of the quantized DNN model. Two stochastic rounding methods of linear or nonlinear probability distribution are quantitatively evaluated and analyzed to give an important insight to employ them for designing the compressed DNN model, by comparing them with the previous deterministic nearest rounding. Experimental results show that the stochastic rounding methods are not always superior to the deterministic one and the optimal performance is obtained via a hybrid rounding scheme when applying the stochastic rounding to the input adjacent to the intermediate value between the neighboring quantized values and still using the deterministic one near to the quantized value.

목차

Abstract
I. 서론
II. 양자화 관련 연구
III. 확률론적 라운딩 기법
IV. 실험 결과 및 성능 평가
V. 결론 및 향후 연구
REFERENCES

참고문헌 (22)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2019-003-000977819