메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
김준 (인천대학교) 정재용 (인천대학교)
저널정보
대한전자공학회 전자공학회논문지 전자공학회논문지 제61권 제2호(통권 제555호)
발행연도
2024.2
수록면
47 - 57 (11page)
DOI
10.5573/ieie.2024.61.2.47

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
AGD(Analytic Gradient Descent)알고리즘은 시뮬레이션 모델에 의해 학습된 신경망을 통해 목표 대상에 대하여 분석적인 기울기를 계산하고 최적화할 수 있다. AGD 알고리즘은 여러 분야에 최적화를 진행할 때 유용하게 사용될 수 있다. 특히 EDA(Electronic Design Automation)분야에서 사용되고 있는 딥러닝 모델과 같이 사용할 경우 회로의 성능을 예측하고 높여줄 수 있다. AGD 알고리즘을 적용한 딥러닝 모델의 경우 디지털 회로 설계분야에 많이 사용되고 있는 SynopsysDC와 근접한 성능을 보여주고 있다. 하지만 기존 AGD알고리즘에는 하이퍼파라미터가 튜닝 되지 않았으며 여러 최적화 기법이 적용되지 않았다. 본 논문에서는 AGD알고리즘의 성능을 높일 수 있는 다양한 최적화 기법을 적용했으며 하이퍼파라미터 값들의 조정을 통해 논리게이트의 작동 시간을 단축했다. 성능이 높아진 AGD 알고리즘을 사용하여 디지털 회로의 게이트 사이즈를 조절할 경우 Synopsys DC 기준으로 QoR(quality of result)은 -0.1572%로 기존 AGD논문에 비교하면 0.2828%만큼 상승하였다. 이는 하이퍼파라미터의 튜닝과 알맞은 최적화 기법의 적용이 모델에 어떤 영향을 미치는지 보여주는 지표이다. 본 논문은 하이퍼파라미터 튜닝과 딥러닝 모델에 맞는 최적화 기법이 성능을 높여줄 수 있는 요인이라고 말하고 있다. 또한 성능이 향상된 AGD알고리즘은 최적화가 필요한 여러 분야에서 사용 될 수 있을 것이다.

목차

요약
Abstract
Ⅰ. 서론
Ⅱ. 본론
Ⅲ. 결론
REFERENCES

참고문헌 (14)

참고문헌 신청

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-151-24-02-089458626