메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

유용혁 (서강대학교, 서강대학교 대학원)

지도교수
김영재
발행연도
2021
저작권
서강대학교 논문은 저작권에 의해 보호받습니다.

이용수5

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
딥러닝의 인기가 날로 증가함에 따라, 다양한 분야에서 딥러닝은 널리 사용되고 있다.
딥러닝의 수요 증가에 따라 GPU 자원의 수요도 증가하여 자원 관리를 위해 공용 GPU 풀 (pool)을 구축하고 Kubernetes 같은 클러스터 매니저를 통해서 이를 관리한다.
한편, GPU의 빠른 발전으로 자연스럽게 클러스터에는 다양한 GPU 종류가 존재하게 되었다.
하지만, 기존의 클러스터 매니저는 기존의 이기종 환경을 고려하지 않아 딥러닝 모델마다의 GPU 간의 처리율 차이를 고려하지 않아 하이퍼 파라미터 최적화 과정의 효율성이 떨어지는 문제가 있다.
본 논문은 이기종 클러스터 환경에서의 위의 문제를 해결하기 위해 딥러닝 모델의 GPU 간의 처리율을 고려한 GPU 컨테이너 기반의 선점형 스케줄링 프레임워크 Hermes-V2를 제안한다.
Hermes-V2는 같은 딥러닝 모델 작업의 GPU 처리율 차이 경향성이 동일하다는 것을 기반으로 딥러닝 작업의 GPU에서의 처리율을 예측한다.
이를 바탕으로 작업의 GPU 처리율이 큰 GPU에 배치하여 하이퍼 파라미터 최적화 과정을 가속한다.
하이퍼 파라미터 최적화 과정 가속을 평가하기 위해 본 논문은 Kubernetes 클러스터 환경에서 CIFAR-10 데이터 세트에 대해 Hermes-V2를 선행 연구 Hermes의 프레임워크 위에서 단순 균등 배치와 비교하여 하이퍼 파라미터 최적화 실험을 진행했다.
실험 결과, Hermes-V2는 하이퍼 파라미터 최적화 과정을 최대 16% 단축했다.

목차

제 1 장 서론 2
제 2 장 연구 배경 지식 및 동기 5
2.1 하이퍼 파라미터 최적화 과정 5
2.2 기존 연구 6
2.3 연구 동기 7
2.3.1 딥러닝 모델의 GPU에 따른 처리율 차이 7
2.3.2 노드 간 작업 재배치의 필요성 9
제 3 장 문제 정의 11
제 4 장 시스템 디자인 12
4.1 전반 구조 12
4.2 스케줄링 흐름 13
4.3 딥러닝 모델의 GPU에 따른 처리율 차이를 고려한 배치 정책 15
4.3.1 참조 테이블 구성 15
4.3.2 실제 배치 19
4.4 재배치 20
4.4.1 재배치를 이용한 배치 20
4.4.2 구현 21
제 5 장 실험 결과 29
5.1 실험 환경 29
5.2 실험 결과 31
5.2.1 성능 평가 31
5.2.2 오버헤드 측면 36
제 6 장 결론 39
참 고 문 헌 40

최근 본 자료

전체보기

댓글(0)

0