메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

최현성 (한국항공대학교, 한국항공대학교 일반대학원)

지도교수
이재환
발행연도
2021
저작권
한국항공대학교 논문은 저작권에 의해 보호받습니다.

이용수6

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
다수의 GPU를 사용하여 모델 병렬화 수행 시 Pipelining을 적용하여 GPU의 사용률을 증가시킬 수 있다. 또한, Pipelining을 효과적으로 적용하기 위해 모델 병렬화 수행 시 사용되는 GPU의 수와 GPU memory 크기 기반으로 효율적으로 mini-batch를 나눌 수 있는 기법을 제안한다. 다수의 GPU를 사용할 수 없는 환경의 경우, CUDA unified memory 기술을 적용함으로써 시스템 메모리를 통합하여 사용할 수 있다. 본 논문에서는 open source 딥러닝 프레임워크 중 하나인 Pytorch에 CUDA unified memory 기술을 적용하여 GPU 메모리를 확장할 수 있는 방안을 제시한다. 또한, 딥러닝 수행 시 데이터의 종류에 따른 효율적인 CUDA memory advise 활용 방안을 실험을 통해 보여준다. 제안한 스플릿 크기 탐색 알고리즘을 사용하여 pipelining이 적용된 모델 병렬화를 수행할 경우, 기존의 모델 병렬화를 수행했을 때보다 처리량이 최대 약 12% 증가하였으며 학습 가능한 mini-batch 크기 또한 25% 증가하였다. 또한, 딥러닝 수행 시 필요한 데이터를 세 가지 종류로 나누어 적절한 memory advise를 적용함으로써 일반적인 unified memory와 비교하면 딥러닝 수행 시간이 최대 9.4% 감소함을 확인했다.

목차

제 1 장 서론 1
제 2 장 Multi-GPU를 통한 GPU Memory 확장. 6
2.1 연구 배경. 6
2.1.1 Model parallelism. 6
2.1.2 Pipelining 7
2.2 제안하는 설계 및 구현 방안 8
2.2.1 효율적인 모델 병렬화 구조. 8
2.2.2 Split 크기 탐색 알고리즘. 11
2.3 실험 및 결과 분석 12
제 3 장 CUDA unified memory를 통한 GPU memory 확장 17
3.1 연구 배경 17
3.1.1 CUDA unified memory 17
3.1.2 CUDA memory advise. 18
3.2 제안하는 설계 및 구현 방안 20
3.2.1 딥러닝 데이터의 접근 패턴. 20
3.2.2 Pytorch로의 구현 23
3.3 실험 및 성능 분석 30
3.3.1 Memory advise에 따른 학습 시간 30
3.3.2 GPU page fault 프로파일링 35
제 4 장 관련 연구 43
제 5 장 결론 및 향후 연구 48
참고 문헌 50
SUMMARY 55

최근 본 자료

전체보기

댓글(0)

0