메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

윤동현 (한국교통대학교, 한국교통대학교 일반대학원)

지도교수
송석일
발행연도
2023
저작권
한국교통대학교 논문은 저작권에 의해 보호받습니다.

이용수10

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
클라우드 기반 딥 러닝(Deep Learning) 시스템은 컴퓨팅 자원을 효율적으로 사용하기 위해 쿠버네티스(Kubernetes)와 같은 컨테이너 오케스트레이션(Container Orchestration) 기술을 기반으로 컴퓨팅 인스턴스(Instance)와 스토리지를 분리하는 구조를 이용한다. 컴퓨팅 인스턴스와 데이터 저장소가 분리되는 구조는 시스템 요구에 따라 컴퓨팅 인스턴스와 데이터 저장소 자원을 유연하게 할당할 수 있다.
클라우드 기반 딥 러닝 시스템은 유연한 자원 확장 및 축소가 가능한 장점이 있는 반면 컴퓨팅 인스턴스에서 딥 러닝 워크로드에 필요한 데이터를 저장소로부터 네트워크를 통해 입출력 하게되어 네트워크 지연으로 인한 병목현상이 발생하게 된다. 네트워크 지연은 제때 컴퓨팅 인스턴스에 데이터를 제공하지 못하게 되어 처리 시간이 증가하는 주요 원인이 된다. 또한, 네트워크 지연은 GPU를 제대로 활용하지 못하게 되어 GPU사용률을 감소시키게 된다.
최근, 클라우드 기반 딥 러닝 시스템에서 발생하는 병목현상을 해결하기 위해 클라우드 환경에 적합한 캐싱 방법이 제시되었다. 하지만 제시된 방법들은 쿠버네티스 기반의 클라우드 환경을 고려하지 않거나 쿠브플로우 딥 러닝 파이프라인을 고려하지 않는다. 조사한 바에 따르면 현재 쿠브플로우 파이프라인을 고려해서 딥 러닝 작업을 위한 캐싱 방법이 제안된 사례가 없다.
이 논문에서는 쿠버네티스와 쿠브플로우 기반 클라우드 딥 러닝 시스템에서 실행되는 다수의 딥 러닝 파이프라인에 필요한 데이터 캐싱 기법을 제안하여 GPU 사용률을 향상하는 방법을 제안한다. 제안하는 방법은 쿠브플로우 딥 러닝 파이프라인을 구성하는 YAML을 분석하고 분석된 YAML 데이터를 기반으로 파이프라인에 필요한 데이터를 사전에 캐싱할 수 있다. 마지막으로 GPU 사용률 비교 실험을 통해 캐싱을 수행했을 때 GPU 자원 사용률 향상 및 학습 시간이 개선되었음을 확인하였다.

목차

Ⅰ. 서론 1
Ⅱ. 관련 연구 7
1. 쿠버네티스 (Kubernetes) 7
2. 쿠브플로우 (Kuberflow) 9
3. 클라우드 딥 러닝 시스템의 캐싱 방법 11
Ⅲ. 제안하는 쿠버네티스 클라우드에서 딥 러닝 워크로드의 GPU 사용률 향상을 위한 캐싱 방법 20
1. 제안하는 쿠버네티스 기반 클라우드 딥 러닝 시스템 구조 20
2. 예측 연산자 설계 22
3. 캐시 연산자 설계 25
Ⅳ. 구현 및 실험 29
1. 예측 연산자 구현 및 실험 29
2. GPU 사용률 비교 실험 33
Ⅴ. 결론 36
참고문헌 38
Abstract 40

최근 본 자료

전체보기

댓글(0)

0