메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
김영주 (한국전자통신연구원) 전인걸 (한국전자통신연구원)
저널정보
한국정보통신학회 한국정보통신학회논문지 한국정보통신학회논문지 제28권 제9호
발행연도
2024.9
수록면
1,020 - 1,027 (8page)
DOI
10.6109/jkiice.2024.28.9.1020

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
엣지 디바이스들은 하루에도 수많은 데이터를 발생시키고, 그 데이터를 각 서비스 주기에 따라 수신하여 활용하고 있다. 이런 무수한 데이터를 처리하기엔 기존의 클라우드 컴퓨팅 환경으로는 쉽지 않다. 이와 달리, MEC 컴퓨팅 환경은 정보를 분산 처리하는 방법이므로 네트워크 지연을 단축시키고, 성능 병목현상 등을 해소할 수 있다. 그래서 이런 MEC 컴퓨팅 환경하에 있는 다양한 이기종 엣지 디바이스를 활용하여 딥러닝 서비스를 제공하려는 시도가 되고 있다. 하지만, 제한된 컴퓨팅 자원으로 인해 추론 서비스가 동작되지 않거나 많은 시간이 소모될 수 있다. 따라서, 본 논문에서는 이기종 엣지 디바이스 상에서 AI 응용의 분산 실행을 할 수 있는 MEC 기반의 AI 컴퓨팅 분할 모델을 제안한다. 제안된 컴퓨팅 분할 모델은 사용자가 분할 개수를 정할 수 있고, 최대한 균등한 파라미터 수를 가진다. 제안된 모델의 실험적 검증을 위해서 분할된 모델들은 마이크로 서비스 형태로 제공되어 이기종 엣지 디바이스 상에 적절하게 배포된다. 실험한 결과, 컴퓨팅 분할이 증가할수록 엣지 디바이스 자체 부하가 실행시간, CPU 점유율, 메모리 점유율 측면에서 각각 평균적으로 25.8%, 14.3%, 3.27% 감소함을 보이므로 분산 실행 방법을 활용하면 원활한 AI 응용 서비스 제공이 가능함을 입증한다.

목차

요약
ABSTRACT
Ⅰ. 서론
Ⅱ. 연구배경
Ⅲ. MEC 기반 AI 컴퓨팅 분할
Ⅳ. 구현 및 실험
Ⅴ. 결론
REFERENCES

참고문헌 (9)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

최근 본 자료

전체보기

댓글(0)

0