메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

김선 (고려대학교, 고려대학교 대학원)

지도교수
강충구
발행연도
2019
저작권
고려대학교 논문은 저작권에 의해 보호받습니다.

이용수0

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (4)

초록· 키워드

오류제보하기
3GPP Rel-14 Enhanced Licensed Assisted Access (eLAA) 시스템의 상향 링크에서 단말들은 예측이 힘든 간섭원(예를 들어, WiFi 노드)들의 존재로 인해 기지국으로부터 할당 받은 비 면허 대역 상향 링크 자원 사용의 가능성이 불확실 해지며, 이로 인한 비효율성과 성능 열화가 발생할 수 있는 문제점을 파악한다. 이때 간섭원의 존재 가능성이 높을 때는 면허 대역을 통해 LTE 시스템으로 접속하는 방안을 고려할 수 있으며, 할당 받은 자원을 점유하지 못할 확률에 따라 동적으로 면허 대역과 비 면허 대역을 선택하는 기법을 제안하고 성능을 분석한다. 본 논문에서는 크게 두 가지로 분석한다.
첫 번째로 eLAA 상향 링크 시스템에서 단말이 간섭원들로부터 겪는 성능 열화를 Poisson Point Process (PPP) 모델링을 통해 확인한다. 또한 많은 단말들이 LTE 상향 링크 시스템을 이용하여 면허 대역으로 전송을 할 경우 LTE 상향 링크 시스템에 과부하가 발생하는 문제도 고려한다. 기지국과 단말의 거리(R)에 따라 eLAA 상향 링크 시스템을 이용한 비 면허 대역으로의 전송 혹은 LTE 상향 링크 시스템을 이용한 면허 대역으로의 전송하는 방법을 제안한다. 간섭원의 밀도와 간섭원의 전송 시도 확률에 따라 최적의 R을 얻을 수 있고 최적에 R에 따른 최적의 네트워크 용량 또한 얻을 수 있음을 확인한다.
두 번째로 강화 학습 기반의 Deep Multi-User Reinforcement Learning 알고리즘을 제안한다. eLAA 상향 링크 시스템을 이용한 비 면허 대역으로 전송 혹은 LTE 상향 링크 시스템을 이용한 면허 대역으로 전송이 가능한 상황에서 Deep Reinforcement Learning (DRL) 모델링을 통해 성능을 확인한다. 제안하는 방법의 목표는 여러 단말들이 간섭원이 존재하는 상황에서 전략적으로 비 면허 혹은 면허 대역으로 전송하여 네트워크 성능을 최대화 하는 것이다. 이때 모든 단말들은 서로간의 협력 혹은 메시지 교환 없이 분산적으로 동작한다. 또한 간섭원의 밀도 혹은 간섭원의 전송 시도 확률이 각기 다른 환경에서도 각 단말은 최적의 대역을 선택한다. 대역 선택 문제의 최적의 값을 얻기 위해 많은 state가 필요하고, state가 많은 문제를 해결하기위해 DRL을 도입한다. 각 단말들은 간섭원이 존재하는 상황에서 분산적으로 deep Q-Network를 학습하고, deep Q-Network를 이용하여 목적함수를 최대화 한다. 학습 후 deep Q-Network 가 최적의 policy를 얻을 수 있는 것을 확인한다.

목차

제 1장 서론 1
제 2장 본론 eLAA 시스템의 기지국과 단말 사이 거리에 따른 동적 대역 할당 5
제 1절 시스템 모델 5
1. 망 구성 5
2. eLAA 상향 링크 절차 6
3. eLAA 상향 링크 절차의 문제점 8
4. 네트워크 모델 10
제 2절 기지국과 단말 사이 거리에 따른 동적 대역 할당 14
제 3절 성능 분석 17
제 3장 본론 eLAA 시스템에서의 동적 대역 선택을 위한 강화 학습 접근 기법 21
제 1절 시스템 모델 21
제 2절 강화 학습 개요 22
1. Q-Learning 개요 24
2. Deep Q-Learning 개요 26
제 3절 동적 대역 선택을 위한 Deep Multi-User Reinforcement Learning 접근 기법 30
1. 문제의 정식화 31
2. Deep Multi-User Reinforcement Learning 구현 37
가) 네트워크 모델링 37
나) Deep Multi-User Reinforcement Learning 알고리즘 40
제 4절 성능 분석 41
1. Multi-User Deep Reinforcement Learning 알고리즘 분석 기법 시나리오 41
2. Multi-User Deep Reinforcement Learning 알고리즘 성능 분석 43
제 4장 결론 49
참고문헌 51

최근 본 자료

전체보기

댓글(0)

0