자율주행의 도래로 인하여, 운전에 집중할 필요가 없어진 사용자들의 콘텐츠 수요는 급격히 늘어난다. 차량 사용자에게 콘텐츠를 제공하는 데에 있어서 백홀 링크의 용량이 제한되어 있기 때문에, 증가한 차량 사용자의 콘텐츠 수요를 감당하기에는 백홀 링크의 용량이 충분하지 않다. 따라서, 차량에게 콘텐츠를 제공하는 데에 있어서 지연 시간이 발생하게 된다. 지연 시간은 고속으로 움직이는 차량에게 있어서 교통사고나 서비스 만족도에 대한 저하로 이어질 수 있기 때문에, 지연 시간을 최소화하는 것이 차량 네트워크에서 주요 과제로 고려된다. 콘텐츠 중심 차량 네트워크 (CCVN)은 지연 시간을 줄이기 위한 효과적인 해결 방안으로 여겨지고 있다. 차량이 요청한 콘텐츠가 RSU의 저장 장치에 이미 캐시되어 있다면, 해당 RSU는 지연 시간없이 요청된 콘텐츠를 요청 차량에게 제공할 수 있다. 그러나, 저장 장치의 용량에는 제한이 있기 때문에, 모든 콘텐츠를 미리 캐시해 둘 수 없다. 차량이 요청한 콘텐츠가 RSU의 저장 장치에 캐시되어있지 않은 경우, 해당 RSU는 요청된 콘텐츠를 콘텐츠 서버나 다른 RSU로부터 가져와야한다. 이는 요청 차량이 RSU로부터 요청한 콘텐츠를 제공받는 데에 있어서 지연 시간과 추가 트래픽을 발생시킨다. 이러한 지연 시간을 줄이기 위해, 많은 연구자들이 CCVN에서 사전 캐싱에 대한 연구를 진행하고 있다. CCVN에서 사전 캐싱은 차량이 요청할 것이라 예측되는 콘텐츠를 미리 캐싱하는 방안이다. RSU가 차량으로부터 해당 차량의 이동 정보가 포함된 콘텐츠 요청을 받았을 때, RSU는 받은 이동성 정보를 토대로 요청 차량의 이동을 예측할 수 있다. 해당 RSU는 차량의 이동성 정보에 포함되어 있는 경로 정보를 통하여, 요청 차량이 다음으로 들어가게 될 RSU를 예측할 수 있다. 따라서, 다음 RSU가 요청된 콘텐츠를 사전 캐싱함으로써, 다음 RSU는 요청 차량이 통신 범위에 진입하자마자 지연 시간없이 요청된 콘텐츠를 요청 차량에게 제공할 수 있다. 결과적으로 CCVN에서 사전 캐싱 방안을 사용하여 지연 시간을 감소시킬 수 있다. 하지만, 사전 캐싱에 대한 기존 연구들은 지연시간에 대한 민감성 측면에서 두 가지 다른 유형 (지연시간에 민감한 콘텐츠와 지연시간에 둔감한 콘텐츠)의 콘텐츠를 고려하지 않았기 때문에, 지연시간에 민감한 콘텐츠와 둔감한 콘텐츠를 제공하기 위한 최적화된 성능을 달성할 수 없다. 기존의 지연시간에 민감한 콘텐츠를 위한 사전 캐싱 방안은 고정된 속도를 기반으로 차량의 이동성을 예측하여 요청된 콘텐츠를 얼마나 사전 캐싱해야 하는지 계산하였다. 요청 차량이 예상보다 빠른 속도로 이동하여 RSU의 통신 범위를 더 빨리 빠져나가면, RSU가 사전 캐싱한 콘텐츠를 전부 전달하지 못하기 때문에, 콘텐츠를 사전 캐싱하기 위해 소모한 트래픽 중의 일부가 낭비된다. 반대로, 요청 차량이 예상보다 느려 RSU의 통신 범위에 더 오래 머무르게 되면, RSU가 사전 캐싱해둔 콘텐츠를 모두 받고서도 추가적인 량을 더 요구하기 때문에, 이를 콘텐츠 서버나 다른 RSU로부터 가져오기 위해 지연시간이 발생한다. 지연시간에 둔감한 콘텐츠를 전달하기 위한 기존의 사전 캐싱 방안은 각 콘텐츠의 허용 가능한 지연시간을 고려하지 않고 지연시간을 줄이는데에만 초점을 두었다. 이미 콘텐츠를 가지고 있는 RSU들을 통해 제공될 수 있는 콘텐츠를 사전 캐싱하기 위해 트래픽을 소모함으로써, RSU는 지연시간에 민감한 콘텐츠를 제공하는데에 소모되는 지연시간을 줄일 수 있었던 백홀 링크의 트래픽을 낭비하게 된다. 또한, 허용가능한 지연시간을 고려하지 않아 무한한 지연을 가지게 되어 콘텐츠를 받는 것을 실패하기 때문에 신뢰성이 저하된다. 본 논문에서는 지연시간에 민감한 콘텐츠와 둔감한 콘텐츠를 별도로 고려하여 최적화를 통해 지연시간을 최소화하는 사전 캐싱 방안을 제안한다. 본 논문은 지연 시간에 대한 민감성 측면에서 콘텐츠를 지연 시간에 민감한 콘텐츠와 지연 시간에 둔감한 콘텐츠로 구분한다. 먼저, 지연 시간에 민감한 콘텐츠를 제공하기 위해, 사전 캐싱에 사용될 차량 이동의 예측에 대한 정확도를 향상시키기 위한 적응형 예측 변수가 제시된다. 그리고, 추가적인 성능의 향상을 위하여, 적응형 예측 변수의 예측 오류를 보상하는 가드 밴드를 추가한다. 다음으로, 본 논문은 지연 시간에 둔감한 콘텐츠를 제공하는데에 있어서 사용되는 트래픽을 절약함으로서 다른 콘텐츠들의 지연 시간을 줄이기 위한 추가 트래픽을 얻는 방안을 제시한다. 지연 시간에 둔감한 콘텐츠를 즉시 다운로드할 필요가 없기 때문에, 해당 콘텐츠를 요청한 차량의 경로 상에 존재하는 이미 해당 콘텐츠를 캐시하고 있는 RSU들을 활용하여 트래픽 소모없이 요청 차량에게 콘텐츠를 제공할 수 있다. 이러한 이유로, 최적화로 인해, 지연 시간에 둔감한 콘텐츠를 요청 차량에게 제공하는 데에 소모되는 트래픽을 최소화하여 추가적인 트래픽을 확보할 수 있다. 추가적인 트래픽은 지연 시간에 민감한 콘텐츠의 지연 시간을 최소화하기 위하여 사용될 수 있다. 따라서, 다양한 시나리오를 사용하여 수행된 시뮬레이션 결과를 통하여, 제안 방안들이 기존 방안들에 비해 성능이 향상됨을 볼 수 있다.
With the advent of self-driving cars, users’ demands for content are dramatically increased because they don’t need to concentrate on driving. Because backhaul links are limited to providing content to vehicle users, it is not enough to endure the sharply increased mobile data traffic to the raised demands for content from vehicle users. It derives increasing download delay for providing content to vehicles. In vehicular networks, the main challenge is minimizing the delay because it can lead to car accidents or degraded quality of experience due to the vehicle''s high speed. Content-centric vehicular networks (CCVNs) have been considered an attractive solution to reduce the delay. When the content that is already cached at the cache storage of an RSU in CCVNs is requested by a vehicle, the RSU can immediately provide the content without delays. On the contrary, when the content that is requested by a vehicle is not cached at the RSU, the RSU must bring it from a provider that can be the content server or the other RSUs. It causes an access delay and additional traffic to bring the requested content from the provider when the RSU provides it to the vehicle. To reduce the access delay, many researchers have studied a proactive caching approach (i.e. precaching) in CCVNs. By precaching the requested content at the next RSU, the next RSU can immediately provide the requested content to the requester vehicle without delays when the requester vehicle enters the coverage area of the next RSU. Consequently, in CCVNs, delays can be reduced by using a precaching approach. However, since studies on precaching do not consider contents of two different types (delay-sensitive and delay-tolerant) from a delay point of view, they can’t achieve the best performance to support delay-sensitive and delay-tolerant contents. For delay-sensitive contents, the existing precaching schemes predicted the mobility of the vehicles based on the constant speed to calculate how much to precache the requested content. When the vehicle leaves the RSU earlier due to faster speed, the RSU wastes the consumed traffic on backhaul links to precache the requested content because the vehicle can''t receive it. When the vehicle stays longer within the coverage of the RSU at a slower speed, it causes an access delay to bring an additional proportion of the content from the content server or the other RSUs. For delay-tolerable contents, most existing precaching schemes only focused on reducing delays not considering the tolerable delay time of each content. By precaching delay-tolerant content that could be provided through the cached RSUs which already have it, The RSU wastes the backhaul link traffic that could be used to reduce delays in providing delay-sensitive content. Furthermore, the existing precaching schemes considering delay-tolerant content allowed the infinite delay to download it. Because the vehicle can''t complete downloading the content within the tolerable delay time, the reliability is decreased. In this dissertation, we propose precaching schemes to minimize the delay using optimization by separately considering delay-sensitive and delay-tolerant contents. In terms of the sensitivity to the delay, we divide the type of the contents: the delay-sensitive content; the delay-tolerant content. First, to provide the delay-sensitive content, we improve the accuracy of the prediction by using the adaptive prediction value. Then, we add the guardband to compensate for the prediction error of the adaptive prediction value. Next, to minimize the delay, we gain additional traffic on the backhaul links by saving the consumed traffic to provide delay-tolerant content. Because the delay-tolerant content doesn''t have to be downloaded immediately, it can be provided by using the RSUs that are already cached the requested content. For this reason, through optimization, we can get additional traffic because those RSUs can provide the requested content to the requester vehicle without traffic consumption on backhaul links. The additional traffic can be used to minimize the delay to download the requested content that is sensitive to the delay. Simulation results with various scenarios show the proposed schemes achieve better performance than the previous schemes.