메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

진성윤 (호서대학교, 호서대학교 대학원)

지도교수
이주희
발행연도
2020
저작권
호서대학교 논문은 저작권에 의해 보호받습니다.

이용수6

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (3)

초록· 키워드

오류제보하기
In self-driving platooning technology, which allows many vehicles to drive in clusters, it is very important to identify the path of the leader vehicle''s steering control. when optical camera communication technology is applied to platooning driving, the movement route of the leading vehicle can be effectively grasped by using the taillight of the leading vehicle and the camera of the rear vehicle. However, when the ROI area in the image of the taillight of the leading vehicle is not recognized or the taillight of the front vehicle is broken, the steering control can not be smooth. In this paper, the forward vehicle transmits the speed data, the type of vehicle, the taillight left side, and the right side indicator data to complement these problems and actively utilize it in the rear vehicle and lane recognition system increased the distribution of recognizable lanes, enabling lane recognition. In addition, in the situation where lane recognition is inevitable, we implemented a technology to control steering by considering the center point of lane using only the lane recognized. The results of the experiment showed that the platooning driving steering control was performed stably even in the situation where the ROI area of the left and right taillights was not recognized and the lane recognition was not realized. But when all algorithms are used in real vehicles to conduct experiments on real roads, Although the data is accurately received, the reception rate of the received data is significantly lower than the number of data transmitted. To solve this problem, the ROI area cannot be accurately detected each time, since the ROI area is detected based on differences between frames using YOLov2, one of the deep learning techniques used primarily in the field of image processing, and the ROI station for the entire frame, a drawback of the previous image processing technology, cannot be recognized. The proposed method implemented a more accurate and secure optical camera communication-based autonomous navigation platform communication system based on an improved reception rate than traditional imaging processing techniques, since the ROI area can be accurately detected by receiving the taillight''s left and right boundary box coordinates.

목차

1장. 서 론
1.1. 연구의 배경 및 목적
2장. 이 론
2.1. 자율주행 기술
2.1.1. Vehicle-to-Vehicle(V2V)기술
2.1.2. 군집주행(Platooning) 기술
2.2. Optical Camera Communication (OCC)
2.3. Deep Learning frame work - YOLO
2.4 자율주행 플래투닝에서 V2V 광 카메라 통신 기반 조향 제어 기술
2.4.1 연구 블록다이어그램
2.4.2 속도 제어 시스템
2.4.3 조향 제어 시스템
2.5. taillight 중심점 추정을 이용한 V2V 광 카메라 통신 기반 군집주행 제어 기술
2.5.1 실제차량 taillight의 영상처리 블록다이어그램
2.5.2 선두차량 taillight에서 보내는 Data Formation
2.5.3 선두차량의 taillight 좌/우 ROI 영역 Label을 이용하는 조향제어
2.5.4 실제 taillight 인식되지 않는 경우
2.5.5 본 논문에서 제시하는 기법
2.6. 실제도로 환경에서의 taillight 중심점 추정을 이용한 V2V 광 카메라 통신 기반 군집 제어 기술
2.6.1 선두차량 taillight에서 송신하는 Data Formation
2.6.2 선두차량 taillight ROI 영역 및 차선인식을 이용하는 조향제어
2.6.3 실제도로 환경에서 차선인식이 원활히 되지 않는 경우
2.7. Deep learning network ? YOLO 이용하여 데이터의 수신율 증가 기법
2.7.1 본 논문에서 제시하는 기법
3장. 실 험
3.1. 자율주행 플래투닝에서 V2V 광 카메라 통신 기반 조향 제어 기술
3.1.1 하드웨어 구성
3.1.2 실험 환경
3.2. 후미등 중심점 추정을 이용한 V2V 광 카메라 통신 기반 군집주행 제어 기술
3.2.1 하드웨어 구성
3.2.2 실험 환경
3.3. 실제도로 환경에서의 taillight 중심점 추정을 이용한 V2V 광 카메라 통신 기반 군집 제어 기술
3.3.1 하드웨어 구성
3.3.2 실험 환경
4장. 결과 및 고찰
4.1. 자율주행 플래투닝에서 V2V 광 카메라 통신 기반 조향 제어 기술
4.1.1. 실험 결과 및 고찰
4.2. 후미등 중심점 추정을 이용한 V2V 광 카메라 통신 기반 군집주행 제어 기술
4.2.1 실험 결과 및 고찰
4.3. 실제도로 환경에서의 taillight 중심점 추정을 이용한 V2V 광 카메라 통신 기반 군집 제어 기술
4.3.1 실험 결과 및 고찰
4.4 Deep learning network ? YOLO 이용하여 데이터의 수신율 증가 기법
4.4.1 실험 결과 및 고찰
5장. 결 론
참고 문헌
영문 초록

최근 본 자료

전체보기

댓글(0)

0