메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

오장섭 (인하대학교, 인하대학교 대학원)

지도교수
김학일
발행연도
2023
저작권
인하대학교 논문은 저작권에 의해 보호받습니다.

이용수11

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
동적 장면이란 주변에 동적인 객체가 존재함과 동시에 이동체의 자세가 변화하는 상황을 의미한다. 동적 장면에서는 더욱 안정적인 차간 거리 추정이 요구되며 높은 수준의 자율주행 기술을 위한 첨단운전자보조시스템 (ADAS)에 필수적인 요소이다. 하지만, 동적 장면에서는 이동체의 갑작스러운 자세 변화로 인하여 카메라 기반의 차간 거리 추정에 오차를 수반한다. 이는 주행 중 사고로 이어질 수 있으며, 장애물 회피 성능에도 영향을 끼칠 수 있다. 본 연구에서는 단안 카메라를 기반으로 차량의 자세를 실시간으로 추정하여 자세 변화에 따라 발생하는 거리 인식 결과의 오차를 동적으로 보정하는 기법을 제안한다.
동적 장면에 적합한 자세 추정 기법을 구현하기 위해 essential matrix 기반의 회전 행렬과 이동 행렬을 계산하는 방법, 광학 흐름 기반의 정규화된 히스토그램을 생성하여 IMU 데이터와의 상관관계 유도를 통해 추정함수를 모델링하는 방법을 구현하였다. 이를 통해 다양한 각도의 방지턱에서도 정확한 성능을 유도하는 자세 추정 기법을 도출하였다. 센서 캘리브레이션을 통해 투영한 지면 영역을 변화하는 자세 값에 따라 실시간으로 보정하며 차간 거리 추정 정확도를 향상시켰다.
실험은 시뮬레이터를 기반으로 개발한 모듈의 유효성을 우선적으로 검증하고 실제 차량에 적용하여 과속방지턱이 연속적으로 존재하는 도로 구간에서 진행하였다. 성능 평가는 차량에 설치된 IMU 센서 데이터를 자세 추정 모듈의 참값으로, 라이다 (LiDAR)의 검출 결과를 최종 거리 보정 성능의 참값으로 활용한다. 제안된 방법의 자세 추정은 평균 0.959의 상관계수와 0.0031라디안의 오차를 보이며 거리 보정 오차를 실험 구간 평균 2.85m‍ (14.9%)에서 0.83m (4.3%)로 줄일 수 있다. 이는 IMU 센서 기반의 보정 평균 오차인 0.89m (4.7%)와 근접한 성능이다. 최대 오차 지점에서는 20.5m의 오차를 0.64m로 줄일 수 있어 동적 장면에 강인한 실시간 차간 거리 보정 성능을 보여준다.

목차

제 1 장 서론 8
1.1 논문의 배경과 목적 8
1.2 관련 연구 11
1.3 논문의 구성 14
제 2 장 센서 캘리브레이션 16
제 3 장 단안 카메라 기반의 차량 자세 추정 18
3.1 Epipolar geometry 18
3.2 NHOF (Nomalized Histograms of Optical flow) 20
3.2.1 FAST 특징점 검출기 20
3.2.2 Optical flow 특징점 추적기 21
3.2.3 NHOF 기반 상관관계 유도 22
제 4 장 동적 환경에서의 강인한 거리 추정 26
4.1 지면 영역 기반의 거리 추정 26
4.2 동적 환경에서의 오차 보정 31
제 5 장 실험 및 결과 34
5.1 실험 환경 34
5.2 실험 시나리오 38
5.3 거리 추정 모듈 유효성 검증 39
5.4 자세 추정 모듈 유효성 검증 41
5.4.1 시뮬레이터 기반 실험 41
5.4.2 실제 환경 기반 실험 43
5.5 거리 보정 모듈 유효성 검증 49
제 6 장 결론 및 향후 과제 53
6.1 결론 53
6.2 향후 과제 54
참조 문헌 55

최근 본 자료

전체보기

댓글(0)

0