메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

이재욱 (홍익대학교, 홍익대학교 대학원)

지도교수
문희창
발행연도
2023
저작권
홍익대학교 논문은 저작권에 의해 보호받습니다.

이용수19

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
제 4차 산업혁명 시대에 맞춰 다양한 AI 관련 알고리즘을 사용한 자동화 시대가 다가오고 있다. 그중 자동화와 관련한 로봇 연구는 고임금과 인구 절감을 해결하기 위해 활발히 진행 중이다. 로봇 세계시장이 커지는 만큼 개발된 로봇의 자동화와 관련된 연구를 위해선 다양한 센서들을 사용해 인지와 판단 단계를 거쳐야 한다. 카메라, LiDAR, RADAR, GPS 등의 센서들은 인지와 판단에 주로 사용되어 로봇의 안전한 제어가 가능하도록 해 사고를 방지할 수 있도록 하기 위해선 센서가 인지한 각 객체의 정확한 위치 정보와 주변 환경의 위치를 정확하게 인지하는 것이 중요하다.

로봇이나 자율주행 차량이 주변 환경과 객체의 위치를 정확히 인지하게 되어도 이 정보는 각각의 플랫폼의 것으로 지역이 한정된 국지적 정보로서 그 영역을 지나게 되면 사용이 불가해 단발성 데이터라는 단점이 있다. 따라서 취득한 지역적 정보를 다회성으로 다수가 광범위하게 사용하기 위해선 전 세계적으로 통용되는 공통되는 지표로 바꿔주는 과정이 필요하다. 이를 위해 본 연구에서는 정확히 객체를 인식 후 객체까지의 거리를 검출해 그 객체의 GPS 좌표 부여해 광범위하게 사용할 수 있도록 했다. 본 연구는 카메라를 사용해 객체 인식을 진행한 후 인식된 객체가 무엇인지 정확하게 인지를 한 후, 객체의 거리를 파악하는 과정을 거쳤다. 객체 거리를 검출하는 센서로는 LiDAR가 비교적 정확하게 가능하지만, LiDAR는 다른 센서에 비해 가격이 상대적으로 비싸 쉽게 사용하기 어렵다는 단점 때문에 거리 검출하는 센서로 Depth 카메라와 RADAR를 사용했다. Depth 카메라와 RADAR를 동시에 사용한 이유는 RADAR만을 사용했을 때 근거리에서의 인식률이 떨어진다는 단점과 동시에 인식이 되었을 때 RADAR가 갖는 노이즈(Noise)의 정확한 파악과 거리 검출 정확도 향상의 장점 등을 갖기 때문이다. 그 후, GPS를 사용해 로봇이나 자율주행 차량의 현재 위치를 파악하고 계산된 객체까지의 거리에 헤딩 각을 이용해 변환한 좌표계 값을 넣어 계산한 거리를 더해줘 객체의 GPS 좌표를 구하고자 했다.

카메라의 거리 인식은 5m 이내에서 0.2m 이내의 오차를 가졌으며, RADAR의 거리 인식은 5m 이상에서도 0.2m의 오차를 가져 5m를 기준으로 거리 인식 센서의 사용에 우선순위를 두도록 했다. 테스트에서 실제 객체 좌표와 테스트로 구한 객체의 좌표를 비교한 결과 최대 오차 거리는 1.262m였고, 평균 오차 거리는 0.271m였다. 최대 40m 거리까지 실험을 진행한 것을 생각했을 때 오차 거리는 유효한 결과를 갖는다. 유효한 오차 거리를 갖는 것을 확인하고 미리 제작된 홍익대학교 3D Map에 객체 좌표를 생성하고 추적하는 과정을 거쳐 알고리즘의 유효성을 검증했다.

목차

제 1장. 서론 1
1.1. 연구 배경 1
1.2. 연구 동향 4
1.3. 연구 목적 6
제 2장. 이론 및 배경 알고리즘 8
2.1. 카메라 이론 및 배경 알고리즘 8
2.1.1 개요 및 센서 제원 8
2.1.2 RGB 카메라 이론 및 사용 알고리즘 10
2.1.3 RGB 카메라와 Depth 카메라의 좌표계 캘리브레이션 15
2.1.4 Depth 카메라 이론 및 사용 알고리즘 18
2.2. RADAR 이론 및 배경 알고리즘 21
2.2.1 개요 및 센서 제원 21
2.2.2 전방 RADAR와 측방 RADAR 좌표 캘리브레이션 23
2.2.3 RADAR의 노이즈 필터링(Noise Filtering) 방법 24
2.3. 카메라와 RADAR의 캘리브레이션(Calibration) 30
2.3.1 개요 30
2.3.2 카메라와 RADAR의 센서 위치 차이 및 좌표계 일치 과정 30
2.3.3 카메라 좌표계 변경 31
2.3.4 정확한 Camera와 RADAR의 좌표계 캘리브레이션을 위한 코너 리플렉터(Corner Reflector) 사용 33
2.3.5 카메라와 RADAR의 좌표계 캘리브레이션 34
2.4. GPS 이론 및 배경 알고리즘 39
2.4.1 GPS 개요 및 센서 제원 39
2.4.2 GPS 좌표계 변경 40
제 3장. 실험 및 결과 43
3.1. 프로그램 간 통신 43
3.2. 카메라와 RADAR의 객체 거리 인식 실험 및 결과 44
3.2.1 개요 44
3.2.2 카메라 객체 거리 인식 및 평균 오차 거리 45
3.2.3 RADAR 객체 거리 인식 및 평균 오차 거리 47
3.2.4 Depth 카메라와 RADAR의 거리 인식 우선순위 알고리즘 49
3.3. GPS 보정 방법 50
3.3.1 GPS UTM 좌표 보정 방법 50
3.3.2 GPS 센서를 활용한 헤딩 각(Heading Angle) 계산 51
3.3.3 헤딩 각(Heading Angle) 보정 방법 52
3.3.4 헤딩 각(Heading Angle)을 이용한 좌표계 변환 방법 53
3.4. 객체 좌표 생성 및 오차 확인 54
3.5. 3D Map과 객체 좌표 생성 및 추적 알고리즘으로 간단한 LDM 구현 61
제 4장. 결론 69

최근 본 자료

전체보기

댓글(0)

0