제 4차 산업혁명 시대에 맞춰 다양한 AI 관련 알고리즘을 사용한 자동화 시대가 다가오고 있다. 그중 자동화와 관련한 로봇 연구는 고임금과 인구 절감을 해결하기 위해 활발히 진행 중이다. 로봇 세계시장이 커지는 만큼 개발된 로봇의 자동화와 관련된 연구를 위해선 다양한 센서들을 사용해 인지와 판단 단계를 거쳐야 한다. 카메라, LiDAR, RADAR, GPS 등의 센서들은 인지와 판단에 주로 사용되어 로봇의 안전한 제어가 가능하도록 해 사고를 방지할 수 있도록 하기 위해선 센서가 인지한 각 객체의 정확한 위치 정보와 주변 환경의 위치를 정확하게 인지하는 것이 중요하다.
로봇이나 자율주행 차량이 주변 환경과 객체의 위치를 정확히 인지하게 되어도 이 정보는 각각의 플랫폼의 것으로 지역이 한정된 국지적 정보로서 그 영역을 지나게 되면 사용이 불가해 단발성 데이터라는 단점이 있다. 따라서 취득한 지역적 정보를 다회성으로 다수가 광범위하게 사용하기 위해선 전 세계적으로 통용되는 공통되는 지표로 바꿔주는 과정이 필요하다. 이를 위해 본 연구에서는 정확히 객체를 인식 후 객체까지의 거리를 검출해 그 객체의 GPS 좌표 부여해 광범위하게 사용할 수 있도록 했다. 본 연구는 카메라를 사용해 객체 인식을 진행한 후 인식된 객체가 무엇인지 정확하게 인지를 한 후, 객체의 거리를 파악하는 과정을 거쳤다. 객체 거리를 검출하는 센서로는 LiDAR가 비교적 정확하게 가능하지만, LiDAR는 다른 센서에 비해 가격이 상대적으로 비싸 쉽게 사용하기 어렵다는 단점 때문에 거리 검출하는 센서로 Depth 카메라와 RADAR를 사용했다. Depth 카메라와 RADAR를 동시에 사용한 이유는 RADAR만을 사용했을 때 근거리에서의 인식률이 떨어진다는 단점과 동시에 인식이 되었을 때 RADAR가 갖는 노이즈(Noise)의 정확한 파악과 거리 검출 정확도 향상의 장점 등을 갖기 때문이다. 그 후, GPS를 사용해 로봇이나 자율주행 차량의 현재 위치를 파악하고 계산된 객체까지의 거리에 헤딩 각을 이용해 변환한 좌표계 값을 넣어 계산한 거리를 더해줘 객체의 GPS 좌표를 구하고자 했다.
카메라의 거리 인식은 5m 이내에서 0.2m 이내의 오차를 가졌으며, RADAR의 거리 인식은 5m 이상에서도 0.2m의 오차를 가져 5m를 기준으로 거리 인식 센서의 사용에 우선순위를 두도록 했다. 테스트에서 실제 객체 좌표와 테스트로 구한 객체의 좌표를 비교한 결과 최대 오차 거리는 1.262m였고, 평균 오차 거리는 0.271m였다. 최대 40m 거리까지 실험을 진행한 것을 생각했을 때 오차 거리는 유효한 결과를 갖는다. 유효한 오차 거리를 갖는 것을 확인하고 미리 제작된 홍익대학교 3D Map에 객체 좌표를 생성하고 추적하는 과정을 거쳐 알고리즘의 유효성을 검증했다.
In line with the era of the 4th Industrial Revolution, the era of automation using various AI-related algorithms is approaching. Among them, robot research related to automation is actively underway to solve high wages and population reduction. As the global market for robots grows, research related to automation of developed robots must go through the recognition and judgment stage using various sensors. Sensors such as cameras, LiDAR, RADAR, and GPS are mainly used for recognition and judgment, allowing safe control of robots, so it is important to accurately recognize the exact location information of each object recognized by the sensor and the location of the surrounding environment.
Even if a robot or autonomous vehicle accurately recognizes the surrounding environment and the location of an object, this information belongs to each platform and is local information with a limited area, and cannot be used when passing through the area, so it is short-lived. Therefore, in order for the acquired regional information to be used extensively by many people, a process of converting it into a common indicator that is widely used around the world is necessary. To this end, in this study, the distance to the object was detected after accurately recognizing the object, and GPS coordinates of the object were given so that it could be used widely. This study performed object recognition using a camera, accurately recognized what the recognized object is, and then went through a process of identifying the distance of the object. LiDAR can be used relatively accurately as a sensor for detecting object distance, but LiDAR used Depth camera and RADAR as sensors for detecting distance due to its disadvantage that it is difficult to use easily because of its relatively expensive price compared to other sensors. The reason for using Depth camera and RADAR at the same time is that the recognition rate at close range is low when only RADAR is used, and at the same time, it has advantages of accurately identifying noise and improving distance detection accuracy when recognized. After that, use GPS to determine the current location of the robot or autonomous vehicle and add the calculated distance by adding the coordinate system value converted using the heading angle to the calculated distance We tried to find the GPS coordinates of the object.
The camera''s distance recognition had an error within 0.2m from 5m, and the RADAR''s distance recognition had an error of 0.2m from 5m or more, giving priority to the use of the distance recognition sensor based on 5m. As a result of comparing the actual object coordinates in the test with the coordinates of the object obtained by the test, the maximum error distance was 1.262m, and the average error distance was 0.271m. Considering that the experiment was conducted up to a distance of 40m, the error distance has a valid result. The validity of the algorithm was verified through the process of confirming that it has a valid error distance and generating and tracking object coordinates in the 3D Map.
제 1장. 서론 11.1. 연구 배경 11.2. 연구 동향 41.3. 연구 목적 6제 2장. 이론 및 배경 알고리즘 82.1. 카메라 이론 및 배경 알고리즘 82.1.1 개요 및 센서 제원 82.1.2 RGB 카메라 이론 및 사용 알고리즘 102.1.3 RGB 카메라와 Depth 카메라의 좌표계 캘리브레이션 152.1.4 Depth 카메라 이론 및 사용 알고리즘 182.2. RADAR 이론 및 배경 알고리즘 212.2.1 개요 및 센서 제원 212.2.2 전방 RADAR와 측방 RADAR 좌표 캘리브레이션 232.2.3 RADAR의 노이즈 필터링(Noise Filtering) 방법 242.3. 카메라와 RADAR의 캘리브레이션(Calibration) 302.3.1 개요 302.3.2 카메라와 RADAR의 센서 위치 차이 및 좌표계 일치 과정 302.3.3 카메라 좌표계 변경 312.3.4 정확한 Camera와 RADAR의 좌표계 캘리브레이션을 위한 코너 리플렉터(Corner Reflector) 사용 332.3.5 카메라와 RADAR의 좌표계 캘리브레이션 342.4. GPS 이론 및 배경 알고리즘 392.4.1 GPS 개요 및 센서 제원 392.4.2 GPS 좌표계 변경 40제 3장. 실험 및 결과 433.1. 프로그램 간 통신 433.2. 카메라와 RADAR의 객체 거리 인식 실험 및 결과 443.2.1 개요 443.2.2 카메라 객체 거리 인식 및 평균 오차 거리 453.2.3 RADAR 객체 거리 인식 및 평균 오차 거리 473.2.4 Depth 카메라와 RADAR의 거리 인식 우선순위 알고리즘 493.3. GPS 보정 방법 503.3.1 GPS UTM 좌표 보정 방법 503.3.2 GPS 센서를 활용한 헤딩 각(Heading Angle) 계산 513.3.3 헤딩 각(Heading Angle) 보정 방법 523.3.4 헤딩 각(Heading Angle)을 이용한 좌표계 변환 방법 533.4. 객체 좌표 생성 및 오차 확인 543.5. 3D Map과 객체 좌표 생성 및 추적 알고리즘으로 간단한 LDM 구현 61제 4장. 결론 69