공간정보 분야에서 UAV 영상을 활용하여 3차원 공간정보를 취득하는 연구가 활발히 이루어지고 있으며, 최근에는 빠른 의사 결정이 필요한 재난, 재해, 소규모의 공간정보 취득 분야에서 UAV활용도가 높아지고 있다. 하지만, 쉽게 수집할 수 있는 UAV 영상과는 다르게 3차원 좌표를 취득하기 위해서는 지상기준점(GCP)을 취득해야하는 번거로움이 있으며, 재난, 재해 및 건물붕괴현장과 같은 곳에서는 구조자의 접근도 쉽지 않아 GCP의 수집이 어렵다. 본 연구에서는 스테레오 카메라를 UAV 탑재하여 영상을 수집함으로써, 접근이 어려운 지역에 대해 GCP 수집을 제외하고자 한다. 스테레오영상을 이용하여 3차원 위치를 결정하기 위해서 선행되어야할 작업중의 하나는 스테레오 카메라의 내외부표정요소 알아내는 것이다. 내외부표정요소를 추정하는 방법으로는 3차원 위치 결정과 유사한 환경을 이용하여 캘리브레이션 검정장을 구축하고 이를 통해 내외부표정요소를 추정하는 방법이 있다. UAV에서 촬영한 영상은 GNSS/IMU 센서 정보가 부정확하여 이를 가지고 직접 기하보정을 수행할 경우 위치에 대한 오차로 인해 부정확한 기하보정이될 수 있는 문제점을 가지고 있다. 이를 외부표정요소가 결정된 스테레오 카메라를 통해 3차원 좌표점을 취득하여 정확한 축척계수를 통해 추가로 기하보정하는 방법이 있다. 기하보정에 사용되는 공액점들 간에 동일한 노출값과 축척계수을 사용하는 스테레오 영상이 동일한 지점을 인식하는데 이점이 발생한다. 내외부표정요소 추정 결과를 이용하여 렌즈왜곡을 제거한 후 기하보정을 수행하여 정확도를 향상시켰다. 번들조정법으로 수집되는 3차원 좌표점은 연속된 사진들의 연관성을 통해 기하학적 요소를 추정한다. 제안한 스테레오 카메라를 장착한 UAV영상과 Inspire-2로 수집한 연속영상의 기하보정을 수행하였으며, 이를 검증하기 위해서 동일한 해상도로 촬영 조건을 설정하여 실험을 수행하였다. 지상기준점을 제외하여 번들조정법 수행을 통해 결정한 3차원 좌표점은 점들 간의 연속성은 보이지만, 위치점과 축척계수가 맞지 않아, 가시적인 형상분석만 가능하다. 결과물에 대해 정량적/정성적 분석이 가능할 수 있도록 스테레오 영상정합에서 생성된 3차원 좌표점들과 번들조정법으로 생성된 3차원 좌표점간의 공액점을 찾고 점간 절대 표정을 통해 번들조정법의 3차원 좌표점을 보정하였다. 스테레오 영상에서 포함하고 있는 공액점들 간의 상대적 위치 정보를 통해 3차원 위치점들에 축적계수를 산출하여 검사점(CP)을 이용해 3차원 위치점에 대한 정확도를 측정하였다. 정확도는 최대 오차 5.6cm, 최소 오차 0.3cm를 나타냈으며, 평균제곱근오차(RMSE)는 2.9cm 나타냈다. Inspire-2에서는 최대 오차 17.1cm, 최소 오차 1.3cm로 나타났으며, RMSE는 11.6cm로 오차가 4배더 크게 나타났다. 이러한 결과를 통해서 스테레오 카메라를 장착한 UAV를 접근이 어려운 지역에서 크기를 결정하기가 용이한 것을 알 수 있었다. 본 연구에서 제안한 스테레오 카메라를 장착한 UAV를 이용하여 실무에서 사용할 경우 사용자는 별도의 GCP 입력이 없이 스테레오 카메라의 축척계수를 이용해 상대적인 3차원 위치점을 수집할 수 있으며, 긴급한 재해 현장에서 효율적인 운영이 가능할 것으로 생각된다. 향후 시스템 캘리브레이션을 통해 카메라와 GNSS/IMU의 관계를 설정하고 정확한 GNSS/IMU를 이용하여 절대 위치에 대한 정확도가 높아질 것으로 사료된다.
키워드 : UAV, 스테레오 카메라, 카메라 동기화, 카메라 캘리브레이션, 공간전방교회법, 공간후방교회법, 번들조정법, 스테레오 영상정합
There have been active researches on the acquisition of 3D spatial information using UAV images in the spatial information field. Recently, the utilization of UAV is increasing in the field for acquiring small-scale spatial information, catastrophe, and disaster that need to have quick decision-making. However, contrary to UAV images that could be easily collected, it is cumbersome to acquire the Ground Control Point(GCP) to acquire 3D coordinates. In the places like disaster, catastrophe, and the site of building collapse, it is not easy to approach victims, so it is also difficult to collect the GCP. This study aims to collect the GCP of difficult-to-reach area by loading UAV with stereo camera and then collecting images. One of the works that should be preceded for 3D positioning using stereo images is to find out the interior/exterior orientation parameters of stereo camera. The interior/exterior orientation parameters could be estimated by establishing a calibration test place using the similar environment to 3D positioning. In case of the images taken by UAV, the GNSS/IMU sensor data is inaccurate. In case when performing the geometric correction with this, the geometric correction could be inaccurate because of errors in the position. There is a method of additional geometric correction through accurate scale factor by acquiring 3D coordinate points through the stereo camera with decided exterior orientation parameters. The stereo image using the scale factor recognizes the same point with the same exposure value between conjugate points used for geometric correction. The accuracy was improved by performing the geometric correction after removing the lens distortion by using the estimated result of interior/exterior orientation parameters. The 3D coordinate points collected by bundle adjustment estimate the geometric elements through the connection of sequenced photos. This study performed the geometric correction of sequenced images collected by Inspire-2 and UAV images equipped with the suggested stereo camera. In order to verify this, experiments were performed under the shooting condition of the same resolution. The 3D coordinate points decided by performing the bundle adjustment excluding the GCP show the continuity between points. However, the 3D points do not accord with the scale factor, so it is only possible to analyze the visible shapes. In order to perform the quantitative/qualitative analysis on the outcome, this study found the conjugate point between 3D coordinate points formed by bundle adjustment and 3D coordinate points formed by stereo image registration, and then corrected the 3D coordinate points of bundle adjustment through absolute orientation between points. The accuracy of 3D points was measured with the use of check point(CP) by calculating the scale factor of 3D points through the relative location information between conjugate points included in stereo images. The accuracy showed the maximum error as 5.6cm and minimum error as 0.3cm while the Root Mean Square Error(RMSE) was 2.9cm. The Inspire-2 showed the maximum error as 17.1cm and the minimum error as 1.3cm while the RMSE was 11.6cm. The error was four times more. This result showed that the UAV equipped with stereo camera would be easy to decide the size in difficult-to-reach areas. In case when the UAV equipped with stereo camera is used for practical work, the users could collect the relative 3D point by using the scale factor of stereo camera without separately inputting the GCP, and it could be also efficiently operated in urgent disaster sites. In the future, the accuracy of absolute position could be increased by setting up the relation between camera and GNSS/IMU through the system calibration, and then using the accurate GNSS/IMU.
Keywords: UAV, Stereo Camera, Camera Synchronization, Camera Calibration, Space Intersection, Space Resection, Bundle Adjustment, Stereo Image Registration
목차
1. 서론 11.1 연구 배경 11.2 연구동향 21.2.1 3차원 데이터 구축 연구동향 21.2.2 UAV 사진 측량 연구동향 31.3 연구목적 51.4 연구방법 62. 시스템 구성 82.1 스테레오 카메라 92.1.1 스테레오 카메라 환경 구축 102.1.2 스테레오 카메라 동조기 102.1.3 스테레오 카메라 캘리브레이션 143. 스테레오 영상 정합 283.1 영상 좌표계 303.2 스테레오 영상 렌즈 왜곡 보정 343.3 시스템 캘리브레이션 363.3.1 IMU 센서 좌표계 설정 및 변환 363.3.2 GPS 안테나와 카메라의 위치 관계 383.4 에피폴라 영상 제작 403.4.1 에피폴라 사진좌표축 설정 413.4.2 영상 좌표에서 사진 좌표로 변환 433.4.3 에피폴라 회전행렬 생성 443.4.4 에피폴라 변환 행렬 생성 443.4.5 에피폴라 영상 변환 453.5 스테레오 영상정합 방법 463.5.1 회색조 변환 523.5.2 센서스 영상 변환 543.5.3 해밍거리 계산 573.6 공간 전방교회법 574. 번들조정법 614.1 상호표정요소 614.2 번들 조정법 644.3 점 기반 절대 표정 665. 실험 685.1 실험 대상지역 선정 685.2 스테레오 영상정합 및 3차원 좌표 결정 705.2.1 스테레오 UAV 영상 촬영 705.2.2 정확도 검증을 위한 검정장 725.2.3 정확도 검증을 위한 UAV 영상 촬영 745.2.4 스테레오 카메라 캘리브레이션 755.2.5 에피폴라 영상 변환 795.2.6 센서스 영상 변환 825.2.7 해밍거리 계산 825.3 회전 요소 변환 855.4 전방교회법을 이용한 거리계산 865.4.1 3차원 좌표 정확도 검증 875.5 번들조정법을 이용한 3차원 좌표점 취득 885.6 절대 표정 905.7 실험 결과 분석 916. 결론 93