메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

최윤원 (영남대학교, 영남대학교 대학원)

지도교수
이석규
발행연도
2015
저작권
영남대학교 논문은 저작권에 의해 보호받습니다.

이용수2

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (5)

초록· 키워드

오류제보하기
본 연구에서는 어안 이미지와 루카스 카나데 옵티컬 플로우 기반 움직임 감지를 이용하는 객체 추출을 기반으로 한 전방향 영상 SLAM에서 얻은 객체의 정보를 분석하여 정적?동적 장애물에 상관없이 회피를 하는 곡선 주행 기반의 충돌 회피를 포함하는 행동 기반의 대형 제어 알고리즘을 제안한다. 기존 카메라와 다르게 전방향 카메라는 넓은 FOV를 가지는 반사경이나 렌즈를 사용하여 영상을 습득한다. 기존 전방의 영상을 이용한 SLAM은 후방에 접근하는 장애물에 대하여는 대응하기 힘든 문제를 가지고 있다. 그러나 전방향 영상은 로봇 주변의 모든 정보를 동시에 측정이 가능하여 전방향의 객체 감지와 지도 작성에 많은 장점을 가지고 있다. 이 전방향 영상을 이용한 기존 SLAM 연구에서는 위치인식만을 하거나 이미 알고 있는 지도 내에서 위치를 비교하여 인식하는 방식을 주로 사용하여 왔다. 본 연구에서는 기존의 전방향 영상 SLAM과 달리 어안 영상을 기반으로 하고 움직임 벡터를 이용한 객체 검출을 기반으로 위치 인식과 지도 작성을 동시에 진행할 수 있는 알고리즘을 제안한다.
또한 전방향 영상 SLAM에 최적화된 멀티로봇 시스템을 구성하기 위하여 개선된 회피와 대형 제어를 제안한다. 전방향 영상 SLAM을 통하여 얻은 지역 지도에서 얻은 객체들의 위치 정보와 벡터 정보를 기반으로 전역 지도를 생성하고 위치 정보와 벡터 정보, 주행 기록 정보를 분석하여 분류된 객체의 유형에 따라서 회피 방식을 결정하고 로봇의 위치와 장애물 위치, 안전경로를 이용하여 웨이포인트를 계산하는 로봇 모델링을 기반의 회피 알고리즘으로 장애물과의 충돌을 피하면서 대형을 유지한다. 또한 예측된 움직이는 장애물의 위치를 기반으로 판단하여 대기하거나 회피하고 회피가 불가능할 경우 형태를 변형하는 대형 제어 방식을 사용한다. 본 연구에서는 로봇의 모델링과 곡선 이동 궤적 기반의 속도 명령을 통하여 장애물을 회피하고 전방향 영상 SLAM에서 얻은 객체들의 방향, 속도 정보를 이용하여 분류한 로봇들의 움직임을 기반으로 대형을 유지하는 알고리즘을 제안한다.
전방향 영상 SLAM을 기반으로 하여 얻은 객체의 정보를 이용하는 곡선 주행 기반의 충돌 회피 알고리즘과 행동 기반의 대형 제어에 대한 연구를 통하여 본 연구에서 제안한 전방향 영상 SLAM의 활용성을 확인하고 대형 제어를 실제 로봇에 적용하여 작성된 로봇의 위치 정보와 전역 위치 측정 시스템에서 측정한 로봇의 위치를 비교함으로써 성능을 평가하였다. 우리는 로봇이 움직이지 않는 정적환경에서의 위치 인식 실험, 로봇이 움직이면서 정적 장애물이 있는 환경에서의 위치 인식 실험, 후방에서 다가오는 장애물이 있는 동적 환경에서의 회피 실험, 정적 장애물 환경에서의 대형 제어 실험, 동적 장애물 환경에서의 대형 제어 실험, 벽이 있는 환경에서의 대형 제어 실험을 포함하는 총 6가지의 실험을 진행하여 제안한 시스템의 성능을 확인하였다.

목차

Acknowledgements i
Contents ii
List of Figures vi
List of Tables xii
List of Algorithms xiii
List of Abbreviations xiv
Abstract xv
Chapter 1. Introduction 1
1.1 Background 1
1.2 Organization of thesis 5
Chapter 2. Review of formation control systems using omni-directional vision SLAM 8
2.1 Overview 8
2.2 Existing omni-directional video approaches 9
2.2.1 Multi-view video 10
2.2.2 Omni-directional video using parabolic mirror 11
2.2.3 Omni-directional video using fisheye lens 14
2.3 Existing omni-directional vision SLAM approaches 15
2.3.1 Ceiling vision SLAM using general camera 16
2.3.2 Ceiling vision SLAM using fisheye camera 18
2.3.3 Omni-directional SLAM using multi-view camera 19
2.3.4 Global position recognition using omni-directional image 20
2.3.5 Omni-directional SLAM using parabolic mirror 21
2.3.6 Position recognition based on omni-directional SLAM using parabolic mirror 23
2.3.7 Depth extraction using omni-directional stereo vision 24
2.3.8 Global position recognition using omni-directional stereo vision based on single camera 26
2.3.9 Comparison of the existing methods 27
2.4 Existing formation control approaches 29
2.4.1 Behavior-based approach 29
2.4.2 Virtual structure approach 32
2.4.3 Leader-follower approach 33
2.5 Motivation and proposition of novel ideas 34
Chapter 3. Formation Control Systems Using Omni-directional Vision SLAM 37
3.1 Formation Control System Model 37
3.2 The Robot Modeling 38
3.3 The Robot Design 40
3.3.1 The Robot Component 40
3.3.2 Fisheye Camera 43
3.3.3 Controller 44
Chapter 4. Formation Control Algorithm Using Omni-directional Vision SLAM 46
4.1 Overview 46
4.2 Omni-directional vision SLAM based on fisheye camera 49
4.2.1 Removal of the walls and floor areas using the HSI color space 49
4.2.2 Clustering using the labeling 52
4.2.3 Extraction of feature points using LKOF method 56
4.2.4 Correction of locations based on semispherical modeling 59
4.2.5 Local mapping using corrected points of an object 63
4.3 Behavior-based Formation control using global map 65
4.3.1 Estimation of an object characteristic using analysis of vector information 65
4.3.2 Collision avoidance based on curve motion 67
4.3.3 Formation control according to situation recognition 70
Chapter 5. Experimental Results 74
5.1 Global position measure system for experiment 75
5.2 Experiment: Position recognition in static robot environment 80
5.2.1 Experimental environment 80
5.2.2 Experimental result 81
5.3 Experiment: Position recognition in dynamic robot environment 86
5.3.1 Experimental environment 86
5.3.2 Experimental result 87
5.4 Experiment: Avoidance of dynamic obstacle in the rear 91
5.4.1 Experimental environment 91
5.4.2 Experimental result 92
5.5 Experiment: Formation control in static obstacle 96
5.5.1 Experimental environment 96
5.5.2 Experimental result 97
5.6 Experiment: Formation control in dynamic obstacle 101
5.6.1 Experimental environment 101
5.6.2 Experimental result 102
5.7 Experiment: Formation control in wall 106
5.7.1 Experimental environment 106
5.7.2 Experimental result 107
Chapter 6. Conclusion and Future Research 111
References 115
Abstract in Korean 125

최근 본 자료

전체보기

댓글(0)

0