모바일 로봇의 자율주행 알고리즘은 과거부터 현재까지 다양한 방식으로 연구 및 발전되고 있다. 이전의 많은 연구를 통해 실내에서의 모바일 로봇의 자율주행은 간단한 문제가 아님이 증명되었고 여러 세대에 걸쳐 모바일 로봇의 내비게이션에 대한 문제를 해결하기 위한 연구들이 발전했다. 그리하여 발전하게 된 이전의 연구중 성공적인 알고리즘은 많은 연산량과 고가의 장비들을 통해 비교적 복잡한 모바일 로봇 내비게이션을 구현하게 되었다. 하지만 인간이 풀기 힘든 형태의 문제들을 적은 세포와 간단한 뉴런구조를 가진 곤충들이 매우 효율적인 방향으로 해결하고 이를 바탕으로 생존하며 진화해 왔다. 본 연구진은 이러한 곤충들의 성공적인 내비게이션에 영감을 얻었고 이전의 연구로 제시된 알고리즘보다 곤충들에게 영감을 받아 연구된 비교적 간단한 구조의 알고리즘을 통해 모바일 로봇의 성공적인 내비게이션을 구현하고 더욱더 강인한 알고리즘을 만들기 위하는 과정을 연구하였다.
첫 번째로는 기존의 모델에 머신러닝 알고리즘인 경사 하강법(Gradient Descent) 알고리즘 적용하는 실험을 진행하였다. 기존의 호밍 내비게이션을 구현했던 Snapshot 모델을 바탕으로 Haar-like Feature를 이용하여 이미지상의 랜드마크를 형성하고 이를 기반으로 시각 내비게이션으로 HFLV(Haar-like Feature Landmark Vector) 모델에 경사 하강법을 적용하였고, 이를 통해 경사 하강법으로 학습된 가중치와 Haar-like Feature를 랜드마크로 만들 때 사용되는 매칭 스코어의 관계 파악 통해 각각의 파라미터에 대한 영향력을 분석적으로 연구하였다. 또한 내림차순을 통한 매칭 스코어의 형태별 비교를 통해 매칭 스코어의 본연의 의미를 분석하였다.
이후 경사 하강법을 통한 학습을 할 때 사용되는 파라미터를 변형하며 실험을 진행하였다. 알고리즘을 구현할 때 최소로 필요한 Haar-like Feature의 개수, 포지션의 정보, 포지션의 위치등 다양한 실험 셋팅을 통해 최적의 파라미터를 찾고 이를 통해 연산량이 적고 강인한 시각 내비게이션 알고리즘을 제시하였다. 또한 학습을 통한 이미지 기반 실험으로 기존에 시각 내비게이션의 적용이 어려웠던 환경들에 적용할 수 있는 새로운 시각 내비게이션 알고리즘을 구현하였다. 이후 실제 일반적인 실내 실험 환경에서 모바일 로봇에 알고리즘을 적용하여 실내 모바일 로봇 내비게이션을 구현하였다