KR20200017572A - 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법 - Google Patents

한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법 Download PDF

Info

Publication number
KR20200017572A
KR20200017572A KR1020180085651A KR20180085651A KR20200017572A KR 20200017572 A KR20200017572 A KR 20200017572A KR 1020180085651 A KR1020180085651 A KR 1020180085651A KR 20180085651 A KR20180085651 A KR 20180085651A KR 20200017572 A KR20200017572 A KR 20200017572A
Authority
KR
South Korea
Prior art keywords
obstacle
robot
information
limited space
autonomous driving
Prior art date
Application number
KR1020180085651A
Other languages
English (en)
Inventor
이세진
방석현
Original Assignee
공주대학교 산학협력단
방석현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 공주대학교 산학협력단, 방석현 filed Critical 공주대학교 산학협력단
Priority to KR1020180085651A priority Critical patent/KR20200017572A/ko
Publication of KR20200017572A publication Critical patent/KR20200017572A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 대학 캠퍼스, 회사, 기관, 마을 등의 단지 내 감시 및 인적 또는 물적 수송과 같은 단거리 주행을 목적으로 하는 인공 지능 기반의 자율 주행 로봇을 목적에 맞는 전제 조건 내에서 안정성을 높인 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법에 관한 것으로서, 소정의 단지 내에서 자율주행하는 로봇을 GPS와 스테레오 카메라에 의해 추종하며 추종된 결과에 따라 경로와 추정하고 장애물을 계산하는 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법에 있어서, 상기 로봇이 상기 스테레오 카메라로 이미지 정보를 수집하는 단계; 수집된 이미지 정보에서 해당 픽셀 별로 깊이영상을 획득하는 단계; 평면정보와 그 이외의 정보를 구분하기 위하여 획득된 영상에 대하여 데이터필터링하는 단계; 상기 필터링하여 나온 정보에서 선형적으로 나온 평면정보 이외의 정보를 장애물로 인지하는 단계; 상기 장애물의 위치를 3개의 권역으로 나누어 3개의 권역 중 어떤 위치에 있는 지의 여부를 판단하는 단계; 및 상기 3개의 권역에 따라 다른 경고음을 출력하는 단계;를 포함하여 구성되어 부하를 준 상태로 동작하도록 하여 빠른 동작을 보장하고 로봇의 메모리 및 연산 용량을 작게 구성할 수 있는 효과가 있다.

Description

한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법{METHOD FOR DETECTING OBSTACLE FOR AUTONOMOUS NAVIGATION OF MOBILE ROBOT IN A LIMITRED SPACE}
본 발명은 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법에 관한 것으로서, 더욱 상세하게는 대학 캠퍼스, 회사, 기관, 마을 등의 단지 내 감시 및 인적 또는 물적 수송과 같은 단거리 주행을 목적으로 하는 인공 지능 기반의 자율 주행 로봇을 목적에 맞는 전제 조건 내에서 안정성을 높인 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법에 관한 것이다.
자율 주행 기술이 적용될 수 있는 분야는 거시적으로 볼 때 1차적으로 자동차 또는 트럭, 드론과 같이 장거리 주행을 위한 분야도 있지만 국소적으로 볼 때 대학 캠퍼스, 회사, 기관, 마을 등의 단지 내 능동적 감시 및 인적 또는 물적 수송과 같은 단거리 주행을 위한 분야도 고려되고 있다.
시장(market)의 원리로 볼 때 기술 발전의 흐름 상, 대규모 시장인 자율 주행 자동차 기술이 발전하여 상용화된 후 이를 기반으로 상대적인 측면에서 소규모 시장으로 볼 수 있는 대학 캠퍼스와 같은 단지 내 감시 및 인/물적 자율 수송차 시장이 열리는 것이 일반적이라고 생각할 수 있지만, 대규모 시장에서 개발되었던 자율 주행 기술이 소규모 시장으로 접목되기에는 시간적, 비용적, 기술적 측면 등 상이한 적용 조건의 측면에서 상당한 진입 장벽과 이질성이 발생할 수 있다.
대학 캠퍼스와 같은 단지 내에서의 특성상 한 로봇의 제작비용이 비교적 저가이어야 하면서도 성능의 안정성과 강인성이 충분히 보장될 수 있어야 한다. 또한, 이러한 자율 주행 로봇이 개발되어 상용화된다면 대학 캠퍼스, 기관 등의 자율 주행 투어 및 안내 셔틀, 그리고 대규모 공장 단지 내에서의 물류 이송을 위한 자율 주행 수송의 운용 등을 기대할 수 있다.
E-commerce 시장의 규모가 커짐에 따라 물품 배송에 관한 다양한 요구도가 증가되고 있고, 소비자의 요구에 부합하기 위한 배송 수단으로 무인 이동체를 지역 내에 활용할 가능성이 높아지고 있다.
현재의 배송 시스템의 운용 비용에서 큰 비중을 차지하는 인건비 부분을 감소시키고 이동시스템에서 인명과 관련된 장치를 물품 배송을 위한 구조로 변경함으로써 운송 분야에서 획기적인 비용 감소가 예상됨.
구역 내 무인 야간 감시의 기능을 발휘함으로써 인적 피로도 없이 지속적인 모니터링이 가능하여 범죄 예방을 할 수 있으며 능동적으로 이동 촬영하여 유효 영상 획득에 유리해 불법 행위를 비롯한 다양한 범죄 현장 수사 및 증거 확보를 위한 목적으로도 유용하게 활용 가능함.
이와 같은 목적을 달성하기 위하여 대한민국 공개특허 제10-2015-0058679호 (발명의 명칭 : 단지내 도로에서 자율주행차량의 위치 및 해딩 정보 제공 장치 및 방법)에서는 GIS(Geographic Information System )지도와 영상정보만을 사용하여 복잡한 단지내 도로에서 자율주행 차량의 정확한 위치 및 해딩을 인식하여 제공하는 장치 및 방법에 대하여 개시하고 있다. 그러나, 전술한 종래기술의 발명은 영상정보에서 획득한 장애물을 어떻게 처리하는 지에 대해서는 구제적으로 개시하고 있지 않다. 특히, 건물과 같은 평면정보와 그 이외의 나머지 정보를 구분하고 있지 않아 속도의 저하가 발생할 수 있다는 문제점이 있다.
다음의 표 1은 특정 지역의 장애물의 비율을 나타낸 표이다.
구분 벽(Wall) 지면(Ground) 콘(Cone) 식별푯말(Nameplate)
비율(Ratio) 53.0% 41.1% 1.2% 0.3%
상기 표에서와 같이 건물의 벽(wall)은 GIS 또는 GPS(Global Positioning System)에서 나타낸 지도에는 본 발명의 로봇이 추종하는 경로에 없는 경우가 많으나, 실제에 있어서는 계산되어 부하로 동작하고 부하로 동작하게 되면 연산이 지연되어 로봇이 느리게 동작하거나 부하로 인하여 오동작 할 우려도 있다는 문제점이 있다.
대한민국 공개특허공보 제10-2015-0058679호 (발명의 명칭 : 단지내 도로에서 자율주행차량의 위치 및 해딩 정보 제공 장치 및 방법)
따라서 본 발명은 전술한 종래기술의 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 대학 캠퍼스, 회사, 기관, 마을 등의 단지 내 감시 및 인적 또는 물적 수송과 같은 단거리 주행을 목적으로 하는 인공 지능 기반의 자율 주행 로봇을 목적에 맞는 전제 조건 내에서 이동 로봇의 자율 주행을 위한 장애물 탐지 방법을 제공하기 위한 것이다.
또한, 본 발명은 장애물이 발생하는 영역을 구분하여 장애물이 출현한 지역에 따라 다른 경고음을 발생시켜 청각만으로 로봇이 장애물이 발생한 지역을 구분하여 인지할 수 있도록 하고 로봇 입장에서 장애물로 인지되는 사람은 현재 자신이 로봇에 의해 어떤 방향에 있는 장애물로 인지되었음을 인지하여 용이하게 회피할 수 있도록 한 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법을 제공하기 위한 것이다.
본 발명의 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법은, 소정의 단지 내에서 자율주행하는 로봇을 GPS와 스테레오 카메라에 의해 추종하며 추종된 결과에 따라 추정된 경로에 따라 장애물을 계산하는 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법에 있어서,
상기 로봇이 상기 스테레오 카메라로 이미지 정보를 수집하는 단계;
수집된 이미지 정보에서 해당 픽셀 별로 깊이영상을 획득하는 단계;
평면정보와 그 이외의 정보를 구분하기 위하여 획득된 영상에 대하여 데이터필터링하는 단계;
상기 필터링하여 나온 정보에서 선형적으로 나온 평면정보 이외의 정보를 장애물로 인지하는 단계;
상기 장애물의 위치를 3개의 권역으로 나누어 3개의 권역 중 어떤 위치에 있는 지의 여부를 판단하는 단계; 및
상기 3개의 권역에 따라 다른 경고음을 출력하는 단계;를 포함하여 구성될 수 있다.
상기 데이터 필터링하는 단계는,
데이터에 대한 벡터의 크기(Vector Size)와 표준편차(Maximum Error)를 계산하는 단계;
하나의 깊이 데이터 기준으로 x축, y축방향으로 각각 벡터의 크기만큼 선정하는 단계;
상기 선정된 데이터에 대하여 1차 함수와 최소자승법을 이용하여 최적함수를 유도하는 단계;
상기 최소자승법을 사용하여 오차(res)를 구해 처음에 지정했던 표준편차(Maximum Error)와 비교하는 단계;
상기 비교하는 단계에서 오차(res)가 상기 표준편차 이하이며 선형성이라 판단되어 깊이 데이터를 제외시키는 단계; 및
상기 비교하는 단계에서 오차(res)가 상기 표준편차를 초과하는 경우면 비선형성이라 판단되어 깊이 데이터를 보존하는 단계;를 포함하여 구성될 수 있다.
상기 벡터의 크기(Vector Size)와 표준편차(Maximum Error)를 계산하는 단계 이후에 상기 벡터의 크기를 설정하는 단계를 더 포함하도록 구성될 수 있다.
상기 최적함수를 유도하는 단계는 다음의 수학식으로 나타내도록 구성될 수 있다.
Figure pat00001
여기서, 깊이영상에서의 위치 주소값을
Figure pat00002
라 하고 그에 대한 깊이 측정값을
Figure pat00003
라 하며, 선형 모델 함수
Figure pat00004
에 대한 예측값
Figure pat00005
와 측정값
Figure pat00006
와의 차이를 식 (1)과 같이
Figure pat00007
(error, res)로 정의함
상기 선정된 데이터에 대하여 1차 함수와 최소자승법을 이용하여 최적함수를 유도하는 단계는,
상기 수학식에 1차 함수인
Figure pat00008
를 대입하고 다음의 수학식으로 나타내고,
Figure pat00009
상기 수학식를 전개하여 a와 b에 대해 각각 편미분한 값이 0이 되도록 다음과 같이 나타내고,
Figure pat00010
Figure pat00011
상기 수학식에서 a와 b값을 구하여 최적합수
Figure pat00012
를 유도하도록 구성될 수 있다.
상기 장애물의 위치를 3개의 권역으로 나누는 단계는, 상기 로봇의 추종 방향을 중심으로 -15 및 +15도 이내의 영역을 중심축, -15도 미만의 영역을 좌측, +15도 초과의 영역을 우측으로 구분하도록 구성될 수 있다.
상기 장애물의 위치는 상기 스테레오 카메라로 수집된 후 분류된 정보는 각 각 x축, y축, z축에 관한 좌표 값들을 가지게 되고 각각의 좌표를 이용하여 다음의 각도
Figure pat00013
을 구할 수 있도록 구성될 수 있다.
Figure pat00014
여기서, 각각 x값은
Figure pat00015
로 나타내고, y값은
Figure pat00016
로 나타내며, z값은
Figure pat00017
로 나타낼 수 있음.
따라서 본 발명의 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법은 대학 캠퍼스, 회사, 기관, 마을 등의 단지 내 감시 및 인적 또는 물적 수송과 같은 단거리 주행을 목적으로 하는 인공 지능 기반의 자율 주행 로봇을 목적에 맞게 낮은 부하를 준 상태로 동작하도록 하여 빠른 동작을 보장하고 로봇의 메모리 및 연산 용량을 작게 구성할 수 있는 효과가 있다.
또한, 본 발명의 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법은 장애물이 발생하는 영역을 구분하여 장애물이 출현한 지역에 따라 다른 경고음을 발생시켜 청각만으로 로봇이 장애물이 발생한 지역을 구분하여 인지할 수 있도록 하고 로봇 입장에서 장애물로 인지되는 사람은 현재 자신이 로봇에 의해 어떤 방향에 있는 장애물로 인지되었음을 인지하여 용이하게 회피할 수 있도록 한 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 이동로봇의 구성을 개략적으로 나타낸 블록 구성도.
도 2는 본 발명의 일 실시예에 따른 장애물 탐지하고 경로 추종하는 과정을 나타낸 순서도.
도 3은 본 발명의 일 실시예에 따른 도 2에서 데이터필터링하는 과정을 나타낸 순서도.
도 4는 본 발명의 일 실시예에 따라 필터링 하기 전의 영상과 필터링 한 이후의 결과를 나타낸 도면.
도 1은 본 발명의 일 실시예에 따른 이동로봇의 구성을 개략적으로 나타낸 블록 구성도이다.
도 1을 참조하면, 본 발명의 이동로봇(10)은 스테레오 카메라(110), 단지 내 GPS 데이터베이스(120) 및 제어부(130)를 포함하여 구성된다.
먼저, 이동로봇(10)은 캠퍼스와 같이 한정된 공간이 단지 내에서 동작하며 GPS 데이터베이스(120)에 의해 경로를 추종하여 스테레오 카메라에 의해 측정된 장애물을 회피하여 기동하며, 제어부(130)는 GPS 데이터베이스(120)의 경로와 장애물의 위치를 연산하여 안전하게 이동로봇(10)이 이동할 수 있도록 연산하고 제어한다.
도 2는 본 발명의 일 실시예에 따른 장애물 탐지하고 경로 추종하는 과정을 나타낸 순서도이다.
도 2를 참조하면, 먼저, S202단계에서 이동로봇(10)은 상기 스테레오 카메라(110)를 이용하여 이미지 정보를 수집한다. 스테레오 카메라(110)는 각각의 카메라가 바라보는 영상의 차이 정보를 이용하여 삼각측량의 원리에 기반하여 거리를 계산한다. 사람의 눈은 왼쪽 눈과 오른쪽 눈에 들어오는 영상의 차이를 통해 입체감을 느끼게 되며, 스테레오 카메라(110)는 이러한 사람 눈의 원리와 비슷한 거리 측정 방식에 따라 이미지를 측정한다.
S204단계에서 이동로봇(10)은 스테레오 카메라(110)의 수집된 이미지 정보에서 해당 픽셀 별로 깊이영상을 획득한다.
S206단계에서 이동로봇(10)은 평면정보와 그 이외의 정보를 구분하기 위하여 획득된 영상에 대하여 데이터필터링한다. 여기서 벽이나 바닥과 같은 정보를 평면정보로 지칭하며 전술한 바와 같이 소정의 실험 영역에서 대략 94.1%가 평면정보로 나타났다. 즉, 대부분의 영역에서 평면정보가 대부분을 차지하는 것을 확인할 수 있다. 그리고 평면정보를 제외한 삼각대와 푯말 등의 특정 물체는 1.5%에 지나지 않는다.
S208단계에서 상기 데이터필터링하여 나온 정보에서 선형적으로 나온 평면정보 이외의 정보를 장애물로 인지한다. 즉, 건물이나, 평평한 바닥은 장애물로 인지 되지 않는다. 특히 특정한 영역의 단지 내에서는 장애물이 되지 않는다. 본 발명에서는 0.7 내지 2m의 정확도를 갖는 GPS 시스템을 사용하였으며 이 경우 특히 건물이나 평지가 장애물이 되지 않는다.
S210단계에서 장애물의 위치를 3개의 권역으로 나누어 3개의 권역 중 어떤 위치에 있는 지의 여부를 판단한다.
상기 장애물의 위치를 3개의 권역으로 나누는 단계는, 상기 로봇의 추종 방향을 중심으로 -15 및 +15도 이내의 영역을 중심측, -15도 미만의 영역을 좌측, +15도 초과의 영역을 우측으로 구분하도록 구성될 수 있다. 즉, 3개의 권역은 좌측 우측 및 중앙의 권역인 중심측으로 구분되고 중심측은 30도의 범위를 가질 수 있다.
한편, 상기 장애물의 위치는 상기 스테레오 카메라로 수집된 후 분류된 정보는 각 각 x축, y축, z축에 관한 좌표 값들을 가지게 되고 각각의 좌표를 이용하여 다음의 각도
Figure pat00018
을 구할 수 있도록 구성될 수 있다.
Figure pat00019
여기서, 각각 x값은
Figure pat00020
로 나타내고, y값은
Figure pat00021
로 나타내며, z값은
Figure pat00022
로 나타낼 수 있다.
S212단계에서 상기 3개의 권역에 따라 다른 경고음을 출력한다. 경고음은 음성 형태로 출력될 수도 있으며, 비퍼음 형태의 강한 경고음 형태로 출력될 수도 있다. 이때, 비퍼음으로 출력되는 경우 전술한 바와 같이 중심측, 우측 및 좌측의 음을 달리하여 출력할 수 있다.
도 3은 본 발명의 일 실시예에 따른 도 2에서 데이터필터링하는 과정을 나타낸 순서도이다.
도 3을 참조하면, 먼저, S302단계에서 데이터에 대한 벡터의 크기(Vector Size)와 표준편차(Maximum Error)를 계산한다.
S304단계에서 상기 벡터의 크기를 설정한다. 이는 삼각대의 위치를 각각 다르게 놓아둔 것을 최소자승법을 이용한 필터링한 결과 벽의 평면 정보는 필터링 되어 버려 사라질 수 있다. 그러나, 가장 앞에 위치하고 있는 삼각대도 벽처럼 인식되어 필터링이 될 수 있다. 이는 가장 앞에 위치하고 있는 삼각대의 벡터의 크기가 벽과 마찬가지로 크기 때문이라는 것을 확인하였다. 즉, 이와 같은 문제점을 해결하기 위해서는 깊이 데이터에 따라 벡터의 크기를 변화시켰다.
벡터의 크기 변화는 멀리 위치해 있는 물체이면 벡터의 크기를 작게 하고 가까이는 물체는 벡터의 크기를 크게 하여 가까이 있는 장애물이 평면정보로 인지되어 사라지는 문제를 해결할 수 있다.
S306단계에서 상기 선정된 데이터에 대하여 1차 함수와 최소자승법을 이용하여 최적함수를 유도한다. 최적함수의 유도는 하나의 깊이 데이터 기준으로 x축, y축방향으로 각각 벡터의 크기만큼 선정하여 y=ax+b로 최적함수로 유도한다. 이를 수학식으로 나타내면 다음의 수학식 2로 나타낼 수 있다.
Figure pat00023
여기서, 깊이영상에서의 위치 주소값을
Figure pat00024
라 하고 그에 대한 깊이 측정값을
Figure pat00025
라 하며, 선형 모델 함수
Figure pat00026
에 대한 예측값
Figure pat00027
와 측정값
Figure pat00028
와의 차이를
Figure pat00029
(error, res)로 정의한다.
최적함수는 선정된 데이터에 대하여 1차 함수와 최소자승법을 이용하여 유도한다. 먼저, 상기 수학식 2에 1차 함수인
Figure pat00030
를 대입하고 다음의 수학식 3으로 나타낸다.
Figure pat00031
상기 수학식 3을 전개하여 a와 b에 대해 각각 편미분한 값이 0이 되도록 다음의 수학식 4 및 수학식 5로 각각 나타낸다.
Figure pat00032
Figure pat00033
상기 수학식 4 및 수학식 5로부터 a와 b값을 구하여 최적합수
Figure pat00034
를 유도할 수 있다.
S308단계에서 전술한 수학식 2에서의 입력 데이터에 대한 오차(
Figure pat00035
, res)를 구해 처음에 지정했던 표준편차(Maximum Error)와 비교한다.
S308단계에서 판단하여 오차(
Figure pat00036
, res)가 상기 표준편차 이하인 경우, 선형성으로 판단되는 경우 깊이 데이터를 제외시킨다(S310단계). 즉, 오차(
Figure pat00037
, res)가 상기 표준편차 이하인 경우에는 평면정보인 것으로 판단하여 깊이 데이터를 제외시킨다(S310단계).
S308단계에서 판단하여 오차(
Figure pat00038
, res)가 상기 표준편차를 초과하는 경우, 비선형성이라 판단되어 깊이 데이터를 보존한다(S312단계). 즉, 평면정보가 아닌 것, 즉 장애물로 판단하여 깊이 데이터를 보존한다.
도 4는 본 발명의 일 실시예에 따라 필터링 하기 전의 영상과 필터링 한 이후의 결과를 나타낸 도면이다.
도 4를 참조하면, 도 4의 (a)는 삼각대의 위치를 각각 다르게 놓아둔 것을 이미치화시킨 도면이다. 도 4의 (b)는 최소자승법을 이용한 필터링 알고리즘을 이용하여 실시간으로 필터링한 것을 타나낸 도면이다. 도 4의 (b)의 결과 벽의 평면 정보는 필터링 되는 것을 볼 수 있다. 하지만 가장 앞에 위치하고 있는 삼각대도 같이 필터링이 된 것을 볼 수 있다.
원인은 가장 앞에 위치하고 있는 삼각대의 벡터의 크기가 벽과 마찬가지로 크기 때문이라는 것을 확인하였다. 전술한 바와 같이 이 문제점을 해결하기 위해서는 깊이 데이터에 따라 벡터의 크기를 변화시키는 아이디어를 구상하여 단계 304에서 벡터의 크기를 설정하여 이와 같은 오류를 제거할 수 있다. 멀리 위치해 있는 물체이면 벡터의 크기를 작게 하고 가까이는 물체는 벡터의 크기를 크게 한다.
도 4의 (c)는 최소자승법을 이용한 알고리즘에서 깊이 정보에 따라 벡터의 크기를 설정할 수 있는 내용을 추가한 것이다. 도 4의 (c)에서는 벽만 없어진 것을 볼 수 있다. 하지만 도 4의 (c)에서는 도 4의 (b)에 비해 벽이 적게 제외되었음을 알 수 있다.
상기 본 발명의 내용은 도면에 도식된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (7)

  1. 소정의 단지 내에서 자율주행하는 로봇을 GPS와 스테레오 카메라에 의해 추종하며 추종된 결과에 따라 경로와 추정하고 장애물을 계산하는 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법에 있어서,
    상기 로봇이 상기 스테레오 카메라로 이미지 정보를 수집하는 단계;
    수집된 이미지 정보에서 해당 픽셀 별로 깊이영상을 획득하는 단계;
    평면정보와 그 이외의 정보를 구분하기 위하여 획득된 영상에 대하여 데이터필터링하는 단계;
    상기 필터링하여 나온 정보에서 선형적으로 나온 평면정보 이외의 정보를 장애물로 인지하는 단계;
    상기 장애물의 위치를 3개의 권역으로 나누어 3개의 권역 중 어떤 위치에 있는 지의 여부를 판단하는 단계; 및
    상기 3개의 권역에 따라 다른 경고음을 출력하는 단계;를 포함하는 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법.
  2. 제1항에 있어서, 상기 데이터 필터링하는 단계는,
    데이터에 대한 벡터의 크기(Vector Size)와 표준편차(Maximum Error)를 계산하는 단계;
    하나의 깊이 데이터 기준으로 x축, y축방향으로 각각 벡터의 크기만큼 선정하는 단계;
    상기 선정된 데이터에 대하여 1차 함수와 최소자승법을 이용하여 최적함수를 유도하는 단계;
    상기 최소자승법을 사용하여 오차(res)를 구해 처음에 지정했던 표준편차(Maximum Error)와 비교하는 단계;
    상기 비교하는 단계에서 오차(res)가 상기 표준편차 이하이며 선형성이라 판단되어 깊이 데이터를 제외시키는 단계; 및
    상기 비교하는 단계에서 오차(res)가 상기 표준편차를 초과하는 경우면 비선형성이라 판단되어 깊이 데이터를 보존하는 단계;를 포함하는 것인 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법.
  3. 제2항에 있어서, 상기 벡터의 크기(Vector Size)와 표준편차(Maximum Error)를 계산하는 단계 이후에,
    상기 벡터의 크기를 설정하는 단계;를 더 포함하도록 구성되는 것인 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법.
  4. 제3항에 있어서, 상기 최적함수를 유도하는 단계는,
    다음의 수학식으로 나타내도록 구성되는 것인 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법.
    Figure pat00039

    여기서, 깊이영상에서의 위치 주소값을
    Figure pat00040
    라 하고 그에 대한 깊이 측정값을
    Figure pat00041
    라 하며, 선형 모델 함수
    Figure pat00042
    에 대한 예측값
    Figure pat00043
    와 측정값
    Figure pat00044
    와의 차이를 식 (1)과 같이
    Figure pat00045
    (error, res)로 정의함
  5. 제4항에 있어서, 상기 선정된 데이터에 대하여 1차 함수와 최소자승법을 이용하여 최적함수를 유도하는 단계는,
    상기 수학식에 1차 함수인
    Figure pat00046
    를 대입하고 다음의 수학식으로 나타내고,
    Figure pat00047

    상기 수학식를 전개하여 a와 b에 대해 각각 편미분한 값이 0이 되도록 다음과 같이 나타내고,
    Figure pat00048

    Figure pat00049

    상기 수학식에서 a와 b값을 구하여 최적합수
    Figure pat00050
    를 유도하도록 구성되는 것인 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법.
  6. 제1항에 있어서, 상기 장애물의 위치를 3개의 권역으로 나누는 단계는,
    상기 로봇의 추종 방향을 중심으로 -15 및 +15도 이내의 영역을 중심축, -15도 미만의 영역을 좌측, +15도 초과의 영역을 우측으로 구분하도록 구성되는 것인 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법.
  7. 제6항에 있어서, 상기 장애물의 위치는,
    상기 스테레오 카메라로 수집된 후 분류된 정보는 각 각 x축, y축, z축에 관한 좌표 값들을 가지게 되고 각각의 좌표를 이용하여 다음의 각도
    Figure pat00051
    을 구할 수 있도록 구성될 수 있다. 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법.
    Figure pat00052

    여기서, 각각 x값은
    Figure pat00053
    로 나타내고, y값은
    Figure pat00054
    로 나타내며, z값은
    Figure pat00055
    로 나타낼 수 있음.
KR1020180085651A 2018-07-23 2018-07-23 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법 KR20200017572A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180085651A KR20200017572A (ko) 2018-07-23 2018-07-23 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180085651A KR20200017572A (ko) 2018-07-23 2018-07-23 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법

Publications (1)

Publication Number Publication Date
KR20200017572A true KR20200017572A (ko) 2020-02-19

Family

ID=69670409

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180085651A KR20200017572A (ko) 2018-07-23 2018-07-23 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법

Country Status (1)

Country Link
KR (1) KR20200017572A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114047753A (zh) * 2021-11-03 2022-02-15 哈尔滨鹏路智能科技有限公司 一种基于深度视觉的扫地机器人障碍物识别和避障方法
TWI759051B (zh) * 2020-12-31 2022-03-21 創科智盈科技有限公司 自走裝置及其自動歸位方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150058679A (ko) 2013-11-20 2015-05-29 한국전자통신연구원 단지내 도로에서 자율주행차량의 위치 및 해딩 정보 제공 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150058679A (ko) 2013-11-20 2015-05-29 한국전자통신연구원 단지내 도로에서 자율주행차량의 위치 및 해딩 정보 제공 장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI759051B (zh) * 2020-12-31 2022-03-21 創科智盈科技有限公司 自走裝置及其自動歸位方法
CN114047753A (zh) * 2021-11-03 2022-02-15 哈尔滨鹏路智能科技有限公司 一种基于深度视觉的扫地机器人障碍物识别和避障方法

Similar Documents

Publication Publication Date Title
JP5997797B2 (ja) 車両の地図データ処理装置
Marín-Plaza et al. Stereo vision-based local occupancy grid map for autonomous navigation in ros
JP5314548B2 (ja) 自律移動システム及び自律移動装置
KR101711964B1 (ko) 자유 공간 지도 생성 방법, 자유 공간 지도 생성 시스템, 자유 공간 지도를 이용한 전경/배경 추출 방법 및 전경/배경 추출 시스템
KR20150058679A (ko) 단지내 도로에서 자율주행차량의 위치 및 해딩 정보 제공 장치 및 방법
US8078399B2 (en) Method and device for three-dimensional path planning to avoid obstacles using multiple planes
EP3904992B1 (en) Positioning apparatus and moving body
EP3905213B1 (en) Positioning apparatus and moving body
Ruotsalainen et al. A two-dimensional pedestrian navigation solution aided with a visual gyroscope and a visual odometer
US20240061126A1 (en) System and method for collaborative calibration via landmark
US11035679B2 (en) Localization technique
CN111469127A (zh) 代价地图更新方法、装置、机器人及存储介质
Dieterle et al. Sensor data fusion of LIDAR with stereo RGB-D camera for object tracking
EP3217376A2 (en) Object detecting device, object detecting method, and computer-readable medium
KR20200017572A (ko) 한정된 공간에서의 이동 로봇의 자율 주행을 위한 장애물 탐지 방법
Jiménez et al. Improving the lane reference detection for autonomous road vehicle control
Kim et al. Localization of a car based on multi-sensor fusion
Badino et al. Stereo-based free space computation in complex traffic scenarios
Parra-Tsunekawa et al. A kalman-filtering-based approach for improving terrain mapping in off-road autonomous vehicles
JP2011047836A (ja) 新規なセンサフュージョン手法を用いた、移動体の状態推定のための装置、方法、およびプログラム
Szabó et al. Smartphone based HD map building for autonomous vehicles
Sajeed et al. Vehicle lane departure estimation on urban roads using GIS information
EP4141482A1 (en) Systems and methods for validating camera calibration in real-time
KR20190005189A (ko) 차간 거리 추정 방법 및 차간 거리 추정 장치
CN117635721A (zh) 目标定位方法及相关***、存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application