KR101762504B1 - 레이저 거리 센서를 이용한 바닥 장애물 검출 방법 - Google Patents

레이저 거리 센서를 이용한 바닥 장애물 검출 방법 Download PDF

Info

Publication number
KR101762504B1
KR101762504B1 KR1020150122424A KR20150122424A KR101762504B1 KR 101762504 B1 KR101762504 B1 KR 101762504B1 KR 1020150122424 A KR1020150122424 A KR 1020150122424A KR 20150122424 A KR20150122424 A KR 20150122424A KR 101762504 B1 KR101762504 B1 KR 101762504B1
Authority
KR
South Korea
Prior art keywords
floor
distance sensor
value
laser distance
characteristic data
Prior art date
Application number
KR1020150122424A
Other languages
English (en)
Other versions
KR20170026857A (ko
Inventor
정우진
이현석
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020150122424A priority Critical patent/KR101762504B1/ko
Priority to US15/245,425 priority patent/US10514702B2/en
Publication of KR20170026857A publication Critical patent/KR20170026857A/ko
Application granted granted Critical
Publication of KR101762504B1 publication Critical patent/KR101762504B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • G01S17/026
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • G01C7/04Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Robotics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Transportation (AREA)

Abstract

본 발명은 레이저 거리 센서를 이용한 바닥 장애물 검출 방법에 관한 것으로, (a) 바닥 장애물이 존재하지 않는 평평한 정상 주행면에 대한 정상 바닥 특성 데이터가 생성되는 단계와; (b) 상기 정상 바닥 특성 데이터가 기 등록된 단일 클래스 분류 기법에 등록되는 단계와; (c) 이동 로봇의 주행에 따라 상기 레이저 거리 센서의 센싱값이 획득되는 단계와; (d) 상기 센싱값에 대한 센싱값 바닥 특성 데이터가 생성되는 단계와; (e) 상기 센싱값 바닥 특성 데이터가 상기 단일 클래스 분류 기법에 적용되어 상기 센싱값이 정상 주행면인지 바닥 장애물인지 결정되는 단계를 포함하는 것을 특징으로 한다. 이에 따라, 레이저 거리 센서를 이용하여 이동 로봇의 주행 경로 상에 존재하는 상대적으로 작은 바닥 장애물을 포함한 장애물을 보다 효과적으로 검출하여 이동 로봇의 주행 가능 영역을 보다 안정적으로 확보할 수 있게 된다.

Description

레이저 거리 센서를 이용한 바닥 장애물 검출 방법{METHOD FOR DETECTING FLOOR OBSTACLE USING LASER RANGE FINDER}
본 발명은 레이저 거리 센서를 이용한 바닥 장애물 검출 방법에 관한 것으로서, 보다 상세하게는 레이저 거리 센서를 이용하여 이동 로봇의 주행 경로 상에 존재하는 상대적으로 작은 바닥 장애물을 검출하기 위한 바닥 장애물 검출 방법에 관한 것이다.
서비스 분야에서 이동 로봇의 자율주행을 접목하기 위한 연구가 지속적으로 연구되고 있다. 이러한 배경에서 주어진 환경으로부터 이동 로봇의 주행 가능한 영역을 분류하는 것은 이동 로봇의 안전한 주행을 위해 우선적으로 수행되어야 한다. 주행 가능 영역의 검출 성능은 로봇의 안전뿐 만 아니라 주행 성능에도 영향을 줄 뿐만 아니라, 로봇 플랫폼이 전복되는 주행 실패 상황을 방지하는데 에도 중요한 영향을 미친다.
주어진 환경에서 이동 로봇의 주행가능성 분석에 대한 연구가 지속적으로 진행되어 왔다. 주행 가능성 분석을 위해 가장 널리 쓰이는 방법은 H. P. Moravec와 A. Elfes의 논문 "High resolution maps from wide angle sonar(IEEE International Conference on Robotics and Automation, pp.116-121, 1985.)"에 개시된 점유 그리드 맵(Occupancy grid map) 기반의 지형 인식 방법이다. 이는, 2D 그리드 맵의 그리드 셀에 저장된 지형 데이터들의 특성을 이용하여 지형을 분석하는 방법이다.grid cell에 저장된 지형 데이터들의 feature를 이용하여 지형을 분석하는 방법이다.
Patrick Pfaff 등의 논문 "An efficient extension to elevation maps for outdoor terrain mapping and loop closing(The International Journal of Robotics Research, vol. 26, no. 2, pp. 217-230, 2007.)"에서는 2D 고도 맵(Elevation map)을 이용하여 주행 가능성 분석 및 지형 매핑(Terrain mapping)을 수행하였다.
상기와 같은 그리드 맵 기반의 주행 가능성 분석은 밀집한 3D 포인트 클라우드(Point cloud)가 형성되었을 때 다수의 데이터를 분석하기가 용이한 방법이다. 하지만, 2D 레이저 거리 센서를 이용할 경우 각 그리드 셀에 거리 정보가 희박하기 때문에 데이터 분석에 어려움이 있다. 또한 그리드 해상도(Grid resolution)에 의해 검출 가능한 장애물의 크기가 제한된다는 단점이 있다.
한편, 실내 환경에서는 센서의 측정 범위가 제한되어 있다. 또한 로봇 플랫폼이 낼 수 있는 속도가 제한적이므로 넓은 영역의 지면을 측정하기보다 이동 로봇 근방의 지형을 정확하게 측정하는 것이 중요하다. 측정 범위가 넓은 3D레이저 센서의 경우 이동 로봇 근방의 지형을 측정하기가 어려울 뿐만 아니라, 비싼 가격 때문에 이동 로봇 근방의 지형만을 보기 위한 추가적인 3D 센서를 장착하기에는 어려움이 있다.
이러한 문제를 해결하기 위해 2D 레이저 거리 센서를 지면을 향해 기울여 설치하는 것은 유용한 해결책이 될 수 있다. 2D 레이저 거리 센서를 이용하는 경우, 이동 로봇 근방의 지형을 정확하게 측정할 수 있으며, 지면 측정에 집중함으로써 데이터의 처리가 용이한 장점이 있다.
J. C. Andersen 등의 논문 "Traversable terrain classification for outdoor autonomous robots using single 2D laser scans(Integrated Computer-aided engineering, vol. 13, no. 3, pp. 223-232, 2006.)"에서는 기울인 2D 레이저 거리 센서를 이용하여 주행 가능 영역을 검출하는 방법을 제안하고 있다. J. C. Andersen 등의 논문에서는 측정 데이터의 높이, 분산, 기울기 등 특징을 추출하고, 주행 가능 영역을 정의하였다.
그런데, 다수의 특징으로부터 주행면을 분류하기 위해 휴리스틱 문턱치(Heuristic threshold)에 의존한다는 단점이 있어, 특정 환경이나 플랫폼에 대해 휴리스틱 상수가 재정의되어야하는 어려움이 있다.
한편, 학습 기법에 기반한 주행면 분류 기법에 대한 연구가 진행되어 왔다. 일 예로, M. W. McDaniel 등의 논문"Terrain classification and identification of tree stems using ground??based LiDAR(Journal of Field Robotics, vol. 29, no.6, pp. 891-910, 2012.)"을 통해 제안된 Support Vector Machine(SVM)은 주변 환경의 데이터 분류를 위해 가장 널리 사용되는 방법이다.
이외에도, Kai M. Wurm 등은 논문 "Improving robot navigation in structured outdoor environments by identifying vegetation from laser data(IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 1217-1222, 2009.)와, 논문 "Identifying vegetation from laser data in structured outdoor environments(Robotics and Autonomous Systems, vol. 62, no. 5, pp.675-684, 2014.)"에서 레이저 거리 센서를 이용하여 초목 지역을 구분하기 위한 지형 분류 기법을 제안한 바 있다.
상기와 같은 방법들은 이동 로봇이 주행 가능한 주행 가능 영역에 대한 데이터 뿐만 아니라 장애물에 해당하는 장애물 데이터를 이용하여 훈련데이터를 구성하여야 하므로, 다양한 종류와 크기의 장애물에 대해 많은 양의 데이터를 수집해야하는 어려움이 있다.
또한, 장애물 중 비교적 큰 장애물, 예를 들어, 주행 경로 상에 나타나는 사람이나 책상 등과 같은 장애물은 상술한 방법들을 통해 상대적으로 쉽게 검출할 수 있으나, 주행면의 바닥면에 위치하는 상대적으로 작은 사이즈의 장애물은 쉽게 검출하지 못하는 단점이 있다.
예를 들어, 이동 로봇의 주행을 방해할 수 있는 정도의 박스지와 같은 쓰레기가 떨어져 있거나, 바닥면을 구성하는 타일 등이 상부로 돌출되는 경우, 이들은 이동 로봇의 주행을 방해하는 장애물로 작용하게 된다.
이와 같이, 주행 경로 상에 위치한 극단적으로 작은 장애물에 의해서도 로봇 플랫폼이 주행 불가능한 상황이 발생하게 되는데, 상술한 방법들 만으로는 이에 대처할 수 없다.
이에, 본 발명은 상기와 같은 문제점을 해소하기 위해 안출된 것으로서, 레이저 거리 센서를 이용하여 이동 로봇의 주행 경로 상에 존재하는 상대적으로 작은 바닥 장애물을 포함한 장애물을 보다 효과적으로 검출하여 이동 로봇의 주행 가능 영역을 보다 안정적으로 확보할 수 있는 레이저 거리 센서를 이용한 바닥 장애물 검출 방법을 제공하는데 그 목적이 있다.
상기 목적은 본 발명에 따라, 레이저 거리 센서를 이용한 바닥 장애물 검출 방법에 있어서, (a) 바닥 장애물이 존재하지 않는 평평한 정상 주행면에 대한 정상 바닥 특성 데이터가 생성되는 단계와; (b) 상기 정상 바닥 특성 데이터가 기 등록된 단일 클래스 분류 기법에 등록되는 단계와; (c) 이동 로봇의 주행에 따라 상기 레이저 거리 센서의 센싱값이 획득되는 단계와; (d) 상기 센싱값에 대한 센싱값 바닥 특성 데이터가 생성되는 단계와; (e) 상기 센싱값 바닥 특성 데이터가 상기 단일 클래스 분류 기법에 적용되어 상기 센싱값이 정상 주행면인지 바닥 장애물인지 결정되는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 바닥 장애물 검출 방법에 의해서 달성된다.
여기서, 상기 (a) 단계는 (a1) 상기 이동 로봇이 상기 정상 주행면을 주행하는 단계와; (a2) 상기 (a1) 단계를 통한 상기 정상 주행면의 주행에 따라 상기 레이저 거리 센서의 센싱값로부터 정상 주행면 데이터를 수집하는 단계와; (a3) 상기 정상 주행면 데이터에 기초하여 상기 정상 바닥 특성 데이터가 생성되는 단계를 포함할 수 있다.
또한, 상기 정상 주행면 데이터는 상기 레이저 거리 센서의 각 측정점에서의 상기 이동 로봇의 국소 좌표계에서의 국소 좌표값과; 상기 각 측정점에서 실제 주행면 선분과 상기 국소 좌표값 간의 수직 거리를 포함할 수 있다.
그리고, 상기 정상 바닥 특성 데이터는 상기 각 측정점에서 현재 국소 좌표값과 이전 국소 좌표값들 간의 마할라노비스 거리와; 상기 각 측정점에서 현재 직선 거리와 이전 직선 거리들 간의 마할라노비스 거리를 포함할 수 있다.
또한, 상기 단일 클래스 분류 기법은 카이 제곱 테스트 기법과 SVDD 기법 중 어느 하나를 포함할 수 있다.
그리고, (f) 상기 레이저 거리 센서의 각 측정점에서의 바이어스 오차값을 산출하는 단계를 더 포함하며; 상기 (a2) 단계 및 상기 (a) 단계에서 상기 레이저 거리 센서의 각 측정점에서의 센싱값은 상기 바이어스 오차값에 의해 보정될 수 있다.
그리고, 상기 (f) 단계는 (f1) 상기 이동 로봇의 정지 상태에서 상기 레이저 거리 센서에 의해 정상 주행면을 복수회 스캔하여 센싱값을 획득하는 단계와; (f2) 상기 (f1) 단계에서 획득된 센싱값을 1차원 칼만 필터에 적용하여, 각 측정점에서의 바닥면의 높이값을 추정하는 단계와; (f3) 추정된 상기 높이값에 기초하여 각 측정점과 상기 레이저 거리 센서 간의 거리값의 오차를 각 측정점에 대한 상기 바이어스 오차값으로 산출하는 단계를 포함할 수 있다.
상기와 같은 구성에 따라, 본 발명에 따르면, 레이저 거리 센서를 이용하여 이동 로봇의 주행 경로 상에 존재하는 상대적으로 작은 바닥 장애물을 포함한 장애물을 보다 효과적으로 검출하여 이동 로봇의 주행 가능 영역을 보다 안정적으로 확보할 수 있게 된다.
또한, 레이저 거리 센서 자체에서 발생하는 바이어스 오차를 실제 센싱값에 반영하여 이를 보정함으로써, 작은 높이의 바닥 장애물을 보다 정확하게 검출 가능하게 된다.
도 1은 본 발명에 따른 이동 로봇과 레이저 거리 센서의 좌표 프레임 구조를 나타낸 도면이고,
도 2는 본 발명에 따른 레이저 거리 센서를 이용한 바닥 장애물 검출 방법을 설명하기 위한 도면이고,
도 3은 본 발명에 따른 레이저 거리 센서를 이용한 바닥 장애물 검출 방법에서 정상 주행면 데이터를 설명하기 위한 도면이고,
도 4는 본 발명에 따른 SVDD 기법을 통해 훈련 데이터를 이용하여 얻어진 결정 경계의 예를 나타낸 도면이고,
도 5는 레이저 거리 센서를 이용하여 평평한 바닥을 측정한 실험 결과를 나타낸 그래프이고,
도 6은 도 5의 실험 결과에서 각 측정점에서의 높이의 평균을 나타낸 것이고,
도 7은 본 발명에 따른 레이저 거리 센서를 이용한 바닥 장애물 검출 방법에서 바이어스 오차값에 의한 보정 원리를 설명하기 위한 도면이고,
도 8은 본 발명에 따른 레이저 거리 센서를 이용한 바닥 장애물 검출 방법에서 바이오스 오차의 반영 전후의 측정 높이를 나타낸 도면이다.
이하에서는 첨부된 도면들을 참조하여 본 발명에 따른 실시예들에 대해 상세히 설명한다.
도 1은 본 발명에 따른 이동 로봇과 레이저 거리 센서의 좌표 프레임 구조를 나타낸 도면이다. 본 발명에서는 레이저 거리 센서로 2D 레이저 거리 센서가 적용되는 것을 예로 하며, 전방을 향해 일정 각도 단위로 레이저를 조사하여 반사되어온 레이저를 감지하여 거리를 측정한다.
도 1을 참조하여 설명하면, 레이저 거리 센서는 기울임 각 θtilt 만큼 지면을 향해 기울여진 상태로 이동 로봇에 설치된다. 레이저 거리 센서의 i 번째 측정점 pi는 레이저 거리 센서로부터의 거리 li와 각도 φi의 센싱값을 갖는다.
도 2는 본 발명에 따른 레이저 거리 센서를 이용한 바닥 장애물 검출 방법을 설명하기 위한 도면이다.
먼저, 바닥 장애물이 존재하지 않는 평평한 정상 주행면에 대한 정상 바닥 특성 데이터를 생성한다(S11). 본 발명에서는 정상 바닥 특성 데이터의 생성을 위해 이동 로봇이 바닥 장애물이 존재하지 않는 평평한 정상 주행면을 주행하는 것을 예로 한다.
보다 구체적으로 설명하면, 측정자가 이동 로봇의 실제 주행 환경 내에서 바닥 장애물이 존재하지 않는 평평한 정상 주행면을 수동으로 이동 로봇을 주행시킨다.
그런 다음, 이동 로봇의 주행에 따라 레이저 거리 센서의 센싱값으로부터 정상 주행면 데이터가 수집된다(S10). 여기서, 일정 시간 동안의 이동 로봇의 주행을 통해 측정된 정상 주행면 데이터는 윈도우 사이즈 n인 롤링 윈도우(Rolling window) 상에 축적되는 것을 예로 한다.
본 발명에서는 정상 주행면 데이터가, 도 3에 도시된 바와 같이, 레이저 거리 센서의 각 측정점(SP, 이하 동일)에서의 센싱값에 기초한 이동 로봇의 국소 좌표계에서의 국소 좌표값과, 각 측정점에서 실제 주행면 선분(FL)과 국소 좌표계 간의 수직 거리를 포함하는 것을 예로 한다.
여기서, 주행면 선분(FL)은 레이저 거리 센서가 이상적으로 스캔하였을 때, 즉 주행면이 이상적으로 평평하고 장애물이 없을 때 스캔되는 이동 로봇 전방의 선분이다. 본 발명에서는 주행면 선분(FL)을 최소자승법을 이용하여 추출하는 것을 예로 한다.
상기와 같이, 각각의 시간 단위와 측정점에 대해 정상 주행면 데이터가 수집되면, 정상 주행면 데이터를 이용하여 정상 바닥 특성 데이터를 생성한다(S11).
본 발명에서는 상술한 두 가지의 정상 주행면 데이터 각각에 대해 정상 바닥 특성 데이터를 생성하는 것을 예로 한다. 즉, 각 측정점에서 현재 국소 좌표값과 이전 국소 좌표값들 간의 마할라노비스 거리를 하나의 정상 바닥 특성 데이터로 생성하고, 각 측정점에서 현재 직선 거리와 이전 직선 거리들 간의 마할라노비스 거리를 다른 하나의 정상 바닥 특성 데이터로 생성한다. 여기서, 마할라노비스 거리는 새로 측정된 값이 이전 값들로부터 얼마나 벗어났는지를 의미한다.
국소 좌표값에 대한 마할라노비스 거리와 수직 거리에 대한 마할라노비스 거리는 각각 [수학식 1] 및 [수학식 2]를 통해 산출될 수 있다.
[수학식 1]
Figure 112015084150996-pat00001
[수학식 2]
Figure 112015084150996-pat00002
여기서, di는 i 번째 측정점에서의 국소 좌표값에 대한 마할라노비스 거리이고, zi는 i 번째 측정점의 국소 좌표값이고, μi는 축적된 i 번째 측정점들의 평균이고, 축적된 i 번째 Σi는 측정점들의 공분산이다. 또한, ri는 i 번째 측정점에서의 수직 거리에 대한 마할라노비스 거리이고, ei는 i 번재 측정점에서의 수직 거리이고, mi는 축적된 i 번째 측정점들의 수직 거리의 평균이고, si는 축적된 i 번째 측정점들의 수직 거리의 표준편차이다.
상기와 같은 방법을 통해 정상 바닥 특성 데이터가 생성되면, 생성된 정상 바닥 특성 데이터를 기 등록된 단일 클래스 분류 기법(One-class classification method)에 등록한다(S12). 본 발명에서는 단일 클래스 분류 기법으로 카이 제곱 테스트(Chi-square test) 기법과 SVDD(Support Vector Data Description) 기법 중 어느 하나가 적용되는 것을 예로 하는데, 이에 대한 상세한 설명은 후술한다.
상기와 같은 과정을 통해 정상 바닥 특성 데이터와 단을 클래스 분류 기법이 이동 로봇에 등록된 상태에서, 이동 로봇이 실제 주행 환경을 자율 주행하게 되면(S13), 이동 로봇에 설치된 레이저 거리 센서로부터 센싱값이 획득된다(S14).
레이저 거리 센서에 의해 센싱값이 획득되면, 센싱값으로부터 센싱값 바닥 특성 데이터가 생성된다(S15). 여기서, 센싱값 바닥 특성 데이터는 정상 바닥 특성 데이터는 정상 바닥 특성 데이터와 동일한 방법으로 생성된다.
보다 구체적으로 설명하면, 각 측정점의 센싱값에 기초하여 각 측정점에서 이동 로봇의 국소 좌표계에서의 국소 좌표값과, 각 측정점에서 실제 주행면 선분(FL)과 국소 좌표계 간의 수직 거리를 산출한다.
그런 다음, 각 측정점에서 현재 센싱값에 대한 국소 좌표값과 이전 국소 좌표값들 간의 마할라노비스 거리와, 각 측정점에서 현제 센싱값에 대한 직선 거리와 이전 직선 거리들 간의 마할라노비스 거리를 센싱값 바닥 특성 데이터로 생성하게 된다.
상기와 같이, 현재 측정된 센싱값에 기초하여, 각 측정점에 대한 센싱값 바닥 특성 데이터가 생성되면, 센싱값 바닥 특성 데이터를 단일 클래스 분류 기법에 적용하여(S16) 해당 센싱값, 즉 해당 측정점에 정상 주행면인지 바닥 장애물인지를 판단하게 된다(S17).
먼저, 본 발명에 따른 단을 클래스 분류 기법으로 카이 제곱 테스트 기법이 적용되는 경우를 예로 하여 설명한다.
주행면에 대한 전역 좌표값 중 z와 수직 거리 e가 가우시안(Gaussian) 분포를 따른다고 가정하면, [수학식 1] 및 [수학식 2]는 카이 제곱 분포를 따르게 된다. 카이 제곱 분포를 따르는 d와 r 변수에 대한 99.9%의 신뢰 구간은 [수학식 3]에 의해 결정된다.
[수학식 3]
Figure 112015084150996-pat00003
여기서, z는 3차원 가우시안 랜덤 벡터(Gaussian random vector)이고, 자유도(Degree of freedom)는 3이다. 따라서, 자유도가 3인 z에 대하여 99.9%의 신뢰 구간을 결정하는 임계치(Critical value)
Figure 112015084150996-pat00004
을 카이 제곱 분포 상에서 찾아 대입하게 된다.
또한, e는 1차원 가우시한 랜덤 벡터이고, 자유도는 1이다. 따라서, 자유도 1인 e에 대하여 99.9%의 신뢰 구간을 결정하는 임계치는 z와 동일한 방법으로 선택하게 된다.
이를 통해, i 번째 측정점에서의 센싱값을 통해 계산된 센싱값 바닥 특성 데이터가 [수학식 4]를 만족하는 경우 정상 주행면으로 판별하고, [수학식 4]의 조건을 벗어나는 경우 바닥 장애물로 판별하게 된다.
[수학식 4]
Figure 112015084150996-pat00005
한편, 본 발명에 따른 단일 클래스 분류 기법으로 SVDD 기법이 적용되는 경우를 설명하면 다음과 같다.
SVDD 기법은 단을 클래스 분류 문제를 다루기 위한 커널(Kernel) 기반의 학습 기법이다. SVDD의 목적은 특성 공간(Feature space)에서 정상(Positive labeled) 데이터를 포함하는 볼 형상의 결정 경계(Decision boundary)를 결정하는 것이다. 따라서, 비정상(Negative labeled) 데이터가 존재하지 않거나 적은 수만 존재하는 경우에도 결정 경계를 결정하여 정상 데이터를 예측하는 것이 가능하다.
이에, 본 발명에서는 도 2의 S12 단계에서 정상 바닥 특성 데이터가 단일 클래스 분류 기법에 등록될 때, SVDD 기법 상의 훈련 데이터로 등록된다. 그리고, 훈련 데이터에 기반하는 최적 경계(Optimal boundary)는 [수학식 5]에 의해 결정된다.
[수학식 5]
Figure 112015084150996-pat00006
여기서, n은 훈련 데이터 x의 개수이다. 여기서, 훈련 데이터는 상술한 바와 같이, 정상 바닥 특성 데이터로 [수학식 1] 및 [수학식 2]를 통해 산출되는 마할라노비스 거리로 xi = [di ri]가 된다.
특성 공간 상에서 n개의 정상 데이터를 포함하는 결정 경계는 중심이 a이고, 구의 지름이 R인 형태로 표현된다. ξk는 결정 경계를 벗어나는 비정상 데이터에 대한 벌점으로, 슬랙 변수(Slack variable)로 정의한다. C는 결정 경계의 영역의 크기와 벌점 간의 균형을 조정하기 위한 상수이다.
상기와 같은 SVDD 기법을 통해, 훈련 데이터로 정상 바닥 특성 데이터가 등록되면, 각각의 측정점에 대한 결정 경계가 결정된다. 도 4는 본 발명에 따른 SVDD 기법을 통해 훈련 데이터를 이용하여 얻어진 결정 경계의 예를 나타낸 도면이다. 도 4에서 파란색 점들은 본 발명에 따른 훈련 데이터를 특징 공간 상에 나타낸 것이다.
특징 공간에서 정상 바닥 특성 데이터를 포함하는 최적의 결정 경계를 구하기 위해 가우시안 커널 함수(Gaussian kernel function)를 사용하였다. 도 4에서 검은색 실선은 SVDD 기법에 의해 정상 바닥 특성 데이터에 대한 결정 경계를 나타낸 것이다.
여기서, 상수 C는 실험적으로 조정함으로써, 굵은 십자점으로 표현된 지지 벡터(Support vector)의 비율과 경계의 크기가 설정 가능하게 되는데, 본 발명에서는 C=10의 값으로 설정하여 정상 데이터, 즉 정상 바닥면의 98.6%를 포함하는 결정 경계를 획득하는 것을 예로 하였다.
상기와 같은 방법으로 결정 경계가 획득되면, 현지 센싱값에 대한 각 측정점의 센싱값 바닥 특성 데이터가 결정 경계를 벗어나거나 결정 경계에 걸치게 되면, 바닥 장애물로 인식하게 된다.
한편, 본 발명에 따른 레이저 거리 센서를 이용한 바닥 장애물 검출 방법은 레이저 거리 센서에 의해 발생하는 바이어스 오차값을 산출하여, 이를 센싱에 반영하는 것을 예로 한다.
상술한 바와 같이, 본 발명에 따른 바닥 장애물 검출 방법은 바닥면에 존재할 수 있는 상대적으로 작은 사이즈의 바닥 장애물을 검출하게 되는데, 레이저 거리 센서의 바이어스 오차, 즉 레이저 거리 센서 자체에서 야기되는 오차가 발생하는 경우, 오차에 의해 바닥 장애물의 측정이 어려운 경우가 발생하게 된다.
본 발명에서는 레이저 거리 센서의 각 측정점에서의 바이어스 오차값을 산출하고, 이를 레이저 거리 센서의 각 측정점에서의 센싱값에 반영하여 보정하는 것을 예로 한다. 즉, 정상 바닥 특성 데이터를 생성하는 과정에서의 레이저 거리 센서의 센싱값과, 이동 로봇의 자율 주행에서의 레이저 거리 센서의 센싱값이 모두 바이어스 오차값을 이용하여 보정하게 된다.
이하에서는 본 발명에 따른 바닥 장애물 검출 방법에서 바이어스 오차값을 산출하는 과정에 대해 상세히 설명한다.
도 5는 레이저 거리 센서를 이용하여 평평한 바닥을 측정한 실험 결과를 나타낸 그래프로, 도 5의 (a)는 이동 로봇의 정지 상태에서에서 측정된 센싱값의 높이의 분포를 나타낸 것이고, 도 5의 (b)는 이동 로봇의 정지 상태에서에서 측정된 센싱값의 높이의 분포를 나타낸 것이다. 그리고, 도 6은 각 측정점에서의 높이의 평균을 나타낸 것이다. 평평한 바닥을 측정하였음에도 불구하고, 바이어스 오차로 인해 각각의 측정점에 대한 높이 평균값은 정확하게 0으로 나타나지 않는다.
바이어스 오차는 상술한 바와 같이, 레이저 거리 센서 자체에서 발생하는 구조적 오차이다. 따라서, 도 6에 도시된 바와 같이, 이동 로봇의 정지 상태와, 이동 로봇의 주행 상태에서 발생하는 바이어스 오차의 정도는 각각의 측정점에서 거의 일치하는 것을 확인할 수 있다. 즉, 이동 로봇의 정지 상태에서 레이저 거리 센서의 바이어스 오차값를 각 측정점에 대해 구하고, 이를 실제 주행 상태에서 적용하는 것이 가능하게 된다.
이에, 본 발명에 따른 레이저 거리 센서를 이용한 바닥 장애물 검출 장치에서는 이동 로봇의 정지 상태에서 레이저 거리 센서에 의해 정상 주행면을 복수회 스캔하여 센싱값을 획득하고, 획득된 센싱값을 1차원 칼만 필터에 적용하여, 작 측정점에서의 바닥면의 높이값 추정한 후, 추정된 높이값에 기초하여 각 측정점과 레이저 거리 센서 간의 거리의 오차를 각 측정점에 대한 바이어스 오차값으로 산출하게 된다.
보다 구체적으로 설명하면, 시간 t에서의 센싱값 zi와 센싱 노이즈 σi에 대해 [수학식 6] 및 [수학식 7]을 적용한다.
[수학식 6]
Figure 112015084150996-pat00007
[수학식 7]
Figure 112015084150996-pat00008
여기서, hi와 vi는 시간 t에서의 각 측정점에 대해 1차원 칼만 필터를 통해 추정된 높이값과 분산을 나타낸다. 그리고, 측정 노이즈인 σ는 레이저 거리 센서의 사양에 따라 설정되는 값을 이용한다. 정지 상태에서 정상 주행면을 0에서 t 시간 동안 측정하여 각 측정점의 높이값을 추정하게 되는데, 이 때 평평한 바닥면의 높이값을 0으로 가정하면, 추정된 높이 hi는 i 번째 측정점의 높이 측정 오차가 된다.
그리고, 도 7에 도시된 바와 같이, 높이 측정 오차를 이용하여 i 번째 측정점의 바이어스 오차값 bi와 교정된 거리 Li는 [수학식 8] 및 [수학식 9]를 통해 산출하게 된다.
[수학식 8]
Figure 112015084150996-pat00009
[수학식 9]
Figure 112015084150996-pat00010
즉, 각 측정점에 대한 바이어스 오차 bi 을 이용하여, 레이저 거리 센서에 의해 측정되는 센싱값의 거리 Li를 보정 가능하게 된다.
도 8의 (a)는 본 발명에 따른 레이저 거리 센서를 이용한 바닥 장애물 검출 방법에서 바이어스 오차를 반영하지 않고 측정한 높이이고, (b)는 바이어스 오차를 반영하여 측정한 높이이다. 도 8에 도시된 그래프는 정상 바닥면에 박스 종이를 놓고 측정한 것으로, 보정 전에는 도 8의 (a)에 도시된 바와 같이, 박스 종이가 검출되지 않았으나, 바이어스 오차값에 의한 보정 후에는 도 8의 (b)에 도시된 바와 같이, 박스 종이가 정확히 검출되는 것을 확인할 수 있다.
따라서, 바이어스 오차값에 의한 센싱값의 보정을 통해 상대적으로 낮은 높이를 갖는 바닥 장애물의 정확한 검출이 가능하게 된다.
본 실시예는 본 발명에 포함되는 기술적 사상의 일부를 명확하게 나타낸 것에 불과하며, 본 발명의 명세서에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시예는 모두 본 발명의 기술적 사상에 포함되는 것은 자명하다.

Claims (7)

  1. 레이저 거리 센서를 이용한 바닥 장애물 검출 방법에 있어서,
    (a) 바닥 장애물이 존재하지 않는 평평한 정상 주행면의 주행을 통해 정상 주행면에 대한 복수의 정상 바닥 특성 데이터가 생성되는 단계와;
    (b) 상기 정상 바닥 특성 데이터가 기 등록된 단일 클래스 분류 기법에 등록되는 단계와;
    (c) 이동 로봇의 주행에 따라 상기 레이저 거리 센서의 센싱값이 획득되는 단계와;
    (d) 상기 센싱값에 대한 센싱값 바닥 특성 데이터가 생성되는 단계와;
    (e) 상기 센싱값 바닥 특성 데이터가 상기 단일 클래스 분류 기법에 적용되어 상기 정상 바닥 특성 데이터를 기준으로 상기 센싱값 바닥 특성 데이터에 대응하는 상기 센싱값이 정상 주행면인지 바닥 장애물인지 결정되는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 바닥 장애물 검출 방법.
  2. 제1항에 있어서,
    상기 (a) 단계는
    (a1) 상기 이동 로봇이 상기 정상 주행면을 주행하는 단계와;
    (a2) 상기 (a1) 단계를 통한 상기 정상 주행면의 주행에 따라 상기 레이저 거리 센서의 센싱값로부터 정상 주행면 데이터를 수집하는 단계와;
    (a3) 상기 정상 주행면 데이터에 기초하여 상기 정상 바닥 특성 데이터가 생성되는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 바닥 장애물 검출 방법.
  3. 제2항에 있어서,
    상기 정상 주행면 데이터는
    상기 레이저 거리 센서의 각 측정점에서의 상기 이동 로봇의 국소 좌표계에서의 국소 좌표값과;
    상기 각 측정점에서 실제 주행면 선분과 상기 국소 좌표값 간의 수직 거리를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 바닥 장애물 검출 방법.
  4. 제3항에 있어서,
    상기 정상 바닥 특성 데이터는
    상기 각 측정점에서 현재 국소 좌표값과 이전 국소 좌표값들 간의 마할라노비스 거리와;
    상기 각 측정점에서 현재 직선 거리와 이전 직선 거리들 간의 마할라노비스 거리를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 바닥 장애물 검출 방법.
  5. 제4항에 있어서,
    상기 단일 클래스 분류 기법은 카이 제곱 테스트 기법과 SVDD 기법 중 어느 하나를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 바닥 장애물 검출 방법.
  6. 제2항에 있어서,
    (f) 상기 (a2) 단계의 수행 전 및 상기 (c) 단계의 수행 전에 측정된 상기 레이저 거리 센서의 각 측정점에서의 바이어스 오차값을 산출하는 단계를 더 포함하며;
    상기 (a2) 단계 및 상기 (c) 단계에서 상기 레이저 거리 센서의 센싱값은 각 측정점마다 상기 (f) 단계에서 해당 측정점에 대해 산출된 상기 바이어스 오차값에 의해 보정되는 것을 특징으로 하는 레이저 거리 센서를 이용한 바닥 장애물 검출 방법.
  7. 제6항에 있어서,
    상기 (f) 단계는
    (f1) 상기 이동 로봇의 정지 상태에서 상기 레이저 거리 센서에 의해 정상 주행면을 복수회 스캔하여 센싱값을 획득하는 단계와;
    (f2) 상기 (f1) 단계에서 획득된 센싱값을 1차원 칼만 필터에 적용하여, 각 측정점에서의 바닥면의 높이값을 추정하는 단계와;
    (f3) 추정된 상기 높이값에 기초하여 각 측정점과 상기 레이저 거리 센서 간의 거리값의 오차를 각 측정점에 대한 상기 바이어스 오차값으로 산출하는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 바닥 장애물 검출 방법.
KR1020150122424A 2015-08-31 2015-08-31 레이저 거리 센서를 이용한 바닥 장애물 검출 방법 KR101762504B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150122424A KR101762504B1 (ko) 2015-08-31 2015-08-31 레이저 거리 센서를 이용한 바닥 장애물 검출 방법
US15/245,425 US10514702B2 (en) 2015-08-31 2016-08-24 Method for detecting floor obstacle using laser range finder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150122424A KR101762504B1 (ko) 2015-08-31 2015-08-31 레이저 거리 센서를 이용한 바닥 장애물 검출 방법

Publications (2)

Publication Number Publication Date
KR20170026857A KR20170026857A (ko) 2017-03-09
KR101762504B1 true KR101762504B1 (ko) 2017-07-28

Family

ID=58103962

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150122424A KR101762504B1 (ko) 2015-08-31 2015-08-31 레이저 거리 센서를 이용한 바닥 장애물 검출 방법

Country Status (2)

Country Link
US (1) US10514702B2 (ko)
KR (1) KR101762504B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190047300A (ko) 2017-10-27 2019-05-08 동아대학교 산학협력단 스마트폰용 레이저줄자
KR20210111013A (ko) 2020-03-02 2021-09-10 주식회사 큐리보 최적경로주행을 위한 이동로봇 및 이의 동작방법

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10245730B2 (en) * 2016-05-24 2019-04-02 Asustek Computer Inc. Autonomous mobile robot and control method thereof
CN107127755B (zh) * 2017-05-12 2023-12-08 华南理工大学 一种三维点云的实时采集装置及机器人打磨轨迹规划方法
CN110133744A (zh) * 2018-02-09 2019-08-16 北京康力优蓝机器人科技有限公司 一种移动机器人路面路况检测方法
WO2019176116A1 (ja) * 2018-03-16 2019-09-19 株式会社三井E&Sマシナリー 障害物検知システムおよび障害物検知方法
CN110316187B (zh) * 2018-03-30 2022-01-07 比亚迪股份有限公司 汽车及其避障控制方法
US11625036B2 (en) 2018-04-09 2023-04-11 SafeAl, Inc. User interface for presenting decisions
US11169536B2 (en) 2018-04-09 2021-11-09 SafeAI, Inc. Analysis of scenarios for controlling vehicle operations
US11467590B2 (en) * 2018-04-09 2022-10-11 SafeAI, Inc. Techniques for considering uncertainty in use of artificial intelligence models
US11561541B2 (en) 2018-04-09 2023-01-24 SafeAI, Inc. Dynamically controlling sensor behavior
CN112149460A (zh) * 2019-06-27 2020-12-29 华为技术有限公司 一种障碍物检测方法及装置
CN110316188A (zh) * 2019-07-10 2019-10-11 范红星 一种基于图像处理的汽车防撞安全保护***
CN110674705B (zh) * 2019-09-05 2022-11-29 北京智行者科技股份有限公司 基于多线激光雷达的小型障碍物检测方法及装置
CN111474560B (zh) * 2020-04-16 2023-11-24 苏州大学 一种障碍物定位方法、装置及设备
CN113296117B (zh) * 2020-04-22 2023-08-08 追觅创新科技(苏州)有限公司 障碍物识别方法、装置及存储介质
CN114445440A (zh) * 2020-11-03 2022-05-06 苏州科瓴精密机械科技有限公司 一种应用于自行走设备的障碍物识别方法及自行走设备
CN115728781A (zh) * 2021-08-25 2023-03-03 中车株洲电力机车研究所有限公司 一种基于激光雷达点云的小障碍物检测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3223700B2 (ja) * 1994-04-26 2001-10-29 株式会社デンソー 車両の障害物警報装置
JP3235330B2 (ja) * 1994-03-25 2001-12-04 株式会社デンソー 車両の障害物警報装置
JP4169677B2 (ja) * 2003-10-16 2008-10-22 日本信号株式会社 障害物検知装置
JP5139185B2 (ja) * 2008-07-16 2013-02-06 株式会社日本自動車部品総合研究所 路面監視装置,サスペンション制御装置
JP2013534639A (ja) * 2010-07-16 2013-09-05 マイクロソフト コーポレーション 飛行時間システムにおける3次元(3d)センサーの多相位相動的キャリブレーションのための方法及びシステム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100066587A1 (en) * 2006-07-14 2010-03-18 Brian Masao Yamauchi Method and System for Controlling a Remote Vehicle
WO2012122589A1 (en) * 2011-03-11 2012-09-20 The University Of Sydney Image processing
KR20140019501A (ko) 2012-08-06 2014-02-17 현대자동차주식회사 장애물 인식을 위한 분류기의 생성방법
KR20150062437A (ko) 2013-11-29 2015-06-08 엘지전자 주식회사 노면상태 감지 방법 및 장치, 그리고 보행 안내 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3235330B2 (ja) * 1994-03-25 2001-12-04 株式会社デンソー 車両の障害物警報装置
JP3223700B2 (ja) * 1994-04-26 2001-10-29 株式会社デンソー 車両の障害物警報装置
JP4169677B2 (ja) * 2003-10-16 2008-10-22 日本信号株式会社 障害物検知装置
JP5139185B2 (ja) * 2008-07-16 2013-02-06 株式会社日本自動車部品総合研究所 路面監視装置,サスペンション制御装置
JP2013534639A (ja) * 2010-07-16 2013-09-05 マイクロソフト コーポレーション 飛行時間システムにおける3次元(3d)センサーの多相位相動的キャリブレーションのための方法及びシステム
JP5834079B2 (ja) * 2010-07-16 2015-12-16 マイクロソフト テクノロジー ライセンシング,エルエルシー 飛行時間システムにおける3次元(3d)センサーの多相位相動的キャリブレーションのための方法及びシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
주태우. 다중 정상 하에서 단일 클래스 분류기법을 이용한 이상치 탐지. Journal of the Korean Institute of Industrial Engineers. 2013. 4.31., Vol. 39, No. 2, page 82 - 89*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190047300A (ko) 2017-10-27 2019-05-08 동아대학교 산학협력단 스마트폰용 레이저줄자
KR20210111013A (ko) 2020-03-02 2021-09-10 주식회사 큐리보 최적경로주행을 위한 이동로봇 및 이의 동작방법

Also Published As

Publication number Publication date
US20170060132A1 (en) 2017-03-02
US10514702B2 (en) 2019-12-24
KR20170026857A (ko) 2017-03-09

Similar Documents

Publication Publication Date Title
KR101762504B1 (ko) 레이저 거리 센서를 이용한 바닥 장애물 검출 방법
Hata et al. Road marking detection using LIDAR reflective intensity data and its application to vehicle localization
Wojke et al. Moving vehicle detection and tracking in unstructured environments
Kümmerle et al. A navigation system for robots operating in crowded urban environments
Wurm et al. Improving robot navigation in structured outdoor environments by identifying vegetation from laser data
US8099213B2 (en) Road-edge detection
CN111279154B (zh) 导航区域识别和拓扑结构匹配以及相关联的***和方法
Morton et al. Positive and negative obstacle detection using the HLD classifier
JP2009175932A (ja) 移動ロボットの走行領域判別装置及び走行領域判別方法
Suger et al. Terrain-adaptive obstacle detection
KR102401382B1 (ko) 라이다를 이용한 노면 검출 시스템 및 그를 이용한 노면의 검출 방법
Schafer et al. 3D obstacle detection and avoidance in vegetated off-road terrain
JPH0764631A (ja) 移動探査機の経路探索方法
Cremean et al. Model-based estimation of off-highway road geometry using single-axis ladar and inertial sensing
Lee et al. Terrain classification for mobile robots on the basis of support vector data description
Parra-Tsunekawa et al. A kalman-filtering-based approach for improving terrain mapping in off-road autonomous vehicles
Zhong et al. Robust negative obstacle detection in off-road environments using multiple LiDARs
Kolu et al. A mapping method tolerant to calibration and localization errors based on tilting 2D laser scanner
Saitoh et al. Online road surface analysis using laser remission value in urban environments
Bichsel et al. Discrete-continuous clustering for obstacle detection using stereo vision
Lourenço et al. A volumetric representation for obstacle detection in vegetated terrain
Reddy et al. Detection of traversable region around a mobile robot by computing terrain unevenness from the range data of a 3D laser scanner
Yin et al. Development of an obstacle avoidance system for a field robot using a 3D camera
Chen et al. A real-time relative probabilistic mapping algorithm for high-speed off-road autonomous driving
US12020464B2 (en) Method of determining an orientation of an object and a method and apparatus for tracking an object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant