JP7150773B2 - 移動ロボット及びその制御方法 - Google Patents

移動ロボット及びその制御方法 Download PDF

Info

Publication number
JP7150773B2
JP7150773B2 JP2020058968A JP2020058968A JP7150773B2 JP 7150773 B2 JP7150773 B2 JP 7150773B2 JP 2020058968 A JP2020058968 A JP 2020058968A JP 2020058968 A JP2020058968 A JP 2020058968A JP 7150773 B2 JP7150773 B2 JP 7150773B2
Authority
JP
Japan
Prior art keywords
lidar
information
sensor
service module
mobile robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020058968A
Other languages
English (en)
Other versions
JP2020161141A (ja
Inventor
トンキ ノ
チェクワン イ
ソンウク イム
カヒョン チェ
キュホ オ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2020161141A publication Critical patent/JP2020161141A/ja
Application granted granted Critical
Publication of JP7150773B2 publication Critical patent/JP7150773B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Description

本発明は移動ロボット及びその制御方法に関するもので、より詳しくは移動ロボットがマップ(map)を生成及び学習するかマップ上で位置を認識する技術に関するものである。
ロボットは産業用に開発されて工場自動化の一部を担当して来た。最近には、ロボットを応用した分野がもっと拡大して、医療用ロボット、宇宙航空ロボットなどが開発され、一般家庭で使える家庭用ロボットも製作されている。このようなロボットの中で自力で走行可能なものを移動ロボットと言う。
家庭で使われる移動ロボットの代表的な例はロボット掃除機である。ロボット掃除機は一定領域を自ら走行しながら、周辺のほこり又は異物を吸入することにより、該当領域を掃除する機器である。
移動ロボットは、自ら移動可能であって移動が自由であり、走行中に障害物などを避けるための多数のセンサーを備えることにより、障害物を避けて走行することができる。
掃除などの設定された作業を遂行するためには、走行区域のマップ(Map)を正確に生成し、走行区域内のある位置に移動するためにマップ上で移動ロボットの現在位置を正確に把握することができなければならない。
また、外部的な要因によって走行中の移動ロボットの位置が強制に変更された場合、移動ロボットは直前位置での走行情報に基づいて未知の現在位置を認識することができなくなる。一例として、使用者が走行中の移動ロボットを持ち上げて移した拉致(Kidnapping)状況が発生した場合がそれである。
移動ロボットの現在位置の認識のために、移動ロボットの連続的な移動中に自分の直前位置での走行情報(移動方向及び移動速度についての情報又は連続的に撮影される床写真などの比較など)に基づいて現在位置を持続的に把握する多様な方法が研究されて来た。また、移動ロボットが自らマップを生成して学習する多様な方法に対する研究が進んでいる。
また、移動ロボットが現在位置でカメラを介して撮影された映像を用いて未知の現在位置を認識する技術が提案されている。
特許文献(韓国公開特許第10-2010-0104581号公報、公開日:2010.9.29)は、走行区域内で撮影された映像から抽出された特徴点から3次元地図を生成し、現在位置でカメラを介して撮影された映像に基づく特徴点を用いて未知の現在位置を認識する技術を開示している。
前記特許文献では、走行区域内で撮影された映像から抽出された特徴点から3次元地図を生成し、未知の現在位置で撮影された映像内の特徴点の中で3次元地図内の特徴点とマッチングする3対以上の特徴点対を検出する。その後、現在位置で撮影された映像内のマッチングした3個以上の特徴点の2次元座標、3次元地図上のマッチングした3個以上の特徴点の3次元座標、及び現在位置でカメラの焦点距離情報を用いて、前記マッチングした3個以上の特徴点から距離を算出し、これから現在位置を認識する技術が前記特許文献に開示されている。
前記特許文献のように、走行区域上の同じ部分を撮影したいずれか一映像と認識映像を比較して特定ポイント(point)の特徴点で位置を認識する方式は、走行区域内の照明オン/オフ(On/Off)又は太陽光の入射角や量による照度変化などの環境変化によって現在位置の推定正確度が変わることがある問題がある。
韓国公開特許第10-2010-0104581号公報
特許文献のように、走行区域上の同じ部分を撮影したいずれか一映像と認識映像を比較して特定ポイント(point)の特徴点で位置を認識する方式は、走行区域内の照明オン/オフ(On/Off)又は太陽光の入射角や量による照度変化、物品位置の変更などの環境変化によって現在位置の推定正確度が変わることがある問題がある。本発明の目的はこのような環境変化に強靭な位置認識及びマップ生成技術を提供することにある。
本発明の目的は、移動ロボットの現在位置認識の成功率を高め、より高い信頼度で現在位置を推定するようにして、効率的で正確な走行区域内位置認識技術を提供することにある。
本発明の目的は、異種のセンサーを活用して獲得した異種データを相補的に用いることができるSLAM(Simultaneous localization and mapping)技術を提供することにある。
本発明の目的は、カメラを用いるビジョン(vision)基盤の位置認識とレーザーを用いるLiDAR(Light Detection And Ranging)基盤の位置認識技術を効果的に融合して、照度変化、物品位置変更などの環境変化に強靭なSLAM技術を提供することにある。
前記又は他の目的を達成するために、本発明の一側面による移動ロボット及びその制御方法は、異種のセンサーを活用して獲得した異種データを相補的に用いて環境変化に強靭なマップを生成してマップ上の位置を正確に認識することができる。
前記又は他の目的を達成するために、本発明の一側面による移動ロボット及びその制御方法は、カメラを用いるビジョン(vision)基盤の位置認識とレーザーを用いるLiDAR(Light Detection And Ranging)基盤の位置認識技術を効果的に融合して照度変化、物品位置変更などの環境変化に強靭なSLAM技術を具現することができる。
前記又は他の目的を達成するために、本発明の一側面による移動ロボット及びその制御方法は、多様な環境変化に対応することができる一つのマップに基づいて効率的な走行及び掃除を行うことができる。
前記又は他の目的を達成するために、本発明の一側面による移動ロボットは、本体を移動させる走行部、前記本体外部の地形情報を獲得するLiDARセンサー、前記本体外部の映像を獲得するカメラセンサー、及び前記LiDARセンサーのセンシングデータに基づいて走行距離計測(odometry)情報を生成し、前記走行距離計測情報に基づいて前記カメラセンサーから入力される映像の特徴点マッチングを行って現在位置を推定する制御部を含むことにより、カメラセンサーとLiDARセンサーを効果的に融合して位置を正確に推定することができる。
また、本発明の一側面による移動ロボットは、本体の移動による走行状態を感知する走行感知センサーをさらに含み、前記制御部は、前記走行感知センサーでのセンシングデータと前記LiDARセンサーのICP(Iterative Closest Point)マッチング結果を融合して前記走行距離計測情報を生成することができる。
前記制御部は、前記LiDARセンサーのセンシングデータを受信し、前記LiDARセンサーのセンシングデータに基づく地形情報及び以前位置情報を用いて位置変位量を判別するLiDARサービスモジュール、及び前記LiDARサービスモジュールから前記位置変位量を受信し、前記カメラセンサーから映像を受信し、前記位置変位量に基づいて現在映像から抽出された特徴点と以前位置で抽出された特徴点のマッチングによって特徴点位置を判別し、判別された特徴点の位置に基づいて前記現在位置を推定するビジョンサービスモジュールを含むことができる。
また、本発明の一側面による移動ロボットは、前記推定された現在位置の情報を含むノード情報を含むマップ(map)が保存される保存部をさらに含むことができる。
前記ビジョンサービスモジュールは、前記ノード情報を前記LiDARサービスモジュールに送信し、前記LiDARサービスモジュールは、前記ノード情報に、前記ビジョンサービスモジュールが前記現在位置を推定するうちに移動ロボットが移動した位置変位量を反映して前記移動ロボットの現在位置を判別することができる。
また、前記本体の移動による走行状態を感知する走行感知センサーを備えた場合、前記制御部は、前記走行感知センサーのセンシングデータを読んで来る走行サービスモジュールをさらに含み、前記走行サービスモジュールは前記走行感知センサーのセンシングデータを前記LiDARサービスモジュールに伝達し、前記LiDARサービスモジュールは前記走行感知センサーのセンシングデータに基づく走行距離計測情報と前記LiDARセンサーのICP結果を融合して前記走行距離計測情報を生成することができる。
本発明の一側面によれば、制御部が照度が基準値未満の領域では前記LiDARセンサーのセンシングデータに基づいて現在位置を算出した後、前記照度が前記基準値以上の領域に進入すればループクロージング(loop closing)を行って誤差を補正することができる。
また、前記制御部は、前記カメラセンサーから入力される映像間の特徴点マッチングが失敗した場合、前記LiDARセンサーのセンシングデータに基づいて現在ノードと周辺ノードのICP(Iterative Closest Point)マッチングを行ってノード間の相関関係を追加することができる。
前記又は他の目的を達成するために、本発明の一側面による移動ロボットの制御方法は、LiDARセンサーを介して本体の外部の地形情報を獲得する段階、カメラセンサーを介して前記本体の外部の映像を獲得する段階、前記LiDARセンサーのセンシングデータに基づいて走行距離計測(odometry)情報を生成する段階、前記走行距離計測情報に基づいて前記カメラセンサーから入力される映像の特徴点マッチングを行う段階、及び前記特徴点マッチングの結果に基づいて現在位置を推定する段階を含むことができる。
また、前記又は他の目的を達成するために、本発明の一側面による移動ロボットの制御方法は、前記LiDARセンサーのセンシングデータに基づく地形情報に基づいて前記推定された現在位置の不確実性(uncertanity)を算出することができる。
また、前記又は他の目的を達成するために、本発明の一側面による移動ロボットの制御方法は、走行感知センサーを介して前記本体の移動による走行状態を感知する段階、及び前記LiDARセンサーのセンシングデータをICP(Iterative Closest Point)アルゴリズムにしたがってマッチングする段階をさらに含むことができる。
ここで、走行距離計測情報を生成する段階は、前記走行感知センサーでのセンシングデータと前記LiDARセンサーのICP(Iterative Closest Point)マッチング結果を融合して前記走行距離計測情報を生成することができる。
一方、走行距離計測情報を生成する段階は、制御部のLiDARサービスモジュールが前記LiDARセンサーのセンシングデータを受信する段階、及び前記LiDARサービスモジュールが前記地形情報及び以前位置情報を用いて位置変位量を判別する段階を含むことができる。
ここで、特徴点マッチングを行う段階は、制御部のビジョンサービスモジュールが前記LiDARサービスモジュールから前記位置変位量を受信する段階、前記ビジョンサービスモジュールが前記カメラセンサーから映像を受信する段階、及び前記ビジョンサービスモジュールが前記位置変位量に基づいて現在映像から抽出された特徴点と以前位置で抽出された特徴点のマッチングによって特徴点位置を判別する段階を含むことができる。
一方、前記推定された現在位置の情報を含むノード情報を保存部に保存してマップに登録することができる。
また、前記又は他の目的を達成するために、本発明の一側面による移動ロボットの制御方法は、前記ビジョンサービスモジュールが前記ノード情報を前記LiDARサービスモジュールに送信する段階、前記ビジョンサービスモジュールが前記現在位置を算出するうちに移動ロボットが移動した位置変位量を前記LiDARサービスモジュールが算出する段階、前記LiDARサービスモジュールが前記算出された位置変位量を前記ノード情報に反映して前記移動ロボットの現在位置を判別する段階をさらに含むことができる。
また、走行感知センサーを介して前記本体の移動による走行状態を感知する場合、走行距離計測情報を生成する段階は、前記LiDARサービスモジュールが前記走行感知センサーのセンシングデータに基づく走行距離計測情報と前記LiDARセンサーのICP結果を融合して前記走行距離計測情報を生成することができる。
また、前記制御部の走行サービスモジュールは、前記走行感知センサーのセンシングデータを前記LiDARサービスモジュールに伝達することができる。
また、前記又は他の目的を達成するために、本発明の一側面による移動ロボットの制御方法は、照度が基準値未満の領域で前記LiDARセンサーのセンシングデータに基づいて現在位置を算出する段階、及び前記本体が移動して前記照度が前記基準値以上の領域に進入すればループクロージング(loop closing)を行って誤差を補正する段階をさらに含むことができる。
また、前記又は他の目的を達成するために、本発明の一側面による移動ロボットの制御方法は、前記カメラセンサーから入力される映像間の特徴点マッチングが失敗した場合、前記LiDARセンサーのセンシングデータに基づいて現在ノードと周辺ノードのICP(Iterative Closest Point)マッチングを行ってノード間の相関関係を追加する段階をさらに含むことができる。
本発明の実施例の少なくとも一つによれば、異種のセンサーを活用して獲得した異種データを融合して、照明、照度、時間帯、事物位置変化などの多様な環境変化に対して強靭なマップを生成することができる。
また、本発明の実施例の少なくとも一つによれば、異種のセンサーを活用して獲得した異種データを相補的に用いて多様な環境変化に強靭なマップ上の移動ロボットの位置を正確に認識することができる。
また、本発明の実施例の少なくとも一つによれば、カメラを用いるビジョン(vision)基盤の位置認識とレーザーを用いるLiDAR基盤の位置認識技術を効果的に融合して、照度変化、物品位置変更などの環境変化に強靭なSLAM技術を具現することができる。
また、本発明の実施例の少なくとも一つによれば、多様な環境変化に対応することができる一つのマップと正確な位置認識に基づいて効率的な走行及び掃除を行うことができる。
一方、それ以外の多様な効果は後述する本発明の実施例による詳細な説明で直接的に又は暗示的に開示する。
本発明の一実施例による移動ロボット及び移動ロボットを充電させる充電台を示す斜視図である。 図1に示した移動ロボットの上面部を示す図である。 図1に示した移動ロボットの正面部を示す図である。 図1に示した移動ロボットの底面部を示す図である。 本発明の実施例による移動ロボットの主要構成間の制御関係を示すブロック図である。 本発明の一実施例による移動ロボットの制御方法を示すフローチャートである。 図6の制御方法についての説明に参照される図である。 図6の制御方法についての説明に参照される図である。 図6の制御方法についての説明に参照される図である。 図6の制御方法についての説明に参照される図である。 本発明の一実施例による移動ロボットの制御方法を示すフローチャートである。 本発明の実施例による移動ロボットの制御方法のソフトウェア的プロセスを示すフローチャートである。 本発明の実施例による移動ロボットの制御方法のソフトウェア的プロセスを示すフローチャートである。 本発明の実施例による移動ロボットの制御方法についての説明に参照される図である。 本発明の実施例による移動ロボットの制御方法についての説明に参照される図である。 本発明の実施例による移動ロボットの制御方法についての説明に参照される図である。 本発明の実施例による移動ロボットの制御方法についての説明に参照される図である。 本発明の実施例による移動ロボットの制御方法についての説明に参照される図である。 本発明の実施例によるSLAMについての説明に参照される図である。 本発明の実施例によるSLAMについての説明に参照される図である。
以下では、添付図面に基づいて本発明の実施例を詳細に説明する。しかし、本発明がこのような実施例に限定されるものではなく、多様な形態に変形可能であることは言うまでもない。
一方、以下の説明で使われる構成要素に対する接尾辞“モジュール”及び“部”は単にこの明細書作成の容易性のみ考慮して付与するもので、そのものが特別に重要な意味又は役割を付与するものではない。よって、前記“モジュール”及び“部”は互いに混用されることもできる。
また、本明細書で、多様な要素を説明するために、第1、第2などの用語を用いることができるが、このような要素はこのような用語によって制限されない。このような用語は一要素を他の要素と区別するためにのみ用いられる。
本発明の一実施例による移動ロボット100はコマなどを用いて自ら移動することができるロボットを意味し、家庭用お手伝いロボット及びロボット掃除機などであり得る。以下では、図面に基づき、移動ロボットの中で掃除機能を有するロボット掃除機を例として説明するが、本発明はこれに限定されない。
図1は本発明の一実施例による移動ロボット及び移動ロボットを充電させる充電台を示す斜視図である。
図2は図1に示した移動ロボットの上面部を示す図、図3は図1に示した移動ロボットの正面部を示す図、図4は図1に示した移動ロボットの底面部を示す図である。
図5は本発明の実施例による移動ロボットの主要構成間の制御関係を示すブロック図である。
図1~図5を参照すると、移動ロボット100は、本体110を移動させる走行部160を含む。走行部160は、本体110を移動させる少なくとも一つの駆動コマ136を含む。走行部160は、駆動コマ136に連結されて駆動コマを回転させる駆動モーター(図示せず)を含む。例えば、駆動コマ136は本体110の左右側にそれぞれ備えられることができ、以下で、それぞれを左コマ136(L)と右コマ136(R)と言う。
左コマ136(L)と右コマ136(R)は単一駆動モーターによって駆動されることもできるが、必要によって左コマ136(L)を駆動させる左コマ駆動モーターと、右コマ136(R)を駆動させる右コマ駆動モーターがそれぞれ備えられることもできる。左コマ136(L)と右コマ136(R)の回転速度に差を与えて左側又は右側への本体110の走行方向を転換することができる。
移動ロボット100は、所定のサービスを提供するためのサービス部150を含む。図1~図5ではサービス部150が掃除作業を行うものとして、例えば本発明を説明するが、本発明はこれに限定されない。例えば、サービス部150は掃除(掃き掃除、吸入掃除、拭き掃除など)、皿洗い、料理、洗濯、ごみ処理などの家事サービスを使用者に提供するように備えられることができる。また、他の例として、サービス部150は周辺の外部侵入者、危険状況などを感知する保安機能を果たすことができる。
移動ロボット100は走行区域を移動しながらサービス部150によって床を掃除することができる。サービス部150は、異物を吸入する吸入装置、掃き掃除を行うブラシ184、185、吸入装置又はブラシによって収去された異物を保存する集塵筒(図示せず)及び/又は拭き掃除を行う雑巾部(図示せず)などを含むことができる。
本体110の底面部には、空気が吸入される吸入口150hが形成されることができ、本体110内には、吸入口150hを通して空気が吸入できるように吸入力を提供する吸入装置(図示せず)と、吸入口150hを通して空気とともに吸入されたほこりを集塵する集塵筒(図示せず)とが備えられることができる。
本体110は、移動ロボット100を構成する各種の部品を収容する空間を形成するケース111を含むことができる。ケース111には、前記集塵筒の挿入及び除去のための開口部が形成されることができ、開口部を開閉する集塵筒カバー112がケース111に対して回転可能に備えられることができる。
吸入口150hを通して露出されるブラシを有するロール型のメインブラシ154と、本体110の底面部の前方側に位置し、放射状に延びた多数の羽からなるブラシを有する補助ブラシ155とが備えられることができる。これらのブラシ154、155の回転によって走行区域内の床からほこりが分離され、このように床から分離されたほこりは吸入口150hを通して吸入されて集塵筒に収集される。
バッテリー138は、駆動モーターだけではなく、移動ロボット100の作動全般に必要な電源を供給する。バッテリー138が放電されるとき、移動ロボット100は充電のために充電台200に復帰する走行を実施することができ、このような復帰走行中、移動ロボット100は自ら充電台200の位置を探知することができる。
充電台200は、所定の復帰信号を送出する信号送出部(図示せず)を含むことができる。復帰信号は超音波信号又は赤外線信号であり得るが、必ずしもこれに限定されるものではない。
移動ロボット100は、復帰信号を受信する信号感知部(図示せず)を含むことができる。充電台200は信号送出部を介して赤外線信号を送出し、信号感知部は赤外線信号を感知する赤外線センサーを含むことができる。移動ロボット100は、充電台200から送出された赤外線信号に応じて充電台200の位置に移動して充電台200とドッキング(docking)する。このようなドッキングによって移動ロボット100の充電端子133と充電台200の充電端子210との間で充電が行われる。
移動ロボット100は、移動ロボット100の内部/外部の情報を感知するセンシング部170を含むことができる。
例えば、センシング部170は、走行区域についての各種の情報を感知する一つ以上のセンサー171、175、及び走行区域についての映像情報を獲得する映像獲得部120を含むことができる。実施例によって、映像獲得部120はセンシング部170の外部に別に備えられることができる。
移動ロボット100は、センシング部170が感知した情報によって、走行区域をマッピング(Mapping)することができる。例えば、移動ロボット100は、映像獲得部120が獲得した走行区域の天井映像に基づいてビジョン(vision)基盤の位置認識及びマップ生成を遂行することができる。また、移動ロボット100は、レーザーを用いるLiDAR(Light Detection And Ranging)センサー175基盤の位置認識及びマップ生成を遂行することができる。
より好ましくは、本発明による移動ロボット100は、カメラを用いるビジョン基盤の位置認識とレーザーを用いるLiDAR基盤の位置認識技術を効果的に融合して、照度変化、物品位置変更などの環境変化に強靭な位置認識及びマップ生成を遂行することができる。
一方、映像獲得部120は走行区域を撮影するものであり、本体110の外部の映像を獲得する一つ以上のカメラセンサーを含むことができる。
また、映像獲得部120は、カメラモジュールを含むことができる。前記カメラモジュールは、デジタルカメラを含むことができる。デジタルカメラは、少なくとも一つの光学レンズと、光学レンズを通過した光によって像が結ばれる多数の光ダイオード(photodiode、例えばpixel)を含んでなるイメージセンサー(例えば、CMOSイメージセンサー)と、光ダイオードから出力された信号に基づいて映像を構成するデジタル信号処理器(DSP:Digital Signal Processor)を含むことができる。デジタル信号処理器は静止映像はもちろんのこと、静止映像から構成されたフレームからなる動画を生成することも可能である。
本実施例で、映像獲得部120は、本体110の前方の映像を獲得するように備えられる前面カメラセンサー120aと、本体110の上面部に備えられ、走行区域内の天井に対する映像を獲得する上部カメラセンサー120bとを備えるが、映像獲得部120の位置と撮影範囲が必ずしもこれに限定されなければならないものではない。
例えば、移動ロボット100は走行区域内の天井に対する映像を獲得する上部カメラセンサー120bのみ備えて、ビジョン(vision)基盤の位置認識及び走行を遂行することができる。
もしくは、本発明の一実施例による移動ロボット100の映像獲得部120は、本体110の一面に対して斜めに配置されて前方と上方を一緒に撮影するように構成されたカメラセンサー(図示せず)を含むことができる。すなわち、単一カメラセンサーで前方と上方を一緒に撮影することができる。この場合、制御部140は、カメラが撮影して獲得した映像から前方映像と上方映像を画角を基準に分離することができる。分離された前方映像は前面カメラセンサー120aで獲得された映像とともにビジョン(vision)基盤の事物認識に使われることができる。また、分離された上方映像は上部カメラセンサー120bで獲得された映像とともにビジョン(vision)基盤の位置認識及び走行に使われることができる。
本発明による移動ロボット100は、周辺のイメージをイメージ基盤の既保存の情報と比較するか獲得されるイメージを比較して現在位置を認識するビジョンSLAMを遂行することができる。
一方、映像獲得部120は、前面カメラセンサー120a及び/又は上部カメラセンサー120bを複数備えることも可能である。もしくは、映像獲得部120は、前方と上方を一緒に撮影するように構成されたカメラセンサー(図示せず)を複数備えることも可能である。
本実施例の場合、移動ロボットの一部部位(例えば、前方、後方、底面)にカメラが取り付けられており、掃除時に撮像映像を持続的に獲得することができる。このようなカメラは、撮影効率のために各部位別に多数が取り付けられることもできる。カメラによって撮像された映像は、該当空間に存在するほこり、髪の毛、床などの物質の種類認識、掃除遂行有無、又は掃除時点を確認するのに使える。
前面カメラセンサー120aは、移動ロボット100の走行方向の前面に存在する障害物又は掃除領域の状況を撮影することができる。
本発明の一実施例によれば、前記映像獲得部120は、本体110の周辺を連続的に撮影して複数の映像を獲得することができ、獲得された複数の映像は保存部130に保存されることができる。
移動ロボット100は、複数の映像を用いて障害物認識の正確性を高めるか、複数の映像の中で一つ以上の映像を選択して効果的なデータを使うことによって障害物認識の正確性を高めることができる。
センシング部170は、レーザーを用いて本体110の外部の地形情報を獲得するLiDARセンサー175を含むことができる。
LiDARセンサー175は、レーザーを出力してレーザーを反射させた客体との距離、位置方向、材質などの情報を提供し、走行区域の地形情報を獲得することができる。移動ロボット100は、LiDARセンサー175によって360度の地形(Geometry)情報を得ることができる。
本発明の一実施例による移動ロボット100は、LiDARセンサー175がセンシングした客体の距離、位置、方向などを把握してマップを生成することができる。
本発明の一実施例による移動ロボット100は、外部から反射されて受信されるレーザーの時間差又は信号強度などのレーザー受信パターンを分析して走行区域の地形情報を獲得することができる。また、移動ロボット100は、LiDARセンサー175を介して獲得した地形情報を用いてマップを生成することができる。
例えば、本発明による移動ロボット100は、LiDARセンサー175を介して現在位置で獲得された周辺地形情報をLiDARセンサー基盤の既保存の地形情報と比較するか獲得される地形情報を比較することによって現在位置を認識するLiDAR SLAMを遂行することができる。
より好ましくは、本発明による移動ロボット100は、カメラを用いるビジョン基盤の位置認識とレーザーを用いるLiDAR基盤の位置認識技術を効果的に融合して、照度変化、物品位置変更などの環境変化に強靭な位置認識及びマップ生成を遂行することができる。
このように、ビジョンSLAMとLiDAR SLAMを融合したSLAM技術については、図6~図20を参照して詳細に後述する。
一方、センシング部170は、移動ロボットの動作、状態に係わる各種のデータをセンシングするセンサー171、172、179を含むことができる。
例えば、前記センシング部170は、前方の障害物を感知する障害物感知センサー171を含むことができる。また、前記センシング部170は、走行区域内の床に段差の存在有無を感知する段差感知センサー172と、底の映像を獲得する下部カメラセンサー179とをさらに含むことができる。
図1及び図3を参照すると、前記障害物感知センサー171は、移動ロボット100の外周面に一定間隔で取り付けられる複数のセンサーを含むことができる。
前記障害物感知センサー171は、赤外線センサー、超音波センサー、RFセンサー、地磁気センサー、PSD(Position Sensitive Device)センサーなどを含むことができる。
一方、前記障害物感知センサー171に含まれるセンサーの位置と種類は移動ロボットの機種によって変えることができ、前記障害物感知センサー171はもっと多様なセンサーを含むことができる。
前記障害物感知センサー171は室内の壁や障害物との距離を感知するセンサーであり、本発明はその種類に限定されないが、以下では超音波センサーを例示して説明する。
前記障害物感知センサー171は、移動ロボットの走行(移動)方向に存在する物体、特に障害物を感知して障害物情報を制御部140に伝達する。すなわち、前記障害物感知センサー171は、移動ロボットの移動経路、前方又は側面に存在する突出物、家内の什物、家具、壁面、壁角などを感知してその情報を制御ユニットに伝達することができる。
ここで、制御部140は、超音波センサーを介して受信された少なくとも2以上の信号に基づいて障害物の位置を感知し、感知された障害物の位置によって移動ロボット100の動きを制御することができる。
実施例によって、ケース111の外側面に備えられる障害物感知センサー171は発信部と受信部を含んでなることができる。
例えば、超音波センサーは、少なくとも一つ以上の発信部及び少なくとも2以上の受信部が互いにずれるように備えられることができる。これにより、多様な角度で信号を放射し、障害物で反射された信号を多様な角度で受信することができる。
実施例によって、障害物感知センサー171で受信された信号は、増幅、フィルタリングなどの信号処理過程を経ることができ、その後、障害物までの距離及び方向が算出されることができる。
一方、前記センシング部170は、本体110の駆動による移動ロボット100の走行動作を感知し、動作情報を出力する走行感知センサーをさらに含むことができる。走行感知センサーとしては、ジャイロセンサー(Gyro Sensor)、ホイールセンサー(Wheel Sensor)、加速度センサー(Acceleration Sensor)などを使える。走行感知センサーの少なくとも一つで感知されるデータ又は走行感知センサーの少なくとも一つで感知されるデータに基づいて算出されるデータは走行距離計測(odometry)情報を構成することができる。
ジャイロセンサーは、移動ロボット100が運転モードによって動くとき、回転方向を感知し、回転角を検出する。ジャイロセンサーは、移動ロボット100の角速度を検出し、角速度に比例する電圧値を出力する。制御部140は、ジャイロセンサーから出力される電圧値を用いて回転方向及び回転角を算出する。
ホイールセンサーは左コマ136(L)と右コマ136(R)に連結されてコマの回転数を感知する。ここで、ホイールセンサーはエンコーダ(Encoder)であり得る。エンコーダは左コマ136(L)と右コマ136(R)の回転数を感知して出力する。
制御部140は、回転数を用いて左右側コマの回転速度を演算することができる。また、制御部140は、左コマ136(L)と右コマ136(R)の回転数差を用いて回転角を演算することができる。
加速度センサーは、移動ロボット100の速度変化、例えば出発、停止、方向転換、物体との衝突などによる移動ロボット100の変化を感知する。加速度センサーは、主コマ又は補助コマの隣接位置に付着され、コマの滑り又は空回りを検出することができる。
また、加速度センサーは、制御部140に内蔵されて移動ロボット100の速度変化を感知することができる。すなわち、加速度センサーは、速度変化による衝撃量を検出し、これに対応する電圧値を出力する。よって、加速度センサーは、電子式バンパーの機能を遂行することができる。
制御部140は、走行感知センサーから出力された動作情報に基づいて移動ロボット100の位置変化を算出することができる。このような位置は映像情報を用いた絶対位置に対応する相対位置となる。移動ロボットは、このような相対位置認識によって映像情報と障害物情報を用いた位置認識の性能を向上させることができる。
一方、移動ロボット100は、充電可能なバッテリー138を備えてロボット掃除機内に電源を供給する電源供給部(図示せず)を含むことができる。
前記電源供給部は、移動ロボット100の各構成要素に駆動電源と動作電源を供給し、電源残量が足りなければ、充電台200で充電電流を受けて充電されることができる。
移動ロボット100は、バッテリー138の充電状態を感知し、感知結果を制御部140に伝送するバッテリー感知部(図示せず)をさらに含むことができる。バッテリー138はバッテリー感知部と連結されることにより、バッテリーの残量及び充電状態が制御部140に伝達される。バッテリー残量は出力部(図示せず)の画面に表示されることができる。
また、移動ロボット100は、オン/オフ(On/Off)又は各種の命令を入力することができる操作部137を含む。操作部137を介して移動ロボット100の作動全般に必要な各種の制御命令を受けることができる。また、移動ロボット100は出力部(図示せず)を含み、予約情報、バッテリー状態、動作モード、動作状態、エラー状態などを表示することができる。
図5を参照すると、移動ロボット100は、現在位置を認識するなど、各種情報を処理して判断する制御部140、及び各種のデータを保存する保存部130を含む。また、移動ロボット100は、他の機器とデータを送受信する通信部190をさらに含むことができる。
移動ロボット100と通信する機器のうち外部端末機は移動ロボット100を制御するためのアプリケーションを備え、アプリケーションの実行によって移動ロボット100が掃除する走行区域に対するマップを表示し、マップ上に特定領域を掃除するように領域を指定することができる。外部端末機は、マップ設定のためのアプリケーション(application)が組み込まれたリモコン、PDA、ラップトップ(laptop)、スマートフォン、タブレットなどを例として挙げることができる。
外部端末機は、移動ロボット100と通信して、マップとともに移動ロボットの現在位置を表示することができ、複数の領域についての情報が表示されることができる。また、外部端末機は、移動ロボットの走行につれてその位置を更新して表示する。
制御部140は、移動ロボット100を構成するセンシング部170、操作部137及び走行部160を制御して移動ロボット100の動作全般を制御する。
保存部130は移動ロボット100の制御に必要な各種情報を記録するものであり、揮発性又は非揮発性記録媒体を含むことができる。記録媒体はマイクロプロセッサ(micro processor)によって読められるデータを保存したものであり、その種類又は具現方式に限定されない。
また、保存部130には走行区域に対するマップ(Map)が保存されることができる。マップは移動ロボット100と有線通信又は無線通信を介して情報を交換することができる外部端末機、サーバーなどによって入力されたものでも、移動ロボット100が自ら学習して生成したものでもあり得る。
マップには走行区域内の部屋の位置が表示されることができる。また、移動ロボット100の現在位置がマップ上に表示されることができ、マップ上での移動ロボット100の現在の位置は走行過程で更新されることができる。外部端末機は、保存部130に保存されたマップと同一のマップを保存する。
前記保存部130は、掃除履歴情報を保存することができる。このような掃除履歴情報は掃除を行う度に生成されることができる。
前記保存部130に保存される走行区域に対するマップ(Map)は、掃除中の走行に使われるナビゲーションマップ(Navigation map)、位置認識に使われるSLAM(Simultaneous localization and mapping)マップ、障害物などにぶつかれば該当情報を保存して学習掃除時に使用する学習マップ、全域位置認識に使われる全域位置マップ、認識された障害物についての情報が記録される障害物認識マップなどであり得る。
一方、上述したように、用途別に前記保存部130にマップを区分して保存及び管理することができるが、マップが用途別に明確に区分されないこともある。例えば、少なくとも2以上の用途に使えるように単一マップに複数の情報を保存することもできる。
制御部140は、走行制御モジュール141、位置認識モジュール142、地図生成モジュール143及び障害物認識モジュール144を含むことができる。
図1~図5を参照すると、走行制御モジュール141は移動ロボット100の走行を制御するものであり、走行設定によって走行部160の駆動を制御する。また、走行制御モジュール141は、走行部160の動作に基づいて移動ロボット100の走行経路を把握することができる。例えば、走行制御モジュール141は、駆動コマ136の回転速度に基づいて移動ロボット100の現在又は過去の移動速度、走行した距離などを把握することができ、各駆動コマ136(L)、136(R)の回転方向によって現在又は過去の方向転換過程も把握することができる。このように把握された移動ロボット100の走行情報に基づいて、マップ上で移動ロボット100の位置が更新されることができる。
地図生成モジュール143は、走行区域のマップを生成することができる。地図生成モジュール143は、映像獲得部120を介して獲得した映像を処理してマップを作成することができる。例えば、走行区域に対応するマップ、及び掃除領域と対応する掃除マップを作成することができる。
また、地図生成モジュール143は、各位置で映像獲得部120を介して獲得した映像を処理し、マップに関連させて全域位置を認識することができる。
また、地図生成モジュール143は、LiDARセンサー175を介して獲得した情報に基づいてマップを作成し、各位置でLiDARセンサー175を介して獲得した情報に基づいて位置を認識することができる。
より好ましくは、地図生成モジュール143は、映像獲得部120とLiDARセンサー175を介して獲得した情報に基づいてマップを作成し、位置認識を遂行することができる。
位置認識モジュール142は、現在位置を推定して認識する。位置認識モジュール142は、映像獲得部120の映像情報を用いて地図生成モジュール143と関連して位置を把握することにより、移動ロボット100の位置が急に変更される場合にも現在位置を推定して認識することができる。
移動ロボット100は、位置認識モジュール142を介して連続的な走行中に位置認識が可能であり、また位置認識モジュール142なしに走行制御モジュール141、地図生成モジュール143及び障害物認識モジュール144を介してマップを学習し、現在位置を推定することができる。
移動ロボット100が走行するうち、映像獲得部120は移動ロボット100の周辺の映像を獲得する。以下、映像獲得部120によって獲得された映像を‘獲得映像’と定義する。
獲得映像には、天井に位置する照明、境界(edge)、コーナー(corner)、染み(blob)、屈曲(ridge)などのさまざまな特徴(feature)が含まれる。
地図生成モジュール143は、獲得映像のそれぞれから特徴を検出する。コンピュータビジョン(Computer Vision)技術分野で、映像から特徴を検出する多様な方法(Feature Detection)がよく知られている。これらの特徴の検出に適したさまざまな特徴検出器(feature detector)が知られている。例えば、Canny、Sobel、Harris&Stephens/Plessey、SUSAN、Shi&Tomasi、Level curve curvature、FAST、Laplacian of Gaussian、Difference of Gaussians、Determinant of Hessian、MSER、PCBR、Grey-level blobs検出器などがある。
地図生成モジュール143は、各特徴点に基づいてディスクリプタを算出する。地図生成モジュール143は、特徴検出のために、SIFT(Scale Invariant Feature Transform)技法を用いて特徴点をディスクリプタ(descriptor)に変換することができる。ディスクリプタはn次元ベクター(vector)で表記されることができる。
SIFTは撮影対象のスケール(scale)、回転、明るさ変化に対して変わらない特徴を検出することができるので、同じ領域を移動ロボット100の姿勢を変えて撮影しても変わらない(すなわち、回転不変(Rotation-invariant))特徴を検出することができる。もちろん、これに限定されず、他の多様な技法(例えば、HOG:Histogram of Oriented Gradient、Haar feature、Fems、LBP:Local Binary Pattern、MCT:Modified Census Transform)が適用されることもできる。
地図生成モジュール143は、各位置の獲得映像によって得たディスクリプタ情報に基づいて、獲得映像ごとに少なくとも一つのディスクリプタを所定の下位分類規則によって複数の群に分類し、所定の下位代表規則によって同じ群に含まれたディスクリプタをそれぞれ下位代表ディスクリプタに変換することができる。
他の例で、室(room)のように所定区域内の獲得映像から集まった全てのディスクリプタを所定の下位分類規則によって複数の群に分類し、前記所定の下位代表規則によって同じ群に含まれたディスクリプタをそれぞれ下位代表ディスクリプタに変換することもできる。
地図生成モジュール143は、このような過程によって各位置の特徴分布を求めることができる。各位置特徴分布はヒストグラム又はn次元ベクターで表現されることができる。さらに他の例で、地図生成モジュール143は、所定の下位分類規則及び所定の下位代表規則に従わず、各特徴点から算出されたディスクリプタに基づいて未知の現在位置を推定することができる。
また、位置跳躍などの理由で移動ロボット100の現在位置が未知の状態になった場合、既保存のディスクリプタ又は下位代表ディスクリプタなどのデータに基づいて現在位置を推定することができる。
移動ロボット100は、未知の現在位置で映像獲得部120を介して獲得映像を獲得する。映像によって、天井に位置する照明、境界(edge)、コーナー(corner)、染み(blob)、屈曲(ridge)などのさまざまな特徴(feature)が確認される。
位置認識モジュール142は、獲得映像から特徴を検出する。コンピュータビジョン技術分野で、映像から特徴を検出する多様な方法及びこれらの特徴の検出に適したさまざまな特徴検出器についての説明は前述したとおりである。
位置認識モジュール142は、各認識特徴点に基づいて認識ディスクリプタ算出段階を経て認識ディスクリプタを算出する。ここで、認識特徴点及び認識ディスクリプタは位置認識モジュール142で行う過程を説明するためのものであり、地図生成モジュール143で行う過程を説明する用語と区分するためのものである。ただ、移動ロボット100の外部世界の特徴がそれぞれ異なる用語に定義されたものに過ぎない。
位置認識モジュール142は、本特徴検出のために、SIFT(Scale Invariant Feature Transform)技法を用いて認識特徴点を認識ディスクリプタに変換することができる。認識ディスクリプタはn次元ベクター(vector)で表記されることができる。
SIFTは、前述したように、獲得映像でコーナー点など、識別の容易な特徴点を選択した後、各特徴点周辺の一定区域に属するピクセルの明るさ勾配(gradient)の分布特性(明るさ変化の方向及び変化の急激な程度)に対して、各方向に対する変化の急激な程度を各次元に対する数値にするn次元ベクター(vector)を求める映像認識技法である。
位置認識モジュール142は、未知の現在位置の獲得映像によって得た少なくとも一つの認識ディスクリプタ情報に基づいて、所定の下位変換規則によって比較対象となる位置情報(例えば、各位置の特徴分布)と比較可能な情報(下位認識特徴分布)に変換する。
所定の下位比較規則によって、それぞれの位置特徴分布をそれぞれの認識特徴分布と比較してそれぞれの類似度を算出することができる。それぞれの位置にあたる前記位置別に類似度(確率)を算出し、その中で最大の確率が算出される位置を現在位置に決定することができる。
このように、制御部140は、走行区域を区分して複数の領域から構成されたマップを生成するか、既保存のマップに基づいて本体110の現在位置を認識することができる。
また、制御部140は、映像獲得部120とLiDARセンサー175を介して獲得した情報を融合してマップを作成し、位置認識を遂行することができる。
制御部140は、マップが生成されれば、生成されたマップを通信部190を介して外部端末機、サーバーなどに伝送することができる。また、制御部140は、前述したように、外部端末機、サーバーなどからマップが受信されれば、保存部に保存することができる。
また、制御部140は、走行中にマップが更新される場合、更新された情報を外部端末機に伝送して、外部端末機と移動ロボット100に保存されるマップが同一になるようにする。外部端末機と移動ロボット100に保存されたマップが同一に維持されることにより、移動端末機からの掃除命令に対して、移動ロボット100が指定領域を掃除することができ、また、外部端末機に移動ロボットの現在位置が表示できるようにするためである。
ここで、マップは、掃除領域を複数の領域に区分し、複数の領域を連結する連結通路を含み、領域内の障害物についての情報を含むことができる。
制御部140は、掃除命令が入力されれば、マップ上の位置と移動ロボットの現在位置が一致するかを判断する。掃除命令は、リモコン、操作部又は外部端末機から入力されることができる。
制御部140は、現在位置がマップ上の位置と一致しない場合、又は現在位置を確認することができない場合、現在位置を認識して移動ロボット100の現在位置を復旧した後、現在位置に基づいて指定領域に移動するように走行部160を制御することができる。
現在位置がマップ上の位置と一致しない場合又は現在位置を確認することができない場合、位置認識モジュール142は、映像獲得部120から入力される獲得映像及び/又はLiDARセンサー175を介して獲得された地形情報を分析し、マップに基づいて現在位置を推定することができる。また、障害物認識モジュール144又は地図生成モジュール143も同様な方式で現在位置を認識することができる。
位置を認識して移動ロボット100の現在位置を復旧した後、走行制御モジュール141は、現在位置から指定領域に走行経路を算出し、走行部160を制御して指定領域に移動する。
サーバーから掃除パターン情報を受信する場合、走行制御モジュール141は、受信した掃除パターン情報によって、全体走行区域を複数の領域に分け、一つ以上の領域を指定領域に設定することができる。
また、走行制御モジュール141は、受信した掃除パターン情報によって走行経路を算出し、走行経路に沿って走行して掃除を行うことができる。
制御部140は、設定された指定領域に対する掃除が完了すれば、掃除記録を保存部130に保存することができる。
また、制御部140は、通信部190を介して移動ロボット100の動作状態又は掃除状態を所定の周期で外部端末機及びサーバーに伝送することができる。
それにより、外部端末機は、受信されるデータに基づいて、実行中のアプリケーションの画面上にマップとともに移動ロボットの位置を表示し、また掃除状態についての情報を出力する。
本発明の実施例による移動ロボット100は、一方向に障害物又は壁面が感知されるまで移動していて、障害物認識モジュール144が障害物を認識すれば、認識された障害物の属性によって直進、回転などの走行パターンを決定することができる。
例えば、認識された障害物の属性が越えることができる種類の障害物であれば、移動ロボット100は続けて直進することができる。もしくは、認識された障害物の属性が越えることができない種類の障害物であれば、移動ロボット100は回転して一定距離移動し、また最初移動方向の反対方向に障害物が感知される距離まで移動してジグザグ形に走行することができる。
本発明の実施例による移動ロボット100は、マシンラーニング(machine learning)基盤のヒト及び事物認識及び回避を遂行することができる。
前記制御部140は、入力映像からマシンラーニング(machine learning)で既に学習された障害物を認識する障害物認識モジュール144と、前記認識された障害物の属性に基づいて前記走行部160の駆動を制御する走行制御モジュール141とを含むことができる。
本発明の実施例による移動ロボット100は、マシンラーニングで障害物の属性が学習された障害物認識モジュール144を含むことができる。
マシンラーニングはコンピュータにヒトが直接ロジッグ(Logic)を指示しなくてもデータによってコンピュータが学習し、これによりコンピュータが分かって問題を解決するようにすることを意味する。
ディープラーニング(Deep Learning)は人工知能を構成するための人工神経網(Artificial Neural Networks:ANN)に基づいてコンピュータにヒトの考え方を教える方法であり、ヒトが教えなくてもコンピュータが自らヒトのように学習することができる人工知能技術である。
前記人工神経網(ANN)はソフトウェア形態に具現されるか、チップ(chip)などのハードウェア形態に具現されることができる。
障害物認識モジュール144は、障害物の属性が学習されたソフトウェア又はハードウェア形態の人工神経網(ANN)を含むことができる。
例えば、障害物認識モジュール144は、ディープラーニング(Deep Learning)で学習されたCNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、DBN(Deep Belief Network)などの深層神経網(Deep Neural Network:DNN)を含むことができる。
障害物認識モジュール144は、前記深層神経網(DNN)に含まれたノード間の加重値(weight)に基づいて入力される映像データに含まれる障害物の属性を判別することができる。
前記制御部140は、前記映像獲得部120、特に前面カメラセンサー120aが獲得した映像全体を使うものではなく、一部領域のみ使用して移動方向に存在する障害物の属性を判別することができる。
また、前記走行制御モジュール141は、前記認識された障害物の属性に基づいて前記走行部160の駆動を制御することができる。
一方、保存部130には、障害物属性判別のための入力データ及び前記深層神経網(DNN)を学習するためのデータが保存されることができる。
保存部130には、映像獲得部120が獲得した原本映像と所定領域が抽出された抽出映像が保存されることができる。
また、実施例によって、保存部130には、前記深層神経網(DNN)構造を成すウェイト(weight)、バイアス(bias)が保存されることができる。
もしくは、実施例によって、前記深層神経網構造を成すウェイト(weight)、バイアス(bias)は前記障害物認識モジュール144の組み込みメモリ(embedded memory)に保存されることができる。
一方、前記障害物認識モジュール144は、前記映像獲得部120が獲得する映像の一部領域を抽出する度に前記抽出された映像をトレーニング(training)データとして使用して学習過程を遂行するか、所定個数以上の抽出映像が獲得された後、学習過程を遂行することができる。
すなわち、前記障害物認識モジュール144は、障害物を認識する度に認識結果を追加してウェイト(weight)などの深層神経網(DNN)構造をアップデート(update)するか、所定回数のトレーニングデータが確保された後に確保されたトレーニングデータで学習過程を行ってウェイト(weight)などの深層神経網(DNN)構造をアップデートすることができる。
もしくは、移動ロボット100は、通信部190を介して前記映像獲得部120が獲得した原本映像又は抽出された映像を所定サーバーに伝送し、前記所定サーバーからマシンラーニングに係わるデータを受信することができる。
この場合、移動ロボット100は、前記所定サーバーから受信されたマシンラーニングに係わるデータに基づいて障害物認識モジュール144をアップデート(update)することができる。
一方、移動ロボット100は出力部180をさらに含むことにより、所定情報を映像で表示するか音響として出力することができる。
出力部180は、使用者の命令入力に対応する情報、使用者の命令入力に対応する処理結果、動作モード、動作状態、エラー状態などを映像で表示するディスプレイ(図示せず)を含むことができる。
実施例によっては、前記ディスプレイはタッチパッドと互いにレイヤー構造を成してタッチスクリーンで構成されることができる。この場合、タッチスクリーンで構成されるディスプレイは出力装置以外に使用者のタッチによる情報入力が可能な入力装置としても使われることができる。
また、出力部180は、オーディオ信号を出力する音響出力部(図示せず)を含むことができる。音響出力部は、制御部140の制御によって、警告音、動作モード、動作状態、エラー状態などのお知らせメッセージ、使用者の命令入力に対応する情報、使用者の命令入力に対応する処理結果などを音響として出力することができる。音響出力部は、制御部140からの電気信号をオーディオ信号に変換して出力することができる。このために、スピーカーなどを備えることができる。
図6は本発明の一実施例による移動ロボットの制御方法を示すフローチャートで、マップ生成過程を示すフローチャートであり、図7~図10は図6の制御方法についての説明に参照される図である。
図7及び図8は、図6の走行及び情報獲得過程(S601)、ノード生成過程(S602)、ノードマップ生成過程(S603)、境界生成過程(S604)、境界マップ生成過程(S605)及びディスクリプタ生成過程(S606)を例示的に示す概念図である。
図7には、前記過程(S601)で獲得した映像と映像内の複数の特徴点f1、f2、f3、f4、f5、f6、f7が示され、前記過程(S606)で複数の特徴点f1、f2、f3、...、f7にそれぞれ対応するn次元ベクターであるディスクリプタ
Figure 0007150773000001
を生成させる図式が示される。
図7及び図8を参照すると、情報獲得過程(S601)で、移動ロボット100が走行するうちに映像獲得部120は各地点で映像を獲得する。例えば、映像獲得部120は、移動ロボット100の上側に向けて撮影して天井などの映像を獲得することができる。
また、情報獲得過程(S601)で、移動ロボット100が走行するうちにセンシング部170、映像獲得部120、その他の公知の手段を用いて走行障害要素を感知することができる。
移動ロボット100は、各地点で走行障害要素を感知することができる。例えば、移動ロボットは特定地点で走行障害要素の一つである壁体の外側面を感知することができる。
図7及び図8を参照すると、ノード生成過程(S602)で、移動ロボット100は、各地点に対応するノードを生成する。ノードNa18、Na19、Na20に対応する座標情報は移動ロボット100が測定した走行変位に基づいて生成されることができる。
ノード(Node)は、走行区域内の所定地点に対応するマップ上のいずれか一位置を示すデータを意味することができ、グラフ(graph)基盤のSLAMでノードはロボットのポーズ(pose)を意味することができる。また、ポーズ(pose)は座標系上の位置座標情報(X、Y)と方向情報(θ)を含むことができる。
ノード情報は前記ノードに対応する各種のデータを意味することができる。マップは複数のノード及びこれに対応するノード情報を含むことができる。
走行変位は、移動ロボットの移動方向と移動距離を含む概念である。走行区域の床面をX軸及びY軸が直交する平面上にあると仮定すると、走行変位は
Figure 0007150773000002
で表現することができる。
Figure 0007150773000003
はそれぞれX軸及びY軸方向変位を意味し、θは回転角度を意味する。
制御部140は、走行部160の動作に基づいて移動ロボット100の走行変位を測定することができる。例えば、走行制御モジュール141は駆動コマ136の回転速度に基づいて移動ロボット100の現在又は過去の移動速度、走行した距離などを測定することができ、駆動コマ136の回転方向によって現在又は過去の方向転換過程も測定することができる。
また、制御部140は、センシング部170でセンシングされるデータを用いて前記走行変位を測定することも可能である。例えば、左コマ136(L)と右コマ136(R)に連結され、回転数を感知して出力するエンコーダ(Encoder)などのホイールセンサーを用いて走行変位を測定することができる。
制御部140は、回転数を用いて左右側コマの回転速度を演算することができる。また、制御部140は、左コマ136(L)と右コマ136(R)の回転数差を用いて回転角を演算することができる。
通常エンコーダは積分を遂行し続けるにつれて誤差が累積する限界があった。よって、より好ましくは、制御部140は、LiDARセンサー175のセンシングデータに基づいて走行変位などの走行距離計測(odometry)情報を生成することができる。
制御部140は、前記ホイールセンサーで感知されるセンシングデータに前記LiDARセンサー175のセンシングデータを融合してもっと正確な走行距離計測情報を生成することができる。例えば、前記制御部140は、前記走行感知センサーでのセンシングデータと前記LiDARセンサー175のICP(Iterative Closest Point)マッチング結果を融合して走行距離計測情報を生成することができる。
これにより、単にコマの回転にのみ依存して走行距離計測情報を生成する場合にコマが空回りするか、滑り、衝突、拘束、拉致状況などで発生し得るエラーを防止し、累積するエラー(error)を最小化してもっと正確な走行距離計測情報を生成することができる。
図7及び図8を参照すると、境界情報生成過程(S604)で、移動ロボット100は、走行障害要素に対応する境界情報b20を生成する。境界情報生成過程(S604)で、移動ロボット100は、各走行障害要素にそれぞれ対応する各境界情報を生成する。複数の走行障害要素に複数の境界情報が一対一で対応する。境界情報b20は対応するノードの座標情報とセンシング部170が測定した距離値に基づいて生成されることができる。
図7及び図8を参照すると、ノードマップ生成過程(S603)及び境界マップ生成過程(S605)は同時に進行される。ノードマップ生成過程(S603)で、複数のノードNa18、Na19、Na20などを含むノードマップが生成される。境界マップ生成過程(S605)で、複数の境界情報(b20など)を含む境界マップBaが生成される。ノードマップ生成過程(S603)及び境界マップ生成過程(S605)で、ノードマップ及び境界マップBaを含むマップMaが生成される。図6には、ノードマップ生成過程(S603)及び境界マップ生成過程(S605)を経て生成されているマップMaを示す。
図7に示した映像には、天井に位置する照明、境界(edge)、コーナー(corner)、染み(blob)、屈曲(ridge)などによるさまざまな特徴点が確認される。移動ロボット100は、映像から特徴点を抽出する。コンピュータビジョン(Computer Vision)技術分野で映像から特徴点を抽出する多様な方法(Feature Detection)がよく知られている。これらの特徴点の抽出に適した様々な特徴検出器(feature detector)が知られている。例えば、Canny、Sobel、Harris&Stephens/Plessey、SUSAN、Shi&Tomasi、Level curve curvature、FAST、Laplacian of Gaussian、Difference of Gaussians、Determinant of Hessian、MSER、PCBR、Grey-level blobs検出器などがある。
図7を参照すると、ディスクリプタ生成過程(S606)で、獲得された映像から抽出された複数の特徴点f1、f2、f3、...、f7に基づいてディスクリプタ
Figure 0007150773000004
を生成する。前記ディスクリプタ生成過程(S606)で、獲得された複数の映像から抽出された複数の特徴点f1、f2、f3、...、fmに基づいてディスクリプタ
Figure 0007150773000005
を生成する(ここで、mは自然数)。複数の特徴点f1、f2、f3、...、fmに複数のディスクリプタ
Figure 0007150773000006
は一対一で対応する。
Figure 0007150773000007
はn次元ベクターを意味する。
Figure 0007150773000008
の中括弧{}内のf1(1)、f1(2)、f1(3)、...、f1(n)は
Figure 0007150773000009
を成す各次元の数値を意味する。残りの
Figure 0007150773000010
に対する表記もこのような方式であるので、説明を省略する。
特徴検出のために、SIFT(Scale Invariant Feature Transform)技法を用いて、複数の特徴点f1、f2、f3、...、fmに対応する複数のディスクリプタ
Figure 0007150773000011
を生成することができる。
例えば、SIFT技法を適用して、映像で識別の容易な特徴点f1、f2、f3、f4、f5、f6、f7を選択した後、各特徴点f1、f2、f3、f4、f5、f6、f7周辺の一定区域に属するピクセルの明るさ勾配(gradient)の分布特性(明るさ変化の方向及び変化の急激な程度)に基づいてn次元ベクターであるディスクリプタを生成することができる。ここで、特徴点の各明るさ変化の方向を各次元と見なし、各明るさ変化の方向に対する変化の急激な程度を各次元に対する数値にするn次元ベクター(ディスクリプタ)を生成することができる。SIFT技法は、撮影対象のスケール(scale)、回転、明るさ変化に対して変わらない特徴を検出することができるので、同じ領域を移動ロボット100の姿勢を変えながら撮影しても変わらない(すなわち、回転不変(Rotation-invariant))特徴を検出することができる。もちろん、これに限定されず、他の多様な技法(例えば、HOG:Histogram of Oriented Gradient、Haar feature、Fems、LBP:Local Binary Pattern、MCT:Modified Census Transform)を適用することも可能である。
図9は、移動ロボットが移動しながら生成する複数のノードN及びノード間の変位Cを示す概念図である。
図9を参照すると、原点ノードOが設定された状態で走行変位C1が測定されてノードN1の情報が生成される。以後に測定された走行変位C2の時点となるノードN1の座標情報に前記走行変位C2を加えて、前記走行変位C2の終点となるノードN2の座標情報を生成することができる。ノードN2の情報が生成された状態で走行変位C3が測定されてノードN3の情報が生成される。このように、順次測定される走行変位C1、C2、C3、…、C16に基づいてノードN1、N2、N3、…、N16の情報が順次生成される。
いずれか一つの走行変位C15の時点となるノードC15を該当走行変位C15の終点となるノード16の‘基礎ノード’に定義すると、ループ変位(Loop Constraint、LC)はいずれか一つのノードN15及び前記いずれか一つのノードN15の前記‘基礎ノードN14ではない’他の隣接したノードN5間の変位が測定された値を意味する。
一例として、いずれか一つのノードN15に対応する獲得映像情報と他の隣接したノードN5に対応する獲得映像情報が互いに比較されることにより、二つのノードN15、N5間のループ変位LCが測定されることができる。他の例で、いずれか一つのノードN15の周辺環境との距離情報と他の隣接したノードN5の周辺環境との距離情報が互いに比較されることにより、二つのノードN15、N5間のループ変位LCが測定されることができる。図8には、ノードN5とノードN15との間で測定されたループ変位LC1、及びノードN4とノードN16との間で測定されたループ変位LC2が例示的に示されている。
前記走行変位に基づいて生成されたいずれか一つのノードN5の情報は、ノード座標情報及び該当ノードに対応する映像情報を含むことができる。ノードN5に隣接する他のノードN15があるとき、ノードN15に対応する映像情報をノードN5に対応する映像情報と比較すると、二つのノードN5、N15間のループ変位LC1が測定される。‘ループ変位LC1’と‘既保存の二つのノードN5、N15の座標情報によって算出される変位’が互いに異なる場合、ノード座標情報に誤差があると見なし、二つのノードN5、N15の座標情報を更新することができる。この場合、二つのノードN5、N15と連結された他のノードN6、N7、N8、N9、N10、N11、N12、N13、N14の座標情報も更新されることができる。また、一度更新されたノード座標情報も続いて前記過程を経て繰り返し更新されることができる。
より具体的に説明すれば次のようである。ループ変位LCが測定された二つのノードNをそれぞれ第1ループノード及び第2ループノードと定義する。既保存の第1ループノードのノード座標情報及び第2ループノードのノード座標情報によって算出される‘算出変位(Δx1、Δy1、θ1)’(座標値の差によって算出される)とループ変位LC(Δx2、Δy2、θ2)間の差(Δx1-Δx2、Δy1-Δy2、θ1-θ2)が発生し得る。前記差が発生すれば、前記差を誤差と見なしてノード座標情報を更新することができる。ここで、ループ変位LCが前記算出変位より正確な値であるという仮定の下でノード座標情報を更新する。
ノード座標情報を更新する場合、前記第1ループノード及び第2ループノードのノード座標情報のみ更新することもできるが、前記誤差の発生は走行変位の誤差が累積して発生したものなので、前記誤差を分散させて他のノードのノード座標情報も更新するように設定することができる。例えば、前記第1ループノードと第2ループノードとの間に前記走行変位によって生成された全てのノードに、前記誤差値を分散させてノード座標情報を更新することができる。図8を参照すると、ループ変位LC1が測定され、前記誤差が算出された場合、第1ループノードN15と第2ループノードN5間のノードN6~N14に前記誤差を分散させることにより、ノードN5~N15のノード座標情報が全て少しずつ更新されることができる。もちろん、このような誤差分散を拡大させて、以外のノードN1~N4のノード座標情報を一緒に更新することもできるというのは言うまでもない
図10は第1マップMaの一例を示す概念図で、生成されたノードマップを含んでいる図である。図10には、図6によるマップ生成過程を経て生成されたいずれか一つのマップMaの一例が示される。前記マップMaは、ノードマップ及び境界マップBaを含む。前記ノードマップは、複数の第1ノードNa1~Na99を含む。
図10を参照すると、いずれか一つのマップMaはノードマップNa1、Na2、…、Na99及び境界マップBaを含むことができる。ノードマップは一つのマップ上のさまざまな情報の中で複数のノードからなる情報を指称するものであり、境界マップは一つのマップ上のさまざまな情報の中で複数の境界情報からなる情報を指称するものである。ノードマップと境界マップは前記マップの構成要素であり、ノードマップの生成過程(S602、S603)と境界マップの生成過程(S604、S605)は同時に進む。例えば、境界情報は、特定地点から離れた走行障害要素の距離を測定した後、前記特定地点に対応する既保存のノードの座標情報を基準に生成されることができる。例えば、ノードのノード座標情報は特定の走行障害要素から離れた特定地点の距離を測定した後、前記特定障害要素に対応する既保存の境界情報を基準に生成することができる。ノード及び境界情報は、既保存のいずれか一つに対する他の一つの相対的座標に基づいて他の一つがマップ上に生成されることができる。
また、前記マップは前記過程(S606)で生成された映像情報を含むことができる。複数の映像情報は複数のノードに一対一で対応する。特定の映像情報は特定のノードに対応する。
図11は本発明の一実施例による移動ロボットの制御方法を示すフローチャートである。
本発明の一実施例による移動ロボット100は、本体110の外部地形情報を獲得するLiDARセンサー175と本体110の外部の映像を獲得するカメラセンサー120bとを含むことができる。
移動ロボット100は、動作中にLiDARセンサー175を介して走行区域の地形情報を獲得することができる(S1110)。
また、移動ロボット100は、動作中にカメラセンサー120bなどの映像獲得部120を介して走行区域の映像情報を獲得することができる(S1120)。
一方、制御部140は、前記LiDARセンサー175のセンシングデータに基づいて走行距離計測(odometry)情報を生成することができる(S1130)。
例えば、制御部140は、特定位置で前記LiDARセンサー175を介して感知されるセンシングデータに基づく周辺地形情報をLiDARセンサー基盤の既保存の地形情報と比較して走行変位などの走行距離計測情報を生成することができる。
より好ましくは、制御部140は、本体110の移動による走行状態を感知するホイールセンサーなどの走行感知センサーのセンシングデータと前記LiDARセンサー175のセンシングデータを融合してもっと正確な走行距離計測情報を生成することができる。
ホイールセンサーとしては、左コマ136(L)と右コマ136(R)に連結されて回転数を感知して出力するエンコーダ(Encoder)を用いることができる。通常エンコーダは積分を遂行し続けるにつれて誤差が累積する限界があった。
前記制御部140は、前記走行感知センサーでのセンシングデータと前記LiDARセンサーのICP(Iterative Closest Point)マッチング結果を融合して走行距離計測情報を生成することができる。
これにより、ホイールセンサーにのみ依存する場合よりもっと正確な走行距離計測情報を生成することができ、走行変位を正確に算出することによって位置認識の正確度も向上することができる。
本発明の一実施例によれば、前記LiDARセンサー175のセンシングデータをICP(Iterative Closest Point)アルゴリズムにしたがってマッチングし、前記走行距離計測情報を生成する段階(S1130)で、制御部140は、前記走行感知センサーでのセンシングデータと前記LiDARセンサー175のICP(Iterative Closest Point)マッチング結果を融合して前記走行距離計測情報を生成することができる。
制御部140は、LiDARセンサー175を介して他の時点で獲得された情報間に距離が最も近い2地点を検出することができる。制御部140は、検出された2地点を対応点(Corresponding point)に設定することができる。
制御部140は、前記設定された対応点の位置を同一にする運動量を用いて、移動ロボット100の走行変位に係わる走行距離計測情報を検出することができる。
制御部140は、移動を始めた地点(以前位置)についての位置情報と前記検出された走行変位を用いて移動ロボット100の現在地点についての位置情報を検出することができる。
本発明の一実施例によれば、関連のデータを整合して合わせるアルゴリズムとして広く活用されているICP(Iterative Closest Point)アルゴリズムを用いて、走行距離計測情報を生成し、移動ロボット100の位置を推定することができる。
例えば、ICPアルゴリズムによるデータのマッチング結果として、LiDARセンサー175で獲得されるデータと既保存のデータとの間にポイントの距離が最も近くなる位置にマッチングがなされることができる。これにより、移動ロボット100の位置を推定することができる。また、以前位置を基準に走行距離計測情報を生成することができる。
もしくは、他のアルゴリズムを活用して前記LiDARセンサー175のセンシングデータに基づく走行距離計測情報を生成することもできる。
一方、制御部140は、前記走行距離計測情報に基づいて前記カメラセンサー120bから入力される映像の特徴点マッチングを遂行し(S1140)、前記特徴点マッチング結果に基づいて現在位置を推定することができる(S1150)。
制御部140は、前記カメラセンサー120bから入力される映像から、天井に位置する照明、境界(edge)、コーナー(corner)、染み(blob)、屈曲(ridge)などのさまざまな特徴(feature)を検出する。
図5~図10を参照して説明したように、制御部140は、それぞれの認識特徴点に基づいて認識ディスクリプタ算出段階を経て認識ディスクリプタを算出し、少なくとも一つの認識ディスクリプタ情報に基づいて、所定の下位変換規則によって比較対象となる位置情報(例えば、各位置の特徴分布)と比較可能な情報(下位認識特徴分布)に変換する。
制御部140は、前記カメラセンサー120bから入力される映像間の特徴点をマッチングするか現在位置で前記カメラセンサー120bから入力される映像から抽出された特徴点とマップに登録された映像情報の特徴点とマッチングすることができる。
所定の下位比較規則によって、それぞれの位置特徴分布をそれぞれの認識特徴分布と比較してそれぞれの類似度を算出することができる。それぞれの位置に相当する前記位置別に類似度(確率)を算出し、その中で最大確率が算出される位置を現在位置に決定することができる。
また、制御部140は、判別された現在位置に対応するノードをマップに登録することができる(S1160)。
マップ生成及び更新過程で、リソース管理の側面で必要でないノードを登録することは無駄使いなので、ノード登録可否を所定基準によって決定することができる。
例えば、制御部140は、ノードマップで現在位置に対応するノードを基準に既設定の基準距離内のノードを確認してノード登録可否を決定することができる。ここで、ノードマップはセンシング情報を用いて計算されたロボットの位置を示すノード(node)を複数含むマップで、SLAMマップであり得る。
制御部140は、マップ上に意味ある追加情報が必要な場合にのみノードを登録するように構成することができる。
制御部140は、現在位置を基準に所定距離内の全てのノードと現在ノード間のエッジ(edge、constraint)が存在するかを判別することができる。これは現在ノードが周辺ノードと特徴点マッチング(feature matching)するものがないかを確認することであり得る。例えば、特徴点としてコーナー地点があれば、以前のコーナー地点と比較した後、ロボットの相対的な座標があるかを判断することによって相関関係存在有無を判断することができる。
一方、グラフ(graph)基盤のSLAMでノードを連結するエッジ(edge)はロボットの位置間の走行変位情報、走行距離計測情報であり、constraintとも言える。
ノード間の相関関係を生成して追加することは、ノードを連結するエッジを生成することである。一例として、ノード間の相関関係の生成は二つのノード間の相対位置と相対位置のエラー値を算出することを意味することができる。
すなわち、エッジ(edge、constraint)はノードとロボットの相対的な座標でノード間の関係性を示すことができる。また、エッジ(edge、constraint)が存在するというのはノード間に一定の部分が重なるセンシング情報があることを意味することができる。
制御部140は、現在ロボット位置に対応する現在ノードを基準に所定距離内の候補ノードと現在ノードを比較してエッジが存在するかをチェック(check)することができる。
仮に、エッジが存在すれば、ノードの間で共通して見える特徴(feature)があり、特徴点マッチング(feature matching)までできるということを意味することができる。その後、現在位置でノードに連結されたエッジ(edge)と既存マップのノード情報を比較する。
制御部140は、既存マップのノード情報を確認して、現在位置に対応するノードに連結されたエッジ(edge)の全てが一致(consistent)すれば、マップにノードを登録しないでマップにノードを登録するかを確認する過程を終了することができる。
一方、制御部140は、前記カメラセンサー120bから入力される映像間の特徴点マッチングが失敗した場合、前記LiDARセンサー175のセンシングデータに基づいて現在ノードと周辺ノードのICP(Iterative Closest Point)マッチングを行ってノード間の相関関係を追加することができる。
また、制御部140は、映像特徴点マッチング成功可否に無関係にマップ生成及びアップデート過程でノード間の相関関係判別及び生成に前記LiDARセンサー175のセンシングデータを用いることができる。
このように、制御部140は、マップを生成するか、既保存のマップに基づいて移動ロボット100の現在位置を認識することができる。
本発明は多様な環境での高い位置認識性能を確保する技術によって物理的特性の異なる異種のセンサーを活用して位置認識アルゴリズムを具現した。
本発明によれば、カメラセンサー120bの映像情報とLiDARセンサー175の距離情報を活用して異種のデータを相補的に適用する。これにより、SLAMで映像のみ使う場合、低照度に脆弱な欠点を補完し、LiDARセンサー175のみ使う場合に発生する動的環境に対応して補完することができる。
SLAM技術は、ビジョン(Vision)基盤、レーザー(Laser)基盤、SLAMに分けることができる。
このうち、ビジョン(Vision)基盤のSLAMは、映像から特徴点を抽出してからマッチングして3次元座標を計算し、これに基づいてSLAMを行う。映像に多くの情報があって環境が明るい場合、自分の位置認識を行うのに優れた性能を有するが、暗い所では動作が難しく、近くにある小さな物体と遠くにある大きな物体を類似しているものと認識するなどのスケールドリフト(Scale Drift)問題がある。
そして、レーザー(Laser)基盤のSLAMはレーザーで角度別距離を測定して周辺環境の地形(geometry)を計算する原理で動作する。レーザー基盤のSLAMは暗い環境でもうまく動作する。しかし、地形(geometry)情報のみ持って位置を認識するので、オフィス(Office)環境のように繰り返される領域が多い空間では、初期位置条件がない場合、自分の位置を捜しにくい場合が多い。また、家具が移されるなどの動的環境変化に対する対応が難しい。
すなわち、ビジョン(Vision)基盤のSLAMの場合、暗い環境(光がない環境)では正確な動作が難しい。また、レーザー(Laser)基盤のSLAMの場合、動的環境(動く物体など)と繰り返される環境(類似パターン)で自分の位置認識が難しく、既存のマップと現在フレームのマッチング及びループクロージング(loop closing)の正確度が低下し、ランドマークを作りにくいから、拉致(kidnap)問題のような状況に対処しにくい。
本発明は、カメラセンサー120bとLiDARセンサー175の異種センサーの特徴を相補的に適用してSLAM性能を画期的に向上させることができる。
例えば、コマエンコーダのみ使ったときの累積するエラーを最小化するために、エンコーダ情報とLiDARセンサー175のICP(Iterative Closest Point)結果を融合して走行距離計測(Odometry)情報を生成することができる。
また、この走行距離計測(Odometry)情報に基づいて入力される映像間特徴点マッチングによって3D復元を行った後、現在位置(ロボットの変位量)を計算することにより、正確に現在位置を推定することができる。
実施例によって、推定された現在位置を補正して最終の現在位置を判別することができる(S1170)。例えば、LiDARセンサー175のセンシングデータに基づいて周辺地形情報を見て推定された現在位置の不確実性(uncertainty)を計算し、不確実性値が最小化するように補正する方式で正確な最終の現在位置を判別することができる。ここで、現在位置の不確実性(uncertanity)は予測された現在位置の信頼値によって確率又は分散形態に算出されることができる。例えば、推定された現在位置の不確実性(uncertainty)は共分散(covariance)として算出されることができる。
また、最終に判別された現在位置に対応するノードでノード情報を補正してマップに登録することができる。
実施例によって、前記制御部140は、前記LiDARセンサー175のセンシングデータを受信し、前記LiDARセンサー175のセンシングデータに基づく地形情報、及び以前位置情報を用いて位置変位量を判別するLiDARサービスモジュール(図12の1020参照)、及び前記LiDARサービスモジュール1020から前記位置変位量を受信し、前記カメラセンサー120bから映像を受信し、前記位置変位量に基づいて現在映像から抽出された特徴点と以前位置で抽出された特徴点のマッチングによって特徴点位置を判別し、判別された特徴点位置に基づいて前記現在位置を推定するビジョンサービスモジュール(図12の1030参照)を含むことができる。ここで、位置変位量は上述した走行変位であり得る。
一方、前記算出された現在位置情報を含むノード情報が保存部130に保存されることができる。
一方、前記ビジョンサービスモジュール1030は前記ノード情報を前記LiDARサービスモジュール1020に送信し、前記LiDARサービスモジュール1020は、前記ノード情報に、前記ビジョンサービスモジュール1030が前記現在位置を算出するうちに移動ロボット100が移動した位置変位量を反映して前記移動ロボット100の現在位置を判別することができる。すなわち、現在位置を補正して最終的な現在位置を判別することができる(S1170)。
本発明の一実施例による移動ロボット100は、本体110の移動による走行状態を感知する走行感知センサーを含むことができる。例えば、移動ロボット100は、エンコーダなどのセンサーを備えることができる。
この場合、制御部140は、前記走行感知センサーのセンシングデータを読んで来る走行サービスモジュール(図12の1010参照)をさらに含み、前記走行サービスモジュール1010は、前記走行感知センサーのセンシングデータを前記LiDARサービスモジュール1020に伝達し、前記LiDARサービスモジュール1020は、前記走行感知センサーのセンシングデータに基づく走行距離計測情報と前記LiDARセンサー175のICP結果を融合して前記走行距離計測情報を生成することができる。
移動ロボット100は、グラフ(Graph)基盤のSLAM技術を用いて、二つの隣接したノードの相対位置に基づいてループクロージングを遂行することができる。制御部140は、経路グラフを構成するノードの相関関係のエラー値の和が最小となるようにそれぞれのノードの位置データを補正することができる。
実施例によって、制御部140は、照度が基準値未満の領域では前記LiDARセンサー175のセンシングデータに基づいて現在位置を算出した後、前記照度が前記基準値以上の領域に進入すれば、ループクロージング(loop closing)を行って誤差を補正することができる。すなわち、低照度の暗い領域ではLiDAR基盤の位置認識を遂行することができる。LiDARセンサー175は照度に影響されないので、低照度環境でも同一性能の位置認識が可能である。
しかし、LiDAR基盤のSLAMはループクロージングの正確度が下がる欠点がある。よって、照度が充分に高い領域に進入した後、ループクロージングを遂行することができる。ここで、カメラセンサー120bを介して獲得される映像情報を用いてループクロージングを遂行することができる。すなわち、低照度環境ではLiDARに基づいてSLAMを遂行し、そうではない環境ではビジョンに基づいてループクロージングなどのSLAMを遂行することができる。
走行区域の一部領域は暗く、一部領域は明るい場合がある。この場合、本発明の一実施例による移動ロボット100は、暗い領域を通るときにはLiDARセンサー175のみを持ってノード(Node)を生成し、自分の位置を計算する。ここで、位置誤差は累積することができる。よって、移動ロボット100が明るい領域に進入する場合、ループクロージングによってビジョン基盤で生成されたノードのノード情報とLiDAR基盤で生成されたノードのノード情報を含む全体ノード情報を最適化して累積した誤差を最小化させることができる。仮に、暗い領域が一定期間持続する場合、移動ロボット100の速度を低めるか止めた後、カメラセンサー120bの露出を最大化して、できるだけ明るい映像を得てビジョン基盤のSLAMを進めることもできる。
一方、走行サービスモジュール1010、LiDARサービスモジュール1020、ビジョンサービスモジュール1030はソフトウェア的プロセス又はソフトウェア的プロセスを行う主体を意味することができる。
図12及び図13は本発明の実施例による移動ロボットの制御方法のソフトウェア的プロセスを示すフローチャートで、ビジョンとLiDARの融合シーケンスを示す図である。ここで、走行サービスモジュール1010、LiDARサービスモジュール1020、ビジョンサービスモジュール1030などはソフトウェア的プロセスであり得る。
図14~図18は本発明の実施例による移動ロボットの制御方法についての説明に参照される図である。
まず、図12を参照すると、走行サービスモジュール1010は、エンコーダなどの走行感知センサーでのセンシングデータをLiDARサービスモジュール1020とビジョンサービスモジュール1030に伝達することができる(S1210)。
走行感知センサーを介して本体110の移動による走行状態を感知し、走行サービスモジュール1010は、走行感知センサーのセンシングデータをLiDARサービスモジュール1020とビジョンサービスモジュール1030に伝達することができる(S1210)。
例えば、走行サービスモジュール1010は、50Hzの速度でコマのエンコーダ値を読み取ってLiDARサービスモジュール1020に伝達することができる。
ビジョンサービスモジュール1030は、LiDARサービスモジュール1020に走行距離計測情報を要請することができる(S1220)。
LiDARサービスモジュール1020は、ビジョンサービスモジュール1030の要請に応答し(S1225)、走行距離計測情報を生成することができる(S1240)。
例えば、LiDARサービスモジュール1020は、LiDARセンサー175のセンシングデータを受信し、受信されたLiDARセンサー175のセンシングデータに基づく地形情報と以前位置情報を用いて移動ロボット100の位置変位量を判別することができる。
また、LiDARサービスモジュール1020は、前記走行感知センサーのセンシングデータに基づく走行距離計測情報とLiDARセンサー175のICP結果を融合して走行距離計測情報を生成することにより、単に二つのデータを並列的に使うものではなく、走行距離計測情報の正確な算出に使える。
一方、ビジョンサービスモジュール1030は、映像獲得部120が獲得した映像情報を読んでくるカメラサービスモジュール1040に映像データを要請し(S1230)、カメラサービスモジュール1040から映像データを受信することができる(S1235)。
一方、LiDARサービスモジュール1020は、判別された位置変位量情報をビジョンサービスモジュール1030に送信することができる(S1245)。
ビジョンサービスモジュール1030は、LiDARサービスモジュール1020から位置変位量情報を受信し(S1245)、カメラサービスモジュール1040から映像データを受信し(S1235)、前記位置変位量に基づいて現在映像から抽出された特徴点と以前位置で抽出された特徴点のマッチングによって特徴点位置を判別する(S1250)ことにより、LiDAR基盤の走行距離計測情報に基づく映像特徴点をマッチングすることができる(S1140)。
一方、制御部140は、算出された現在位置情報を含むノード情報をマップに登録し、ノード情報が追加又は更新されたマップを保存部130に保存することができる。
一方、ビジョンサービスモジュール1030は前記ノード情報をLiDARサービスモジュール1020に送信することができ(S1260)、LiDARサービスモジュール1020はビジョンサービスモジュール1030が前記現在位置を算出するうちに移動ロボット100が移動した位置変位量を算出して受信したノード情報に反映することにより、移動ロボット100の最終の現在位置を判別することができる(S1270)。すなわち、LiDARサービスモジュール1020は、ビジョンサービスモジュール1030が推定した現在位置を補正して最終の現在位置を判別することができる(S1170、S1270)。
LiDARサービスモジュール1020は、判別された最終位置に対応するノード情報をマップに登録するか制御部140内の他のモジュールに出力することができる(S1280)。
図13を参照すると、SLAMサービスモジュール1035は、ビジョン基盤のSLAMだけでなくSLAM関連プロセスを総括することができる。SLAMサービスモジュール1035は、ビジョン基盤のSLAMにLiDAR基盤を融合する場合、ビジョンサービスモジュール1030の機能、動作が拡張して具現されることができる。
図12及び図13を参照すると、SLAMサービスモジュール1035とLiDARサービスモジュール1020は、走行サービスモジュール1010からコマのエンコーダ値を受けることができる。
SLAMサービスモジュール1035は、LiDARサービスモジュール1020にLiDARデータを要請することができ(S1310)、LiDARサービスモジュール1020は、LiDARデータを準備するという応答をSLAMサービスモジュール1035に送信することができる(S1315)。
LiDARサービスモジュール1020は、移動ロボット100の直前位置とコマのエンコーダ値に基づいて現在位置を予測した後、LiDARセンサー175から入力される地形(geometry)情報を用いて位置変位量及び現在位置を予想し(1330)、予想値をSLAMサービスモジュール1035に伝達することができる(S1340)。
実施例によって、LiDARサービスモジュール1020は、位置変位量を含む走行距離計測情報及び共分散形態の不確実性確率値をSLAMサービスモジュール1035に送信することができる。
SLAMサービスモジュール1035は、カメラサービスモジュール1040に映像を要請することができる(S1320)。ここで、SLAMサービスモジュール1035は、走行サービスモジュール1010から受信したエンコーダ値によって対応する映像情報を要請することができる。
SLAMサービスモジュール1035は、カメラサービスモジュール1040から映像を受け(S1325)、LiDARサービスモジュール1020から入力された位置変位量に基づいて現在映像から抽出された特徴点と以前位置で抽出された特徴点のマッチングによって3D特徴点位置を計算することができる(S1350)。
また、SLAMサービスモジュール1035は、このように計算された3D点に基づいて移動ロボット100が移動した変位量と現在位置を計算することができる(S1350)。
一方、SLAMサービスモジュール1035は、このように計算された結果をノード(Node)形態のノード情報として保存することができる。
ここで、保存されるノード情報は登録すべきノードインデックス(index)情報、全域ポーズ情報(X、Y、θ)、全域不確実性値などを含むことができる。
実施例によって、SLAMサービスモジュール1035は、計算された結果をノード(Node)形態として保存した後、ノード情報をLiDARサービスモジュール1020に伝達する(S1360)。
LiDARサービスモジュール1020は、SLAMサービスモジュール1035で計算するうちに移動ロボットが移動した位置を追加して現在のロボット位置が分かることができる。
LiDARセンサー175のセンシングデータを用いるLiDAR SLAMは、照度変化に無関係であるという利点がある。
図14のような環境AではLiDAR SLAMのみでマッピング(mapping)及び位置認識が可能であり、LiDARセンサー175は障害物感知及び走行方向設定センサーとしても活用することができる。
図14の環境Aは障害物1411、1412、1413、1414を回避しながら走行すれば、ロボットが移動した所に再び帰る環境であるので、エラー(error)が大きくならないので、LiDAR SLAMのみでも正常なマップ作成が可能である。
しかし、LiDAR SLAMのみ使用する場合、図15のような環境Bでは、移動ロボット100がずっと新しい所を見ながら動くから、エラーが大きくなる。移動ロボット100がこの状態で最初出発点1500に戻ったとき、移動ロボット100がある所が最初出発地点であることが分かりにくい。
図15の環境Bはさまざまな障害物1511、1512、1513の少なくとも一つ1511が空間中央に大きくある環境であり、LiDAR SLAMのみではループクロージング(Loop closing)の問題のためマップ生成に困難がある。
図16を参照すると、移動ロボット100は、所定経路1610に移動した後、いずれか一地点Pxが出発地点Poと一致するかを判別し、同じ地点と確認される場合、エラーを最小化する最適化作業を行ってグラフ基盤のSLAMを遂行することができる。
地点Pxが出発地点Poと一致すれば、エラー訂正アルゴリズムにしたがってエラーを訂正して正確な経路1620に経路情報を修正することにより、正確な位置認識及びマップ作成が可能である。
したがって、LiDAR SLAMを用いるためには、正確なループクロージングアルゴリズムとエラー訂正(Error Correction)アルゴリズムが必要である。
一方、映像獲得部120を介して獲得した映像を用いるビジョンSLAMの場合、図14の環境A及び図15の環境Bともに正確なループクロージングができてマッピング及び位置認識が可能である。
しかし、ビジョンSLAMは照度による性能変化があるから、照度が低くて映像で検出される特徴の量が減少することによって性能に差が発生し得る。特に、照度が非常に低ければ獲得映像から特徴抽出が不可能であり、マッピング及び位置認識も不可能な欠点がある。
したがって、ビジョンSLAMを用いる場合、低照度以下の環境で動作しにくい限界点をLiDARセンサー175を用いる位置認識技術によって克服することができる。
また、LiDAR SLAMのマップをビジョンSLAMのループクロージングとエラー訂正で補正することにより、図15の環境Bのような空間でLiDARマッピングエラーを改善することができる。
本発明の一実施例によれば、LiDARセンサー175を用いたLiDAR SLAMと映像獲得部120を用いたビジョンSLAMを相補的に活用してロボットが移動するとき、暗い領域と明るい領域でも安定的な自分の位置認識が可能である。
図17を参照すると、LiDARセンサー175を用いたLiDAR SLAMを先に遂行し(S1710)、ループクロージングに利点があるビジョンSLAMを遂行し(S1720)、マップを生成して保存することができる(S1730)。
すなわち、LiDAR SLAMでマップを生成し(S1710)、LiDAR SLAMで生成されたマップをビジョンSLAMのループクロージングとエラー訂正で補正することにより(S1720)、最終マップを生成することができる(S1730)。
図18はLiDAR SLAMで生成されたマップ1810とループクロージングとエラー訂正が遂行されたマップ1820を例示する。
好ましくは、図1~図13に基づいて説明したように、LiDARセンサー175のセンセングデータに基づく走行距離計測(odometry)情報に基づいてビジョンSLAMを遂行することができる。また、ビジョンSLAM演算過程の所要時間の間に移動ロボット100の移動量をさらに反映して移動ロボット100の現在位置を判別することができる。
本発明の一実施例によれば、映像基盤の特徴点マッチングがうまくできない場合にも周辺ノードとの相関関係をLiDARセンサー175で計算することができる。すなわち、映像基盤の特徴点マッチングがうまくできない場合、LiDARサービスモジュール1020に情報を知らせ、LiDARサービスモジュール1020で相関関係(Constraint)を生成することができる。これにより、もっと豊かな相関関係を用いた最適化が可能であるという利点がある。
明るい領域でも映像の特徴点マッチングの限界のためマッチングが不完全であるときがある。よって、現在ビジョンサービスモジュール1030が思う位置と周辺ノードが一定距離以下であるにもかかわらずマッチングがうまくできない場合、ビジョンサービスモジュール1030がLiDARサービスモジュール1020で相関関係の追加を要請することができる。
LiDARサービスモジュール1020は、現在ノードと周辺ノード間のICPマッチング(Matching)を行ってConstraintを追加することができる。これにより、ノード間のConstraintを追加することにより、もっと多いノード間のconstraintを用いて正確な位置推定が可能となる。
映像に基づいて計算した走行距離計測(Odometry)情報の場合、スケールドリフト(Scale Drift)が発生し得るが、LiDAR基盤の地形情報を一緒に考慮することにより、スケールドリフト(Scale Drift)の最小化も可能である。
また、本発明の一実施例によれば、映像基盤のビジョンSLAMとLiDAR基盤のLiDAR SLAM間のビューポイント(View Point)に対する精密な校正(Calibration)の必要なしにフュージョン(fusion)SLAMが可能な利点がある。
図19は本発明の実施例によるSLAMについての説明に参照される図であり、カメラセンサー120bとLiDARセンサー175で獲得されたデータに基づく相関関係であるconstraintsを一つのSLAMフレームワーク(Framework)であるSLAMサービスモジュール1035で最適化する実施例を開示する。
図19のSLAMサービスモジュール1035はビジョン基盤のSLAMだけでなくSLAM関連プロセスを総括するものであり、ビジョンサービスモジュール1030の機能及び動作が拡張して具現されることができ、Visual-LiDAR SLAMサービスとも名付けられることができる。
SLAMサービスモジュール1035は、カメラセンサー120bから映像データを受信することができる。また、LiDARサービスモジュール1020はLiDARセンサー175からセンシングデータを受信することができる。
一方、LiDARサービスモジュール1020とSLAMサービスモジュール1035は走行サービスモジュール1010から走行サービスモジュール1010で獲得された走行距離計測情報を受けることができる。例えば、エンコーダ1011は、移動ロボット100の走行中にコマ動作に基づく走行距離計測情報をLiDARサービスモジュール1020とSLAMサービスモジュール1035に伝達することができる。
SLAMサービスモジュール1035は、LiDARサービスモジュール1020にLiDARサービスモジュール1020で取得された相関関係情報を要請することができる(S1910)。
SLAMサービスモジュール1035は、LiDARサービスモジュール1020に直前フレーム(frame)からの相対的な位置情報(relative pose)を要請することができる。直前フレームからの相対的な位置情報は移動ロボット100の直前位置から現在位置までの相対的な位置情報であり、位置変位量でも、ICPマッチング結果から出た情報でもあり得る。
また、SLAMサービスモジュール1035は、LiDARサービスモジュール1020にループ変位(Loop Constraint)を要請することができる。例えば、マッチング対象フレーム(frame)のインデックス(index)、ローカルマップ(localmap)の範囲内でマッチングするループ変位(Loop Constraint)を要請することができる。
LiDARサービスモジュール1020はSLAMサービスモジュール1035の要請に応答することができる(S1920)。例えば、LiDARサービスモジュール1020は、SLAMサービスモジュール1035に直前フレーム(frame)からの相対的な位置情報(relative pose)、ローカルマップ(local map)の範囲内でマッチングするループ変位(Loop Constraint)を応答することができる。
一方、SLAMサービスモジュール1035は、カメラセンサー120bとLiDARセンサー175から取得されたそれぞれのconstraintsを統合することができる。
SLAMサービスモジュール1035は、LiDARサービスモジュール1020で受信した情報にビジョンSLAM結果を融合して現在位置を判別することができる。
SLAMサービスモジュール1035は、LiDARサービスモジュール1020で受信した情報にビジョンSLAM結果を融合してノード情報をアップデートし、SLAMマップを生成することができる。
SLAMサービスモジュール1035は、現在補正された位置を判別し、全体ノードのポーズ(pose)を含むポーズ-グラフ(pose-graph)を補正することができる。
すなわち、SLAMサービスモジュール1035は、移動ロボット100の現在位置を判別し、SLAMマップのノード情報を追加、削除及び変更してSLAMマップを生成するか、生成されたSLAMマップをアップデートすることができる。
一方、SLAMサービスモジュール1035は、移動ロボット100の現在位置、補正されたポーズ-グラフ情報、現在位置に対応するローカルマップに相当するフレームインデックス情報、現在ノード、削除されたノード及び連結ノード情報などをLiDARサービスモジュール1020に送信することができる(S1930)。
図20は本発明の実施例によるSLAMについての説明に参照される図で、ビジョン-LiDARフュージョンSLAMサービス2000の構成概念図である。
図20で例示したビジョン-LiDARフュージョンSLAMサービス2000の構成はソフトウェア的なサービスであり、ビジョンSLAMとLiDAR SLAMは互いに異なるスレッド(thread)であり、非同期式で動作することができる。
これにより、ビジョンSLAMとLiDAR SLAM方式のそれぞれの固有の性能は基本的に確保し、これをビジョン-LiDARフュージョンSLAMサービス2000で統合してもっと向上した性能を確保することができる。
図20を参照すると、SLAMメイン2010は、フュージョンSLAMサービス2000内の各サービスモジュールでデータを受けて必要なサービスモジュールに伝達し、応答を受信するハブ(hub)として動作することができる。
視覚的走行距離計測(Visual Odometry、VO)2050は、カメラセンサー120bから獲得される映像から走行距離などを推定するビジョン基盤の走行距離計測判別を遂行することができる。
視覚的走行距離計測2050は、カメラセンサー120bから獲得される映像から特徴点を抽出し、特徴点マッチング(Feature extraction matching、FEM)2010を遂行することができる。しかし、低照度環境で獲得された映像では特徴点抽出及びマッチング2010が難しいことがある。
したがって、LiDARサービスモジュール2015でICPマッチング2085を行って走行距離計測情報を獲得し、これに基づいてフュージョンSLAMを行うことが好ましい。
このように、ローカルマップ範囲内で、視覚的走行距離計測2050によって獲得した走行距離計測情報及び/又はLiDARサービスモジュール2015がICPマッチング2085を行って獲得した走行距離計測情報を用いて全域位置を判別することができる。
例えば、Global Pose Tracker(GPT)2020は走行距離計測情報を呼んで来て全域位置を判別することができる。
一方、Global Mapper(GM)2030は、ローカルマップ範囲内で判別された情報を取り合わせて最適化することができる。また、Global Mapper2030は、特徴点辞書であるVocabulary tree(VT)2060を生成することができる。
一方、Kidnap Recovery(KR)2040は、ローカルマップ範囲内で判別された情報を取り合わせて最適化することができる。
SLAMメイン2010は、Global Pose Tracker2020からループ変位(Loop Constraint)を持って来ることができる。また、SLAMメイン2010は、新しいフレーム、位置変化量、ループ変位(Loop Constraint)をGlobal Mapper2030のスレッドに伝達することができる。
SLAMメイン2010は、視覚的走行距離計測2050から新しいフレームの特徴点情報と補正された位置を持ってくることができ、新しいフレームをGlobal Mapper2030のポーズ-グラフノードとマッチングしてループ変位(Loop Constraint)を生成することができる。
Global Pose Tracker2020では位置推定を遂行し、SLAMメイン2010は推定された位置情報によってポーズ-グラフのノード情報を更新することができる。
SLAMメイン2010は、現在補正された位置を判別し、全体ノードのポーズ(pose)を含むポーズ-グラフ(pose-graph)を補正することができる。
SLAMメイン2010は、移動ロボット100の現在位置を判別し、SLAMマップのノード情報を追加、削除及び変更してSLAMマップを生成するか、生成されたSLAMマップをアップデートすることができる。
本発明による移動ロボットは、前述した実施例の構成と方法に限って適用されるものではなく、前記実施例は、多様な変形ができるように、各実施例の全部又は一部が選択的に組み合わせられて構成されることもできる。
同様に、特定の順に図面に動作を図示しているが、これは、好ましい結果を得るために図示した特定の順に又は順次の順にそのような動作を遂行しなければならないか全ての図示の動作を遂行しなければならないものに理解されてはいけない。特定の場合、マルチタスキングと並列プロセッシングが有利であり得る。
一方、本発明の実施例による移動ロボットの制御方法は、プロセッサが読める記録媒体にプロセッサが読めるコードで具現することが可能である。プロセッサが読める記録媒体はプロセッサによって読められるデータが保存される全ての種類の記録装置を含む。また、インターネットを介しての伝送などの搬送波形態に具現されることも含む。また、プロセッサが読める記録媒体はネットワークで連結されたコンピュータシステムに分散され、分散方式でプロセッサが読めるコードが保存されて実行されることができる。
また、以上では本発明の好適な実施例について図示して説明したが、本発明は上述した特定の実施例に限定されず、請求範囲で請求する本発明の要旨を逸脱することなしに当該発明が属する技術分野で通常の知識を有する者によって多様な変形実施が可能であることはもちろんのこと、このような変形実施は本発明の技術的思想や見込みから個別的に理解されてはいけないであろう。
100 移動ロボット
110 本体
137 操作部
140 制御部
150 サービス部
160 走行部
170 センシング部
190 通信部

Claims (14)

  1. 本体を移動させる走行部と、
    前記本体の外部の地形情報を獲得するLiDARセンサーと、
    前記本体の外部の映像を獲得するカメラセンサーと、
    前記LiDARセンサーのセンシングデータに基づいて走行距離計測(odometry)情報を生成し、前記走行距離計測情報に基づいて前記カメラセンサーから入力される映像の特徴点マッチングを行って現在位置を推定する制御部と、を含み、
    前記制御部は、
    前記LiDARセンサーのセンシングデータを受信し、前記LiDARセンサーのセンシングデータに基づく地形情報、及び以前位置情報を用いて位置変位量を判別するLiDARサービスモジュールと、
    前記LiDARサービスモジュールから前記位置変位量を受信し、前記カメラセンサーから映像を受信し、前記位置変位量に基づいて現在映像から抽出された特徴点と以前位置で抽出された特徴点のマッチングによって特徴点位置を判別し、判別された特徴点位置に基づいて前記現在位置を推定するビジョンサービスモジュールとを含み、
    前記ビジョンサービスモジュールは、ノード情報を前記LiDARサービスモジュールに送信し、
    前記LiDARサービスモジュールは、前記ノード情報に、前記ビジョンサービスモジュールが前記現在位置を推定するうちに移動ロボットが移動した位置変位量を反映して前記移動ロボットの現在位置を判別
    前記制御部は、照度が基準値未満の領域では前記LiDARセンサーのセンシングデータに基づいて現在位置を算出した後、前記照度が前記基準値以上の領域に進入すればループクロージング(loop closing)を行って誤差を補正する、移動ロボット。
  2. 前記本体の移動による走行状態を感知する走行感知センサーをさらに含み、
    前記制御部は、前記走行感知センサーでのセンシングデータと前記LiDARセンサーのICP(Iterative Closest Point)マッチング結果を融合して前記走行距離計測情報を生成する、請求項1に記載の移動ロボット。
  3. 前記推定された現在位置の情報を含む前記ノード情報が保存される保存部をさらに含む、請求項1に記載の移動ロボット。
  4. 前記本体の移動による走行状態を感知する走行感知センサーをさらに含み、
    前記制御部は、前記走行感知センサーのセンシングデータを読む走行サービスモジュールをさらに含み、
    前記走行サービスモジュールは、前記走行感知センサーのセンシングデータを前記LiDARサービスモジュールに伝達し、
    前記LiDARサービスモジュールは、前記走行感知センサーのセンシングデータに基づく走行距離計測情報と前記LiDARセンサーのICP結果を融合して前記走行距離計測情報を生成する、請求項3に記載の移動ロボット。
  5. 前記制御部は、前記カメラセンサーから入力される映像間の特徴点マッチングが失敗した場合、前記LiDARセンサーのセンシングデータに基づいて現在ノードと周辺ノードのICP(Iterative Closest Point)マッチングを行ってノード間の相関関係を追加する、請求項1に記載の移動ロボット。
  6. LiDARセンサーを介して本体の外部の地形情報を獲得する段階と、
    カメラセンサーを介して前記本体の外部の映像を獲得する段階と、
    前記LiDARセンサーのセンシングデータに基づいて走行距離計測(odometry)情報を生成する段階と、
    前記走行距離計測情報に基づいて前記カメラセンサーから入力される映像の特徴点マッチングを行う段階と、
    前記特徴点マッチングの結果に基づいて現在位置を推定する段階と、を含み、
    前記特徴点マッチングを行う段階は、
    制御部のビジョンサービスモジュールがLiDARサービスモジュールから位置変位量を受信する段階と、
    前記ビジョンサービスモジュールが前記カメラセンサーから映像を受信する段階と、
    前記ビジョンサービスモジュールが前記位置変位量に基づいて現在映像から抽出された特徴点と以前位置で抽出された特徴点のマッチングによって特徴点位置を判別する段階と、を含み、
    前記ビジョンサービスモジュールがノード情報を前記LiDARサービスモジュールに送信する段階と、
    前記ビジョンサービスモジュールが前記現在位置を算出するうちに移動ロボットが移動した位置変位量を前記LiDARサービスモジュールが算出する段階と、
    前記LiDARサービスモジュールが、前記算出された位置変位量を前記ノード情報に反映して前記移動ロボットの現在位置を判別する段階と、をさらに含
    照度が基準値未満の領域で前記LiDARセンサーのセンシングデータに基づいて現在位置を算出する段階と
    前記本体が移動して、前記照度が前記基準値以上の領域に進入する場合、ループクロージング(loop closing)を行って誤差を補正する段階と、をさらに含む、移動ロボットの制御方法。
  7. 前記LiDARセンサーのセンシングデータに基づく地形情報に基づいて前記推定された現在位置の不確実性(uncertanity)を算出する段階をさらに含む、請求項に記載の移動ロボットの制御方法。
  8. 走行感知センサーを介して前記本体の移動による走行状態を感知する段階と、
    前記LiDARセンサーのセンシングデータをICP(Iterative Closest Point)アルゴリズムにしたがってマッチングする段階と、をさらに含む、請求項に記載の移動ロボットの制御方法。
  9. 前記走行距離計測情報を生成する段階は、前記走行感知センサーでのセンシングデータと前記LiDARセンサーのICP(Iterative Closest Point)マッチング結果を融合して前記走行距離計測情報を生成する、請求項に記載の移動ロボットの制御方法。
  10. 前記走行距離計測情報を生成する段階は、
    制御部の前記LiDARサービスモジュールが前記LiDARセンサーのセンシングデータを受信する段階と、
    前記LiDARサービスモジュールが、前記地形情報及び以前位置情報を用いて前記位置変位量を判別する段階とを含む、請求項に記載の移動ロボットの制御方法。
  11. 前記推定された現在位置の情報を含む前記ノード情報を保存部に保存する段階をさらに含む、請求項に記載の移動ロボットの制御方法。
  12. 走行感知センサーを介して前記本体の移動による走行状態を感知する段階をさらに含み、
    前記走行距離計測情報を生成する段階は、
    前記LiDARサービスモジュールが前記走行感知センサーのセンシングデータに基づく走行距離計測情報と前記LiDARセンサーのICP結果を融合して前記走行距離計測情報を生成する、請求項に記載の移動ロボットの制御方法。
  13. 前記制御部の走行サービスモジュールが前記走行感知センサーのセンシングデータを前記LiDARサービスモジュールに伝達する段階をさらに含む、請求項12に記載の移動ロボットの制御方法。
  14. 前記カメラセンサーから入力される映像間の特徴点マッチングが失敗した場合、前記LiDARセンサーのセンシングデータに基づいて現在ノードと周辺ノードのICP(Iterative Closest Point)マッチングを行ってノード間の相関関係を追加する段階をさらに含む、請求項に記載の移動ロボットの制御方法。
JP2020058968A 2019-03-27 2020-03-27 移動ロボット及びその制御方法 Active JP7150773B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190035039A KR102243179B1 (ko) 2019-03-27 2019-03-27 이동 로봇 및 그 제어방법
KR10-2019-0035039 2019-03-27

Publications (2)

Publication Number Publication Date
JP2020161141A JP2020161141A (ja) 2020-10-01
JP7150773B2 true JP7150773B2 (ja) 2022-10-11

Family

ID=72604014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020058968A Active JP7150773B2 (ja) 2019-03-27 2020-03-27 移動ロボット及びその制御方法

Country Status (6)

Country Link
US (1) US11400600B2 (ja)
EP (1) EP3946841A4 (ja)
JP (1) JP7150773B2 (ja)
KR (1) KR102243179B1 (ja)
AU (1) AU2020247141B2 (ja)
WO (1) WO2020197297A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348269B1 (en) * 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
CN109828588A (zh) * 2019-03-11 2019-05-31 浙江工业大学 一种基于多传感器融合的机器人室内路径规划方法
WO2020226187A1 (ko) * 2019-05-03 2020-11-12 엘지전자 주식회사 다중 센서 및 인공지능에 기반하여 맵을 생성하고 맵을 이용하여 주행하는 로봇
CN112215887B (zh) * 2019-07-09 2023-09-08 深圳市优必选科技股份有限公司 一种位姿确定方法、装置、存储介质及移动机器人
US11640677B2 (en) * 2019-10-15 2023-05-02 Alarm.Com Incorporated Navigation using selected visual landmarks
US11741728B2 (en) * 2020-04-15 2023-08-29 Toyota Research Institute, Inc. Keypoint matching using graph convolutions
US11768504B2 (en) 2020-06-10 2023-09-26 AI Incorporated Light weight and real time slam for robots
KR20220064884A (ko) * 2020-11-12 2022-05-19 주식회사 유진로봇 3d slam 데이터 편집 장치 및 방법
EP4245474A1 (en) * 2020-11-12 2023-09-20 Yujin Robot Co., Ltd. Robot system
CN114714352B (zh) * 2020-12-29 2024-04-26 上海擎朗智能科技有限公司 机器人位姿信息确定方法、装置、设备及存储介质
CN112882475A (zh) * 2021-01-26 2021-06-01 大连华冶联自动化有限公司 麦克纳姆轮式全方位移动机器人的运动控制方法及装置
CN115129036A (zh) * 2021-03-26 2022-09-30 信泰光学(深圳)有限公司 移动装置及其移动方法
US20220358671A1 (en) * 2021-05-07 2022-11-10 Tencent America LLC Methods of estimating pose graph and transformation matrix between cameras by recognizing markers on the ground in panorama images
CN113359742B (zh) * 2021-06-18 2022-07-29 云鲸智能(深圳)有限公司 机器人及其越障方法、装置、计算机可读存储介质
CN113552585B (zh) * 2021-07-14 2023-10-31 浙江大学 一种基于卫星地图与激光雷达信息的移动机器人定位方法
CN113538579B (zh) * 2021-07-14 2023-09-22 浙江大学 基于无人机地图与地面双目信息的移动机器人定位方法
CN113777615B (zh) * 2021-07-19 2024-03-29 派特纳(上海)机器人科技有限公司 室内机器人的定位方法、***及清洁机器人
JP2023019930A (ja) * 2021-07-30 2023-02-09 キヤノン株式会社 情報処理装置、移動体、情報処理装置の制御方法およびプログラム
JP7510703B2 (ja) 2022-03-18 2024-07-04 株式会社ブレインズ 電波伝搬制御システム及び電波伝搬制御方法
CN114770541B (zh) * 2022-04-27 2022-10-21 南京农业大学 一种能够实现位移补偿的智能巡检机器人及智能巡检方法
KR20230161782A (ko) * 2022-05-19 2023-11-28 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
WO2024019234A1 (ko) * 2022-07-21 2024-01-25 엘지전자 주식회사 장애물 인식 방법 및 주행로봇
WO2024136716A1 (en) * 2022-12-19 2024-06-27 Husqvarna Ab Method and system for defining a lawn care area
CN116408808B (zh) * 2023-06-09 2023-08-01 未来机器人(深圳)有限公司 机器人取货检测方法及装置、机器人
CN116698046B (zh) * 2023-08-04 2023-12-01 苏州观瑞汽车技术有限公司 一种物业室内服务机器人建图定位和回环检测方法及***

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012242967A (ja) 2011-05-17 2012-12-10 Fujitsu Ltd 地図処理方法及びプログラム、並びにロボットシステム
JP2016024598A (ja) 2014-07-18 2016-02-08 パナソニックIpマネジメント株式会社 自律移動装置の制御方法
JP2016162013A (ja) 2015-02-27 2016-09-05 株式会社日立製作所 自己位置推定装置および移動体
JP2017054475A (ja) 2015-09-11 2017-03-16 富士ゼロックス株式会社 遠隔操作装置、方法及びプログラム
JP2017117386A (ja) 2015-12-25 2017-06-29 学校法人千葉工業大学 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP2017228198A (ja) 2016-06-24 2017-12-28 株式会社Ihiエアロスペース 半自動トレーラとコンテナターミナルシステム
JP2018017826A (ja) 2016-07-26 2018-02-01 株式会社豊田中央研究所 自律移動体と環境地図更新装置
US20180149753A1 (en) 2016-11-30 2018-05-31 Yujin Robot Co., Ltd. Ridar apparatus based on time of flight and moving object
JP2018156538A (ja) 2017-03-21 2018-10-04 カシオ計算機株式会社 自律移動装置、画像処理方法及びプログラム
US20180307232A1 (en) 2017-04-21 2018-10-25 Korea Advanced Institute Of Science And Technology Method and apparatus for producing map based on hierarchical structure using 2d laser scanner

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100785784B1 (ko) * 2006-07-27 2007-12-13 한국전자통신연구원 인공표식과 오도메트리를 결합한 실시간 위치산출 시스템및 방법
KR101072876B1 (ko) 2009-03-18 2011-10-17 연세대학교 산학협력단 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치
US8209143B1 (en) * 2009-09-15 2012-06-26 Google Inc. Accurate alignment of multiple laser scans using a template surface
US9513107B2 (en) * 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
KR101319526B1 (ko) * 2013-03-26 2013-10-21 고려대학교 산학협력단 이동 로봇을 이용하여 목표물의 위치 정보를 제공하기 위한 방법
US9630319B2 (en) * 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
KR101738750B1 (ko) * 2015-06-11 2017-05-24 한국과학기술원 실외 환경에서의 강인한 위치 인식 방법 및 장치
US11449061B2 (en) * 2016-02-29 2022-09-20 AI Incorporated Obstacle recognition method for autonomous robots
EP3471924A4 (en) * 2016-06-15 2020-07-29 iRobot Corporation SYSTEMS AND METHODS OF CONTROL OF AN AUTONOMOUS MOBILE ROBOT
JP2018024598A (ja) 2016-08-09 2018-02-15 東洋合成工業株式会社 スルホニウム塩、光酸発生剤、それを含む組成物、及び、デバイスの製造方法
SG10201700299QA (en) * 2017-01-13 2018-08-30 Otsaw Digital Pte Ltd Three-dimensional mapping of an environment
US10539676B2 (en) * 2017-03-22 2020-01-21 Here Global B.V. Method, apparatus and computer program product for mapping and modeling a three dimensional structure
KR101956447B1 (ko) 2017-04-20 2019-03-12 한국과학기술원 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법
CN111656135A (zh) * 2017-12-01 2020-09-11 迪普迈普有限公司 基于高清地图的定位优化

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012242967A (ja) 2011-05-17 2012-12-10 Fujitsu Ltd 地図処理方法及びプログラム、並びにロボットシステム
JP2016024598A (ja) 2014-07-18 2016-02-08 パナソニックIpマネジメント株式会社 自律移動装置の制御方法
JP2016162013A (ja) 2015-02-27 2016-09-05 株式会社日立製作所 自己位置推定装置および移動体
JP2017054475A (ja) 2015-09-11 2017-03-16 富士ゼロックス株式会社 遠隔操作装置、方法及びプログラム
JP2017117386A (ja) 2015-12-25 2017-06-29 学校法人千葉工業大学 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP2017228198A (ja) 2016-06-24 2017-12-28 株式会社Ihiエアロスペース 半自動トレーラとコンテナターミナルシステム
JP2018017826A (ja) 2016-07-26 2018-02-01 株式会社豊田中央研究所 自律移動体と環境地図更新装置
US20180149753A1 (en) 2016-11-30 2018-05-31 Yujin Robot Co., Ltd. Ridar apparatus based on time of flight and moving object
JP2018156538A (ja) 2017-03-21 2018-10-04 カシオ計算機株式会社 自律移動装置、画像処理方法及びプログラム
US20180307232A1 (en) 2017-04-21 2018-10-25 Korea Advanced Institute Of Science And Technology Method and apparatus for producing map based on hierarchical structure using 2d laser scanner

Also Published As

Publication number Publication date
US20200306983A1 (en) 2020-10-01
KR102243179B1 (ko) 2021-04-21
KR20200119394A (ko) 2020-10-20
AU2020247141B2 (en) 2023-05-11
EP3946841A4 (en) 2022-12-28
AU2020247141A1 (en) 2021-11-18
WO2020197297A1 (en) 2020-10-01
JP2020161141A (ja) 2020-10-01
EP3946841A1 (en) 2022-02-09
US11400600B2 (en) 2022-08-02

Similar Documents

Publication Publication Date Title
JP7150773B2 (ja) 移動ロボット及びその制御方法
KR101868374B1 (ko) 이동 로봇의 제어방법
KR102314539B1 (ko) 인공지능 이동 로봇의 제어 방법
EP3575046B1 (en) Mobile robot and method for controlling same
CN109890576B (zh) 移动机器人及其控制方法
KR102275300B1 (ko) 이동 로봇 및 그 제어방법
CN108481327B (zh) 一种增强视觉的定位装置、定位方法及机器人
KR102143349B1 (ko) 이동 로봇의 제어 방법
US11119501B2 (en) Moving robot and control method for the same
US20220257074A1 (en) Mobile robot using artificial intelligence and controlling method thereof
CN108544494B (zh) 一种基于惯性和视觉特征的定位装置、方法及机器人
KR20180023301A (ko) 이동 로봇 및 그 제어방법
KR20180023302A (ko) 이동 로봇 및 그 제어방법
KR20180023303A (ko) 이동 로봇 및 그 제어방법
KR102147210B1 (ko) 인공지능 이동 로봇의 제어 방법
US11709499B2 (en) Controlling method for artificial intelligence moving robot
JP7329125B2 (ja) 移動ロボット及びその制御方法
Schmid et al. Khronos: A unified approach for spatio-temporal metric-semantic slam in dynamic environments
CN212044739U (zh) 一种基于惯性数据和视觉特征的定位装置及机器人
KR20180048088A (ko) 로봇 청소기 및 그 제어방법
KR102500525B1 (ko) 이동 로봇
KR20240057297A (ko) 신경망 모델을 학습시키는 방법 및 전자 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220928

R150 Certificate of patent or registration of utility model

Ref document number: 7150773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150