JP4257230B2 - 移動ロボット - Google Patents

移動ロボット Download PDF

Info

Publication number
JP4257230B2
JP4257230B2 JP2004052425A JP2004052425A JP4257230B2 JP 4257230 B2 JP4257230 B2 JP 4257230B2 JP 2004052425 A JP2004052425 A JP 2004052425A JP 2004052425 A JP2004052425 A JP 2004052425A JP 4257230 B2 JP4257230 B2 JP 4257230B2
Authority
JP
Japan
Prior art keywords
user
route
mobile robot
unit
room
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004052425A
Other languages
English (en)
Other versions
JP2005238396A (ja
Inventor
薫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004052425A priority Critical patent/JP4257230B2/ja
Priority to US11/064,931 priority patent/US20050216124A1/en
Publication of JP2005238396A publication Critical patent/JP2005238396A/ja
Application granted granted Critical
Publication of JP4257230B2 publication Critical patent/JP4257230B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、地図情報を利用して移動する移動ロボットに関し、特に地図情報を利用することで、利用者の移動経路を予測して利用者を探索追尾する移動ロボットに関するものである。
近年、人間と活動空間を共有するロボットが各種発表されている。その用途として利用者に追尾して、利用者が安全かどうか監視するものが考えられる。例えば、利用者が家に一人で住んでいる場合、何らかの異常事態が発生しても、連絡できないこともある。この場合、ロボットが利用者の異常を検知すると、すぐに監視センターに連絡することで、利用者の安全を図ることが可能となる。上述した用途に供するために、ロボットは利用者の探索、追尾する機能及び利用者の異常を検知する機能の少なくとも2つの機能を具備する必要がある。
利用者の探索、追尾する機能については、利用者の存在する場所まで移動する移動手段と利用者を探索するために移動可能な空間に関する地図情報を備えている必要がある。従来、ロボットが利用可能な地図情報は、大きく分けてワークスペースマップとネットワークマップの2種類存在する。
ワークスペースマップは、例えばロボットが移動可能な空間の幾何学的な情報を記述した地図をいう。ロボットが移動可能な空間の形状を解析し、所定の条件を満たす移動経路の情報を生成する。そして生成された移動経路の情報に従うことで、ロボットの空間内の移動を可能とする。そして上記用途の他に、センサにより移動可能な空間内に未知の障害物が検知された場合、地図情報上に該障害物を追加し、移動経路の情報の再生成を行うことで、障害物回避等にも応用される(例えば、特許文献1及び2を参照)。
特許文献1では、2次元平面格子状に障害物が記述されており、該障害物の周囲にその距離に応じて計算されるポテンシャル場の谷線を探索することで、移動体の経路を算出し、生成する。
特許文献2では、屋外不整地で運用されるロボットが大きな傾斜を避けて移動するために、2次元平面格子上に標高情報を付加し、それに基づいて経路を算出し、生成する。
ネットワークマップは、例えば各代表地点をノードで示し、これらを結ぶリンクにより各代表地点間の接続関係を記述する地図をいう。ロボットはあるノードから他のノードに至る所定の条件を満たす移動経路の情報を生成する。また、各リンクに距離情報を付加すれば、移動経路の総延長や最短経路などの条件を満たす経路を算出し、生成することが可能となる。
そしてノードに繋がる各リンクの方位情報を付加すれば、生成された経路の情報に従い、実際にロボットが移動することが可能となるネットワークマップを利用した最適経路探索方法がある(例えば、特許文献3を参照)。
上記2種類の地図情報を利用して、利用者の存在する付近の場所を目的地として設定すれば、ロボットの現在地から目的地までの経路を算出し、生成することが可能である。ロボットがある部屋から利用者の部屋までの移動経路とする部屋の情報はネットワークマップを利用して、生成することが可能である。そして、各部屋での移動経路及び、ロボットと利用者が同じ部屋にいる場合の移動経路は、ワークスペースマップを利用して、生成することが可能である。
また、ロボットが巡回する所定の経路内で、ロボットが存在している区間に対応した異常判断基準を設けている利用者の異常を検知する方法がある(例えば、特許文献4を参照)。
特開2001−154706号公報 特開平8−271274号公報 特開平5−101035号公報 特開平5−159187号公報
しかしながら、利用者の探索、追尾する機能における上記2種類の地図情報を利用した移動経路生成方法では、予め目的地が設定されている必要がある。そのため、ロボットのセンサの検知範囲から利用者が外れた場合は、ロボットは目的地を喪失したこととなるため、利用者の探索、追尾するための移動経路の生成が不可能となり、移動が困難となる。本来、ロボットは地図情報を有しているため、最後に利用者が検知された場所から何処に移動するか予測することは可能なはずである。ところが上述した方法では地図情報に利用者が何処に移動するかといった予測するための情報が含まれていないため、目的地及び探索経路を設定することが出来ず問題となる。
また、利用者の異常を検知する機能についても、開示された発明ではロボットが存在する場所に利用者と共にいる場合ならば問題ない。しかし、ロボットの移動手段では移動不可能な場所に利用者が移動した場合やロボットの進入を望まない場所に利用者が移動した場合は、ロボットは利用者が何処に存在するか認識したうえで、センサにより異常か否か判断する必要がある。しかし開示された発明では、ロボットが存在する場所を基準に異常判断基準を設けているため、利用者に異常が起こっても検知できない場合があり問題となる。
本発明は、上記に鑑みてなされたものであって、利用者が主に移動に関してロボットの存在を意識せずに済むにもかかわらず、適切に異常を検知することが可能な移動ロボットを提供することを目的とするものである。
上述した課題を解決し、目的を達成するために、本態様における発明は、現在位置情報と利用者が移動することが可能な経路を示した移動可能経路情報と、当該移動可能経路情報に示された経路で自装置が移動可能か否かを示す移動可能フラグと、を記憶する記憶手段と、前記利用者を検知し、検知した前記利用者の存在する位置及び方向を示す利用者位置情報を取得する検知手段と、前記記憶手段に記憶された前記移動可能経路情報と前記検知手段により検知された前記利用者位置情報から、前記利用者が移動すると予測される経路を示す移動予測経路情報を生成する移動経路予測手段と、前記記憶手段に記憶された前記現在位置情報と前記移動経路手段により生成された前記移動予測経路情報と、から、現在位置から利用者が移動すると予測される経路までの移動経路及び利用者が移動すると予測される経路により利用者を追尾する経路を示す追尾経路情報を生成する経路生成手段と、前記経路生成手段により生成された前記追尾経路情報に従うと共に、前記移動可能フラグに基づく移動可能な経路を移動する移動手段と、を具備したことを特徴とする。
また、本発明にかかる移動ロボットは、移動ロボットの現在位置と利用者の現在位置及び方向と移動可能経路情報から利用者を追尾するための追尾経路を生成し、この追尾経路に従い移動することで利用者を見失わないで追尾移動が可能という効果を奏する。
以下に添付図面を参照して、この発明にかかる移動ロボットの最良な実施の形態を詳細に説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態にかかる移動ロボット1の構成を示すブロック図である。図1に示すとおり、本実施の形態の移動ロボット1は、異常検知通報部101と、異常判断基準設定部102と、異常判断部103と、検知部104と、検知方向制御部105と、利用者位置判断部106と、利用者移動経路予測部107と、地図情報等記憶部108と、現在位置特定部109と、移動距離・方向検出部110と、駆動部111と、経路生成部112と、利用者存在部屋予測部113とから構成され、利用者2を探索追尾する。
地図情報等記憶部108は、本発明における記憶手段を構成し、部屋の構成図、部屋毎の地図情報、移動ロボット1や利用者2の現在位置情報などを記憶している。本実施形態での地図情報等記憶部108の保持する情報を図2に示す。地図情報等記憶部108は移動可能部屋構成データ1001と、部屋毎の移動可能空間図1011a〜k及び移動可能経路データ1010a〜kと、利用者方向位置座標1002と、利用者存在部屋番号1003と、方向位置座標1004と、現在部屋番号1005を記憶する。
図3は上述した移動可能部屋構成データ1001を図示したものである。利用者2の住居で移動可能な部屋の構成を示し、庭50、玄関51、廊下52、洋室53、トイレ54、和室55、リビング56、洗面室57、浴室58、ダイニング59、キッチン60といった各部屋が本発明における拠点を構成する。また、各拠点を結ぶリンク線は各部屋からの出入口11〜21を示している。
この移動可能部屋構成データ1001は利用者2の住居において利用者2が移動可能な全ての空間を拠点として記述されている。そして、各拠点には移動ロボット1が進入可能か否かを示す進入可能フラグ402を有し、また各リンク線には通行可能か否かを示す通行可能フラグ401を有している。そして少なくとも利用者2の追尾及び検知部104による検知をするために、進入可能な拠点とそこに隣接した進入不可能な拠点の移動可能空間図1011を地図情報等記憶部108上に記憶する必要がある。
本実施例では移動ロボット1の踏破能力に限界があるものとし、庭50、トイレ54、浴室58に移動ロボット1は侵入できないものとする。この場合、それぞれの進入可能フラグ402に“0”を設定し、他の部屋には進入可能フラグ402に“1”を設定する。そして、玄関51から庭へ通行できないものとする。この場合、通行可能フラグ401には“0”を設定し、他の進入可能フラグ402は“1”を設定する。通行可能フラグ401と進入可能フラグ402を併用すべき場合は、ある拠点に移動ロボット1が進入可能であっても、ある出入口を通っては入れず、迂回した別の出入口からなら入ることができるような場合である。それゆえ、間取りの構成によっては、通行可能フラグ401と進入可能フラグ402は必ず両フラグとも必要というわけではなく、一方のフラグさえあれば足りる場合もある。
移動ロボット1が侵入できない部屋や通行できない出入口であっても利用者2が移動可能な全拠点と全リンク線を網羅することで、この移動可能部屋構成データ1001は従来技術に開示されているような移動ロボット1が移動するためだけの経路情報ではなく、移動ロボット1が利用者2を探索可能にするために利用者2のみ移動可能な拠点への経路まで記述したデータとなっている。
部屋毎の移動可能空間図1011a〜kは、部屋毎の利用者2が移動可能な空間の地図情報を保持する。例として、図4にリビング56の移動可能空間図1011gを示し、障害物202、203、204、205を除いた空間を、利用者2が移動できる移動可能空間201とする。加えて、他の部屋への出入口16、19、20の情報を保持している。
部屋毎の移動可能経路データ1010a〜kは、部屋毎の移動可能空間図1011上の利用者2の移動可能な経路のデータとして保持する。例として、図5にリビング56の移動可能空間図1011g上の経路データを示す。この移動可能経路データは移動可能空間図1011g上の移動可能空間201の中央部を通る経路を示すセグメント301〜311と、各出入口16、19、20の中央と最寄りのセグメント端点とを結ぶ追加のセグメント312〜314と、から成る。移動可能経路データ1010gのセグメント301〜311は移動可能空間図1011gの移動可能空間201を画像として捉えてこれに線分化処理(領域を外側から次第に狭めていくことで中央部に点列のみを残す処理)とセグメント化処理(連続する点列を線分で近似する処理)を施すことで生成する。また、前記特開2001−154706に開示されるポテンシャル場の谷線(点列)をセグメント化処理することでも同様のものを得ることが可能である。本実施例では、これに各出入り口からのセグメント312〜314を追加することで、室内の移動可能空間201の中央部を移動する経路に各出入り口への経路を追加している。
利用者方向位置座標1002は、本発明における利用者位置情報を構成し、利用者2が部屋にいる位置及び方向を示し、移動可能空間図1011上の位置座標及び方向を地図情報等記憶部108上に記憶する。この利用者方向位置座標は、後述する移動ロボット1の方向及び位置を保持する位置方向座標1004と検知部104により検知された移動ロボット1と利用者2の相対的な距離及び方向により決定される。これらより後述する利用者位置判断部106により移動可能空間上の位置座標及び方向が算出される。
利用者存在部屋番号1003は、利用者2が存在する部屋を示す番号であり、部屋番号として地図情報等記憶部108上に記憶する。後述する異常判断基準は、この利用者存在部屋番号1003に基づき、設定される。例えば、移動ロボット1が廊下52に存在し、利用者2がトイレ54に移動したと判断した場合、トイレ54は進入可能フラグが“0”のため移動ロボット1は移動することが出来ず、移動ロボット1は利用者存在部屋番号1003を“54”に更新し、後述する異常判断基準設定部102はそれに基づいた異常判断基準が設定される。
方向位置座標1004は、本発明における現在位置情報を構成し、移動ロボット1の方向及び部屋で存在する位置を示し、移動可能空間図1011上の位置座標として地図情報等記憶部108上に記憶する。方向位置座標1004は移動距離、移動方向及び移動前の方向位置座標1004から現在位置特定部109により特定される。
現在部屋番号1005は、移動ロボット1がいる部屋を示す番号であり、部屋番号として地図情報等記憶部108上に記憶する。移動ロボット1が移動し、出入口11〜21を通過したと判断した場合に、現在部屋番号1005の値を更新する。その後、移動ロボット1は更新された部屋番号1005に対応した移動可能空間図1011及び移動可能経路データ1010により利用者の位置座標の特定、移動経路の予測と移動ロボット1の位置座標の特定などを行う。
検知部104は、本発明における検知手段を構成し、本実施の形態では適応マイクロホンアレイ部501とズーム・雲台付きカメラ部502を使用している。適応マイクロホンアレイ部501とズーム・雲台付きカメラ部502による検知方向は後述する検知方向制御部105により制御される。適応マイクロホンアレイ部501の出力は、さらに特定音検出部503と音声話者識別部504と音声語彙認識部505に供給され、ズーム・雲台付きカメラ部502の出力は、さらに動きベクトル検出部506と顔検出・顔識別部507とステレオ距離計測部508に供給される。
適応マイクロホンアレイ部501は複数のマイクロホンを装備して指定された検知方向の音声のみを周囲の雑音から分離して入力するための手段である。ズーム雲台付きカメラ部502は電動ズームとパン・チルトに可動な電動雲台を装備したステレオカメラである。適応マイクロホンアレイ部501の指向性方向とズーム・雲台付きカメラ部502のズーム及びパン・チルト角(カメラの指向性を決定するパラメータである)も検知方向制御部105により制御される。
特定音検出部503は適応マイクロホンアレイ部501による入力音声から例えばガラスの割れる音、物が倒れる音やドアの閉まる音等の短時減衰性の音の検出、またはシャワーの音、水洗トイレの音、トイレットペーパーを巻き取る音等の特定のスペクトルパタンとその変動パタンを持つ音の検出を可能にするため設定された音響信号解析手段である。
音声話者識別部504は適応マイクロホンアレイ部501により入力された人物音声からその人物を識別する手段であり、入力音声のスペクトルパタンに含まれる人物特有のフォルマント(スペクトルパタン中の強い周波数成分)を照合してその話者IDを出力する。
音声語彙認識部505は適応マイクロホンアレイ部501により入力された人物音声をパタン照合してその発声内容を表す語彙列、例えば文字列または語彙コード列などに変換して出力する。音声話者識別のためのフォルマントは発声内容に依存して変化するので、音声話者識別部504は音声語彙認識部505により識別された語彙に応じた参照パタンを用いてフォルマント照合を行う。この照合方法により様々な発声内容で話者識別を行うことが可能となり、識別した結果となる話者IDを出力する。
動きベクトル検出部506はズーム・雲台付きカメラ部502による入力画像から画像中の各小領域の動き方向を表すベクトル、すなわちオプティカルフローを計算し、各フローベクトルを同種のものどうしグルーピングすることで入力画像を動きの異なる領域に分解する。この情報から検知した人物の移動ロボット1からの相対的な移動方向を算出する。
顔検出・顔識別部507はズーム・雲台付きカメラ部502による入力画像からパタン照合により顔を検出し、さらに検出された顔から人物を識別し、その人物IDを出力する。
ステレオ距離計測部508はズーム・雲台付きカメラ部502によるステレオ入力画像から画像各部の両眼視差を求め、三角測量の原理に基づいて各部の距離を計測する。この結果から移動ロボット1からの相対距離を算出する。距離計測対象となる画像中の部位は動きベクトル検出部506が検出した動き領域毎や顔検出・顔識別部507が検出した顔領域毎とする。この結果、視覚的に捉えることのできた顔までの距離や、各動き領域の三次元的な動きベクトルを算出することまで可能になる。
利用者位置判断部106は、検知部104から入力された話者IDあるいは人物IDにより利用者2か否かの判断、そして検知部104から入力された相対的な方向と相対的な距離、そして地図情報等記憶部108に記憶されている方向位置座標1004による移動ロボット1の位置座標及び方向に基づき、実際に利用者2の存在する位置と移動方向を導き、移動可能空間図1011上の座標及び移動方向を算出する。この座標及び方向の情報は地図情報等記憶部108上の利用者方向位置座標1002に記憶する。利用者位置判断部106は検知部104による入力情報から利用者2の存在を示す観測的証拠を読み取る。
利用者移動経路予測部107は、本発明における移動経路予測手段を構成し、利用者2が存在する利用者方向位置座標1002または最後に利用者2を検知したとき利用者方向位置座標1002と、移動可能経路データ1010から利用者2の移動経路及び移動可能空間図1011上の利用者が存在すると推測される範囲を予測する。
検知方向制御部105は、本発明における検知方向制御手段を構成し、利用者2が利用者検知圏601に存在するか否かの探索や、利用者2を見失わないために行う後述する検知方向追尾(後述する図9のステップS4)に使用する。本実施例では適応マイクロホンアレイ部の検知方向の制御や、ズーム・雲台付きカメラ部502の電動ズームとパン・チルト角の制御を行う。
また、当然ながら検知部104の擁するセンサには有効空間範囲がある。この有効空間範囲は移動ロボット1が稼動する環境条件によりその広がりが変化し得るが、ここでは、検知方向制御部105により検知部104を全方位に制御した場合には有効空間範囲は略円形領域となるものとして考える。この利用者2を検知可能な利用者検知圏601を図7に示す。利用者検知圏601内に利用者2が存在するとき、移動ロボット1は検知方向制御部105で検知部104を制御することで、利用者2を検知することが可能となる。この場合、移動可能空間図上で利用者検知圏601の外側に広がる移動可能空間201の空間602〜604を検知圏外とする。検知圏外に利用者2が存在するときは、移動ロボット1の位置から検知が不可能となる。
利用者存在部屋予測部113は、本発明における存在拠点予測手段を構成し、利用者2を検知できなくなった場合において利用者移動経路予測部107よる利用者2が移動に使用した出入口の予測に基づき、その後の利用者2が存在する可能性のある部屋を移動可能部屋構成データ1001により予測する。
経路生成部112は、本発明における経路生成手段を構成し、利用者移動経路予測部107による利用者2の予測移動経路と移動ロボット1の現在位置から移動可能経路データ1010に基づき追尾経路情報を生成し、また利用者存在部屋予測部113が利用者2の存在する可能性があると予測した部屋へ、移動ロボット1の現在位置から利用者2を探索するための探索経路を、移動可能部屋構成データ1001と移動可能経路データ1010そしてロボット移動可能空間図2401に基づき生成する。
駆動部111は、本発明における移動手段を構成し、経路生成部112で生成された経路情報に従い移動する。
移動距離・方向検出部110は、駆動部111により移動した距離及び方向を取得する。本実施の形態では、移動ロボット1がジャイロ及びパルスエンコーダを有し、これらにより移動ロボット1の移動方向及び移動距離を検出する。取得した移動方向及び移動距離は後述する現在位置特定部109へ出力する。
現在位置特定部109は、移動距離・方向検出部110から出力した移動方向と移動距離及び地図情報等記憶部108上に記憶されていた移動前の移動ロボット1の方向位置座標1004より移動ロボット1の現在位置を特定する。特定した移動ロボット1が向いている方向と現在位置を示す座標で地図情報等記憶部108上の方向位置座標1004を更新する。また、移動前の部屋と違う部屋に移動したと判断した場合は、移動後の部屋を示す部屋番号で地図情報等記憶部108の現在部屋番号1005を更新する。
異常判断基準設定部102は、本発明における異常判断基準設定手段を構成し、利用者2の存在する部屋に従い、異常を検知する基準を設定する。異常判断基準設定部102は、移動ロボット1の存在する部屋により異常判別の方法を設定するのではなく、利用者2の存在する部屋により異常判別の方法を設定する。
異常を検知する基準の例としては、利用者2がトイレ54に居る場合、利用者2が無事であればトイレットペーパーの巻き取り音や水を流す音などがそのドア越しに聞こえるはずである。これを利用者2の「活動サイン」と呼び、利用者2に異常がなく無事に活動していることを示すサインとする。移動ロボット1は進入可能フラグ402が“0”であるためトイレ54には進入できないので、そこに隣接した進入可能な廊下52からこのような活動サインを監視する。当然のことながら、同じく移動ロボット1が廊下52に居ても、利用者2が仮に他の進入可能でない拠点に居る場合は、異なる活動サインを監視することになる。
また、例えば利用者2が浴室58に居る場合、利用者2が無事であれば当然断続的なシャワーの音などがそのドア越しに聞こえるはずである。移動ロボット1はトイレ54同様に浴室58にも進入できないため、そこに隣接した進入可能な洗面室57から活動サインとしてシャワー音の断続(シャワーを動かしているときに発生する噴流が物に当たる音の強弱変化)や湯船の水音を監視する。もし、シャワー音が断続しておれば利用者2がシャワーを動かしている証拠となる。また、もし、シャワー音が断続せずに長時間聞こえている場合には、利用者2がシャワーを出しっぱなしにして倒れている可能性を示す証拠となる。
なお、この他の活動サインとして利用者2の音声も含まれる。これら活動サインは検知部104によって検出される。
本実施の形態では、異常を判断する基準としては利用者2のいる部屋から発せられる活動サイン等で行う。移動可能部屋構成データ1001の各部屋情報に活動サイン等の異常検知基準情報を保持させる。この異常検知基準情報を保持した移動可能部屋構成データを図8に図示する。また、移動可能部屋構成データは外出可能な部屋を示す部屋情報には外出サインに関する情報も保持する。外出サインとは、利用者2が家から外出したか否かを判断するためのサインをいう。外出サインは屋外に通じる出入口から利用者2が出たことを示す証拠であり、実際に屋外に通じる出入口の向こうに利用者2を見失ったり、玄関口11のドアが開閉する音を観測した後、所定期間以上玄関51付近で利用者2を検知できなかったりする状況を指す。
そして利用者存在部屋番号1003が更新された際、異常判断基準設定部102が異常判断基準を設定する。
異常判断部103は、本発明における異常判断手段を構成し、検知手段より検知された活動サイン等と異常判断基準設定部102により設定された異常判断基準とを比較して異常か否か判断する。異常と判断した場合は異常検知通報部101に出力する。
異常判断部103は、利用者2が部屋に入ってから活動サインが観測されなかった場合、活動サインが観測されてから所定時間が経過するまで次の活動サインが観測されなかった場合、最後の活動サインが観測されてから利用者2が移動をしなかった場合に、利用者2の身に異常が起こったと判断する。
また、外出サインによる利用者2が外出したか否かの判断も異常判断部103で行う。検知手段で外出サインが検知された場合の処理は、玄関51から利用者2が入るまで待機するか、若しくは一度リビング56へ移動して庭50から利用者2が入るか否か待機し、庭50から利用者2が入らないと判断した後に玄関51で待機する等が考えられる。この場合、利用者2は外出したものとして、活動サインによる異常検知は行わない。そして利用者2が玄関から入ってくるのを検知した場合や、あるいはリビング56の出入口19のドアを開けた音を検知した等の活動サインが観測された場合に移動ロボット1が活動を開始する。
異常検知通報部101は、異常判断部103から異常と判断された旨が入力された場合に監視センター等へ通報を行う。本実施例では携帯電話等による公衆回線を使用して通報することとする。また、警報等を鳴らし、周囲に警戒を促がすことも考えられる。
次に、以上のように構成された本実施の形態に係る移動ロボット1における処理構成を説明する。図9は本実施の形態に係る移動ロボット1における全体処理の手順を示すフローチャートである。
利用者位置判断部106は、検知部104による入力情報から利用者2の存在を示す観測的証拠を読み取り、移動ロボット1の方向位置座標1004及び移動ロボット1に対する利用者2の相対的な方位と距離から、移動可能空間図1011における利用者2の存在する位置座標を算出する(図2のステップS1)。この利用者2の存在を示す観測的証拠を「利用者反応」ということとする。
図10は図9のステップS1の詳細なフローチャートを示し、利用者位置検知のために利用者検知判定処理ステップS21と、検知方向制御ステップS22と、兆候検知判定処理ステップS23と、確証検知判定処理ステップS24と、利用者検知設定処理ステップS25と、利用者位置情報更新処理ステップS26と、利用者非検知設定処理ステップS27と、利用者検知判定処理ステップS28とからなる処理で構成される。
利用者検知中判定処理ステップS21において、利用者位置判断部106は、利用者2を検知したか否かを示す利用者検知フラグを調べる。利用者検知フラグにより利用者検知と設定されている場合は右に分岐し、そうでなければ下に分岐する。
ステップS21より下に分岐した場合とは、検知方向制御処理ステップS22において、利用者2を検知していない場合の処理であり、検知方向制御部105は検知部104を、利用者検知圏601を全て探索するかあるいは利用者2を検知するまで、制御を行う。
ステップS21より右に分岐した場合またはステップS22の処理の後に、兆候検知判定処理ステップS23において、検知部104は、利用者2が未検知であるか否かに関わらず、利用者2の存在を示す兆候の有無を検証する。利用者2の存在を示す兆候とは、音声語彙認識部505による語彙コードの出力、動きベクトル検出部506による動き領域情報の出力、または顔検出・顔識別部507よる顔検出情報の出力をいう。この処理ステップでは兆候を検知すると下に分岐し、そうでなければ右に分岐する。右に分岐した場合、利用者非検知中設定処理ステップS27により、利用者位置判断部106は、利用者兆候が失われたと判断し、前記利用者検知フラグを利用者非検知と設定する。
確証検知判定処理ステップS24において、利用者位置判断部106は、正規利用者であるか否かの確証について検証する。正規利用者である確証とは、音声話者識別部504による利用者2を示す話者IDの出力、あるいは顔検出・顔識別部507による利用者2を示す人物IDの出力があったことをいう。この処理ステップでは確証を検知すると下に分岐し、そうでなければ右に分岐する。右に分岐した場合、利用者2の兆候は検知されているが確証は失われた状態となる。
ステップS24において右に分岐した場合、利用者検知判定処理ステップS28において、利用者位置判断部106は、前記利用者検知フラグから利用者検知か利用者非検知か判断する。前記利用者検知中フラグが利用者検知と設定されている場合、検知されている兆候のみで正規利用者を検知しているとみなす。
ステップS24において下に分岐した場合、利用者検知中処理ステップS25において、利用者位置判断部106は、正規利用者である確証を検知したものとして、利用者検知フラグを利用者検知に設定する。
ステップS25の処理の後、あるいはステップS28の下分岐の場合、利用者所在情報更新処理ステップS26において、利用者位置判断部106は、利用者2の確証や兆候が検知された場合、正規利用者と認定された動き領域の重心に対する相対方位と相対距離を算出し、方向位置座標1004による移動ロボット1の方向と位置座標を基準に、地図情報等記憶部108に記憶される移動可能空間図1011上の絶対位置が求められ、利用者位置情報とされる。利用者位置情報は、地図情報等記憶部108に利用者方向位置座標1002として記憶する。つまり利用者位置情報が更新され続けている状態が利用者反応のある状態となる。
図9に戻り、利用者位置情報更新ステップS1の後、ステップS1で利用者2を検知した否か判断する(ステップS2)。利用者2を検知した場合はステップS1によって更新された利用者方向位置座標1002に記憶される利用者2の方向及び位置座標と、移動可能経路データ1010により移動経路を予測する(図2のステップS3)。
図11は、移動ロボット1が利用者2の移動経路の予測方法の詳細を示したものである。移動ロボット1と利用者2は図示される位置に存在し、特に利用者2は、利用者検知圏601内に存在する。そして移動ロボット1の検知部104により、利用者2は矢印1201の方向に移動していることが観測されているとする。利用者2がこのまま移動し続けると仮定すると、利用者2は矢印1201の方向に移動することとなる。しかし、実際は障害物203のため移動可能経路データ1010g上のセグメント308に沿った矢印1203方向に転進すると推測される。この推理を移動ロボット1が行うため、利用者移動経路予測部107は、利用者2の現在の矢印1201の方向の進路に最も近い移動可能経路データ1010g上のセグメント端点を求め、これに連結する全てのセグメント(307と309)を抽出する。次に先ほどの端点を始点とし、もう一方の端点を終点とするベクトルとして抽出された各セグメントを捉え、現在の利用者2の矢印1201の方向の進路(ベクトルである)との余弦(cosθ=(v1・v2)/(|v1||v2|)、v1: 矢印1201のベクトル、v2:各セグメントベクトル)の最も大きいセグメント(向きの最も似ているベクトル)を選択する。この例ではセグメント308が選択される。これで移動ロボット1は利用者2の予測進路がセグメント308から307への方向であると決定する。
図9に戻り、利用者移動予測経路ステップS3の後、移動ロボット1は、利用者2を見失わないように予測した経路に沿って、検知部104の適応マイクロホンアレイ部501とズーム・雲台付きカメラ部502の検知方向を検知方向制御部105により制御して利用者2を観測し続ける検知方向追尾(ステップS4)を行う。そして移動ロボット1の方向位置座標1004による位置座標と、利用者方向位置座標1002による利用者2の位置座標と、ステップS3による利用者2の予測移動経路より利用者2の予測経路に従い追尾を行うための追尾経路を作成し、この追尾経路をトレースすることで利用者2の後を追いかける移動追尾(ステップS5)を行う。
図12にステップS3〜ステップS5までの処理をフローチャートとして示す。S1により取得した利用者位置情報による利用者2の位置、方向から移動可能経路データ1010gの最も近似した経路を利用者2の移動する予測移動経路とし(ステップS31)、利用者を見失わないようにするため、その予測移動経路に沿うように検知部104を検知方向制御部105より制御する(ステップS32)。そして、見失わないよう検知部104より検知し続け、移動ロボット1と利用者2の移動可能空間図1011gの移動ロボット1及び利用者2の座標情報から相対距離が離れたか判断し(ステップS33)、離れたと判断した場合は、移動ロボット1の現在位置から利用者2の存在した位置までの経路と利用者2の予測移動経路より、移動ロボット1が利用者2を追尾するための追尾経路を生成し(ステップS36)、移動ロボット1は追尾経路をトレースして、利用者2を追尾する(ステップS37)。移動ロボット1と利用者2の距離が離れない場合は移動せず、そのまま異常判断基準設定(図9のステップS6)に移る。
図9に戻り、検知方向追尾および利用者予測経路移動の結果、利用者2の所在を把握している場合、異常判断基準設定部102より利用者2の存在する部屋に応じた異常判断基準が設定され(ステップS6)、異常判断基準に従った監視方法による異常検知が行われる。そして、異常判断部103は、利用者2が部屋に入ってから活動サインが観測されなかった場合、活動サインが観測されてから所定時間が経過するまで次の活動サインが観測されなかった場合、最後の活動サインが観測されてから利用者2が移動をしなかった場合に、利用者2の身に異常が起こったと判断し(ステップS7)、異常検知通報部101が監視センター等に通報するなどの対処を行う(図2のステップS8)。
ステップS1で利用者2を検知できなかった場合(ステップS2の右分岐)、利用者移動経路予測部107及び利用者存在部屋予測部113は最後に検知した利用者方向位置座標1002に記憶する利用者2の存在した位置座標と移動方向(利用者消失方向)から利用者2の存在する場所を予測する(図2のステップS9)。この場所を「利用者存在可能圏」と呼ぶことにする。これには利用者移動経路予測部107によって予測される移動可能空間図1011上の「幾何的利用者存在可能圏」と利用者存在部屋予測部113によって予測される移動可能部屋構成データ1001上の「位相的利用者存在可能圏」の2種類ある。
図13は、存在する場所の予測方法を例示したものである。この図において、幾何的利用者存在可能圏と成り得るのは移動可能空間図1011上で利用者検知圏601の外の空間、すなわち検知圏外602〜604である。また、位相的利用者存在可能圏と成り得るのは前記幾何的利用者存在可能圏内にある出入口16や利用者検知圏内で利用者反応が消失した方向の出入口19、20の先に繋がっている移動可能部屋構成データ1001上の部屋は庭50、廊下52、ダイニング59である。
最後に検知した利用者消失方向が矢印1301や1302の方向であれば、利用者存在可能圏は移動可能空間図上の検知圏外604もしくは603のみとなり、これらの場所は出入口がないため、利用者移動経路予測部107は利用者2が検知圏外604もしくは603に居る可能性が極めて高いと判断する。
また、最後に検知した利用者消失方向が矢印1303や1304の方向であれば、利用者存在可能圏は出入口19や20を経由した移動可能部屋構成データ1001上の庭50もしくはダイニング59のみとなり、利用者移動経路予測部107は利用者2が庭50もしくはダイニング59に移動した可能性が極めて高いと判断する。
一方、最後に検知した利用者消失方向が矢印1304の方向であれば、利用者移動経路予測部107は、利用者存在可能圏となる検知圏外602と、出入口16を経由した廊下52の両方のどちらかに利用者2が存在すると予測する。
このように、幾何的利用者存在可能圏は見失った利用者2が存在する可能性の高い場所を移動可能空間図1011上に示し、位相的利用者存在可能圏は見失った利用者2が移動した可能性の高い部屋を移動可能部屋構成データ1001から特定する。これらの情報は利用者検知圏に利用者2が存在しない場合に、移動ロボット1が利用者2を探索する際に使用される。
図9に戻り、移動ロボット1は利用者2が存在する可能性が高い幾何的利用者存在可能圏を利用者検知圏601に含めるように移動し、利用者2が存在するか否か確認する(ステップS10)。
図14は、図13における移動ロボット1が利用者2の存在する可能性が高い幾何的利用者存在可能圏602を利用者検知圏601に含めるために移動した後を例示したものである。最初は図13により示される位置に移動ロボット1が存在していたとし、最後に検出した利用者消失方向が出入口16の方を向いていた場合、移動ロボット1は図14のように移動可能経路データ1010g上のセグメント309、308、307をトレースする経路上を出入口16方面へ進行し、図13の幾何的利用者存在可能圏602を利用者検知圏1401に含め、この空間に利用者2が存在するか否か確認する。
図9に戻り、利用者2を幾何的利用者存在可能圏602内で検知した場合、移動ロボット1は利用者追尾を再開する(ステップS11の右分岐)。利用者2が幾何的利用者存在可能圏602内に検知しなかった場合(ステップS11の下分岐)、利用者2は出入口16を通ってリビング56に隣接する廊下52もしくはさらにその先の空間に移動したことになる。この場合、移動ロボット1が利用者2を見失ってからの経過時間に応じて利用者存在部屋予測部113は廊下52から先の部屋毎に利用者2が存在しそうな期待を示す期待値、すなわち「利用者存在期待値」を計算する(ステップS12)。
利用者存在期待値とは、利用者2が部屋(出発部屋)を退出した後、移動可能部屋構成データ1001による利用者2が移動することが可能な部屋毎に、利用者2が移動している可能性を示す期待度を数値化したものをいう。
移動ロボット1が利用者2を見失ってからの経過時間と部屋の構成に着目し、部屋毎の利用者存在期待値の変化を模式的に示したものが図12、13、14である。各図において網掛けが濃いほど存在期待値が高いことを示している。
図12は見失ってからの経過時間が短い時(経過時間をT1とする)の利用者存在期待値の分布を示した図である。この図に示されるとおり、経過時間が短い場合は利用者2が遠くに移動している可能性が低く、廊下52に居る可能性が極めて高い。
図13は見失ってからの経過時間が中程度の時(経過時間をT2とする)の利用者存在期待値の分布を示した図である。この図に示されるとおり、T1よりさらに時間が経過した場合は、利用者2は廊下52に隣接した玄関51、洋室53、トイレ54、和室55、洗面室57に存在する可能性も生じる。
図14は見失ってからの経過時間が長い時(経過時間をT3とする)の利用者存在期待値の分布を示した図である。この図に示されるとおり、T2より、さらに時間が経過した場合は、利用者2は玄関51から外に出て庭50や、洗面室57の先の浴室58にまで移動している可能性がある。
上述した利用者存在期待値は、部屋ごとの幾何学的形状を考慮せず、部屋の構成に基づき均等に各部屋の利用者存在期待値を算出した。しかし実際は、部屋の幾何学的形状により、ある部屋から他の部屋へ移動する場合、移動先の部屋毎に移動経路が異なるため、移動先の部屋により移動距離が異なる。そして利用者2の移動速度には限界があるため、移動距離の違いにより同じ部屋から移動可能な部屋であっても、部屋毎に利用者存在期待値が異なるはずである。そこで、利用者存在部屋予測部113による各部屋の幾何学的形状を考慮した利用者存在期待値の算出方法を下記に示す。
まず利用者存在部屋予測部113は、出発部屋の出口と、この出口を通って移動可能な他の部屋への入口との間の距離は、この入口まで経由する各部屋の利用者2の移動する距離を合計することで算出する。例えば利用者2がリビング56から浴室58へ移動するとき、移動可能部屋構成データ1001より利用者2が廊下52、洗面室57を経由して浴室58へ移動することが決定され、経由する洗面室57内の利用者移動距離は、廊下52と洗面室57を結ぶ出入口17から洗面室57と浴室58を結ぶ出入口18までの移動距離であり、これは洗面室57の移動可能経路データ1010上で出入口17と出入口18を結ぶ最短経路の長さとして求めることができる。
利用者2が一定の移動速度で移動すると仮定した場合、利用者2の移動距離は経過時間に比例し、時間経過とともに到達可能な部屋は、より遠方の部屋まで含まれることとなる。実際は利用者2の移動速度にばらつきがあるため、利用者2が一定時間内に移動する距離はある期待値の分布を示すこととなる。これを模式的に示したものが図18である。図中の横軸1801は距離を示す軸、縦軸1802は利用者2がある距離に到達している可能性を表す期待値の軸である。この図は経過時間がT1、T2、T3と増加するに伴い、期待値の最大値を示す距離がL1、L2、L3とより遠方へと移動し、さらに利用者移動距離の期待値分布(利用者移動期待値)が1806、1807、1809と移動速度のばらつきのため期待値を表す曲線が緩やかになる経過を示す。なお、この図では利用者移動距離確率の分布形状を正規分布でモデル化している。
部屋の幾何学的形状を考慮し、利用者存在期待値を算出した場合の、移動ロボット1が利用者2を見失ってからの経過時間に応じた部屋毎の期待値の変化を模式的に示したものを図20に示す。上述した図と同様、網掛けが濃いほど存在期待値が高いことを示している。本図では、廊下52から和室55または洗面室57への移動距離が短いため、利用者存在期待値が高くなり、一方、廊下52から玄関51への移動距離が長いため、利用者存在期待値は低くなる。また、洗面室57は狭いため浴室58への移動経路も短く、浴室に移動している可能性も出てくるため、浴室58においても利用者存在期待値が算出される。
時間経過に伴い、例えば経過時間T3において、利用者存在期待値の最大値を示す最大点1805が通り過ぎた距離軸上の領域、すなわち図中のL3より短い距離が、利用者2が存在している可能性のある距離を示している。よって、L3より短い距離においては利用者存在期待値として最大点1805の期待値与える。一方、最大点1805が通り過ぎていない距離軸上の領域、すなわち最大点L3より長い距離においては、利用者存在期待値として利用者移動期待値そのものを与える。この結果、経過時間T3における利用者存在期待値は図19に示すとおりとなる。
移動ロボット1が出入口方向に利用者2を最後に検知した時刻を起点に経過時間が計測され、移動追尾により移動ロボット1が再び利用者2をその利用者検知圏601内に捕捉するまで、経過時間に応じた利用者存在可能性が上述したように距離の関数として計算され、出発部屋から各部屋までの距離に応じた当該経過時間の利用者存在可能性が利用者存在期待値として各部屋に与えられる。
なお、より簡便に利用者存在期待値を算出するため、利用者移動速度の最大値がある値を超えないと仮定した場合の経過時間と最大利用者移動距離の関係を図20に示す。図20で示すように利用者移動距離の最大値(最大利用者移動距離)は経過時間に比例する直線2001となる。任意の経過時間Tにおける最大利用者移動距離Lはこの図の直線2001から導かれ、経過時間がTの時に距離が0〜Lまで範囲において利用者2が存在すると予測される。この場合の利用者存在期待値を図21に示す。図21に示すように距離Lの左側では利用者存在期待値が一定正値となり、矩形状となる。
図9に戻り、利用者存在部屋予測部113は予想した幾何的利用者存在可能圏が無い場合、あるいは有る場合でも検知部104が幾何学的利用者存在可能圏内に利用者2を検知できなかったときに、利用者存在期待値の高い拠点順に移動し、利用者2を探索する行動を開始する(ステップS13)。部屋間を跨ぐ経路は移動可能部屋構成データ1001上で大局的な経路生成をし、各部屋内では移動可能経路データ1010上で通行可能な出入口を結ぶ局所的な経路生成して、この移動を達成する。
なお、探索移動中に移動ロボット1が、例えば水洗トイレの音やシャワーの音が検知部104により検知した場合、検知された音の発生場所として妥当なトイレ54や浴室58を利用者2が存在する部屋と予測し、その部屋を移動目標に設定し、他の部屋を探索する必要がなくなる。また、探索移動中に例えばドアの開閉音が進行方向などから検知部104により検知された場合には、検知された音の方向以外の部屋を探索する必要がなくなる。こうして利用者2が所在する部屋を予測すると、移動ロボット1は進入可能でそこに至る経路のある部屋で利用者所在する部屋に最も近い部屋(利用者2が所在する部屋を含む)を移動する目的の部屋に設定する。
本実施の形態に係る移動ロボット1は、利用者2の幾何圏内移動探索と位相圏内移動探索という2種類の探索動作を移動可能経路データ1010と移動可能部屋構成データ1001の利用者2の存在可能圏に基づいて、効率的かつ広い範囲での利用者2の探査を可能にする。
本実施の形態に係る移動ロボット1は、利用者2が移動すると予測される経路に従って検知手段の検知方向を制御することで、利用者2を見失わないという効果を奏する。
また、本実施の形態に係る移動ロボット1は、移動ロボット1の現在位置と利用者2の現在位置及び方向と移動可能経路情報から追尾経路を生成し、この追尾経路に従い移動することで利用者2を見失わないで追尾移動が可能という効果を奏する。また利用者2を見失った場合でも、最後に検知した利用者2の場所から移動する経路を予測し、効率よく利用者2の探索を可能とする。
本実施の形態に係る移動ロボット1は、利用者2の異常を検知する動作を移動可能拠点構成情報上の利用者2の所在に基づいて行うため、利用者2のいる拠点により適応的に異常の検知を行うことが出来るという効果を奏する。
本実施の形態に係る移動ロボット1は移動先の部屋及び移動可能な部屋ごと利用者2の存在する期待値を算出し、効率的に利用者2の探索を可能にする。さらに、部屋毎の幾何学的形状の違いに基づく移動距離の違いから利用者存在期待値を適切に算出することで、より効率的に利用者2の探索を可能とする。
また本実施の形態では、適応マイクロホンアレイ部501は検知方向を特定できればよく、検知方向の音のみ入力すると制限を加えるものではない。検知方向制御手段しては、上記検知方向制御部の他に移動ロボット1本体を動作させて検知方向を制御することも考えられる。現在位置特定部109はジャイロ及びパルスエンコーダを使用して現在位置を取得しているが、超音波等により現在位置を特定する方法も考えられる。
(第2の実施の形態)
第1の実施の形態では、移動ロボット1の移動可能な空間と利用者2の移動可能な空間が一致している場合に本発明を適用した例である。ところが実際の環境中には、利用者2は踏み越えられるが、移動ロボット1には通行できない高さの物体が存在したり、利用者2は避けて通るが、移動ロボット1はその下を潜り抜けていける物体が存在する。したがってこの第2の実施の形態に係る移動ロボット1では、利用者2が移動可能な経路であるが、移動ロボット1は移動できない経路がある場合において障害物を迂回した経路の生成を行うものである。
本実施の形態における状況を図25に示す。図中の202、203、205は第1の実施例の形態における図4に記述した障害物と同じ物である。本実施の形態では、さらに床にクッション2501を加える。
このとき利用者2はクッション2501を踏み越えられるので障害物とはならないが、テーブル203の天板は障害物となる。一方、移動ロボット2301にとってクッション2501とテーブル203の脚が障害物となるが、テーブルの天板は下を通り抜けられるので障害物とならない。このような状態では、テーブルの下を潜るなど、利用者経路を追従するよりも効率の良いショートカットコースを移動ロボット2301が利用できれば、その利便性は一層向上するはずである。
図23は、本発明の第2の実施の形態にかかる移動ロボット2301の構成を示すブロック図である。上述した第1の実施の形態の図1において、地図情報等記憶部108とは記憶している情報が異なる地図情報等記憶部2302に変更され、経路生成部112とは処理が異なる経路生成部2303に変更された構成を有している。以下の説明では、上述した実施の形態1と同一の構成要素には同一の符号を付してその説明を省略している。
地図情報等記憶部2302は、本発明における記憶手段を構成し、部屋の構成図、部屋毎の地図情報、移動ロボット2301や利用者2の現在地情報などを記憶している。本実施形態での地図情報等記憶部2302の保持する情報を図24に示す。地図情報等記憶部108は移動可能部屋構成データ1001と、部屋毎の移動可能空間図1011a〜k及び移動可能経路データ1010a〜kと、利用者方向位置座標1002と、利用者存在部屋番号1003と、方向位置座標1004と、現在部屋番号1005の他にロボット移動可能空間図2401a〜kを記憶する。
図26にクッション2501を加えた場合の移動可能空間図1011を示す。移動可能空間図は利用者2の移動可能な空間に基づいて生成される。クッション2501は利用者2にとってクッション2501は踏み越えられるので障害物とはならず、また、テーブル203の天板は障害物となる。したがって、このときの移動可能空間図は図4に例示した移動可能空間図と同じとなる。
図27にクッション2501を加えた場合のロボット移動可能空間図2401を示す。移動ロボット2301にとってクッション2501とテーブル203の脚2702〜2705が障害物となるが、テーブル203の天板は潜り抜けられるので障害物とはならない。
経路生成部112は、本発明における経路生成手段を構成し、利用者移動経路予測部107による利用者2の予測移動経路と移動ロボット2301の現在位置から移動可能経路データ1010に基づき追尾経路情報を生成し、この追尾移動経路とロボット移動可能空間図2401より追尾経路上に移動ロボット1が移動できない障害物があるか確認し、障害物があると判断した場合は、障害物と一定間隔の距離を保持した状態で、利用者2の予測移動経路まで移動する迂回経路を生成する。また利用者存在部屋予測部113が移動ロボット2301の現在位置から利用者2の存在する可能性があると予測した部屋まで探索するための探索経路を、移動可能部屋構成データ1001から大局的な経路を、そして移動可能経路データ1010とロボット移動可能空間図2401から部屋毎の経路を生成する。
次に、以上のように構成された本実施の形態に係る移動ロボット2301における処理構成を説明する。第1の実施の形態と、この第2の実施の形態の処理の違いは図9の利用者予測経路ステップS5が主である。したがって、予測経路ステップS5における本実施の形態に係る移動ロボット2301の処理手順のフローチャートを図29に詳しく示す。
まずは検知方向追尾ステップS4より利用者2を見失わないよう検知部104より検知し続け、移動ロボット2301と利用者2の移動可能空間図1011gの移動ロボット2301及び利用者2の座標情報から相対距離が離れたか判断し(ステップS33)、離れたと判断した場合、経路生成部2303は移動ロボット2301の現在位置から利用者2の現在位置間での経路を移動可能経路データ1010から追尾経路を生成する(ステップS41)。そして生成した追尾経路上に移動ロボット2301が移動できない障害物があるか、追尾経路とロボット移動可能空間図2401を比較して判断する(ステップS42)。その判断について図28を使用して説明する。
図28はロボット移動可能空間図2401に移動可能経路データ1010を重ね合わせた図である。この図において、移動ロボット2301の追尾経路としてセグメント309、308を通る経路を選択した場合は、経路生成部2303は、追尾経路上に移動することが出来ない障害物となるクッション2501があるため移動ロボット2301が追尾経路に従って移動できないと、判断する。このような状況では利用者2のセグメント309と308上を移動ロボット2301が移動することができず、この経路を必要とする移動追尾においては移動ロボット2301が迂回経路を生成できなければならない。
このため、障害物があるため移動できないと判断された場合(ステップS42の右分岐)、経路生成部2303は移動ロボット2301の現在位置から利用者2の現在位置までの迂回経路を、移動ロボット2301の移動が可能な空間情報を有するロボット移動可能空間図2401から各障害物および壁面等を右手に見ながら各障害物および壁面等から一定距離を置いた回避経路を生成し(ステップS45)、移動ロボット2301の移動が可能な空間情報を有するロボット移動可能空間図2401から各障害物および壁面等を右手に見ながら各障害物および壁面等から一定距離を置いた回避経路を生成する(ステップS46)。
図30に生成した迂回経路情報を示す。迂回経路3001が各障害物および壁面等を右手に見ながら各障害物および壁面等から一定距離をおいた迂回経路を示し、迂回経路3002が各障害物および壁面等を左手に見ながら各障害物および壁面等から一定距離をおいた迂回経路を示す。この場合、迂回経路3002においてテーブルの天板は障害物とならないため、迂回経路においてショートカットコースを利用し、利便性が向上していることが確認できる。
図29に戻り、経路生成部2303は、生成された回避経路と回避経路のうち移動距離の短いものを選択し(ステップS47)、駆動部111は選択された回避経路をトレースして移動する(ステップS48またはステップS49)。上述した図30の場合では迂回経路3002が選択され、迂回経路3002をトレースして移動する。
障害物がなかった場合は、駆動部111は生成された追尾経路をトレースして、移動ロボット2301の現在位置から利用者2の現在位置まで移動し(ステップS43)、その後、移動ロボット2301は利用者2の予測経路をトレースして移動する(ステップS44)。
つまり、図31に例示するように、利用者2がセグメント307上を移動ロボット2301から遠ざかる方向に移動するとき、移動ロボット2301はセグメント309から308を経て307へと移動追尾するところであるが、前述した通り、クッション2501によりセグメント309から308へと移動できない。そこで移動ロボット2301は、セグメント309からセグメント308へ至る迂回経路3101を障害物回避手順に従って生成して移動追尾を完遂する。
これによって移動ロボット2301は利用者2が利用者2のみ移動することが可能な経路に従って移動した場合でも、迂回経路を選択し、移動追尾することが可能となる。これにより一層利便性が高まったと考えられる。
また、同様に図9の利用者移動可能経路探索ステップS10や拠点間移動探索ステップS13においても同様の手順により回避経路を生成することが可能である。
なお、利用者2の移動可能な範囲を示す移動可能空間図1011と移動ロボット2301の移動可能な範囲を示す移動可能空間図2401は、移動ロボット2301の検知手段104によって計測された物体の形状や高さから移動ロボット2301が移動する際の障害物となるか否か、また利用者2が移動する際の障害物となるか否か判断した上で、自動的に生成されることも可能である。
つまり、タンスやクッションなどの全域、テーブルの脚部分などの移動ロボットが踏破出来ない高さを有する物体は、移動ロボット2301にとっての障害物と判断し、床面から一定の高さの範囲(利用者2が飛び越えられない高さ以上、利用者2の背の高さ以下)にある物体、つまりタンス、テーブルの脚部分及びテーブルの天板等は、利用者2にとっての障害物と判断し、移動ロボット2301は移動可能空間図1011および移動可能空間図2401を生成する。
本実施の形態に係る移動ロボット2301は、移動ロボット2301についても移動することが可能な空間を示すロボット移動可能空間図2401を保持することで、利用者2が移動することできるが、移動ロボット2301が移動できない場所があっても、問題なく移動ロボット2301は利用者2を追尾することができる。また、利用者2が移動できないが、移動ロボット1が移動できる空間を利用してショートカットでき、より効率的な移動をすることができる。
以上のように、本発明にかかる移動ロボットは、利用者を探索、追尾し、異常が発生したか否か診断するために有用であり、特に、利用者が移動すると予測される経路に従い、移動ロボットが検知手段の制御や利用者を追尾して移動する場合に適し、また移動ロボットが利用者の存在する場所に適した異常を判断する場合に適している。
本発明に係る移動ロボットの第1の実施の形態における機能ブロック構成を示した図である。 本発明に係る移動ロボットの第1の実施の形態における地図情報記憶部の保持している情報を示した図である。 本発明に係る移動ロボットの第1の実施の形態における移動可能部屋構成データによる利用者の移動可能な部屋の構成を示した図である。 本発明に係る移動ロボットの第1の実施の形態における地図情報記憶部に保持するリビング56の移動可能空間図の例を示した平面図である。 本発明に係る移動ロボットの第1の実施の形態における地図情報記憶部に保持するリビング56の移動可能経路の例を示す平面図である。 本発明に係る移動ロボットの第1の実施の形態における検知部の機能ブロックの構成を示した図である。 本発明に係る移動ロボットの第1の実施の形態における利用者検知圏を模式的に示した図である。 本発明に係る移動ロボットの第1の実施の形態における移動可能部屋構成データにおいて部屋毎に付与された異常検知設定基準情報を示した図である。 本発明に係る移動ロボットの第1の実施の形態における処理構成を示した図である。 本発明に係る移動ロボットの第1の実施の形態における検知部及び利用者位置判断部の処理構成を示した図である。 本発明に係る移動ロボットの第1の実施の形態における利用者の予測経路を選択する方法を示した図である。 本発明に係る移動ロボットの第1の実施の形態における追尾移動するまでの処理構成を示した図である。 本発明に係る移動ロボットの第1の実施の形態における利用者消失方向と利用者の存在可能圏の関係を示した図である。 本発明に係る移動ロボットの第1の実施の形態における利用者検知圏を使用した利用者追尾方法を示した図である。 本発明に係る移動ロボットの第1の実施の形態における利用者を見失ってから経過時間が短いとき(経過時間T1)の利用者存在期待値の分布を示した図である。 本発明に係る移動ロボットの第1の実施の形態における利用者を見失ってから経過時間が中程度のとき(経過時間T2)の利用者存在期待値の分布を示した図である。 本発明に係る移動ロボットの第1の実施の形態における利用者を見失ってから長時間経過したとき(経過時間T3)の利用者存在期待値の分布を示した図である。 本発明に係る第1の実施の形態における経過時間に応じた利用者移動距離分布の推移を示した図である。 本発明に係る第1の実施の形態における利用者移動距離分布から導かれる移動距離に対応する利用者存在期待値を示した図である。 本発明に係る移動ロボットの第1の実施の形態における部屋間の移動距離の違いから部屋ごとに異なる利用者存在期待値の分布を示した図である。 本発明に係る第1の実施の形態における利用者の移動速度の最大値がある値を超えない場合の経過時間と最大利用者移動距離の関係を示した図である。 本発明に係る第1の実施の形態における利用者の移動速度の最大値がある値を超えない場合の最大利用者移動距離から導かれる利用者存在期待値を示した図である。 本発明に係る第2の実施の形態における障害物と利用者と移動ロボットの大きさの関係を示した側面図である。 本発明に係る移動ロボットの第2の実施の形態における機能ブロック構成を示した図である。 本発明に係る移動ロボットの第2の実施の形態における地図情報記憶部の保持している情報を示した図である。 本発明に係る移動ロボットの第2の実施の形態における地図情報記憶部に保持するリビング56の利用者が移動可能な空間を示す移動可能空間図の例を示した平面図である。 本発明に係る移動ロボットの第2の実施の形態における地図情報記憶部に保持するリビング56の移動ロボットが移動可能な空間を示すロボット移動可能空間図の例を示した平面図である。 本発明に係る移動ロボットの第2の実施の形態におけるリビング56のロボットが移動することが可能な空間上に利用者が移動することが可能な経路を示した平面図である。 本発明に係る移動ロボットの第2の実施の形態における利用者の移動する経路を予測して追尾するときの処理構成を示した図である。 本発明に係る移動ロボットの第2の実施の形態における障害物回避手順により利用者を追尾するために導き出された迂回経路を示した図である。 本発明に係る移動ロボットの第2の実施の形態における障害物回避手順により選択された迂回経路を示した図である。
符号の説明
1、2301 移動ロボット
2 利用者
11〜21 出入口
50 庭
51 玄関
52 廊下
53 洋室
54 トイレ
55 和室
56 リビング
57 洗面室
58 浴室
59 ダイニング
60 キッチン
101 異常検知通報部
102 異常判断基準設定部
103 異常判断部
104 検知部
105 検知方向制御部
106 利用者位置判断部
107 利用者移動経路予測部
108、2302 地図情報等記憶部
109 現在位置特定部
110 移動距離・方向検出部
110 駆動部
112、2303 経路生成部
113 利用者存在部屋予測部
201 移動可能空間
202 障害物
203 障害物(テーブル)
203 障害物
301〜314 セグメント
401 通行可能フラグ
402 進入可能フラグ
501 適応マイクロホンアレイ部
502 ズーム・雲台付きカメラ部
503 特定音検出部
504 音声話者識別部
505 音声語彙認識部
505 音声誤報認識部
506 動きベクトル検出部
507 顔検出・顔識別部
508 ステレオ距離計測部
601、1401 利用者検知圏
602〜604 検知圏外
701、702 活動サイン
703 外出サイン
1001 移動可能部屋構成データ
1002 利用者方向位置座標
1003 利用者存在部屋番号
1004 方向位置座標
1005 現在部屋番号
1010a〜k 移動可能経路データ
1011a〜k 移動可能空間図
1201〜1203、1301〜1305 矢印
1801 横軸
1802 縦軸
1803〜1805 最大点
1806〜1809 利用者移動期待値分布曲線
2001 経過時間―移動距離比例直線
2401a〜k ロボット移動可能空間図
2501 クッション
2601 利用者にとっての移動可能空間
2701 移動ロボットにとっての移動可能空間
2702〜2705 脚
3001、3002、3103 迂回経路

Claims (3)

  1. 現在位置情報と利用者が移動することが可能な経路を示した移動可能経路情報と、当該移動可能経路情報に示された経路で自装置が移動可能か否かを示す移動可能フラグと、を記憶する記憶手段と、
    前記利用者を検知し、検知した前記利用者の存在する位置及び方向を示す利用者位置情報を取得する検知手段と、
    前記記憶手段に記憶された前記移動可能経路情報と前記検知手段により検知された前記利用者位置情報から、前記利用者が移動すると予測される経路を示す移動予測経路情報を生成する移動経路予測手段と、
    前記記憶手段に記憶された前記現在位置情報と前記移動経路手段により生成された前記移動予測経路情報と、から、現在位置から利用者が移動すると予測される経路までの移動経路及び利用者が移動すると予測される経路により利用者を追尾する経路を示す追尾経路情報を生成する経路生成手段と、
    前記経路生成手段により生成された前記追尾経路情報に従うと共に、前記移動可能フラグに基づく移動可能な経路を移動する移動手段と、
    を具備したことを特徴とする移動ロボット。
  2. 前記移動経路予測手段は、前記検知手段により前記利用者が検知できない場合、最後に前記検知手段で検知した前記利用者位置情報と前記記憶手段に記憶される前記移動可能経路情報から、前記利用者が移動したと予測される経路を示す移動予測経路情報を生成することを特徴とする請求項に記載の移動ロボット。
  3. 前記移動可能経路情報に基づいて利用者が移動可能な拠点毎に、異常を検知するための判断基準を示す異常判断基準情報を記憶する基準記憶手段と、
    前記利用者が存在する拠点から利用者により発せられる生活音等を示す活動情報を検知する検知手段と、
    前記利用者の存在する拠点に対応した、前記基準記憶手段に記憶された前記異常判断基準情報を設定する異常判断基準設定手段と、
    前記検知手段により検知された前記活動情報を前記異常判断基準設定手段により設定された前記異常判断基準情報に基づいて異常か否か判断する異常判断手段と、
    さらに具備したことを特徴とする請求項1又は2に記載の移動ロボット。
JP2004052425A 2004-02-26 2004-02-26 移動ロボット Expired - Fee Related JP4257230B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004052425A JP4257230B2 (ja) 2004-02-26 2004-02-26 移動ロボット
US11/064,931 US20050216124A1 (en) 2004-02-26 2005-02-25 Mobile robot for monitoring a subject

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004052425A JP4257230B2 (ja) 2004-02-26 2004-02-26 移動ロボット

Publications (2)

Publication Number Publication Date
JP2005238396A JP2005238396A (ja) 2005-09-08
JP4257230B2 true JP4257230B2 (ja) 2009-04-22

Family

ID=34991124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004052425A Expired - Fee Related JP4257230B2 (ja) 2004-02-26 2004-02-26 移動ロボット

Country Status (2)

Country Link
US (1) US20050216124A1 (ja)
JP (1) JP4257230B2 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4594663B2 (ja) * 2004-06-30 2010-12-08 本田技研工業株式会社 警備ロボット
US11835343B1 (en) * 2004-08-06 2023-12-05 AI Incorporated Method for constructing a map while performing work
JP4455417B2 (ja) * 2005-06-13 2010-04-21 株式会社東芝 移動ロボット、プログラム及びロボット制御方法
JP4241673B2 (ja) * 2005-06-17 2009-03-18 本田技研工業株式会社 移動体の経路生成装置
JP4630146B2 (ja) * 2005-07-11 2011-02-09 本田技研工業株式会社 位置管理システムおよび位置管理プログラム
ATE522330T1 (de) 2005-09-30 2011-09-15 Irobot Corp Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung
US8160613B2 (en) * 2005-12-19 2012-04-17 Rockstar Bidco, LP Method and system for handover in cellular wireless using route programming and training processes
KR100988736B1 (ko) * 2006-03-15 2010-10-20 삼성전자주식회사 자율주행 이동로봇의 최단 경로 이동을 위한 홈 네트워크시스템 및 그 방법
JP4675811B2 (ja) * 2006-03-29 2011-04-27 株式会社東芝 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム
US9645968B2 (en) 2006-09-14 2017-05-09 Crown Equipment Corporation Multiple zone sensing for materials handling vehicles
CN102663884B (zh) * 2006-09-14 2014-03-05 克朗设备公司 用于远程控制物资处理车辆的***和方法
US9207673B2 (en) * 2008-12-04 2015-12-08 Crown Equipment Corporation Finger-mounted apparatus for remotely controlling a materials handling vehicle
US9122276B2 (en) 2006-09-14 2015-09-01 Crown Equipment Corporation Wearable wireless remote control device for use with a materials handling vehicle
US8452464B2 (en) * 2009-08-18 2013-05-28 Crown Equipment Corporation Steer correction for a remotely operated materials handling vehicle
US8970363B2 (en) 2006-09-14 2015-03-03 Crown Equipment Corporation Wrist/arm/hand mounted device for remotely controlling a materials handling vehicle
CN100455258C (zh) * 2007-01-24 2009-01-28 中山市创源电子有限公司 一种红外线人体身高测量仪
US7658694B2 (en) * 2007-04-30 2010-02-09 Nike, Inc. Adaptive training system
US20080273754A1 (en) * 2007-05-04 2008-11-06 Leviton Manufacturing Co., Inc. Apparatus and method for defining an area of interest for image sensing
US9522817B2 (en) 2008-12-04 2016-12-20 Crown Equipment Corporation Sensor configuration for a materials handling vehicle
JP5166316B2 (ja) * 2009-02-20 2013-03-21 株式会社東芝 状況認識装置及び状況認識方法
US8731777B2 (en) * 2009-08-18 2014-05-20 Crown Equipment Corporation Object tracking and steer maneuvers for materials handling vehicles
US8577551B2 (en) 2009-08-18 2013-11-05 Crown Equipment Corporation Steer control maneuvers for materials handling vehicles
JP5581770B2 (ja) * 2010-03-26 2014-09-03 ソニー株式会社 ロボット装置及びロボット装置による情報提供方法
KR101740231B1 (ko) * 2010-11-17 2017-05-26 삼성전자주식회사 3차원 얼굴 위치 추정 방법 및 장치
US8510029B2 (en) * 2011-10-07 2013-08-13 Southwest Research Institute Waypoint splining for autonomous vehicle following
JP5981158B2 (ja) * 2012-02-10 2016-08-31 富士機械製造株式会社 立ち座り動作支援ロボットおよび動作設定方法
KR102104896B1 (ko) * 2014-01-17 2020-05-29 엘지전자 주식회사 로봇청소기 및 이를 이용한 휴먼 케어방법
US9497558B1 (en) * 2014-06-27 2016-11-15 Andrew Robert Millikin Bodily function sound anonymization
US9744668B1 (en) * 2015-08-21 2017-08-29 X Development Llc Spatiotemporal robot reservation systems and method
US10471611B2 (en) 2016-01-15 2019-11-12 Irobot Corporation Autonomous monitoring robot systems
US10523929B2 (en) * 2016-04-27 2019-12-31 Disney Enterprises, Inc. Systems and methods for creating an immersive video content environment
JP6712906B2 (ja) * 2016-05-31 2020-06-24 株式会社小松製作所 作業機械の管理装置、作業機械、及び作業機械の管理システム
US11256917B2 (en) * 2017-03-28 2022-02-22 Nidec Corporation Moving body for tracking and locating a target
US9939814B1 (en) * 2017-05-01 2018-04-10 Savioke, Inc. Computer system and method for automated mapping by robots
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
JP6866781B2 (ja) * 2017-06-16 2021-04-28 株式会社豊田自動織機 移動車両
US10754343B2 (en) 2018-02-15 2020-08-25 X Development Llc Semantic mapping of environments for autonomous devices
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
US11641121B2 (en) 2019-02-01 2023-05-02 Crown Equipment Corporation On-board charging station for a remote control device
EP3979220A1 (en) 2019-02-01 2022-04-06 Crown Equipment Corporation On-board charging station for a remote control device
US11416002B1 (en) * 2019-06-11 2022-08-16 Ambarella International Lp Robotic vacuum with mobile security function
JP6823327B2 (ja) * 2019-06-18 2021-02-03 国立大学法人千葉大学 自律移動ロボット及びバイタルサインモニタリング方法
WO2022035797A1 (en) 2020-08-11 2022-02-17 Crown Equipment Corporation Remote control device
WO2022085368A1 (ja) * 2020-10-20 2022-04-28 ソニーグループ株式会社 情報処理装置、情報処理システム、および方法、並びにプログラム
CN113610816B (zh) * 2021-08-11 2024-06-14 湖北中烟工业有限责任公司 一种横滤嘴棒自动检测预警方法、装置及电子设备
CN113951767A (zh) * 2021-11-08 2022-01-21 珠海格力电器股份有限公司 可移动设备的控制方法及装置
CN116408790A (zh) * 2021-12-31 2023-07-11 广东美的白色家电技术创新中心有限公司 机器人控制方法、装置、***及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5202661A (en) * 1991-04-18 1993-04-13 The United States Of America As Represented By The Secretary Of The Navy Method and system for fusing data from fixed and mobile security sensors
JP3900870B2 (ja) * 2001-08-07 2007-04-04 オムロン株式会社 情報収集装置、情報収集方法、および情報収集システム
JP3885019B2 (ja) * 2002-11-29 2007-02-21 株式会社東芝 セキュリティシステム及び移動ロボット
JP2004237392A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法

Also Published As

Publication number Publication date
US20050216124A1 (en) 2005-09-29
JP2005238396A (ja) 2005-09-08

Similar Documents

Publication Publication Date Title
JP4257230B2 (ja) 移動ロボット
JP4455417B2 (ja) 移動ロボット、プログラム及びロボット制御方法
JP4576445B2 (ja) 自律移動型装置および自律移動型装置用プログラム
EP3568842B1 (en) Emergency drone guidance device
US20210146540A1 (en) Method of identifying dynamic obstacle and robot implementing same
JP4675811B2 (ja) 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム
CN106292657B (zh) 可移动机器人及其巡逻路径设置方法
US11409295B1 (en) Dynamic positioning of an autonomous mobile device with respect to a user trajectory
US11256261B1 (en) System for movement of autonomous mobile device
WO2013046563A1 (ja) 自律移動装置、自律移動方法、及び、自律移動装置用のプログラム
JP2008065755A (ja) 移動装置
CN111492415B (zh) 无人飞行体、控制方法以及记录介质
KR20190024467A (ko) 타겟 지향 로컬 경로를 생성하는 방법 및 이를 구현하는 로봇
KR20190143524A (ko) 장애물 회피에 기반하여 경유 지점을 주행하는 로봇 및 주행하는 방법
US20220120607A1 (en) Optical fiber sensing system, monitoring apparatus, monitoring method, and computer readable medium
JP2019003631A (ja) 情報を提供する装置、方法、コンピュータプログラムおよび記録媒体
US11300963B1 (en) Robot movement constraint system
JP5765153B2 (ja) 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム
KR102286656B1 (ko) 어라운드 맵을 이용하여 경로를 변경하는 방법 및 이를 구현하는 로봇
JP7061474B2 (ja) 走行装置
US11567504B1 (en) Dynamic wait location for an autonomous mobile device
JP2020004182A (ja) ロボット、ロボット制御プログラムおよびロボット制御方法
JP7317436B2 (ja) ロボット、ロボット制御プログラムおよびロボット制御方法
JP2007122735A (ja) 歩行者移動支援装置
JP2012203646A (ja) 流れ状態判別装置、流れ状態判別方法、流れ状態判別プログラムおよびそれらを用いたロボット制御システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140206

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees