JP2005088179A - 自律移動ロボットシステム - Google Patents

自律移動ロボットシステム Download PDF

Info

Publication number
JP2005088179A
JP2005088179A JP2003329283A JP2003329283A JP2005088179A JP 2005088179 A JP2005088179 A JP 2005088179A JP 2003329283 A JP2003329283 A JP 2003329283A JP 2003329283 A JP2003329283 A JP 2003329283A JP 2005088179 A JP2005088179 A JP 2005088179A
Authority
JP
Japan
Prior art keywords
information
robot
data
utterance
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003329283A
Other languages
English (en)
Inventor
Yoshiaki Sakagami
義秋 坂上
Shinichi Matsunaga
慎一 松永
Naoaki Sumita
直亮 住田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2003329283A priority Critical patent/JP2005088179A/ja
Priority to US10/917,322 priority patent/US7467026B2/en
Publication of JP2005088179A publication Critical patent/JP2005088179A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31422Upload, download programs, parameters from, to station to, from server
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35453Voice announcement, oral, speech input

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Small-Scale Networks (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

【課題】 最新の情報に基づいて情報の発信や人の応対を行うことが可能な自律移動ロボットシステムを提供する。
【解決手段】 ロボット1と基地局2とが無線通信によって接続され、その基地局2と情報管理コンピュータ3とがロボット専用ネットワーク4によって接続されている。そして、ロボット専用ネットワーク4、ユーザ端末5、情報蓄積サーバ6及び情報提供サーバ7がネットワーク8によって接続されている。情報蓄積サーバ6は、ユーザ端末5によって設定されたスケジュール情報に従って情報提供サーバ7から情報を取得する。情報管理コンピュータ3は、その情報を情報蓄積サーバ6から受信し、その受信した情報を、ロボット1の動作を規定するデータに変換する。ロボット1は、そのデータを情報管理コンピュータ3から受信し、その受信したデータに応じて動作する。
【選択図】 図1

Description

本発明は、所定の領域を自律的に移動しながら情報の発信を行う自律移動ロボットシステムに関する。
民間のビル(デパートなど)や公共施設などの予め決められた領域を自律的に移動しながら、所定の目的を達成するための動作を行う人間型ロボットの開発が進んでいる。例えば、特許文献1には、広告の効果を向上するために、自律移動ロボットが、大容量の情報提供サーバから広告情報を受信し、その広告情報の内容を表示又は発声する例が開示されている。同じく特許文献1には、広告の効果を更に高めるために、自律移動ロボットが、自身が認識した音声に応じて身振り(ジェスチャ)を行うことによって、周囲の人々の注目を集めるようにする例が開示されている。
特開2003−50559号公報(段落0015、0020〜0022、図1、2、5、6)
しかしながら、従来の自律移動ロボットは、定型的な動作しかできないという問題がある。例えば、情報提供サーバなどの情報源から取得した情報は、ある時点で取得されたままで陳腐化したものを再生することしかできないし、身振りは、予めプログラムされた動作パターンに基づいて実施することしかできない。換言すれば、従来の自律移動ロボットは、固定された情報に基づいて情報発信を行っており、ニュースや天気予報などのような逐次変化する情報に対応していないという問題がある。
そこで、本発明は、前記問題に鑑み、最新の情報に基づいて情報の発信や人の応対を行うことが可能な自律移動ロボットシステムを提供することを課題とする。
前記課題を解決する本発明のうち、請求項1に係る発明は、情報蓄積手段、情報管理手段及びロボットから構成され、ロボットが所定の領域を自律的に移動しながら情報の発信を行う自律移動ロボットシステムであって、情報蓄積手段は、予め設定されたスケジュール情報に従って、又は、ロボットからの要求に応じて、情報提供手段から少なくとも文字情報を含む最新情報を取得し、情報管理手段は、単語群をロボットの動作を規定する動作データに変換する規則を定義したテーブルと、情報蓄積手段から最新の情報を取得し、取得した情報を解析し、解析した結果に基づいてテーブルに従って動作データを生成する情報変換手段とを有し、ロボットは、情報管理手段から動作データを取得し、取得した動作データに応じて動作することによって、人に対して情報の発信を行うことを特徴とする。
この構成においては、まず、情報蓄積手段が、ロボットに発信させるべき情報を、情報提供手段からインターネットなどを介して受信し、情報管理手段に送信する。この情報蓄積手段の動作は、ユーザによって予め設定されたスケジュール情報又はロボットからの要求に基づく。また、情報提供手段が保持する情報は、随時更新されるものとし、換言すれば、常に最新になっているものとする。次に、情報管理手段における情報変換手段が、インターネットなどを介して情報蓄積手段から情報を受信し、受信した情報を、ロボットの動作を規定する動作データ、すなわち、ロボットがそれを元にして所定の動作を行うことが可能なデータに変換する。情報変換手段が情報を動作データに変換する手順の一例としては、まず、その情報に含まれる文字情報を構文解析し、単語に分解する。そして、分解された複数の単語から成る単語群を所定のテーブルに従って動作データに変換する。この所定のテーブルは、単語群を動作データに変換する規則を定義したものであり、特定の単語と動作データとが対応付けられたものである。そして、ロボットが、情報管理手段から取得した動作データに応じて所定の動作を行う。これによれば、ロボットは、最新の情報を発信することになる。
請求項2に係る発明は、テーブルは、単語群を発話データに変換する規則を定義した発話データ変換テーブルを含み、情報変換手段は、その発話データ変換テーブルに従って、解析した結果に基づいて発話データを生成し、ロボットは、情報管理手段から発話データを取得し、取得した発話データに応じて発話することを特徴とする。
この構成においては、情報管理手段における情報変換手段が、情報蓄積手段から受信した文字情報に対して構文解析を行い、その構文解析により分解された単語群を発話データ変換テーブルに従って発話データに変換する。そして、ロボットが、情報管理手段から受信した発話データに応じて発話する。これによれば、ロボットは、最新の情報に応じた音声発話を行うことになる。
請求項3に係る発明は、テーブルは、単語群を身振りデータに変換する規則を定義した身振りデータ変換テーブルを含み、情報変換手段は、身振りデータ変換テーブルに従って、解析した結果に基づいて身振りデータを生成し、ロボットは、情報管理手段から身振りデータを取得し、取得した身振りデータに応じて身振りを行うことを特徴とする。
この構成においては、情報管理手段における情報変換手段が、情報蓄積手段から受信した文字情報に対して構文解析を行い、その構文解析により分解された単語群を身振りデータ変換テーブルに従って身振りデータに変換する。そして、ロボットが、情報管理手段から受信した身振りデータに応じて身振り(ジェスチャ)を行う。これによれば、ロボットは、最新の情報に応じた身振りを行うことになる。
請求項4に係る発明は、自律移動ロボットシステムは、ユーザがスケジュール情報を予め設定可能なスケジュール情報設定手段を有し、スケジュール情報は、情報提供手段から最新の情報を取得する時刻を示す情報取得時刻情報、及び、その情報に含まれる文字情報の種別を示す情報種別情報を含み、情報蓄積手段は、スケジュール情報設定手段からスケジュール情報を取得し、取得したスケジュール情報を記憶するスケジュール情報記憶手段と、記憶したスケジュール情報を参照し、情報取得時刻情報が示す時刻に情報種別情報が示す文字情報の種別に対応する情報提供手段から最新の情報を取得する情報取得手段とを有することを特徴とする。
この構成においては、まず、ユーザがスケジュール情報設定手段を使用して情報取得時刻情報及び情報種別情報を設定する。その設定されたスケジュール情報が、情報蓄積手段におけるスケジュール情報記憶手段に記憶される。そして、情報蓄積手段における情報取得手段が、その記憶されたスケジュール情報を定期的に参照し、各情報取得時刻情報が示す時刻になるたびに、その情報取得時刻情報に対応する情報種別情報を参照し、その情報種別情報が示す文字情報の種別に対応する情報提供手段から最新の情報を取得する。これによれば、情報蓄積手段は、スケジュール情報設定手段によって設定された情報取得時刻及び情報種別に応じて最新の情報を取得することになる。
請求項5に係る発明は、スケジュール情報は、人に対して情報を発信する時刻を示す情報発信時刻情報を含み、ロボットは、情報蓄積手段からスケジュール情報を取得し、取得したスケジュール情報を参照し、情報発信時刻情報が示す時刻に動作の指示を行う動作指示手段と、動作指示手段の指示により情報種別情報が示す文字情報の種別に対応する動作データに応じた動作を実行する動作実行手段とを有することを特徴とする。
この構成においては、ユーザが、スケジュール情報設定手段を使用して、情報取得時刻情報及び情報種別情報に加えて、情報発信時刻情報を設定する。その情報発信時刻情報及び情報種別情報は、情報蓄積手段を介してロボットに送信される。ロボットにおける動作指示手段は、受信した情報発信時刻情報が示す時刻になるたびに、動作実行手段に対して動作の指示を行う。動作実行手段は、動作指示手段の指示によって、受信した情報種別情報が示す文字情報の種別に対応する動作データに応じて動作を実行する。これによれば、ロボットは、スケジュール情報設定手段によって設定された情報発信時刻及び情報種別に応じて動作を実行することになる。
請求項6に係る発明は、ロボットは、音声を検出した場合、検出した音声を文字情報に変換し、変換した文字情報を構文解析し、構文解析した結果である単語群に対して情報種別名の検索を行うことによりその単語群から情報種別を抽出する情報種別抽出手段と、抽出した情報種別に対応する発話データに応じた発話を実行する発話実行手段とを有することを特徴とする。
この構成においては、ロボットが音声を検出した場合、まず、情報種別抽出手段が、検出した音声を文字情報に変換し、変換した文字情報を構文解析し、構文解析した結果である単語群から情報種別を抽出する。単語群から情報種別を抽出する方法としては、単語群に対して情報種別を示す文字情報である情報種別名の検索を行う。そして、その情報種別名に完全一致又は部分一致する単語があれば、その情報種別名を抽出した情報種別とする。次に、発話実行手段が、その抽出した情報種別に対応する発話データに応じて音声発話を行う。これによれば、ロボットは、検出した音声から抽出される情報種別に対応する発話データに応じた音声発話を行うことになる。
請求項7に係る発明は、情報変換手段は、抽出した情報種別に対応する発話データがロボット及び情報管理手段のいずれにもないとき、情報種別に対応する情報提供手段から最新の情報を取得し、その取得した情報を解析し、その解析した結果に基づいて発話データ変換テーブルに従って発話データを生成することを特徴とする。
この構成においては、情報変換手段が、検出した音声から抽出される情報種別に対応する発話データがロボット及び情報管理手段のいずれにもないとき、改めてその情報種別に対応する情報提供手段から最新の情報を受信し、その受信した情報を発話データに変換する。これによれば、ロボットは、検出した音声から抽出される情報種別に対応する発話データがないとき、その対応する発話データを生成することになる。
なお、特許請求の範囲における「情報提供手段」、「情報蓄積手段」、「情報管理手段」及び「スケジュール情報設定手段」は、後記する実施の形態における「情報提供サーバ」、「情報蓄積サーバ」、「情報管理コンピュータ」及び「ユーザ端末」に相当する。また、特許請求の範囲における「情報変換手段」、「情報取得手段」、「動作指示手段」及び「動作実行手段」は、後記する実施の形態における「配信情報管理部」、「発信スケジュール管理部」、「発信スケジュール実行部」及び「音声認識発話部、運動制御部」に相当する。更に、特許請求の範囲における「情報種別抽出手段」及び「発話実行手段」は、後記する実施の形態において「音声認識発話部」としてまとめて説明する。
請求項1に係る発明によれば、逐次ユーザが設定しなくても、ロボットが最新の情報を発信することができる。
請求項2に係る発明によれば、ロボットが最新の情報を音声発話として発信するため、ロボットの正面にいない人であっても情報を得ることができる。
請求項3に係る発明によれば、ロボットから最新の情報を音声発話として聴くと共に、ロボットの身振りによってその聴く情報のイメージを知ることができるため、子供や耳の遠いお年寄りにも情報の伝達性を高めることができる。
請求項4に係る発明によれば、ユーザが、ロボットが発信する情報を取得する時刻及びその情報の種別を指定することにより、情報源の更新頻度や情報の速報性などに応じて情報取得スケジュールを設定することができる。
請求項5に係る発明によれば、ユーザが、ロボットが情報を発信する時刻を指定することができるため、移動領域内での人の集まり具合や情報の速報性に合わせた情報の発信が可能となる。
請求項6に係る発明によれば、予めスケジュールに設定されていない情報であっても、ロボットへの問いかけに対して、ロボットから、その問いかけに対応する最新の情報を音声発話として聴くことができる。
請求項7に係る発明によれば、ロボットへの問いかけに対応する発話データがないときであっても、改めてその発話データを生成するので、いつでもその問いかけに対応する最新の情報を音声発話として聴くことができる。
以上説明した本発明によれば、最新の情報に基づいて情報の発信や人の応対を行うことが可能な自律移動ロボットシステムを提供することができる。
以下、本発明の実施の形態について図面を参照して詳細に説明する。
≪第1の実施の形態≫
<ネットワーク構成と概要>
まず、本発明の第1の実施の形態を説明する。第1の実施の形態は、ユーザが設定したスケジュールに従って情報の発信を行う自律移動ロボットシステムの例である。
図1を参照して、本発明の第1の実施の形態に係る自律移動ロボットシステムのネットワーク構成について説明する。図1に示すように、自律移動ロボット1(以下及び図面においては、簡単に「ロボット1」という)と基地局2とが無線通信によって接続され、その基地局2と情報管理コンピュータ3とがロボット専用ネットワーク4によって接続されている。そして、ロボット専用ネットワーク4、ユーザ端末5、情報蓄積サーバ6及び情報提供サーバ7がネットワーク8によって接続されている。
ロボット1は、所定の領域を自律的に移動しながら情報の発信を行うものであり、基地局2及びロボット専用ネットワーク4を介して情報管理コンピュータ3から情報を受信し、その受信した情報に基づいて所定の動作を行う。基地局2は、無線通信によってロボット1と接続されると共に、ロボット専用ネットワーク4によって情報管理コンピュータ3と接続されることによって、ロボット1と情報管理コンピュータ3とを通信接続する機能を持つ通信接続機器である。
情報管理コンピュータ3は、ロボット専用ネットワーク4及びネットワーク8によって、ユーザ端末5、情報蓄積サーバ6及び情報提供サーバ7に接続され、ユーザ端末5、情報蓄積サーバ6及び情報提供サーバ7から受信した情報を、ロボット専用ネットワーク4及び基地局2を介して、ロボット1に送信する。情報管理コンピュータ3は、サーバやPC(Personal Computer)によって実現される。ロボット専用ネットワーク4は、基地局2、情報管理コンピュータ3及びネットワーク8を接続するネットワークであり、LAN(Local Area Network)などによって実現される。ユーザ端末5は、ネットワーク8を介して情報管理コンピュータ3及び情報蓄積サーバ6に接続され、ロボット1のユーザ(以下、簡単に「ユーザ」という)が必要な情報設定を行う端末であり、PCなどによって実現される。以上説明した、ロボット1、基地局2、情報管理コンピュータ3、ロボット専用ネットワーク4及びユーザ端末5は、ユーザのビル構内(例えば、デパート)などに設置されるものである。従って、それらは、ユーザごとの存在であり、自律移動ロボットシステムとしては複数存在するものである。
情報蓄積サーバ6は、ネットワーク8を介してユーザ端末5及び情報提供サーバ7に接続され、ユーザ端末5から必要な情報設定を受け、その設定に従って情報提供サーバ7から所定の情報を受信する。情報蓄積サーバ6は、サーバ用コンピュータによって実現され、自律移動ロボットシステムを運営管理している会社組織内に設置される。
情報提供サーバ7は、ネットワーク8を介して情報蓄積サーバ6に接続され、ネットワーク8及びロボット専用ネットワーク4を介して情報管理コンピュータ3に接続される。そして、情報蓄積サーバ6に所定の情報を送信する機能を持つ。情報提供サーバ7は、サーバ用コンピュータによって実現され、ニュースや天気予報などの情報を提供している会社組織内に設置される。
ネットワーク8は、ロボット専用ネットワーク4、ユーザ端末5、情報蓄積サーバ6及び情報提供サーバ7を接続するネットワークであり、インターネットなどによって実現される。
<システムの機能ブロック構成と概要>
次に、図2を参照して、本発明の第1の実施の形態に係る自律移動ロボットシステムの機能ブロック構成について説明する。図2においては、通信接続機器である基地局2、通信ネットワークであるロボット専用ネットワーク4及びネットワーク8については図示しないものとする。従って、図2では、人、ロボット1、情報管理コンピュータ3、ユーザ端末5、情報蓄積サーバ6及び情報提供サーバ7並びにそれぞれの機能ブロック構成を図示して説明する。
ロボット1は、音声認識発話部11、発信スケジュール実行部12、移動計画部13、運動制御部14及び運動機構部15から構成される。音声認識発話部11は、付設したマイクにより集めた音声を認識し、その認識した音声に対応する応答を、付設したスピーカにより再生する。また、音声に対する応答だけではなく、積極的に発話する機能も持つ。発信スケジュール実行部12は、ロボット1が情報を発信する時刻などを記載した情報発信スケジュール(以下及び図面においては、簡単に「発信スケジュール」という)を実行するものであり、音声認識発話部11に発話コマンドを、移動計画部13に移動開始コマンドを、運動制御部14にアクションコマンドをそれぞれ発行する。移動計画部13は、発信スケジュール実行部12から受信した移動開始コマンドをトリガにして、運動制御部14に移動指示を行う。その移動指示は、情報管理コンピュータ3から受信した移動ルートデータによる移動先の位置情報と、運動制御部14から受信した現在の位置情報とに基づいて行う。運動制御部14は、発信スケジュール実行部12から受信したアクションコマンドに応じて、運動機構部15に身振り動作の詳細な指示を行う。また、移動計画部13から受けた移動指示に応じて、運動機構部15に移動動作の詳細な指示を行う。運動機構部15は、運動制御部14から受けた身振り動作や移動動作の詳細な指示に従って、首、脚、腕、手などの可動部分を動かす。
情報管理コンピュータ3は、発話確認部31、発話データ記憶部32、配信情報管理部33、身振り変換テーブル記憶部34、身振りデータ記憶部35、配信情報記憶部36及び移動ルート記憶部37から構成される。発話確認部31は、ユーザが発話データ記憶部32の発話データを再生して、人がその再生した内容や抑揚を聴くのに問題がないか否かを確認し、調整するものである。発話データ記憶部32は、配信情報管理部33から発話データを入力し、記憶する。その記憶した発話データは、ロボット1の音声認識発話部11に送信された後、そのまま人に対して発話される。配信情報管理部33は、配信情報記憶部36の定期情報を入力し、その入力した定期情報を変換することによって得られる発話データ及び身振りデータを、それぞれ発話データ記憶部32及び身振りデータ記憶部35に出力する。その変換の詳細は後記する。なお、定期情報は、定期的に更新される情報である。身振り変換テーブル記憶部34は、定期情報を身振りデータに変換するときに使用する身振り変換テーブルを記憶する。身振りデータ記憶部35は、配信情報管理部33から入力され、ロボット1の発信スケジュール実行部12に送信される身振りデータを記憶する。配信情報記憶部36は、情報蓄積サーバ6を介して情報提供サーバ7から受信した定期情報及び情報蓄積サーバ6から受信した発信スケジュールを記憶する。その定期情報は配信情報管理部33に出力され、その発信スケジュールはロボット1の発信スケジュール実行部12に送信される。移動ルート記憶部37は、ロボット1の移動先などを示すデータとしてロボット1の移動計画部13に送信される移動ルートデータを記憶する。
情報蓄積サーバ6は、発信スケジュール管理部61及びユーザ別発信スケジュール記憶部62から構成される。発信スケジュール管理部61は、ユーザ別発信スケジュール記憶部62を参照して、定期情報の提供元になるURL(Uniform Resource Locators)が正しいか否かを確認するために、情報提供サーバ7にアクセスする。そして、URLが正しいときには、発信スケジュールをユーザごとの情報管理コンピュータ3に送信する。また、情報提供サーバ7から定期情報を取得し、その取得した定期情報を対応するユーザの情報管理コンピュータ3の配信情報記憶部36に送信する。ユーザ別発信スケジュール記憶部62は、ロボット1が情報を発信する時刻などを記載した発信スケジュールをユーザごとに格納する。その発信スケジュールは、ユーザ端末5から設定される。
ユーザ端末5は、発信スケジュール設定画面51や移動ルート設定画面52などを備える。発信スケジュール設定画面51は、ユーザが発信スケジュールを設定するための画面であり、ユーザ端末5のディスプレイに表示される。その詳細は後記する。移動ルート設定画面52は、ユーザがロボット1の移動ルートを設定するための画面であり、ユーザ端末5のディスプレイに表示される。
情報提供サーバ7は、定期情報記憶部71などから構成される。定期情報記憶部71は、ニュースや天気予報などの様々な定期情報を格納するデータベースであり、その定期情報は日々、時々刻々最新の内容に更新されるものである。具体的には、ニュースや天気予報などの情報を提供するWebサーバが持つデータベースである。
なお、前記各記憶部は、サーバやPCに内蔵又は外部接続されたハードディスク装置などの不揮発性記憶媒体によって実現される。
<システム全体の動作概要>
図3を参照して、本発明の第1の実施の形態に係る自律移動ロボットシステム全体の動作概要について説明する(適宜図2参照)。ステップS201乃至S204は、ロボット1が動作する元になる情報(発信スケジュール及び移動ルート)を設定する処理である。まず、ユーザは、ユーザ端末5の発信スケジュール設定画面51を利用して、ロボット1が人に対してニュースや天気予報などの情報を発信する時刻やその情報を情報提供サーバ7から取得する時刻などの発信スケジュールを設定する(ステップS201)。これによって、設定した発信スケジュールが情報蓄積サーバ6のユーザ別発信スケジュール記憶部62に記憶される。発信スケジュール設定画面51の詳細は後記する。次に、ユーザは、ユーザ端末5の移動ルート設定画面52を利用して、ロボット1の移動先などを示す移動ルートを設定する(ステップS202)。移動ルート設定画面52には、例えば、デパートの階ごとにロボット1が移動可能な領域を示す地図(グローバルマップ)が表示され、ユーザは、その表示された地図上にロボットの移動先、移動順序、移動先における停留時間などの移動ルートデータを設定する。これによって、その設定した移動ルートデータが情報管理コンピュータ3の移動ルート記憶部37に記憶される。そして、情報蓄積サーバ6の発信スケジュール管理部61は、ステップS201で設定された発信スケジュールのうち、情報元URLが正しいか否かを確認するために、そのURLにアクセスしてみる。アクセスが成功したときには、そのURLが正しいものとして、その発信スケジュールを情報管理コンピュータ3に送信する(ステップS203)。アクセスが失敗したときには、ユーザ端末5に対して警告メッセージを送信する。一方、情報管理コンピュータ3においては、情報蓄積サーバ6から受信した発信スケジュールを配信情報記憶部36に取り込み、更に、その情報管理コンピュータ3が管理しているロボット1に対して発信スケジュールを配信する(ステップS204)。このとき、発信スケジュールの配信先となるロボット1は、1台であってもよいし、複数台あってもよい。複数台の適用例としては、デパートなどの各階にそれぞれロボット1を1台ずつ配置しておいて、各階のロボット1に同じ動作をさせるために、同じ発信スケジュールを配信することが考えられる。
ステップS205乃至S207は、発信スケジュールに基づいて定期情報を取得、変換して、ロボット1に配信する処理である。まず、情報蓄積サーバ6の発信スケジュール管理部61は、ユーザ別発信スケジュール記憶部62に記憶されている発信スケジュールの情報取得時刻を所定の時間ごとに参照し、そのときの時刻に一致するものがあれば、その情報元URLにアクセスして、該当する情報提供サーバ7の定期情報記憶部71から定期情報を取得する(ステップS205)。そして、その取得した定期情報を情報管理コンピュータ3に送信する。情報管理コンピュータ3は、その受信した定期情報を配信情報記憶部36に記憶する。次に、配信情報管理部33は、その記憶した定期情報を発話データ及び身振りデータに変換し(ステップS206)、その変換した発話データ及び身振りデータをそれぞれ発話データ記憶部32及び身振りデータ記憶部35に記憶する。この変換の詳細は後記する。更に、その記憶した発話データ及び身振りデータ(変換された定期情報)をロボット1に配信する(ステップS207)。ロボット1では、受信した発話データを音声認識発話部11が保持し、同じく受信した身振りデータを発信スケジュール実行部12が保持する。
ステップS208は、ロボット1が、発信スケジュールに基づいて定期情報を発信すると共に、移動ルートデータに基づいて移動する処理である。最初に、発信スケジュール実行部12は、情報管理コンピュータ3から受信した発信スケジュールの情報発信時刻を所定の時間ごとに参照し、そのときの時刻に一致するものがあれば、その情報種別に対応する発話データ及び身振りデータを再生するための処理を行う。発話データの再生のために、音声認識発話部11に対して発話コマンドを発行する。音声認識発話部11は、その発話コマンドを受けて、保持している発話データのうち、情報種別に対応する発話データを再生し、付設されたスピーカによって音声発話を行う。一方、発信スケジュール実行部12は、身振りデータの再生のために、保持している身振りデータのうち、情報種別に対応する身振りデータからアクションコマンドを生成し、その生成したアクションコマンドを運動制御部14に発行する。運動制御部14は、そのアクションコマンドを受けて、所定の指示を運動機構部15に発行する。運動機構部15は、その指示を受けて、首や腕などの可動部分を動かす。ここで、発話データ及び身振りデータは、必ずしもロボット1がそのとき保持していなくてもよく、情報管理コンピュータ3の発話データ記憶部32及び身振りデータ記憶部35に記憶されたデータを取り込んで再生してもよい。
また、発信スケジュール実行部12は、外部からの移動命令(音声による命令や情報管理コンピュータ3からの命令など)に基づいて、移動計画部13に対して移動開始コマンドを発行する。移動計画部13は、その移動開始コマンドをトリガにして、運動制御部14に移動指示を行う。その移動指示は、情報管理コンピュータ3から受信した移動ルートデータによる移動先の位置情報と、運動制御部14から受信した現在の位置情報とに基づいて行う。運動制御部14は、その移動指示に応じて、運動機構部15に移動動作の詳細な指示を行う。運動機構部15が、その指示に従って脚を動かすことによって、ロボット1は移動先に向かって移動する。
以下、特に、発信スケジュールの設定(ステップS201)及び定期情報の変換(ステップS206)について詳細に説明する。
<発信スケジュールの設定>
図4乃至図7を参照して、発信スケジュールの設定(図3のステップS201)について説明する(適宜図2参照)。図4乃至図7は、それぞれ発信スケジュール設定画面G1乃至G4(以下、簡単に「画面G1」、「画面G2」などという)に対応する。これらの画面は、ユーザ端末5のディスプレイ上に表示されるものとする。まず、ユーザは、図4の画面G1を使って、自身が管理しているロボット1が発信する情報に関して、その情報の種別、ロボット1がその情報を発信する時刻及び情報提供サーバ7からその情報を取得する時刻を設定する。その設定する情報は、それぞれ画面G1の情報種別、情報発信時刻及び情報取得時刻に対応している。情報種別には、ローカルトピックス(ユーザ独自の広告情報など)やニュース、天気予報などがあり、その情報種別名の左側に表示されているボックスをマウスなどのポインティングデバイスでクリックする(以下、簡単に「クリックする」という)ことによって、選択できるようになっている。そして、選択した情報種別の情報発信時刻及び情報取得時刻が指定できるようになる。情報発信時刻は、「8時」「9時」などの時刻に対応するボックスをクリックすることによって、複数の選択ができるようになっている。また、情報取得時刻は、情報発信時刻の何分前に情報を取得するかを入力するようになっている。例えば、画面G1のローカルトピックスは、情報発信時刻が9時、10時、・・・と指定されていて、情報取得時刻は、「15」分前と入力されているので、実際の情報取得時刻は、8時45分、9時45分、・・・になる。なお、画面G1が表示される前に、ユーザログイン画面(図示せず)があり、そのときユーザが入力するユーザID(IDentification)やパスワードによって、画面G1で設定する情報種別、情報発信時刻及び情報取得時刻に対応するユーザが特定されるものとする。これによって、情報蓄積サーバ6のユーザ別発信スケジュール記憶部62には、発信スケジュールの情報として、ユーザ、情報種別、情報発信時刻及び情報取得時刻の組み合わせが記憶されることになる。また、画面G1では、情報発信時刻として8時乃至18時が選択できるようになっているが、1時乃至24時が選択できるようにしてもよいし、分や秒まで指定できるようにしてもよい。
ここで、画面G1の内容設定ボタンB1をクリックすると、図5の画面G2が表示される。この画面G2は、情報種別として日本の天気予報を選択したときに、天気予報の対象となる地域及び情報の内容を設定するものである。画面G2では、例えば、「札幌」の「今日の天気」及び「明日の天気」などが設定されている。閉じるボタンB7をクリックすると、設定された内容が有効になると共に、図4の画面G1に戻る。
最新情報一覧ボタンB2をクリックすると、図6の画面G3が表示される。この画面G3は、画面G1で選択した情報種別の最新情報の内容を表示するのであり、ユーザは、その内容を確認することによって、最終的にその情報種別を選択するか否かを改めて検討することができる。閉じるボタンB8をクリックすると、図4の画面G1に戻る。
発信スケジュール確定ボタンB3をクリックすると、画面G1で設定した発信スケジュールの情報が有効になり、情報蓄積サーバ6のユーザ別発信スケジュール記憶部62に記憶された後、更に、情報管理コンピュータ3の配信情報記憶部36にロードされる。自動ロード開始ボタンB4をクリックすると、発信スケジュールの情報が情報蓄積サーバ6のユーザ別発信スケジュール記憶部62に記憶されるまでは、発信スケジュール確定ボタンB3をクリックしたときと同じであるが、情報管理コンピュータ3の配信情報記憶部36へのロードがすぐに行われるわけではなく、ネットワーク8(図1参照)の混み具合などを監視しながら自動的に行われる。なお、発信スケジュール確定ボタンB3又は自動ロード開始ボタンB4をクリックしたときには、画面G1は閉じられて、発信スケジュール設定画面を表示する前の画面に戻る。
情報元URL設定ボタンB5をクリックすると、図7の画面G4が表示される。この画面G4は、情報種別ごとに情報提供元になるURLの設定内容が表示されると共に、そのURLの設定を変更することができるものである。また、各URLの右側に表示されているURL参照用ボタンをクリックすると、そのURLに格納されている情報を、“http”(Hyper Text Transfer Protocol)や“ftp”(File Transfer Protocol)などの通信プロトコルに従って受信し、表示することができる。これによって、ユーザは、設定したURLが正しいことを確認することができると共に、その最新情報の内容をチェックすることができる。閉じるボタンB9をクリックすると、設定された内容が有効になると共に、図4の画面G1に戻る。
選択リセットボタンB6をクリックすると、情報種別、情報発信時刻及び情報取得時刻の設定内容がクリアされる。発信スケジュールを最初から設定し直したいときに、便利なボタンである。
<定期情報の変換>
図8のフローチャートを参照して、定期情報の変換(図3のステップS206)について説明する(適宜図2参照)。この定期情報の変換は、情報提供サーバ7から取得した定期情報をロボット1が再生できる発話データや身振りデータに変換するものであり、主として情報管理コンピュータ3の配信情報管理部33によって実施される。まず、配信情報管理部33は、配信情報記憶部36から定期情報を入力する(ステップS301)。ここで、この定期情報は、情報種別と、情報の内容とを示すテキスト情報から成るものする。次に、その入力した定期情報のうち、情報の内容を示すテキスト情報に対して構文解析を行う(ステップS302)。構文解析とは、文を単語に分解し、その単語の品詞を特定する処理である。続いて、その構文解析の結果を用いて、発話データに変換する(ステップS303)。発話データへの変換には、いろいろな変換規則を定義したテーブルを用いる。例えば、助動詞である「・・・だ。」や「・・・である。」を「・・・です。」や「・・・ます。」に変換する。これは、書き言葉の常体表現を話し言葉の敬体表現に変換するものである。また、名詞などから、放送禁止用語や公序良俗に反する言葉を抽出し、それを削除したり、柔らかい表現に変更したりする。また、単調な音声にならないように、適切な抑揚や間を生成し、自然な発話データとして加工する。なお、こういった書き言葉から話し言葉への変換技術については、特開2002−149180号公報に開示されている。このようにして、情報の内容を示すテキスト情報が変換されて、発話データが生成され(ステップS304)、対応する情報種別と共に、発話データ記憶部32に記憶される。なお、ユーザは、発話確認部31によって、発話データ記憶部32に記憶された発話データの内容、抑揚、間などの確認や調整を事前に行うことができる。
次に、情報の内容を示すテキスト情報から情報種別を抽出する(ステップS305)。前記のように、ステップS301で入力した定期情報に、情報種別を示すテキスト情報が含まれていれば、この処理は不要になるが、含まれていなければ、情報の内容を示すテキスト情報から情報種別を抽出する必要がある。例えば、「ニュース」や「天気予報」といった情報種別名そのものがあればよいし、なければ、その情報種別名の曖昧検索(ワイルドカード検索)などを行うことによって情報種別を抽出する。そして、図9に構成例を示す身振り変換テーブルを参照して、その抽出した情報種別に属する単語を検索する(ステップS306)。このときも、その単語の曖昧検索を行ってもよい。図9によれば、情報種別が天気予報であるとき、例えば、「快晴」という単語が情報の内容を示すテキスト情報の中にあれば、身振りは「ばんざい」になる。ただし、ステップS302の構文解析の結果から、「快晴」を含む文の語尾が否定形であった場合、例えば、「快晴にはなりません。」という文脈であった場合は、「快晴」という単語があっても、「ばんざい」の身振りはしない。「快晴」、「晴れ」、「曇り」、「雨」及び「雪」という単語がなければ、身振りは「うなずき」になる。このようにして、「ばんざい」や「うなずき」などの身振りデータが生成され(ステップS307)、対応する情報種別と共に、身振りデータ記憶部35に記憶される。
≪第2の実施の形態≫
次に、本発明の第2の実施の形態を説明する。第2の実施の形態は、ロボット移動中の人からの問いかけに応対する自律移動ロボットシステムの例である。なお、前記第1の実施の形態と重複する説明は省略する。特に、システム構成は、前記第1の実施の形態と同様であるので、図1、図2をそのまま適宜参照するものとする。
図10のフローチャートを参照して、本発明の第2の実施の形態に係るロボットが移動中に問いかけられた場合の動作を説明する(適宜図2参照)。まず、ロボット1は、移動を開始すると、音声認識発話部11が付設のマイクによって所定の時間(例えば、1秒)ごとに音声入力があるか否かをチェックする(ステップS401)。音声入力がなければ(ステップS401のNo)、そのチェックを繰り返しながら、所定の移動先に到達するまで移動を続ける。音声入力があれば、すなわち、問いかけ者があれば(ステップS401のYes)、ロボット1は移動を停止する(ステップS402)。そして、入力した音声のデータ解析を行う(ステップS403)。このデータ解析においては、まず、入力した音声を音声認識技術によって、テキスト情報(コード情報)に変換する。そして、図8のステップS302と同様に、その変換されたテキスト情報の構文解析を行う。次に、その構文解析の結果を元にして、名詞などの単語から情報種別の抽出を行う(ステップS404)。これは、図8のステップS305と同様に行う。音声認識発話部11は、その抽出した情報種別名を付設のスピーカで発話することによって、問いかけ者が意図する情報種別であるか否かの問い合わせ確認を行う(ステップS405)。
これに対して、問いかけ者から了承の返事があれば(ステップS406のYes)、その情報種別に対応する発話データ及び身振りデータがあるか否かをチェックする(ステップS407)。発話データについては、音声認識発話部11に保持しているか否か、及び、発話データ記憶部32に記憶しているか否かをチェックする。また、身振りデータについては、発信スケジュール実行部12に保持しているか否か、及び、身振りデータ記憶部35に記憶しているか否かをチェックする。情報種別に対応する発話データ及び身振りデータがなければ(ステップS407のNo)、情報蓄積サーバ6の発信スケジュール管理部61を介して、情報提供サーバ7から情報種別に対応する定期情報を取得し、発話データ及び身振りデータを生成する(ステップS408)。このときの動作は、前記第1の実施の形態におけるシステム全体の動作概要及び定期情報の変換において説明したので、ここではその詳細説明を割愛する。情報種別に対応する発話データ及び身振りデータがあれば(ステップS407のYes)、ステップS408の処理をスキップする。そして、その生成した発話データ及び身振りデータを再生する(ステップS409)。このときの動作は、前記システム全体の動作概要において説明したので、ここではその詳細説明を割愛する。これによって、問いかけ者に対して応答したことになり、ロボット1は、所定の移動先への移動を再開する(ステップS410)。
ステップS406において、了承の返事がなければ(ステップS406のNo)、情報種別の抽出処理が終了しているか否かをチェックする(ステップS411)。抽出処理が終了していなければ(ステップS411のNo)、再び情報種別の抽出を続行する(ステップS404)。抽出処理が終了していれば(ステップS411のYes)、これ以上情報種別を抽出すべきテキスト情報はなく、既に抽出した情報種別については問いかけ者の了承が得られなかったということになる。従って、問いかけ者に対して応答できない旨をメッセージを出力する(ステップS412)。そして、ロボット1は、所定の移動先への移動を再開する(ステップS410)。
以上本発明の実施の形態について説明したが、図2に示す各部で実行されるプログラムをコンピュータによる読み取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本発明の実施の形態に係る自律移動ロボットシステムが実現されるものとする。ここでいうコンピュータシステムとは、OS(Operating System)などのソフトウエアや周辺機器などのハードウエアを含むものである。
≪その他の実施の形態≫
以上本発明について好適な実施の形態について一例を示したが、本発明は前記実施の形態に限定されず、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。例えば、以下のような実施の形態が考えられる。
(1)情報提供サーバ7から入力されて、ロボット1から発信される情報を「定期情報」と記載したが、定期的に更新される情報に限定されるものではない。例えば、災害情報などの緊急情報や年中行事に関する情報などのように発生頻度が低い情報であってもよい。
(2)発信スケジュール設定画面51や移動ルート設定画面52をユーザ端末5に表示するように記載したが、それらの画面を情報管理コンピュータ3のディスプレイに表示してもよい。
(3)情報発信時刻にロボット1がいる場所に人がいないときには、情報の発信の動作を行わずに、次の移動先への移動を行うようにしてもよい。なお、人の存在を判断する技術については、前記特許文献1である特開2003−50559号公報に開示されている。
(4)前記実施の形態では、ロボット1の発信スケジュール及び移動ルートは独立して設定され、別々に実行されるように記載したが、発信スケジュールと移動ルートとを連携させるようにしてもよい。移動先に名前を付与することによって、例えば、「玩具売り場」では情報種別が「子供向け」の情報を発信し、「ロビー」では情報種別が「ニュース」の情報を発信すること、すなわち、移動先に応じた情報を発信することが考えられる。また、情報発信時刻になったときに、ロボット1が移動中であれば停止させてから、情報の発信を行わせることが考えられる。
本発明の第1の実施の形態に係る自律移動ロボットシステムのネットワーク構成を示す図である。 本発明の第1の実施の形態に係る自律移動ロボットシステムの機能ブロック構成を示す図である。 本発明の第1の実施の形態に係る自律移動ロボットシステム全体の動作概要を示すフローチャートである。 本発明の第1の実施の形態に係る発信スケジュール設定画面(G1)を示す図である。 本発明の第1の実施の形態に係る発信スケジュール設定画面(G2)を示す図である。 本発明の第1の実施の形態に係る発信スケジュール設定画面(G3)を示す図である。 本発明の第1の実施の形態に係る発信スケジュール設定画面(G4)を示す図である。 本発明の第1の実施の形態に係る定期情報の変換の動作を示すフローチャートである。 本発明の第1の実施の形態に係る身振り変換テーブルの構成例を示す図である。 本発明の第2の実施の形態に係るロボットが移動中に問いかけられた場合の動作を示すフローチャートである。
符号の説明
1 ロボット
2 基地局
3 情報管理コンピュータ(情報管理手段)
4 ロボット専用ネットワーク
5 ユーザ端末(スケジュール情報設定手段)
6 情報蓄積サーバ(情報蓄積手段)
7 情報提供サーバ(情報提供手段)
8 ネットワーク

Claims (7)

  1. 情報蓄積手段、情報管理手段及びロボットから構成され、そのロボットが所定の領域を自律的に移動しながら情報の発信を行う自律移動ロボットシステムであって、
    前記情報蓄積手段は、予め設定されたスケジュール情報に従って、又は、前記ロボットからの要求に応じて、情報提供手段から少なくとも文字情報を含む最新の情報を取得し、
    前記情報管理手段は、単語群を前記ロボットの動作を規定する動作データに変換する規則を定義したテーブルと、前記情報蓄積手段から前記最新の情報を取得し、その取得した情報を解析し、その解析した結果に基づいて前記テーブルに従って動作データを生成する情報変換手段とを有し、
    前記ロボットは、前記情報管理手段から前記動作データを取得し、その取得した動作データに応じて動作することによって、人に対して情報の発信を行う
    ことを特徴とする自律移動ロボットシステム。
  2. 前記テーブルは、単語群を発話データに変換する規則を定義した発話データ変換テーブルを含み、
    前記情報変換手段は、その発話データ変換テーブルに従って、前記解析した結果に基づいて発話データを生成し、
    前記ロボットは、前記情報管理手段から前記発話データを取得し、その取得した発話データに応じて発話する
    ことを特徴とする請求項1に記載の自律移動ロボットシステム。
  3. 前記テーブルは、単語群を身振りデータに変換する規則を定義した身振りデータ変換テーブルを含み、
    前記情報変換手段は、その身振りデータ変換テーブルに従って、前記解析した結果に基づいて身振りデータを生成し、
    前記ロボットは、前記情報管理手段から前記身振りデータを取得し、その取得した身振りデータに応じて身振りを行う
    ことを特徴とする請求項2に記載の自律移動ロボットシステム。
  4. 前記自律移動ロボットシステムは、ユーザが前記スケジュール情報を予め設定可能なスケジュール情報設定手段を有し、
    前記スケジュール情報は、前記情報提供手段から前記最新の情報を取得する時刻を示す情報取得時刻情報、及び、その情報に含まれる文字情報の種別を示す情報種別情報を含み、
    前記情報蓄積手段は、前記スケジュール情報設定手段から前記スケジュール情報を取得し、その取得したスケジュール情報を記憶するスケジュール情報記憶手段と、その記憶したスケジュール情報を参照し、前記情報取得時刻情報が示す時刻に前記情報種別情報が示す文字情報の種別に対応する情報提供手段から前記最新の情報を取得する情報取得手段とを有する
    ことを特徴とする請求項1乃至請求項3のいずれか一項に記載の自律移動ロボットシステム。
  5. 前記スケジュール情報は、人に対して情報を発信する時刻を示す情報発信時刻情報を含み、
    前記ロボットは、前記情報蓄積手段から前記スケジュール情報を取得し、その取得したスケジュール情報を参照し、前記情報発信時刻情報が示す時刻に動作の指示を行う動作指示手段と、前記動作指示手段の指示により前記情報種別情報が示す文字情報の種別に対応する動作データに応じた動作を実行する動作実行手段とを有する
    ことを特徴とする請求項4に記載の自律移動ロボットシステム。
  6. 前記ロボットは、音声を検出した場合、その検出した音声を文字情報に変換し、その変換した文字情報を構文解析し、その構文解析した結果である単語群に対して情報種別名の検索を行うことによりその単語群から情報種別を抽出する情報種別抽出手段と、その抽出した情報種別に対応する前記発話データに応じた発話を実行する発話実行手段とを有することを特徴とする請求項2又は請求項3に記載の自律移動ロボットシステム。
  7. 前記情報変換手段は、前記抽出した情報種別に対応する前記発話データが前記ロボット及び前記情報管理手段のいずれにもないとき、前記情報種別に対応する情報提供手段から前記最新の情報を取得し、その取得した情報を解析し、その解析した結果に基づいて前記発話データ変換テーブルに従って前記発話データを生成することを特徴とする請求項6に記載の自律移動ロボットシステム。
JP2003329283A 2003-09-22 2003-09-22 自律移動ロボットシステム Pending JP2005088179A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003329283A JP2005088179A (ja) 2003-09-22 2003-09-22 自律移動ロボットシステム
US10/917,322 US7467026B2 (en) 2003-09-22 2004-08-13 Autonomously moving robot management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003329283A JP2005088179A (ja) 2003-09-22 2003-09-22 自律移動ロボットシステム

Publications (1)

Publication Number Publication Date
JP2005088179A true JP2005088179A (ja) 2005-04-07

Family

ID=34308853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003329283A Pending JP2005088179A (ja) 2003-09-22 2003-09-22 自律移動ロボットシステム

Country Status (2)

Country Link
US (1) US7467026B2 (ja)
JP (1) JP2005088179A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249427A (ja) * 2006-03-14 2007-09-27 Honda Motor Co Ltd 情報管理システム
JP2008279529A (ja) * 2007-05-09 2008-11-20 Honda Motor Co Ltd 移動型ロボット
JP2010134537A (ja) * 2008-12-02 2010-06-17 Murata Machinery Ltd 搬送台車システム及び搬送台車への走行経路の指示方法
JP2010206646A (ja) * 2009-03-04 2010-09-16 Panasonic Electric Works Co Ltd 設備システム
JP2014085747A (ja) * 2012-10-22 2014-05-12 Hochiki Corp 防災警報システム

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7663333B2 (en) 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
ATE536577T1 (de) 2004-06-24 2011-12-15 Irobot Corp Fernbediente ablaufsteuerung und verfahren für eine autonome robotervorrichtung
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
KR100757906B1 (ko) * 2004-11-26 2007-09-11 한국전자통신연구원 네트워크 기반 로봇 시스템 및 그 실행 방법
US7627538B2 (en) * 2004-12-07 2009-12-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Swarm autonomic agents with self-destruct capability
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
DE602006014364D1 (de) 2005-02-18 2010-07-01 Irobot Corp Autonomer oberflächenreinigungsroboter für nass- und trockenreinigung
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
US7456596B2 (en) * 2005-08-19 2008-11-25 Cisco Technology, Inc. Automatic radio site survey using a robot
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
ES2706729T3 (es) 2005-12-02 2019-04-01 Irobot Corp Sistema de robot
EP2466411B1 (en) 2005-12-02 2018-10-17 iRobot Corporation Robot system
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
US7441298B2 (en) 2005-12-02 2008-10-28 Irobot Corporation Coverage robot mobility
ATE442619T1 (de) 2005-12-02 2009-09-15 Irobot Corp Modularer roboter
JP2007160440A (ja) * 2005-12-12 2007-06-28 Honda Motor Co Ltd 脚式移動ロボットの制御装置
US20090044370A1 (en) 2006-05-19 2009-02-19 Irobot Corporation Removing debris from cleaning robots
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
CN101631651B (zh) * 2007-01-12 2013-07-24 汉斯乔格·巴尔特斯 用于产生机器人的方法和***
KR101529848B1 (ko) 2007-05-09 2015-06-17 아이로보트 코퍼레이션 표면 처리 로봇
US20090248200A1 (en) * 2007-10-22 2009-10-01 North End Technologies Method & apparatus for remotely operating a robotic device linked to a communications network
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
KR101308013B1 (ko) * 2009-12-08 2013-09-12 한국전자통신연구원 정책기반 다수의 로봇 관리장치 및 그 방법
JP5647269B2 (ja) 2010-02-16 2014-12-24 アイロボット コーポレイション 掃除機ブラシ
US8510343B2 (en) * 2010-06-11 2013-08-13 Microsoft Corporation Cogeneration of database applications and their databases
US20120278178A1 (en) * 2011-04-29 2012-11-01 Hei Tao Fung Method for Delivering Highly Relevant Advertisements in a Friendly Way through Personal Robots
KR20130096539A (ko) * 2012-02-22 2013-08-30 한국전자통신연구원 자율 이동장치 및 그 제어 방법
US9044863B2 (en) 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
CN108885436B (zh) 2016-01-15 2021-12-14 美国iRobot公司 自主监视机器人***
US9757859B1 (en) 2016-01-21 2017-09-12 X Development Llc Tooltip stabilization
US9744665B1 (en) 2016-01-27 2017-08-29 X Development Llc Optimization of observer robot locations
US10059003B1 (en) 2016-01-28 2018-08-28 X Development Llc Multi-resolution localization system
CN106125925B (zh) * 2016-06-20 2019-05-14 华南理工大学 基于手势和语音控制的智能抓捕方法
CN106095109B (zh) * 2016-06-20 2019-05-14 华南理工大学 基于手势和语音进行机器人在线示教的方法
US10987804B2 (en) * 2016-10-19 2021-04-27 Fuji Xerox Co., Ltd. Robot device and non-transitory computer readable medium
US10265844B2 (en) * 2017-03-24 2019-04-23 International Business Machines Corporation Creating assembly plans based on triggering events
US11221497B2 (en) 2017-06-05 2022-01-11 Steelcase Inc. Multiple-polarization cloaking
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
US11106124B2 (en) 2018-02-27 2021-08-31 Steelcase Inc. Multiple-polarization cloaking for projected and writing surface view screens
US10740572B2 (en) * 2018-05-02 2020-08-11 International Business Machines Corporation Using robot plans as parallel linguistic corpora
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
CN110187644B (zh) * 2019-05-30 2021-01-26 日立楼宇技术(广州)有限公司 楼宇控制方法、装置、设备、***和存储介质
US11416002B1 (en) * 2019-06-11 2022-08-16 Ambarella International Lp Robotic vacuum with mobile security function
KR20230063129A (ko) * 2021-11-01 2023-05-09 (주)뉴빌리티 무인 이동체에서의 광고 제공 방법 및 시스템

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5455497A (en) 1992-04-20 1995-10-03 Honda Giken Kogyo Kabushiki Kaisha Legged mobile robot and a system for controlling the same
JP4636673B2 (ja) 2000-11-16 2011-02-23 パナソニック株式会社 音声合成装置および音声合成方法
JP4642287B2 (ja) 2001-08-07 2011-03-02 本田技研工業株式会社 自律移動ロボット
JP2005515903A (ja) * 2001-11-28 2005-06-02 エヴォリューション ロボティクス インコーポレイテッド ロボット用センサおよびアクチュエータのハードウェア抽象化層内における抽象化および集合化

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249427A (ja) * 2006-03-14 2007-09-27 Honda Motor Co Ltd 情報管理システム
JP2008279529A (ja) * 2007-05-09 2008-11-20 Honda Motor Co Ltd 移動型ロボット
JP2010134537A (ja) * 2008-12-02 2010-06-17 Murata Machinery Ltd 搬送台車システム及び搬送台車への走行経路の指示方法
JP2010206646A (ja) * 2009-03-04 2010-09-16 Panasonic Electric Works Co Ltd 設備システム
JP2014085747A (ja) * 2012-10-22 2014-05-12 Hochiki Corp 防災警報システム

Also Published As

Publication number Publication date
US20050065652A1 (en) 2005-03-24
US7467026B2 (en) 2008-12-16

Similar Documents

Publication Publication Date Title
JP2005088179A (ja) 自律移動ロボットシステム
JP4629560B2 (ja) 対話型情報システム
JP7317529B2 (ja) サウンドデータを処理するシステム、及びシステムの制御方法
RU2637874C2 (ru) Генерирование диалоговых рекомендаций для чатовых информационных систем
CN100478923C (zh) 用于并行多模通信会话持续的***和方法
KR100561228B1 (ko) 보이스엑스엠엘 문서를 엑스에이치티엠엘플러스보이스문서로 변환하기 위한 방법 및 이를 이용한 멀티모달서비스 시스템
JP6767046B2 (ja) 音声対話システム、音声対話装置、ユーザー端末、および音声対話方法
CN102439661A (zh) 用于车辆内自动交互的面向服务语音识别
CN111095892B (zh) 电子装置及其控制方法
KR101640024B1 (ko) 사용자의 상황에 기반한 휴대용 통역 장치 및 방법
CN101297355A (zh) 响应自然语言语音口头表达的***和方法
CN101291336A (zh) 用于并行多模通信的***和方法
JP2003271597A (ja) 無線デバイス用の広く普及した言語翻訳のシステムおよび方法
US20110125486A1 (en) Self-configuring language translation device
JP6154489B2 (ja) ユーザのデータ入力に応じて情報提供を行うための端末装置、プログラム、およびサーバ装置
JP2005500591A (ja) 情報処理装置及びその方法、プログラム
CN108806688A (zh) 智能电视的语音控制方法、智能电视、***及存储介质
KR20080052279A (ko) 실생활 정보제공 대화형 tv 에이전트 서비스 방법 및장치
US11216497B2 (en) Method for processing language information and electronic device therefor
JP2021022928A (ja) 人工知能基盤の自動応答方法およびシステム
CN105955967A (zh) 数据处理方法及装置
JP6689953B2 (ja) 通訳サービスシステム、通訳サービス方法及び通訳サービスプログラム
US20220230640A1 (en) Apparatus for adaptive conversation
KR102260377B1 (ko) 사용자 등급에 최적화된 영어 단어장 생성 방법
CN113742473A (zh) 一种数字虚拟人交互***及其计算传输优化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090501