JP6681800B2 - 制御装置、制御システム、および制御方法 - Google Patents

制御装置、制御システム、および制御方法 Download PDF

Info

Publication number
JP6681800B2
JP6681800B2 JP2016140185A JP2016140185A JP6681800B2 JP 6681800 B2 JP6681800 B2 JP 6681800B2 JP 2016140185 A JP2016140185 A JP 2016140185A JP 2016140185 A JP2016140185 A JP 2016140185A JP 6681800 B2 JP6681800 B2 JP 6681800B2
Authority
JP
Japan
Prior art keywords
data
image
data acquisition
acquisition device
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016140185A
Other languages
English (en)
Other versions
JP2018008358A (ja
Inventor
貴志 住吉
貴志 住吉
義崇 平松
義崇 平松
真人 戸上
真人 戸上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016140185A priority Critical patent/JP6681800B2/ja
Priority to EP17179639.4A priority patent/EP3279754A1/en
Priority to US15/648,568 priority patent/US10339381B2/en
Priority to CN201710569506.8A priority patent/CN107618036B/zh
Publication of JP2018008358A publication Critical patent/JP2018008358A/ja
Application granted granted Critical
Publication of JP6681800B2 publication Critical patent/JP6681800B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0423Input/output
    • G05B19/0425Safety, monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Toys (AREA)

Description

本発明は、データ取得装置群を制御する制御装置、制御システム、および制御方法に関する。
近年、人間と同じ空間において移動しながら様々なサービスを提供するサービスロボットが広く開発されている。そのようなロボットの中には、人間に近い容姿で、音声やジェスチャによりコミュニケーションを行うことで利用者の意図に沿ったサービスを行うロボットがある。利用者の意図をロボットが正確に把握するためには、利用者が発する音声やジェスチャのみならず、利用者やロボットが置かれている状況や、過去に起こった事柄を把握する必要がある。
例えば、特許文献1は、利用者やロボットの位置や向きを公知のモーションキャプチャシステムおよび赤外線反射マーカにより検出し、対話が行えるような位置関係(陣形)に移動したのち、会話を開始するというロボットを開示する。対話が行える位置関係の定義として、利用者とロボットの視界、視野、距離等の条件が何通りか具体的に提示されている。
また、例えば、特許文献2は、サービス対象者を判別する方法を開示する。特許文献2は、行動認識センサによりサービス対象候補者を選び、ロボットにより確認動作を行うことで、高精度なサービスを実現する。
また、例えば、特許文献3は、ロボットが存在する環境を1つ以上の手段で認識した結果に基づきターゲット(物体)を検出し、ターゲットに関する情報を保持する方法を開示する。
また、例えば特許文献4は、環境内に設置した各種観測装置で取得した対話対象(利用者)の行動履歴にもとづきロボットの対話相手および行動を決定することで、展示会場での展示対象物の案内や推薦を行うロボットを開示する。
特開2012−161851号公報 特開2008−142876号公報 WO2003/035334号公報 特開2005−131713号公報
一般にサービスロボットには、案内、客寄せ、販売支援、巡回監視などの複数種類のサービスを提供することが求められる。提供すべきサービスは、ロボットの導入者により予め指定されることなく、状況に応じて適切に選択され、提供されなければならない。その際、環境をセンシングすることで得られた情報や、利用者に関する情報、過去の応対履歴情報などをデータベースとして保存し、サービス間で共有することが望まれる。
さらに、サービスの種類は将来にわたり拡張可能であることが強く望まれる。サービスで共通する機能は、サービス開発者が容易に使用可能なソフトウェアライブラリなどの形式で提供されるべきである。前述した特許文献1、特許文献2、特許文献3、特許文献4はいずれも、複数種類のサービス提供に適したデータベースシステムの形式を規定していない。
本発明は、複数種類のサービス提供に適したデータベースシステムを構築し提供することを目的とする。
本願において開示される発明の一側面となる制御システムは、空間内に存在する対象物の位置および画像を取得可能な1以上のデータ取得装置を含むデータ取得装置群と、前記データ取得装置群を制御して、前記空間内または前記対象物に対する複数の異なる処理を実行する制御装置と、を有する制御システムであって、前記データ取得装置群は、前記対象物の位置、画像および前記対象物からの音声を取得可能な特定のデータ取得装置を含み、前記制御装置は、前記複数の異なる処理に関するプログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記データ取得装置群および端末と通信可能な通信インタフェースと、を有し、前記記憶デバイスは、前記プロセッサが前記複数の異なる処理のうちいずれか1つの処理を実行したことにより、前記データ取得装置が第1対象物を検出してからの第1対象物の一連の位置および画像を示す時系列データを第1対象物に関するデータとして記憶しており、前記プロセッサは、前記複数の異なる処理の各々の処理で、前記データ取得装置が第2対象物を検出してからの前記第2対象物の一連の位置および画像を示す時系列データを第2対象物に関するデータとして前記データ取得装置から取得する取得処理と、前記記憶デバイスに記憶されている前記第1対象物に関するデータ内の前記第1対象物の画像と、前記取得処理によって取得された第2対象物に関するデータ内の前記第2対象物の画像と、に基づいて、前記第1対象物と前記第2対象物との同一性を判定する判定処理と、前記判定処理によって同一性ありと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けずに前記記憶デバイスに格納する格納処理と、を実行し、前記記憶デバイスは、前記プロセッサが前記いずれか1つの処理を実行したことにより、前記特定のデータ取得装置が第3対象物を検出してからの第3対象物の一連の位置、画像、および前記第3対象物からの音声を示す時系列データを第3対象物に関するデータとして記憶し、前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、前記取得処理において、前記特定のデータ取得装置が第4対象物を検出してからの前記第4対象物の一連の位置、画像および前記第4対象物からの音声を示す時系列データを第4対象物に関するデータとして前記特定のデータ取得装置から取得し、前記判定処理において、前記記憶デバイスに記憶されている前記第3対象物に関するデータ内の前記第3対象物の画像と、前記取得処理によって取得された第4対象物に関するデータ内の前記第4対象物の画像と、に基づいて、前記第3対象物と前記第4対象物との同一性を判定し、前記格納処理において、前記判定処理によって同一性ありと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けずに前記記憶デバイスに格納し、前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、前記第4対象物の画像の特徴に基づいて、前記第4対象物が人物であるか否かを認識する認識処理を実行し、前記認識処理によって前記第4対象物が人物であると認識された場合、前記判定処理を実行し、前記取得処理において、前記特定のデータ取得装置が前記第4対象物から所定距離以内に存在する第5対象物を検出してからの前記第5対象物の一連の位置、画像および前記第5対象物からの音声を示す時系列データを第5対象物に関するデータとして前記特定のデータ取得装置から取得し、前記認識処理において、前記第5対象物の画像の特徴に基づいて、前記第5対象物が人物であるか否かを認識し、前記第5対象物が前記第4対象物から前記所定距離以内に存在する時間帯における前記第4対象物に関するデータを、前記第5対象物の端末に送信する送信処理を実行することを特徴とする。
本発明の代表的な実施の形態によれば、複数の異なる処理で連携しながらどの対象物がいつどこに存在するかを特定することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
図1は、本実施例にかかる制御システムの利用例を示す説明図である。 図2は、制御システムのハードウェア構成例を示すブロック図である。 図3は、制御装置のハードウェア構成例を示すブロック図である。 図4は、ロボットのハードウェア構成例を示すブロック図である。 図5は、実世界DBおよび時系列DBの記憶内容例を示す説明図である。 図6は、人物像検出・認識プログラムによる人物像検出・認識処理手順例を示すフローチャートである。 図7は、音声検出・認識プログラムによる音声検出・認識処理手順例を示すフローチャートである。 図8は、人物同定プログラムによる人物同定処理手順例を示すフローチャートである。 図9は、物販支援における実世界DBおよび時系列DBの更新例を示す説明図である。 図10は、案内における実世界DBおよび時系列DBの更新例を示す説明図である。 図11は、案内における実世界DBおよび時系列DBの更新例を示す説明図である。
<制御システムの利用例>
図1は、本実施例にかかる制御システムの利用例を示す説明図である。空間1は、たとえば、商業施設のように、人物Hが出入口2から入退場して、人物Hが商品を購入したり、サービスの提供を受けたりする空間である。空間1は、制御装置10により制御される。制御装置10は、空間1に設けられたデータ処理装置を制御する。データ処理装置には、移動式のデータ処理装置と、固定式のデータ処理装置と、がある。
移動式のデータ処理装置は、空間1内を移動するデータ処理装置である。移動式のデータ処理装置は、たとえば、自律的に移動し、制御装置10と通信するロボット20である。ロボット20は、制御装置10の制御により、空間1内の音声や画像を取得して制御装置10に送信し、人物Hに必要な音声や画像を制御装置10から受信して出力するデータ処理装置である。ロボット20は、車輪により走行してもよく、複数の脚により歩行または走行してもよい。また、ロボット20は、ドローンのように空間1内を飛行するデータ処理装置でもよい。
固定式のデータ処理装置は、空間1内で固定されたデータ処理装置である。固定式のデータ処理装置は、たとえば、環境カメラ30またはデジタルサイネージ40である。環境カメラ30は、制御装置10の制御により、空間1内の画像を取得して制御装置10に送信するデータ処理装置である。環境カメラ30は、たとえば、被写体までの距離を計測可能な3次元カメラである。デジタルサイネージ40は、制御装置10の制御により、人間に必要な音声や画像を制御装置10から受信して出力するデータ処理装置である。
なお、データ処理装置のうち、画像および音声を取得可能なロボット20と、画像を取得可能な環境カメラ30を、データ取得装置と称す。また、データ処理装置のうち、画像および音声を出力可能なロボット20およびデジタルサイネージ40を、データ出力装置と称す。
<制御システムのハードウェア構成例>
図2は、制御システムのハードウェア構成例を示すブロック図である。制御システム200は、制御装置10や、データ処理装置群201、遺失物管理システム1130が、LAN(Local Area Network),WAN(Wide Area Network),インターネットなどのネットワーク202を介して通信可能に接続されるシステムである。遺失物管理システム1130は、遺失物の画像、拾得日時、拾得場所、拾得者といった遺失物情報が管理されているシステムである。
<制御装置10のハードウェア構成例>
図3は、制御装置10のハードウェア構成例を示すブロック図である。制御装置10は、第1プロセッサ301と、第1記憶デバイス302と、第1通信IF(Interface)303と、これらを接続するバス304と、を有する。第1プロセッサ301は、第1記憶デバイス302の一部を作業エリアとして制御装置10を制御する。第1プロセッサ301は、第1記憶デバイス302に記憶されているプログラムを実行したり、第1記憶デバイス302に記憶されているモデルを参照したり、実世界DB341および時系列DB342からデータを読み出したり、書き込んだりする。
第1記憶デバイス302は、たとえば、HDD(Hard Disk Drive)、フラッシュメモリである。第1記憶デバイス302は、メディア処理プログラム310と、実世界DB管理プログラム321と、時系列DB管理プログラム322と、統合制御プログラム323と、メディア処理モデル330と、実世界DB341と、時系列DB342と、を記憶する。
メディア処理プログラム310は、メディア処理を実行するプログラムである。メディア処理とは、メディア処理プログラム310に含まれる各種プログラムで実行される処理である。メディア処理プログラム310は、人物像検出・認識プログラム311と、顔検出・認識プログラム312と、音声検出・認識プログラム313と、人物同定プログラム314と、人物状態推定プログラム315と、を含む。人物像検出・認識プログラム311は、人物像検出・認識モデル331を参照して、人物像を検出し、検出した人物像がどのような人物であるかを認識するプログラムである。顔検出・認識プログラム312は、顔検出・認識モデル332を参照して、顔を検出して、検出した顔がどのような顔であるかを認識するプログラムである。音声検出・認識プログラム313は、音声検出・認識モデル333を参照して、音声を検出して、検出した音声がどのような音声であるかを認識するプログラムである。人物同定プログラム314は、人物同定モデル334を参照して、人物を同定するプログラムである。人物状態推定プログラム315は、人物状態推定モデル335を参照して、人物の状態を推定するプログラムである。
実世界DB管理プログラム321は、実世界DB341を管理するプログラムである。時系列DB管理プログラム322は、時系列DB342を管理するプログラムである。統合制御プログラム323は、実世界DB341および時系列DB342を参照して、データ処理装置を制御するプログラムである。たとえば、統合制御プログラム323は、ロボット20の動作指示を作成してロボット20に送信するプログラムである。
メディア処理モデル330は、メディア処理プログラム310でのメディア処理に用いられるモデルである。メディア処理モデル330は、人物像検出・認識モデル331と、顔検出・認識モデル332と、音声検出・認識モデル333と、人物同定モデル334と、人物状態推定モデル335と、を含む。
人物像検出・認識モデル331は、テンプレートとなる各種人物像(たとえば、体形、性別)のデータである。顔検出・認識モデル332は、テンプレートとなる各種顔(たとえば、顔の形、髪型、目、耳、鼻、口の大きさや形)を示すデータである。音声検出・認識モデル333は、テンプレートとなる各種音声モデル(たとえば、振幅に応じた音素)や音声に応じた性別や年齢層のモデルを示すデータである。音声モデルにより音声認識結果が得られ、性別や年齢層のモデルにより話者認識結果が得られる。
人物同定モデル334は、ある空間のある時間帯で特定される空間内人物像領域の時系列データおよび空間内音声領域の時系列データが同一人物であるか否かを同定するモデルである。具体的には、たとえば、人物同定モデル334は、空間内人物像領域の時系列データのしきい値と、空間内音声領域の時系列データのしきい値との組み合わせである。ある空間のある時間帯で特定される空間内人物像領域の時系列データおよび空間内音声領域の時系列データが、それぞれのしきい値以上となった場合、空間内人物像領域の時系列データおよび空間内音声領域の時系列データは、ある一人の人物を特定するデータとして同定される。
人物状態推定モデル335は、テンプレートとなる人物の状態(たとえば、立っている状態、座っている状態)を示すデータである。
実世界DB341は、実世界、すなわち、空間1内の人物に関する情報をインデックスとして管理するデータベースである。具体的には、たとえば、実世界DB341は、データ処理装置からの入力画像や入力音声、人物像領域、空間内人物像領域、音声認識結果、話者認識結果をインデックスとして記憶する。時系列DB342は、インデックスとして管理された情報の時系列データを管理するデータベースである。これらについては図5で後述する。
<ロボット20のハードウェア構成例>
図4は、ロボット20のハードウェア構成例を示すブロック図である。ロボット20は、第2プロセッサ401と、第2記憶デバイス402と、第2通信IF403と、マイク404と、スピーカ405と、カメラ406と、LIDAR(Laser Imaging Detection and Ranging)407と、移動装置408と、これらを接続するバス304と、を有する。第2プロセッサ401は、第2記憶デバイス402の一部を作業エリアとしてロボット20を制御する。第2プロセッサ401は、第2記憶デバイス402に記憶されているプログラムを実行する。
第2記憶デバイス402は、たとえば、HDD(Hard Disk Drive)、フラッシュメモリである。第2記憶デバイス402は、制御プログラム421と、ネットワーク送受信プログラム422と、音声入出力プログラム423と、画像入力プログラム424と、LIDAR入力プログラム425と、移動プログラム426と、を記憶する。
制御プログラム421は、制御装置10のメディア処理プログラム310からの行動指令にしたがって、第2記憶デバイス402内の他のプログラムと連携して、ロボット20を制御するプログラムである。また、制御プログラム421は、人工知能としても機能する。
ネットワーク送受信プログラム422は、制御プログラム421からの指令にしたがって、制御装置10とデータを送受信するプログラムである。たとえば、ネットワーク送受信プログラム422は、音声データや画像データ、方向データ、距離データといった入力データを、第2通信IF403からネットワーク202を介して制御装置10に送信する。また、ネットワーク送受信プログラム422は、制御装置10からの行動指令や出力データをネットワーク202から第2通信IF403を介して受信する。
音声入出力プログラム423は、制御装置10のメディア処理プログラム310からの音声入力指令にしたがって、外部環境の音声をマイク404から入力して音声データとして第2記憶デバイス402に格納したり、制御装置10のメディア処理プログラム310からの音声データを用いて音声をスピーカ405から出力したりするプログラムである。
画像入力プログラム424は、制御装置10のメディア処理プログラム310からの音声入力指令にしたがって、外部環境をカメラ406で撮影し、画像データとして第2記憶デバイス402に入力するプログラムである。
LIDAR入力プログラム425は、LIDAR407から得られるロボット20から見た対象物の方向を示す方向データおよびロボット20との間の距離を示す距離データを入力するプログラムである。
移動プログラム426は、制御装置10のメディア処理プログラム310からの行動指令にしたがって、移動装置408を駆動制御して、目的位置にロボット20を移動させるプログラムである。
第2通信IF403は、制御装置10とデータや指令を送受信するデバイスである。第2通信IF403は、制御装置10からのデータや指令を受信して第2記憶デバイス402に格納する。また、第2通信IF403は、ネットワーク送受信プログラム422からの制御により、第2記憶デバイス402内の各種プログラムからのデータを制御装置10に送信する。
マイク404は、ロボット20の外部環境の音声を入力するデバイスである。マイク404は、音声入出力プログラム423からの制御により、音声を第2記憶デバイス402に格納する。マイク404はたとえばアレイ状に構成され、音源からの方向も検出することができる。スピーカ405は、制御装置10からの音声データを外部環境に出力するデバイスである。スピーカ405は、音声入出力プログラム423からの制御により、音声を出力する。
カメラ406は、ロボット20の外部環境を撮像するデバイスである。カメラ406は、画像入力プログラム424からの制御により、外部環境を撮像した画像データを第2記憶デバイス402に格納する。
LIDAR407は、可視光線などの電磁波を障害物に放射し、その反射波を計測することで、観測平面上の各方向の障害物までの距離を測定するデバイスである。本実施例では、一例として、観測平面は地面と平行であり、方向分解能は1度とする。
移動装置408は、ロボット20を移動させる機構である。移動装置408は、たとえば、車輪を有する機構である。また、複数の脚を有する歩行/走行機構でもよい。
<実世界DB341および時系列DB342>
図5は、実世界DB341および時系列DB342の記憶内容例を示す説明図である。図5は、実世界DB341に記憶されるインデックスと、時系列DB342に記憶される時系列データと、の関連性を説明するために、説明上、実世界DB341および時系列DB342を統合した状態で説明する。記憶されるデータの種類については、図5の凡例に示した通りである。インデックスは、実世界DB341に格納され、時系列データおよびクラスタは、時系列DB342に格納される。クラスタは時系列データのクラスタリング結果である。実世界DB341および時系列DB342に格納されるデータは、データ処理装置の種類ごとにツリー構造を構成する。
第1ツリー501は、ロボット20に起因するツリー構造データであり、第2ツリー502は、環境カメラ30に起因するツリー構造データである。第1ツリー501は、ロボットインデックス510をルートノードとし、入力画像インデックス511、入力画像時系列データ512、人物像領域インデックス513、人物像領域時系列データ514、空間内人物像領域インデックス515、空間内人物像領域時系列データ516、入力音声インデックス517、入力音声時系列データ518、音声区間インデックス519、音声区間時系列データ521、音声認識結果インデックス522、話者認識結果インデックス523、空間内音声領域インデックス524、空間内音声領域時系列データ525、クラスタCを中間ノードとする。ノード間はリンクで接続される。
ロボットインデックス510は、ロボット20を一意に特定するロボットIDを含むインデックスである。ロボットインデックス510は、ロボット20のローカル座標系での位置データおよび方向データも含む。
入力画像インデックス511は、入力画像時系列データ512を特定するインデックスである。入力画像インデックス511は、ロボット20からの入力画像時系列データ512が入力された場合に生成され、順次入力されてくる入力画像時系列データ512とリンクされる。
入力画像時系列データ512は、時系列に入力されてくる一連の入力画像データである。入力画像時系列データ512の個々の入力画像データには、ロボット20のローカル座標系にいて、ロボット20からみた当該入力画像データにより特定される対象物(たとえば、人物)の位置データおよび方向データを含む。
人物像領域インデックス513は、人物像領域時系列データ514を特定するインデックスである。人物像領域インデックス513は、ロボット20からの入力画像時系列データ512が入力された場合に生成され、順次生成される人物像領域時系列データ514とリンクされる。
人物像領域時系列データ514は、時系列に生成される一連の人物像領域データである。人物像領域データとは、同時刻の入力画像データから検出された人物の画像(人物像)を包含する領域(たとえば、矩形)を示すデータである。人物像領域データは、同時刻の入力画像データの位置データおよび方向データも含む。
空間内人物像領域インデックス515は、空間内人物像領域時系列データ516を特定するインデックスである。空間内人物像領域インデックス515は、人物像領域時系列データ514が生成された場合に生成され、順次生成される空間内人物像領域時系列データ516とリンクされる。
空間内人物像領域時系列データ516は、時系列に生成される一連の空間人物像領域データである。空間人物像領域データとは、同時刻の人物像領域データの位置データおよび方向データを空間1のグローバル座標系に変換した人物像領域データである。
入力音声インデックス517は、入力音声時系列データ518を特定するインデックスである。入力音声インデックス517は、ロボット20からの入力音声時系列データ518が入力された場合に生成され、順次入力されてくる入力音声時系列データ518とリンクされる。
入力音声時系列データ518は、時系列に入力されてくる一連の入力音声データである。入力音声時系列データ518の個々の入力音声データには、ロボット20のローカル座標系にいて、ロボット20からみた当該入力音声データにより特定される対象物(たとえば、人物H)の位置データおよび方向データを含む。
音声区間インデックス519は、音声区間時系列データ521を特定するインデックスである。音声区間インデックス519は、ロボット20からの入力音声時系列データ518が入力された場合に生成され、順次入力されてくる音声区間時系列データ521とリンクされる。
音声区間時系列データ521は、入力音声時系列データ518に対応した一連の音声区間データである。音声区間データとは、音声の発話開始時刻から発話終了時刻までの音声区間を示すデータである。
音声認識結果インデックス522は、音声区間ごとの入力音声データに関する音声認識結果を含むノードである。音声認識結果とは、音声検出・認識プログラム313によって検出および認識された情報である。音声認識結果は、音声区間ごとの波形データでもよく、入力音声データをテキスト化した文字列データでもよい。
話者認識結果インデックス523は、音声区間ごとの入力音声データに関する話者認識結果を含むノードである。話者認識結果は、音声検出・認識プログラム313によって検出および認識された音声の発話者を特定する情報である。話者認識結果の発話者とは、具体的には、たとえば、音声区間時系列データ521で特定されるある時間帯の入力音声データと、当該時間帯における位置データおよび方向データと、を組み合わせた情報である。
空間内音声領域インデックス524は、空間内音声領域時系列データ525を特定するインデックスである。空間内音声領域インデックス524は、音声区間時系列データ521が生成された場合に生成され、順次生成される空間内音声領域時系列データ525とリンクされる。
空間内音声領域時系列データ525は、時系列に生成される一連の空間内音声領域データである。空間内音声領域データとは、対応する音声区間データでの位置データおよび方向データを空間1のグローバル座標系に変換した音声領域データである。
クラスタCは、空間内人物像領域時系列データ516および空間内音声領域時系列データ525をある時間帯でクラスタリングした結果である。
第2ツリー502は、環境カメラインデックス520をルートノードとし、入力画像インデックス511、入力画像時系列データ512、人物像領域インデックス513、人物像領域時系列データ514、空間内人物像領域インデックス515、空間内人物像領域時系列データ516、クラスタを中間ノードとする。ノード間はリンクで接続される。環境カメラインデックス520は、環境カメラ30を一意に特定する環境カメラIDを含むインデックスである。環境カメラインデックス520は、環境カメラ30のローカル座標系での位置データおよび方向データを含む。なお、各中間ノードについては、第1ツリー501の説明において、「ロボット20」を「環境カメラ30」に置き換えるだけでよいため省略する。
<メディア処理プログラム310による処理手順例>
つぎに、メディア処理プログラム310による処理手順例について説明する。
図6は、人物像検出・認識プログラム311による人物像検出・認識処理手順例を示すフローチャートである。第1プロセッサ301は、データ処理装置D(以下、「装置D」)の入力画像Iを待ち受け(ステップS601:No)、装置Dの入力画像Iを取得した場合(ステップS601:Yes)、[装置D、入力画像時系列データ512<I>、“入力画像”]のエントリがなければ、実世界DB341に、当該エントリを作成する(ステップS602)。すなわち、第1プロセッサ301は、ルートノードである装置インデックスにリンクする入力画像インデックス511を作成する。装置インデックスとは、データ処理装置がロボット20であればロボットインデックス510であり、データ処理装置が環境カメラ30であれば環境カメラインデックス520である。
つぎに、第1プロセッサ301は、時系列DB342において、入力画像時系列データ512<I>の現在時刻Tに入力画像Iを追加する(ステップS603)。そして、第1プロセッサ301は、人物像検出・認識モデル331を用いて、入力画像Iから人物像検出・認識モデル331にマッチングする人物像領域Aを検出する(ステップS604)。
つぎに、第1プロセッサ301は、実世界DB341に、[入力画像時系列データ512<I>、人物像領域時系列データ514<A>、“人物像領域”]のエントリがなければ、当該エントリを作成する(ステップS605)。すなわち、第1プロセッサ301は、入力画像時系列データ512<I>にリンクする人物像領域インデックス513を作成する。そして、第1プロセッサ301は、時系列DB342において、人物像領域時系列データ514<A>の現在時刻Tに、ステップS604で検出した人物像領域Aを追加する(ステップS606)。
つぎに、第1プロセッサ301は、人物像領域Aから空間内人物像領域A’を計算する(ステップS607)。すなわち、ローカル座標系である人物像領域Aの位置データおよび方向データをグローバル座標系の人物像領域Aの位置データおよび方向データに変換する。なお、ローカル座標系である人物像領域Aの位置データおよび方向データは、装置Dのローカル座標系である人物の位置データおよび方向データと、LIDAR407から得られる装置Dから人物までの距離および方向により決定される。
つぎに、第1プロセッサ301は、実世界DB341に、[人物像領域A、空間内人物像領域時系列データ516<A’>、“空間内人物像領域”]のエントリがなければ、当該エントリを作成する(ステップS608)。すなわち、第1プロセッサ301は、人物像領域時系列データ514<A>にリンクする空間内人物像領域インデックス515を作成する。そして、第1プロセッサ301は、時系列DB342において、空間内人物像領域時系列データ516<A’>の現在時刻Tに、ステップS607で計算した空間内人物像領域A’を追加する(ステップS608)。そして、ステップS601に戻る。
図7は、音声検出・認識プログラム313による音声検出・認識処理手順例を示すフローチャートである。第1プロセッサ301は、装置Dの入力音声Sを待ち受け(ステップS701:No)、装置Dの入力音声Sを取得した場合(ステップS701:Yes)、[装置D、入力音声時系列データ518<S>、“入力音声”]のエントリがなければ、実世界DB341に、当該エントリを作成する(ステップS702)。すなわち、第1プロセッサ301は、ルートノードである装置インデックスにリンクする入力音声インデックス517を作成する。
つぎに、第1プロセッサ301は、時系列DB342において、入力音声時系列データ518<S>の現在時刻Tに入力音声Sを追加する(ステップS703)。そして、第1プロセッサ301は、音声検出・認識モデル333を用いて、入力音声Sから音声検出・認識モデル333にマッチングする音声の音声区間Rを検出する(ステップS704)。
つぎに、第1プロセッサ301は、実世界DB341に、[装置D、音声区間時系列データ521<R>、“音声区間”]のエントリがなければ、当該エントリを作成する(ステップS705)。すなわち、第1プロセッサ301は、音声区間時系列データ521<R>にリンクする音声区間インデックス519を作成する。そして、第1プロセッサ301は、時系列DB342において、音声区間時系列データ521<R>の現在時刻Tに、ステップS704で検出した音声区間Rを追加する(ステップS706)。
つぎに、第1プロセッサ301は、装置Dの位置データおよび方向データに基づいて、音声区間Rから空間内音声領域Pを計算する(ステップS707)。すなわち、第1プロセッサ301は、ローカル座標系である音声区間Rの位置データおよび方向データをグローバル座標系の音声区間Rの位置データおよび方向データに変換する。なお、ローカル座標系である音声区間Rの位置データおよび方向データは、装置Dのローカル座標系である人物の位置データおよび方向データと、LIDARから得られる装置Dから人物までの距離および方向により決定される。
つぎに、第1プロセッサ301は、実世界DB341に、[装置D、空間内音声領域時系列データ525<P>、“空間内音声領域”]のエントリがなければ、当該エントリを作成する(ステップS708)。すなわち、第1プロセッサ301は、空間内音声領域時系列データ525<P>にリンクする空間内音声領域インデックス524を作成する。そして、第1プロセッサ301は、時系列DB342において、空間内音声領域時系列データ525<P>の現在時刻Tに、ステップS707で計算した空間内音声領域Pを追加する(ステップS709)。
つぎに、第1プロセッサ301は、実世界DB341に、音声検出・認識モデル333を用いて、音声区間Rごとに音声検出・認識モデル333にマッチングする音声認識結果Vを作成する(ステップS710)。そして、第1プロセッサ301は、実世界DB341に、[音声区間R、音声認識結果V、“音声認識結果”]のエントリがなければ、当該エントリを作成する(ステップS711)。すなわち、第1プロセッサ301は、音声区間時系列データ521<R>にリンクする音声認識結果インデックス522を作成する。そして、第1プロセッサ301は、ステップS710で作成した音声区間Rごとの音声認識結果Vを音声認識結果インデックス522に関連付ける。
同様に、第1プロセッサ301は、実世界DB341に、音声検出・認識モデル333を用いて、音声区間Rごとに音声検出・認識モデル333にマッチングする話者認識結果Wを作成する(ステップS712)。そして、第1プロセッサ301は、実世界DB341に、[音声区間R、話者認識結果W、“話者認識結果”]のエントリがなければ、当該エントリを作成する(ステップS713)。すなわち、第1プロセッサ301は、音声区間時系列データ521<R>にリンクする話者認識結果インデックス523を作成する。そして、第1プロセッサ301は、ステップS712で作成した音声区間Rごとの話者認識結果Wを音声認識結果インデックス522に関連付ける。そして、ステップS701に戻る。
図8は、人物同定プログラム314による人物同定処理手順例を示すフローチャートである。まず、第1プロセッサ301は、時系列DB342に、空間内人物像領域時系列データ516<A’>または空間内音声領域時系列データ525<P>が追加されるのを待ち受ける(ステップS801:No)。追加された場合(ステップS801:Yes)、第1プロセッサ301は、追加されたデータと同時刻Tを含む空間内人物像領域時系列データ516および空間内音声領域時系列データ525を収集する(ステップS802)。そして、第1プロセッサ301は、人物同定モデル334を用いて、収集した時系列データで人物を同定する(ステップS803)。同定できなかった場合(ステップS804:No)、ステップS801に戻る。同定できた場合(ステップS804:Yes)、第1プロセッサ301は、収集した時系列データを時刻T前後の位置データに基づきクラスタリングする(ステップS805)。これにより、ある時間帯のある位置における収集時系列データごとにクラスタが生成される。
つぎに、第1プロセッサ301は、ステップS806〜S812を実行して、クラスタ内の他人の時系列データを削除する。具体的には、たとえば、第1プロセッサ301は、ステップS805で生成されたクラスタ群のうち未選択のクラスタCがあるか否かを判断する(ステップS806)。未選択のクラスタCがある場合(ステップS806:Yes)、第1プロセッサ301は、未選択のクラスタCを1つ選択する(ステップS807)。そして、第1プロセッサ301は、選択クラスタCに属する未選択のデータ<X>があるか否かを判断する(ステップS808)。データ<X>は、選択クラスタC内の時系列データのうちある時刻のデータである。
未選択のデータ<X>がある場合(ステップS808:Yes)、第1プロセッサ301は、未選択のデータ<X>を選択する(ステップS809)。そして、第1プロセッサ301は、実世界DB341に、[クラスタC、データ<X>、“人物同定”]のエントリがなければ作成する。すなわち、第1プロセッサ301は、人物同定インデックスが作成されていなければ作成し、クラスタCに、選択データ<X>と人物同定インデックスとを関連付ける。人物同定インデックスが作成されていれば、第1プロセッサ301は、選択クラスタCの人物同定インデックスに選択データ<X>を関連付ける。
そして、第1プロセッサ301は、実世界DB341に、選択クラスタC以外の[クラスタC’、データ<X>、“人物同定”]のエントリがあれば、当該エントリに削除フラグを設定し(ステップS811)、ステップS808に戻る。ステップS808において、未選択のデータ<X>がない場合(ステップS808:No)、ステップS806に戻る。ステップS806において、未選択のクラスタCがない場合(ステップS806:No)、第1プロセッサ301は、クラスタ群の各クラスタにおいて削除フラグが設定されたエントリを削除し(ステップS812)、ステップS801に戻る。これにより、各クラスタは、ある時間帯のある位置における収集時系列データで特定される1人の人物を示すデータとなる。
なお、顔検出・認識プログラム312の処理については、図示はしないが、第1プロセッサ301は、図6のステップS604で検出された人物像領域Aから、顔検出・認識モデル332を用いて顔を検出し、どのようなタイプの顔であるかを認識する。顔認識結果は、人物像領域Aに保存される。また、人物状態推定プログラム315の処理についても、図示はしないが、第1プロセッサ301は、図6のステップS604で検出された人物像領域Aから、人物状態推定モデル335を用いて人物像領域A内の人物の状態を推定する。人物状態推定結果は、人物像領域Aに保存される。
<制御システム200の運用例>
つぎに、図9〜図11を用いて、制御システム200の運用例について説明する。図9〜図11では、制御システム200は、物販支援(図9)、案内(図10)、および監視(図11)という3つのタスクを、実世界DB341および時系列DB342を参照し更新しながら実行する。物販支援は、空間1内でロボット20が人物に接近して商品を推薦する処理を、制御装置10がロボット20に実行させる処理である。案内は、空間1内で人物がロボット20に接近した場合にロボット20が当該人物の要求に応じて情報を提供する処理を、制御装置10がロボット20に実行させる処理である。ロボット20ではなく、デジタルサイネージ40でもよい。監視は、空間1内でロボット20が不審者を監視する処理を、制御装置10がロボット20に実行させる処理である。ロボット20ではなく、環境カメラ30でもよい。
これら3つのタスクは、統合制御プログラム323により実行される。本例では、物販支援(図9)、案内(図10)、および監視(図11)が同時並行で実行されるものとする。ただし、たとえば、物販支援(図9)、案内(図10)、および監視(図11)の順に時系列に実行されてもよい。図9〜図11は、図5に示した実世界DB341および時系列DB342の具体的な記憶内容例を示すが、インデックスおよび時系列データをまとめて表記する。なお、図9〜図11では、便宜上、ロボット20や環境カメラ30を動作主体とした処理を説明するが、実質的には、制御装置10がロボット20や環境カメラ30に処理を実行させている。
<物販支援>
図9は、物販支援における実世界DB341および時系列DB342の更新例を示す説明図である。ステップS901において、環境カメラ30が人物Hを撮像して画像911を取得し、取得した画像911から人物像を含む人物領域912を検出する。また、環境カメラ30は、環境カメラ30から人物Hまでの距離とその方向を測定する。制御装置10は、地図DB920を参照して、環境カメラ30があらかじめ保持する自己位置913と、測定した距離および方向と、から、人物領域912の位置である人物位置914を算出する。地図DB920は、グローバル座標系を基準とした空間1の地図データを記憶する。人物位置914は、空間1のグローバル座標系に変換された位置データである。
ステップS902は、ステップS901で、人物位置914である一定時間内の時系列データの各位置データが許容範囲内である場合に実行される。ステップS902において、ロボット20は、環境カメラ30によって特定された人物位置914に移動して接近する。このとき、ロボット20は、たとえば、LRF(Laser Range Finder)と地図DB920とを用いたスキャンマッチングにより空間1のグローバル座標系における自己位置921を更新しながら移動する。ロボット20は、人物位置914に存在する人物Hをカメラ406で撮像して画像922を取得し、取得した画像922から人物像を含む人物領域923を検出する。また、ロボット20は、カメラ406から人物Hまでの距離とその方向をLIDAR407で測定し、地図DB920を参照して、ロボット20の現在の自己位置921と、測定した距離および方向と、から、人物領域923の位置である人物位置924を算出する。人物位置924は、空間1のグローバル座標系に変換された位置データである。また、ロボット20は、画像922から顔領域925を認識する。
ステップS903は、ステップS902が終了すると実行される。ステップS903において、制御装置10は、ステップS901で特定された人物位置914の時系列データとステップS902で特定された人物位置924の時系列データとが、同一時間帯内で類似するか否かを判定する。類似性は、たとえば、両時系列データのユークリッド距離により判定される。たとえば、ユークリッド距離がしきい値以下であれば類似する。類似する場合、同一時間帯に人物位置914および人物位置924に存在する人物Hは同一人物Hとなり、制御装置10は、人物931として保存する。人物931は、人物領域912,923、顔領域925にリンクされる。これにより、ある時間帯に存在する人物Hおよび顔が特定される。
ステップS904は、ステップS903が終了すると実行される。ステップS904において、ロボット20は、人物931(で特定される人物H)の近傍に位置する。ロボット20は、周辺音声941をマイク404で検出し、マイク404で検出した音源からの方向と現在の自己位置921とから、音声が発せられた位置である音声位置942A,942Bを算出する。音声位置942A,942Bは、空間1のグローバル座標系に変換された位置データである。
また、ロボット20は、ステップS902で特定された人物位置924の時系列データと音声位置942Aの時系列データとが、同一時間帯内で類似するか否かを判定する。類似性は、たとえば、両時系列データのユークリッド距離により判定される。たとえば、ユークリッド距離がしきい値以下であれば類似する。類似する場合、同一時間帯に人物位置924および音声位置942Aに存在する人物Hは同一人物となる。したがって、ロボット20は、周辺音声941のうち音声位置942Aで発話された音声943Aの認識結果944Aを取得し、その音声943Aを人物931に関連付ける。そして、制御装置10は、人物931に関連付けられたこれらのデータを、当該人物Hを一意に特定する識別子である個人945をインデックスとする個人DB946に格納する。音声位置942Bについても同様に処理することで、ロボット20は、音声943Bおよび認識結果944Bを取得し、その音声943Bを人物931に関連付ける。そして、制御装置10は、人物931に関連付けられたこれらのデータを、個人945をインデックスとする個人DB946に格納する。
なお、ステップS904では、音声位置942A,942Bは同一の人物931の音声位置としたが、ロボット20近傍で複数の人物Hが対話する場合がある。たとえば、レジ前に人物Haが移動した場合、客である人物Haは、店員である人物Hbと対話する場合がある。人物Ha,Hbごとに、人物931が特定される。したがって、たとえば、制御装置10は、音声位置942A,音声943A,認識結果944A(例:「商品Xを試着したいのですが」)を、人物Haの人物931と関連付け、認識結果944Aを、当該人物Haを一意に特定する識別子である個人945をインデックスとする個人DB946に格納する。同様に、制御装置10は、音声位置942B,音声943B,認識結果944B(例:フィッティングルームはあちらでございます。)を、人物Hbの人物931と関連付け、認識結果944Bを、当該人物Hを一意に特定する識別子である個人945をインデックスとする個人DB946に格納する。
また、制御装置10は、店員である人物Hbの携帯端末(不図示)と通信可能としてもよい。たとえば、この場合、客である人物Haの音声位置942Aの時系列データと店員である人物Hbの音声位置942Bの時系列データは、同一時間帯内で類似する。したがって、制御装置10は、人物Haを人物Hbの対話相手と特定し、人物Ha,Hbの各個人DB946内のデータを人物Hbの携帯端末に転送する。これにより、店員である人物Hbは、いつどこでだれとどのような会話をしたかを確認することができる。また、人物Haの個人DB946を参照することができるため、人物Haの空間1内での時系列な移動軌跡も確認することができる。したがって、人物Hbは人物Haの嗜好を特定して物販に役立てることができる。
また、人物Hbは、人物Haの個人情報を携帯端末に入力して、個人DB946を更新してもよい。これにより、これ以降、制御装置は、個人DB946で特定される人物Hがどのような人物Hであるかを特定することができる。
<案内>
図10は、案内における実世界DB341および時系列DB342の更新例を示す説明図である。図9と同一データには同一符号を付しその説明を省略する。物販支援では、ロボット20から人物Hに接近したが、案内では、ロボット20が、ロボット20に接近してくる人物Hを検出して案内する。
ステップS1001において、ロボット20は、接近してくる対象物をLIDAR407で検出する。なお、ロボット20は、たとえば、LRFと地図DB920を用いたスキャンマッチングにより空間1のグローバル座標系における自己位置1011を更新しながら移動する。ロボット20は、接近してくる対象物をカメラ406で撮像して画像1012を取得し、取得した画像1012から人物像を含む人物領域1013を検出する。また、ロボット20は、カメラ406から人物Hまでの距離とその方向をLIDAR407で測定する。制御装置10は、地図DB920を参照して、ロボット20の現在の自己位置1011と、測定した距離および方向と、から、人物領域1013の位置である人物位置1014を算出する。人物位置1014は、空間1のグローバル座標系に変換された位置データである。また、ロボット20は、画像1012から顔領域1015を認識する。
ステップS1002は、ステップS1001で、人物位置1014である一定時間内の時系列データの各位置データが許容範囲内である場合に実行される。ステップS1002において、ロボット20は、周辺音声1021をマイク404で検出し、マイク404で検出した音源からの方向と現在の自己位置1011とから、音声が発せられた位置である音声位置1022A,1022Bを算出する。音声位置1022A,1022Bは、空間1のグローバル座標系に変換された位置データである。
また、ロボット20は、ステップS1001で特定された人物位置1014の時系列データと音声位置1022Aの時系列データとが、同一時間帯内で類似するか否かを判定する。類似性は、たとえば、両時系列データのユークリッド距離により判定される。たとえば、ユークリッド距離がしきい値以下であれば類似する。類似する場合、同一時間帯に人物位置1014および音声位置1022Aに存在する人物Hは同一人物Hとなる。したがって、ロボット20は、周辺音声1021のうち音声位置1022Aで発話された音声1023Aの認識結果1024Aを取得し、その音声1023Aを人物931に関連付ける。そして、制御装置10は、人物931に関連付けられたこれらのデータを、当該人物Hを一意に特定する識別子である個人945をインデックスとする個人DB946に格納する。音声位置1022Bについても同様に処理することで、ロボット20は、音声1023Bおよび認識結果1024Bを取得し、その音声1023Bを人物931に関連付ける。そして、制御装置10は、人物931に関連付けられたこれらのデータを、個人945をインデックスとする個人DB946に格納する。
ステップS1003は、ステップS1002の後に実行される。ロボット20は、ステップS1001で特定された人物位置1014の時系列データと音声位置1022Aの時系列データとが、同一時間帯内で類似するか否かを判定する。類似性は、たとえば、両時系列データのユークリッド距離により判定される。たとえば、ユークリッド距離がしきい値以下であれば類似する。類似する場合、同一時間帯に人物位置1014および音声位置1022Aに存在する人物Hは同一人物となる。したがって、ロボット20は、周辺音声1021のうち音声位置1022Aで発話された音声1023Aの認識結果1024Aを取得し、その音声1023Aを人物931に関連付ける。そして、制御装置10は、人物931に関連付けられたこれらのデータを、個人945をインデックスとする個人DB946に格納する。音声位置1022Bについても同様に処理することで、ロボット20は、音声1023Bおよび認識結果1024Bを取得し、その音声1023Bを人物931に関連付ける。そして、制御装置10は、人物931に関連付けられたこれらのデータを、個人945をインデックスとする個人DB946に格納する。
この場合、人物931で特定される人物Hがロボット20に接近してロボット20と対話するため、音声1023A,1023Bの認識結果1024A,1024Bは、人物Hが発話した音声とする。なお、ロボット20は、自己位置1011から所定距離以内に人物Hが接近してきた場合に、「何かご用でしょうか?」と発話する。たとえば、音声1023Aの認識結果1024Aが「wwはどこですか?」であれば、ロボット20は、「よろしければ、wwまでご案内しましょうか?」と発話する。その次の音声1023Bの認識結果1024Bが「お願いします」であれば、ロボット20は、「では、ついてきてください。」と発話する。
また、移動中は、ロボット20は、個人DB群の中から今回特定した人物931の個人DB946内のデータを用いて、当該人物931の嗜好に応じた対話や情報提供をしてもよい。たとえば、ロボット20は、個人DB946内の認識結果944A,944Bを参照して、キーワードを特定し、キーワードと話題とを対応付けた雑談DB(不図示)から、特定したキーワードに対応する話題を用いて、人物Hと対話してもよい。雑談DBは、ロボット20に記憶されていてもよく、制御装置10に記憶されていてもよい。また、ロボット20は、ネットワーク202から対応する話題を検索してもよい。
<監視>
図11は、案内における実世界DB341および時系列DB342の更新例を示す説明図である。図9および図10と同一データには同一符号を付しその説明を省略する。監視では、ロボット20や環境カメラ30が空間1内を監視する。
ステップS1101において、環境カメラ30は、自己位置1111において外部環境を撮像して画像1112を取得する。制御装置10は、画像1112と同一位置から撮像した過去の画像との差分領域1113を検出する。また、環境カメラ30は、自己位置1111から差分領域1113までの距離とその方向を測定する。制御装置10は、地図DB920を参照して、環境カメラ30があらかじめ保持する自己位置1111と、測定した距離および方向と、から、差分領域1113の位置である差分位置1114を算出する。地図DB920は、グローバル座標系を基準とした空間1の地図データを記憶する。差分位置1114は、空間1のグローバル座標系に変換された位置データである。そして、制御装置10は、差分領域1113内の物体を認識して物体識別結果1115として出力する。
ステップS1102は、ステップS1101と同時並行で実行される。ステップS1102において、ロボット20は、空間1内を巡回しており、たとえば、LRF(Laser Range Finder)と地図DB920とを用いたスキャンマッチングにより空間1のグローバル座標系における自己位置1121を更新しながら移動する。ロボット20は、自己位置1121において外部環境を撮像して画像1122を取得する。制御装置10は、画像1122と同一位置から撮像した過去の画像との差分領域1123を検出する。また、ロボット20は、現在の自己位置1121から差分領域1123までの距離とその方向を測定する。制御装置10は、地図DB920を参照して、現在の自己位置1121と、測定した距離および方向と、から、差分領域1123の位置である差分位置1124を算出する。地図DB920は、グローバル座標系を基準とした空間1の地図データを記憶する。差分位置1124は、空間1のグローバル座標系に変換された位置データである。そして、制御装置10は、差分領域1123内の物体を認識して物体識別結果1125として出力する。
ステップS1103は、ステップS1101の物体識別結果1115またはステップS1102の物体識別結果1125を用いて、過去に蓄積されたデータと照合する処理である。たとえば、制御装置10は、人物DB群を参照して、物体識別結果1115または物体識別結果1125に一致する人物931があれば、人物931で特定される人物Hの存在を検出する。また、制御装置10は、制御装置10に通信可能接続される遺失物管理システム1130にアクセスして、物体識別結果1115または物体識別結果1125に一致する遺失物の画像があれば、物体識別結果1115または物体識別結果1125は、遺失物であると判定する。
以上説明したように、本実施例の制御装置10は、空間1内に存在する対象物(たとえば、人物や物品)の位置および画像を取得可能なデータ取得装置群(ロボット20や環境カメラ30)を制御して、空間1内または対象物に対する複数の異なる処理として、たとえば、上述した物販支援(図9)、案内(図10)、および監視(図11)という3つのタスクを実行する。
第1記憶デバイス302は、第1プロセッサ301が複数の異なる処理のうちいずれか1つの処理を実行したことにより、データ取得装置が第1対象物(たとえば、人物Ha)を検出してからの第1対象物の一連の位置および画像を示す時系列データを第1対象物に関するデータ(たとえば、人物Haについての個人DB946)として記憶する。第1プロセッサ301は、複数の異なる処理の各々の処理で、取得処理、判定処理、および格納処理を実行する。
取得処理は、第1プロセッサ301が、データ取得装置が第2対象物(ある人物H)を検出してからの第2対象物の一連の情報(たとえば、位置および画像)を示す時系列データを第2対象物に関するデータとしてデータ取得装置から取得する処理である。取得処理は、たとえば、人物像検出・認識プログラム311に相当する。
判定処理は、第1プロセッサ301が、第1記憶デバイス302に記憶されている第1対象物に関するデータ内の第1対象物に関する情報(たとえば、第1対象物の画像)と、取得処理によって取得された第2対象物に関する情報(たとえば、第2対象物に関するデータ内の第2対象物の画像)と、に基づいて、第1対象物と第2対象物との同一性を判定する処理である。判定処理は、たとえば、人物同定プログラム314に相当する。
格納処理は、判定処理によって同一性ありと判定された場合、第2対象物に関するデータを第1対象物に関するデータに関連付けて第1記憶デバイス302(実世界DB341および時系列DB342)に格納し、判定処理によって同一性なしと判定された場合、第2対象物に関するデータを第1対象物に関するデータに関連付けずに第1記憶デバイス302に格納する処理である。
これにより、複数の異なる処理のいずれかの処理(たとえば、物販支援)で得られた第1対象物に関するデータと、他の処理(たとえば、案内)で得られた第2対象物に関するデータとを関連付けることができる。これにより、複数の異なる処理で連携しながらどの対象物がいつどこに存在するかを特定することができる。
また、第1記憶デバイス302は、第1プロセッサ301がいずれか1つの処理を実行したことにより、特定のデータ取得装置(ロボット20)が第3対象物を検出してからの第3対象物の一連の位置、画像、および第3対象物からの音声を示す時系列データを第3対象物に関するデータとして記憶する。この場合、第1プロセッサ301は、複数の異なる処理のうち特定のデータ取得装置を制御する処理で、取得処理、判定処理、および格納処理を実行する。
取得処理では、第1プロセッサ301は、特定のデータ取得装置が第4対象物を検出してからの第4対象物の一連の位置、画像および前記第4対象物からの音声を示す時系列データを第4対象物に関するデータとして前記特定のデータ取得装置から取得する。
また、判定処理では、第1プロセッサ301は、第1記憶デバイス302に記憶されている第3対象物に関するデータ内の第3対象物の画像と、取得処理によって取得された第4対象物に関するデータ内の第4対象物の画像と、に基づいて、第3対象物と第4対象物との同一性を判定する。
また、格納処理では、第1プロセッサ301は、判定処理によって同一性ありと判定された場合、第4対象物に関するデータを第3対象物に関するデータに関連付けて第1記憶デバイス302に格納し、判定処理によって同一性なしと判定された場合、第4対象物に関するデータを第3対象物に関するデータに関連付けずに第1記憶デバイス302に格納する。
これにより、複数の異なる処理のいずれかの処理(たとえば、物販支援)で得られた第3対象物に関するデータと、他の処理(たとえば、案内)で得られた第4対象物に関するデータとを関連付けることができる。これにより、複数の異なる処理で連携しながらどの対象物がいつどこで音声を発したかを特定することができる。
また、取得処理、判定処理、および格納処理を実行することにより、第4対象物は、音声の時系列データを含まない第1対象物と関連付けられてもよい。同様に、取得処理、判定処理、および格納処理を実行することにより、第2対象物は、音声の時系列データを含む第3対象物と関連付けられてもよい。
また、第1プロセッサ301は、複数の異なる処理のうち特定のデータ取得装置を制御する処理で、第4対象物の画像の特徴に基づいて、第4対象物が人物であると認識する認識処理を実行する。認識処理は、たとえば、人物像検出・認識プログラム311と顔検出・認識プログラム312とに相当する。これにより、対象物が人物であることが特定される。
また、第1プロセッサ301は、複数の異なる処理のうち特定のデータ取得装置を制御する処理で、取得処理、認識処理、および送信処理を実行する。取得処理では、第1プロセッサ301は、特定のデータ取得装置が第4対象物から所定距離以内に存在する第5対象物を検出してからの第5対象物の一連の位置、画像および第5対象物からの音声を示す時系列データを第5対象物に関するデータとして特定のデータ取得装置から取得する。第5対象物は、たとえば、だい4対象物(人物Ha)と対話する店員Hbである。認識処理において、第1プロセッサ301は、第5対象物の画像の特徴に基づいて、第5対象物が人物であると認識する。送信処理では、第1プロセッサ301は、第5対象物が第4対象物から所定距離以内に存在する時間帯における第4対象物に関するデータを、第5対象物の端末に送信する。
これにより、店員である人物Hbは、いつどこでだれとどのような会話をしたかを確認することができる。また、人物Haの個人DB946を参照することができるため、人物Haの空間1内での時系列な移動軌跡も確認することができる。したがって、人物Hbは人物Haの嗜好を特定して物販に役立てることができる。
また、第1プロセッサ301は、複数の異なる処理のうち特定のデータ取得装置を制御する処理で、取得処理において、端末からの入力情報を取得し、格納処理において、入力情報を第4対象物に関するデータに関連付けて格納する。
また、特定のデータ取得装置は、空間1内を移動可能なロボット20であり、第1プロセッサ301は、複数の異なる処理のうち特定のデータ取得装置を制御する処理で、特定のデータ取得装置が人物の接近を検出した場合に、取得処理を実行する。これにより、ロボット20に接近した人物に対して上述した案内のタスクを実行することができる。
また、特定のデータ取得装置は、空間1内を移動可能なロボット20であり、第1プロセッサ301は、複数の異なる処理のうち特定のデータ取得装置を制御する処理で、特定のデータ取得装置が人物を検出した場合に人物に移動させ、取得処理を実行する。これにより、ロボット20から人物に接近して上述した物販支援のタスクを実行することができる。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加、削除、または置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
10 制御装置
20 ロボット
30 環境カメラ
200 制御システム
201 データ処理装置群
301 第1プロセッサ
302 第1記憶デバイス
310 メディア処理プログラム
323 統合制御プログラム
341 実世界DB
342 時系列DB

Claims (6)

  1. 空間内に存在する対象物の位置および画像を取得可能な1以上のデータ取得装置を含むデータ取得装置群を制御して、前記空間内または前記対象物に対する複数の異なる処理を実行する制御装置であって、
    前記データ取得装置群は、前記対象物の位置、画像および前記対象物からの音声を取得可能な特定のデータ取得装置を含み、
    前記複数の異なる処理に関するプログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記データ取得装置群および端末と通信可能な通信インタフェースと、を有し、
    前記記憶デバイスは、前記プロセッサが前記複数の異なる処理のうちいずれか1つの処理を実行したことにより、前記データ取得装置が第1対象物を検出してからの第1対象物の一連の位置および画像を示す時系列データを第1対象物に関するデータとして記憶しており、
    前記プロセッサは、前記複数の異なる処理の各々の処理で、
    前記データ取得装置が第2対象物を検出してからの前記第2対象物の一連の位置および画像を示す時系列データを第2対象物に関するデータとして前記データ取得装置から取得する取得処理と、
    前記記憶デバイスに記憶されている前記第1対象物に関するデータ内の前記第1対象物の画像と、前記取得処理によって取得された第2対象物に関するデータ内の前記第2対象物の画像と、に基づいて、前記第1対象物と前記第2対象物との同一性を判定する判定処理と、
    前記判定処理によって同一性ありと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けずに前記記憶デバイスに格納する格納処理と、を実行し、
    前記記憶デバイスは、前記プロセッサが前記いずれか1つの処理を実行したことにより、前記特定のデータ取得装置が第3対象物を検出してからの第3対象物の一連の位置、画像、および前記第3対象物からの音声を示す時系列データを第3対象物に関するデータとして記憶し、
    前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
    前記取得処理において、前記特定のデータ取得装置が第4対象物を検出してからの前記第4対象物の一連の位置、画像および前記第4対象物からの音声を示す時系列データを第4対象物に関するデータとして前記特定のデータ取得装置から取得し、
    前記判定処理において、前記記憶デバイスに記憶されている前記第3対象物に関するデータ内の前記第3対象物の画像と、前記取得処理によって取得された第4対象物に関するデータ内の前記第4対象物の画像と、に基づいて、前記第3対象物と前記第4対象物との同一性を判定し、
    前記格納処理において、前記判定処理によって同一性ありと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けずに前記記憶デバイスに格納し、
    前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、前記第4対象物の画像の特徴に基づいて、前記第4対象物が人物であるか否かを認識する認識処理を実行し、
    前記認識処理によって前記第4対象物が人物であると認識された場合、前記判定処理を実行し、
    記取得処理において、前記特定のデータ取得装置が前記第4対象物から所定距離以内に存在する第5対象物を検出してからの前記第5対象物の一連の位置、画像および前記第5対象物からの音声を示す時系列データを第5対象物に関するデータとして前記特定のデータ取得装置から取得し、
    前記認識処理において、前記第5対象物の画像の特徴に基づいて、前記第5対象物が人物であるか否かを認識し、
    前記第5対象物が前記第4対象物から前記所定距離以内に存在する時間帯における前記第4対象物に関するデータを、前記第5対象物の端末に送信する送信処理を実行することを特徴とする制御装置。
  2. 請求項1に記載の制御装置であって、
    前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
    前記取得処理において、前記端末からの入力情報を取得し、
    前記格納処理において、前記入力情報を前記第4対象物に関するデータに関連付けて格納することを特徴とする制御装置。
  3. 請求項1に記載の制御装置であって、
    前記特定のデータ取得装置は、前記空間内を移動可能なロボットであり、
    前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
    前記特定のデータ取得装置が前記人物の接近を検出した場合に、前記取得処理を実行することを特徴とする制御装置。
  4. 請求項1に記載の制御装置であって、
    前記特定のデータ取得装置は、前記空間内を移動可能なロボットであり、
    前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
    前記特定のデータ取得装置が前記人物を検出した場合に前記人物に移動させ、前記取得処理を実行することを特徴とする制御装置。
  5. 空間内に存在する対象物の位置および画像を取得可能な1以上のデータ取得装置を含むデータ取得装置群と、前記データ取得装置群を制御して、前記空間内または前記対象物に対する複数の異なる処理を実行する制御装置と、を有する制御システムであって、
    前記データ取得装置群は、前記対象物の位置、画像および前記対象物からの音声を取得可能な特定のデータ取得装置を含み、
    前記制御装置は、
    前記複数の異なる処理に関するプログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記データ取得装置群および端末と通信可能な通信インタフェースと、を有し、
    前記記憶デバイスは、前記プロセッサが前記複数の異なる処理のうちいずれか1つの処理を実行したことにより、前記データ取得装置が第1対象物を検出してからの第1対象物の一連の位置および画像を示す時系列データを第1対象物に関するデータとして記憶しており、
    前記プロセッサは、前記複数の異なる処理の各々の処理で、
    前記データ取得装置が第2対象物を検出してからの前記第2対象物の一連の位置および画像を示す時系列データを第2対象物に関するデータとして前記データ取得装置から取得する取得処理と、
    前記記憶デバイスに記憶されている前記第1対象物に関するデータ内の前記第1対象物の画像と、前記取得処理によって取得された第2対象物に関するデータ内の前記第2対象物の画像と、に基づいて、前記第1対象物と前記第2対象物との同一性を判定する判定処理と、
    前記判定処理によって同一性ありと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けずに前記記憶デバイスに格納する格納処理と、を実行し、
    前記記憶デバイスは、前記プロセッサが前記いずれか1つの処理を実行したことにより、前記特定のデータ取得装置が第3対象物を検出してからの第3対象物の一連の位置、画像、および前記第3対象物からの音声を示す時系列データを第3対象物に関するデータとして記憶し、
    前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
    前記取得処理において、前記特定のデータ取得装置が第4対象物を検出してからの前記第4対象物の一連の位置、画像および前記第4対象物からの音声を示す時系列データを第4対象物に関するデータとして前記特定のデータ取得装置から取得し、
    前記判定処理において、前記記憶デバイスに記憶されている前記第3対象物に関するデータ内の前記第3対象物の画像と、前記取得処理によって取得された第4対象物に関するデータ内の前記第4対象物の画像と、に基づいて、前記第3対象物と前記第4対象物との同一性を判定し、
    前記格納処理において、前記判定処理によって同一性ありと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けずに前記記憶デバイスに格納し、
    前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、前記第4対象物の画像の特徴に基づいて、前記第4対象物が人物であるか否かを認識する認識処理を実行し、
    前記認識処理によって前記第4対象物が人物であると認識された場合、前記判定処理を実行し、
    前記取得処理において、前記特定のデータ取得装置が前記第4対象物から所定距離以内に存在する第5対象物を検出してからの前記第5対象物の一連の位置、画像および前記第5対象物からの音声を示す時系列データを第5対象物に関するデータとして前記特定のデータ取得装置から取得し、
    前記認識処理において、前記第5対象物の画像の特徴に基づいて、前記第5対象物が人物であるか否かを認識し、
    前記第5対象物が前記第4対象物から前記所定距離以内に存在する時間帯における前記第4対象物に関するデータを、前記第5対象物の端末に送信する送信処理を実行することを特徴とする制御システム。
  6. 空間内に存在する対象物の位置および画像を取得可能な1以上のデータ取得装置を含むデータ取得装置群を制御して、前記空間内または前記対象物に対する複数の異なる処理を実行する制御装置による制御方法であって、
    前記データ取得装置群は、前記対象物の位置、画像および前記対象物からの音声を取得可能な特定のデータ取得装置を含み、
    前記制御装置は、
    前記複数の異なる処理に関するプログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記データ取得装置群および端末と通信可能な通信インタフェースと、を有し、
    前記記憶デバイスは、前記プロセッサが前記複数の異なる処理のうちいずれか1つの処理を実行したことにより、前記データ取得装置が第1対象物を検出してからの第1対象物の一連の位置および画像を示す時系列データを第1対象物に関するデータとして記憶しており、
    前記プロセッサは、前記複数の異なる処理の各々の処理で、
    前記データ取得装置が第2対象物を検出してからの前記第2対象物の一連の位置および画像を示す時系列データを第2対象物に関するデータとして前記データ取得装置から取得する取得処理と、
    前記記憶デバイスに記憶されている前記第1対象物に関するデータ内の前記第1対象物の画像と、前記取得処理によって取得された第2対象物に関するデータ内の前記第2対象物の画像と、に基づいて、前記第1対象物と前記第2対象物との同一性を判定する判定処理と、
    前記判定処理によって同一性ありと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けずに前記記憶デバイスに格納する格納処理と、を実行し、
    前記記憶デバイスは、前記プロセッサが前記いずれか1つの処理を実行したことにより、前記特定のデータ取得装置が第3対象物を検出してからの第3対象物の一連の位置、画像、および前記第3対象物からの音声を示す時系列データを第3対象物に関するデータとして記憶し、
    前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
    前記取得処理において、前記特定のデータ取得装置が第4対象物を検出してからの前記第4対象物の一連の位置、画像および前記第4対象物からの音声を示す時系列データを第4対象物に関するデータとして前記特定のデータ取得装置から取得し、
    前記判定処理において、前記記憶デバイスに記憶されている前記第3対象物に関するデータ内の前記第3対象物の画像と、前記取得処理によって取得された第4対象物に関するデータ内の前記第4対象物の画像と、に基づいて、前記第3対象物と前記第4対象物との同一性を判定し、
    前記格納処理において、前記判定処理によって同一性ありと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けずに前記記憶デバイスに格納し、
    前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、前記第4対象物の画像の特徴に基づいて、前記第4対象物が人物であるか否かを認識する認識処理を実行し、
    前記認識処理によって前記第4対象物が人物であると認識された場合、前記判定処理を実行し、
    前記取得処理において、前記特定のデータ取得装置が前記第4対象物から所定距離以内に存在する第5対象物を検出してからの前記第5対象物の一連の位置、画像および前記第5対象物からの音声を示す時系列データを第5対象物に関するデータとして前記特定のデータ取得装置から取得し、
    前記認識処理において、前記第5対象物の画像の特徴に基づいて、前記第5対象物が人物であるか否かを認識し、
    前記第5対象物が前記第4対象物から前記所定距離以内に存在する時間帯における前記第4対象物に関するデータを、前記第5対象物の端末に送信する送信処理を実行することを特徴とする制御方法。
JP2016140185A 2016-07-15 2016-07-15 制御装置、制御システム、および制御方法 Expired - Fee Related JP6681800B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016140185A JP6681800B2 (ja) 2016-07-15 2016-07-15 制御装置、制御システム、および制御方法
EP17179639.4A EP3279754A1 (en) 2016-07-15 2017-07-04 Control apparatus, control system, and control method
US15/648,568 US10339381B2 (en) 2016-07-15 2017-07-13 Control apparatus, control system, and control method
CN201710569506.8A CN107618036B (zh) 2016-07-15 2017-07-13 控制装置、控制***和控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016140185A JP6681800B2 (ja) 2016-07-15 2016-07-15 制御装置、制御システム、および制御方法

Publications (2)

Publication Number Publication Date
JP2018008358A JP2018008358A (ja) 2018-01-18
JP6681800B2 true JP6681800B2 (ja) 2020-04-15

Family

ID=59298264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016140185A Expired - Fee Related JP6681800B2 (ja) 2016-07-15 2016-07-15 制御装置、制御システム、および制御方法

Country Status (4)

Country Link
US (1) US10339381B2 (ja)
EP (1) EP3279754A1 (ja)
JP (1) JP6681800B2 (ja)
CN (1) CN107618036B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6985230B2 (ja) * 2018-09-19 2021-12-22 株式会社日立製作所 業務分析サーバ、業務分析方法、および業務分析プログラム
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
EP3900885A4 (en) * 2018-12-21 2022-09-28 LG Electronics Inc. METHOD OF ROBOT CONTROL
CN109605403B (zh) * 2019-01-25 2020-12-11 北京妙趣伙伴科技有限公司 机器人及其操作***、控制装置、控制方法及存储介质
CN114450726A (zh) * 2019-10-03 2022-05-06 索尼集团公司 数据处理装置、数据处理方法和机器人

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850818B2 (en) * 2001-10-22 2005-02-01 Sony Corporation Robot apparatus and control method thereof
JP3529049B2 (ja) * 2002-03-06 2004-05-24 ソニー株式会社 学習装置及び学習方法並びにロボット装置
JP4115329B2 (ja) * 2003-04-22 2008-07-09 株式会社リコー 顧客管理システム、該システムの機能を実現するプログラム及び記録媒体
JP2005131713A (ja) 2003-10-28 2005-05-26 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005293052A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 顧客応対ロボット
JP4539600B2 (ja) * 2006-04-11 2010-09-08 トヨタ自動車株式会社 案内ロボット
JP4786516B2 (ja) 2006-12-13 2011-10-05 三菱重工業株式会社 ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム
JP5438419B2 (ja) * 2009-07-29 2014-03-12 富士フイルム株式会社 人物照合装置及び人物照合方法
JP5732632B2 (ja) 2011-02-03 2015-06-10 株式会社国際電気通信基礎技術研究所 ロボットシステムおよびそれに用いる空間陣形認識装置
JP5765153B2 (ja) * 2011-09-12 2015-08-19 日本電気株式会社 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム
JP6069826B2 (ja) * 2011-11-25 2017-02-01 ソニー株式会社 画像処理装置、プログラム、画像処理方法及び端末装置
JP2013192154A (ja) * 2012-03-15 2013-09-26 Omron Corp 監視装置、信頼度算出プログラム、および信頼度算出方法
JP6025037B2 (ja) * 2012-10-25 2016-11-16 パナソニックIpマネジメント株式会社 音声エージェント装置、及びその制御方法
US9355368B2 (en) * 2013-03-14 2016-05-31 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform
JP5807170B2 (ja) * 2013-03-21 2015-11-10 パナソニックIpマネジメント株式会社 自律走行装置の自律走行制御方法及び装置並びに自律走行制御装置用プログラム
US10366689B2 (en) * 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
JP6635690B2 (ja) * 2015-06-23 2020-01-29 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN106547338A (zh) * 2015-09-22 2017-03-29 小米科技有限责任公司 指令生成方法及装置
US9984309B2 (en) * 2015-09-30 2018-05-29 International Business Machines Corporation Classifying and grouping electronic images
US9911213B2 (en) * 2015-12-18 2018-03-06 Ricoh Co., Ltd. Panoramic image stitching using objects

Also Published As

Publication number Publication date
CN107618036A (zh) 2018-01-23
EP3279754A1 (en) 2018-02-07
JP2018008358A (ja) 2018-01-18
CN107618036B (zh) 2020-11-06
US20180018520A1 (en) 2018-01-18
US10339381B2 (en) 2019-07-02

Similar Documents

Publication Publication Date Title
JP6681800B2 (ja) 制御装置、制御システム、および制御方法
US10628714B2 (en) Entity-tracking computing system
Kumar et al. RETRACTED ARTICLE: Intelligent face recognition and navigation system using neural learning for smart security in Internet of Things
US11769159B2 (en) System and method for human emotion and identity detection
JP6502491B2 (ja) 顧客サービスロボットおよび関連するシステムおよび方法
US11238871B2 (en) Electronic device and control method thereof
US6686844B2 (en) Human interface system using a plurality of sensors
JP5495235B2 (ja) 監視対象者の行動を監視する装置及び方法
US11407106B2 (en) Electronic device capable of moving and operating method thereof
Schiffer et al. Caesar: an intelligent domestic service robot
JP7375748B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN109765991A (zh) 社交互动***、用于帮助用户进行社交互动的***及非暂时性计算机可读存储介质
US10836044B2 (en) Robot control device and robot control method
JP2019174164A (ja) 物体認識情報及び受信電磁波情報に係るモデルを用いて端末位置を推定する装置、プログラム及び方法
JP2019217558A (ja) 対話システム及び対話システムの制御方法
JP2023133410A (ja) 対話制御装置、対話システム、対話制御方法及びプログラム
JP6886651B2 (ja) 行動コマンド生成システム、応答システムおよび行動コマンド生成方法
CN110192175A (zh) 计算机可导航物理特征图的导航
CN111919250B (zh) 传达非语言提示的智能助理设备
WO2021053949A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Ling Indoor navigation for the visually impaired by reading shop trademarks in shopping mall
JP2022184032A (ja) 表情認識装置、対話ロボット、表情認識システム、表情認識方法、及びプログラム
WO2024013092A1 (en) Systems and methods for automatic extraction and alignment of labels derived from camera feed for moving sound sources recorded with a microphone array
JP2022072875A (ja) 音声対話装置、音声対話装置の制御方法及びプログラム
JP2013232243A (ja) グループ行動推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200324

R150 Certificate of patent or registration of utility model

Ref document number: 6681800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees