JP6681800B2 - 制御装置、制御システム、および制御方法 - Google Patents
制御装置、制御システム、および制御方法 Download PDFInfo
- Publication number
- JP6681800B2 JP6681800B2 JP2016140185A JP2016140185A JP6681800B2 JP 6681800 B2 JP6681800 B2 JP 6681800B2 JP 2016140185 A JP2016140185 A JP 2016140185A JP 2016140185 A JP2016140185 A JP 2016140185A JP 6681800 B2 JP6681800 B2 JP 6681800B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- data acquisition
- acquisition device
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 167
- 230000008569 process Effects 0.000 claims description 153
- 238000012545 processing Methods 0.000 claims description 83
- 238000001514 detection method Methods 0.000 claims description 37
- 230000005540 biological transmission Effects 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 11
- 238000013459 approach Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 16
- 230000007613 environmental effect Effects 0.000 description 13
- 238000012544 monitoring process Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000000547 structure data Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
- G05B19/0423—Input/output
- G05B19/0425—Safety, monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Toys (AREA)
Description
図1は、本実施例にかかる制御システムの利用例を示す説明図である。空間1は、たとえば、商業施設のように、人物Hが出入口2から入退場して、人物Hが商品を購入したり、サービスの提供を受けたりする空間である。空間1は、制御装置10により制御される。制御装置10は、空間1に設けられたデータ処理装置を制御する。データ処理装置には、移動式のデータ処理装置と、固定式のデータ処理装置と、がある。
図2は、制御システムのハードウェア構成例を示すブロック図である。制御システム200は、制御装置10や、データ処理装置群201、遺失物管理システム1130が、LAN(Local Area Network),WAN(Wide Area Network),インターネットなどのネットワーク202を介して通信可能に接続されるシステムである。遺失物管理システム1130は、遺失物の画像、拾得日時、拾得場所、拾得者といった遺失物情報が管理されているシステムである。
図3は、制御装置10のハードウェア構成例を示すブロック図である。制御装置10は、第1プロセッサ301と、第1記憶デバイス302と、第1通信IF(Interface)303と、これらを接続するバス304と、を有する。第1プロセッサ301は、第1記憶デバイス302の一部を作業エリアとして制御装置10を制御する。第1プロセッサ301は、第1記憶デバイス302に記憶されているプログラムを実行したり、第1記憶デバイス302に記憶されているモデルを参照したり、実世界DB341および時系列DB342からデータを読み出したり、書き込んだりする。
図4は、ロボット20のハードウェア構成例を示すブロック図である。ロボット20は、第2プロセッサ401と、第2記憶デバイス402と、第2通信IF403と、マイク404と、スピーカ405と、カメラ406と、LIDAR(Laser Imaging Detection and Ranging)407と、移動装置408と、これらを接続するバス304と、を有する。第2プロセッサ401は、第2記憶デバイス402の一部を作業エリアとしてロボット20を制御する。第2プロセッサ401は、第2記憶デバイス402に記憶されているプログラムを実行する。
図5は、実世界DB341および時系列DB342の記憶内容例を示す説明図である。図5は、実世界DB341に記憶されるインデックスと、時系列DB342に記憶される時系列データと、の関連性を説明するために、説明上、実世界DB341および時系列DB342を統合した状態で説明する。記憶されるデータの種類については、図5の凡例に示した通りである。インデックスは、実世界DB341に格納され、時系列データおよびクラスタは、時系列DB342に格納される。クラスタは時系列データのクラスタリング結果である。実世界DB341および時系列DB342に格納されるデータは、データ処理装置の種類ごとにツリー構造を構成する。
つぎに、メディア処理プログラム310による処理手順例について説明する。
つぎに、図9〜図11を用いて、制御システム200の運用例について説明する。図9〜図11では、制御システム200は、物販支援(図9)、案内(図10)、および監視(図11)という3つのタスクを、実世界DB341および時系列DB342を参照し更新しながら実行する。物販支援は、空間1内でロボット20が人物に接近して商品を推薦する処理を、制御装置10がロボット20に実行させる処理である。案内は、空間1内で人物がロボット20に接近した場合にロボット20が当該人物の要求に応じて情報を提供する処理を、制御装置10がロボット20に実行させる処理である。ロボット20ではなく、デジタルサイネージ40でもよい。監視は、空間1内でロボット20が不審者を監視する処理を、制御装置10がロボット20に実行させる処理である。ロボット20ではなく、環境カメラ30でもよい。
図9は、物販支援における実世界DB341および時系列DB342の更新例を示す説明図である。ステップS901において、環境カメラ30が人物Hを撮像して画像911を取得し、取得した画像911から人物像を含む人物領域912を検出する。また、環境カメラ30は、環境カメラ30から人物Hまでの距離とその方向を測定する。制御装置10は、地図DB920を参照して、環境カメラ30があらかじめ保持する自己位置913と、測定した距離および方向と、から、人物領域912の位置である人物位置914を算出する。地図DB920は、グローバル座標系を基準とした空間1の地図データを記憶する。人物位置914は、空間1のグローバル座標系に変換された位置データである。
図10は、案内における実世界DB341および時系列DB342の更新例を示す説明図である。図9と同一データには同一符号を付しその説明を省略する。物販支援では、ロボット20から人物Hに接近したが、案内では、ロボット20が、ロボット20に接近してくる人物Hを検出して案内する。
図11は、案内における実世界DB341および時系列DB342の更新例を示す説明図である。図9および図10と同一データには同一符号を付しその説明を省略する。監視では、ロボット20や環境カメラ30が空間1内を監視する。
20 ロボット
30 環境カメラ
200 制御システム
201 データ処理装置群
301 第1プロセッサ
302 第1記憶デバイス
310 メディア処理プログラム
323 統合制御プログラム
341 実世界DB
342 時系列DB
Claims (6)
- 空間内に存在する対象物の位置および画像を取得可能な1以上のデータ取得装置を含むデータ取得装置群を制御して、前記空間内または前記対象物に対する複数の異なる処理を実行する制御装置であって、
前記データ取得装置群は、前記対象物の位置、画像および前記対象物からの音声を取得可能な特定のデータ取得装置を含み、
前記複数の異なる処理に関するプログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記データ取得装置群および端末と通信可能な通信インタフェースと、を有し、
前記記憶デバイスは、前記プロセッサが前記複数の異なる処理のうちいずれか1つの処理を実行したことにより、前記データ取得装置が第1対象物を検出してからの第1対象物の一連の位置および画像を示す時系列データを第1対象物に関するデータとして記憶しており、
前記プロセッサは、前記複数の異なる処理の各々の処理で、
前記データ取得装置が第2対象物を検出してからの前記第2対象物の一連の位置および画像を示す時系列データを第2対象物に関するデータとして前記データ取得装置から取得する取得処理と、
前記記憶デバイスに記憶されている前記第1対象物に関するデータ内の前記第1対象物の画像と、前記取得処理によって取得された第2対象物に関するデータ内の前記第2対象物の画像と、に基づいて、前記第1対象物と前記第2対象物との同一性を判定する判定処理と、
前記判定処理によって同一性ありと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けずに前記記憶デバイスに格納する格納処理と、を実行し、
前記記憶デバイスは、前記プロセッサが前記いずれか1つの処理を実行したことにより、前記特定のデータ取得装置が第3対象物を検出してからの第3対象物の一連の位置、画像、および前記第3対象物からの音声を示す時系列データを第3対象物に関するデータとして記憶し、
前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
前記取得処理において、前記特定のデータ取得装置が第4対象物を検出してからの前記第4対象物の一連の位置、画像および前記第4対象物からの音声を示す時系列データを第4対象物に関するデータとして前記特定のデータ取得装置から取得し、
前記判定処理において、前記記憶デバイスに記憶されている前記第3対象物に関するデータ内の前記第3対象物の画像と、前記取得処理によって取得された第4対象物に関するデータ内の前記第4対象物の画像と、に基づいて、前記第3対象物と前記第4対象物との同一性を判定し、
前記格納処理において、前記判定処理によって同一性ありと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けずに前記記憶デバイスに格納し、
前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、前記第4対象物の画像の特徴に基づいて、前記第4対象物が人物であるか否かを認識する認識処理を実行し、
前記認識処理によって前記第4対象物が人物であると認識された場合、前記判定処理を実行し、
前記取得処理において、前記特定のデータ取得装置が前記第4対象物から所定距離以内に存在する第5対象物を検出してからの前記第5対象物の一連の位置、画像および前記第5対象物からの音声を示す時系列データを第5対象物に関するデータとして前記特定のデータ取得装置から取得し、
前記認識処理において、前記第5対象物の画像の特徴に基づいて、前記第5対象物が人物であるか否かを認識し、
前記第5対象物が前記第4対象物から前記所定距離以内に存在する時間帯における前記第4対象物に関するデータを、前記第5対象物の端末に送信する送信処理を実行することを特徴とする制御装置。 - 請求項1に記載の制御装置であって、
前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
前記取得処理において、前記端末からの入力情報を取得し、
前記格納処理において、前記入力情報を前記第4対象物に関するデータに関連付けて格納することを特徴とする制御装置。 - 請求項1に記載の制御装置であって、
前記特定のデータ取得装置は、前記空間内を移動可能なロボットであり、
前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
前記特定のデータ取得装置が前記人物の接近を検出した場合に、前記取得処理を実行することを特徴とする制御装置。 - 請求項1に記載の制御装置であって、
前記特定のデータ取得装置は、前記空間内を移動可能なロボットであり、
前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
前記特定のデータ取得装置が前記人物を検出した場合に前記人物に移動させ、前記取得処理を実行することを特徴とする制御装置。 - 空間内に存在する対象物の位置および画像を取得可能な1以上のデータ取得装置を含むデータ取得装置群と、前記データ取得装置群を制御して、前記空間内または前記対象物に対する複数の異なる処理を実行する制御装置と、を有する制御システムであって、
前記データ取得装置群は、前記対象物の位置、画像および前記対象物からの音声を取得可能な特定のデータ取得装置を含み、
前記制御装置は、
前記複数の異なる処理に関するプログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記データ取得装置群および端末と通信可能な通信インタフェースと、を有し、
前記記憶デバイスは、前記プロセッサが前記複数の異なる処理のうちいずれか1つの処理を実行したことにより、前記データ取得装置が第1対象物を検出してからの第1対象物の一連の位置および画像を示す時系列データを第1対象物に関するデータとして記憶しており、
前記プロセッサは、前記複数の異なる処理の各々の処理で、
前記データ取得装置が第2対象物を検出してからの前記第2対象物の一連の位置および画像を示す時系列データを第2対象物に関するデータとして前記データ取得装置から取得する取得処理と、
前記記憶デバイスに記憶されている前記第1対象物に関するデータ内の前記第1対象物の画像と、前記取得処理によって取得された第2対象物に関するデータ内の前記第2対象物の画像と、に基づいて、前記第1対象物と前記第2対象物との同一性を判定する判定処理と、
前記判定処理によって同一性ありと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けずに前記記憶デバイスに格納する格納処理と、を実行し、
前記記憶デバイスは、前記プロセッサが前記いずれか1つの処理を実行したことにより、前記特定のデータ取得装置が第3対象物を検出してからの第3対象物の一連の位置、画像、および前記第3対象物からの音声を示す時系列データを第3対象物に関するデータとして記憶し、
前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
前記取得処理において、前記特定のデータ取得装置が第4対象物を検出してからの前記第4対象物の一連の位置、画像および前記第4対象物からの音声を示す時系列データを第4対象物に関するデータとして前記特定のデータ取得装置から取得し、
前記判定処理において、前記記憶デバイスに記憶されている前記第3対象物に関するデータ内の前記第3対象物の画像と、前記取得処理によって取得された第4対象物に関するデータ内の前記第4対象物の画像と、に基づいて、前記第3対象物と前記第4対象物との同一性を判定し、
前記格納処理において、前記判定処理によって同一性ありと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けずに前記記憶デバイスに格納し、
前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、前記第4対象物の画像の特徴に基づいて、前記第4対象物が人物であるか否かを認識する認識処理を実行し、
前記認識処理によって前記第4対象物が人物であると認識された場合、前記判定処理を実行し、
前記取得処理において、前記特定のデータ取得装置が前記第4対象物から所定距離以内に存在する第5対象物を検出してからの前記第5対象物の一連の位置、画像および前記第5対象物からの音声を示す時系列データを第5対象物に関するデータとして前記特定のデータ取得装置から取得し、
前記認識処理において、前記第5対象物の画像の特徴に基づいて、前記第5対象物が人物であるか否かを認識し、
前記第5対象物が前記第4対象物から前記所定距離以内に存在する時間帯における前記第4対象物に関するデータを、前記第5対象物の端末に送信する送信処理を実行することを特徴とする制御システム。 - 空間内に存在する対象物の位置および画像を取得可能な1以上のデータ取得装置を含むデータ取得装置群を制御して、前記空間内または前記対象物に対する複数の異なる処理を実行する制御装置による制御方法であって、
前記データ取得装置群は、前記対象物の位置、画像および前記対象物からの音声を取得可能な特定のデータ取得装置を含み、
前記制御装置は、
前記複数の異なる処理に関するプログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記データ取得装置群および端末と通信可能な通信インタフェースと、を有し、
前記記憶デバイスは、前記プロセッサが前記複数の異なる処理のうちいずれか1つの処理を実行したことにより、前記データ取得装置が第1対象物を検出してからの第1対象物の一連の位置および画像を示す時系列データを第1対象物に関するデータとして記憶しており、
前記プロセッサは、前記複数の異なる処理の各々の処理で、
前記データ取得装置が第2対象物を検出してからの前記第2対象物の一連の位置および画像を示す時系列データを第2対象物に関するデータとして前記データ取得装置から取得する取得処理と、
前記記憶デバイスに記憶されている前記第1対象物に関するデータ内の前記第1対象物の画像と、前記取得処理によって取得された第2対象物に関するデータ内の前記第2対象物の画像と、に基づいて、前記第1対象物と前記第2対象物との同一性を判定する判定処理と、
前記判定処理によって同一性ありと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第2対象物に関するデータを前記第1対象物に関するデータに関連付けずに前記記憶デバイスに格納する格納処理と、を実行し、
前記記憶デバイスは、前記プロセッサが前記いずれか1つの処理を実行したことにより、前記特定のデータ取得装置が第3対象物を検出してからの第3対象物の一連の位置、画像、および前記第3対象物からの音声を示す時系列データを第3対象物に関するデータとして記憶し、
前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、
前記取得処理において、前記特定のデータ取得装置が第4対象物を検出してからの前記第4対象物の一連の位置、画像および前記第4対象物からの音声を示す時系列データを第4対象物に関するデータとして前記特定のデータ取得装置から取得し、
前記判定処理において、前記記憶デバイスに記憶されている前記第3対象物に関するデータ内の前記第3対象物の画像と、前記取得処理によって取得された第4対象物に関するデータ内の前記第4対象物の画像と、に基づいて、前記第3対象物と前記第4対象物との同一性を判定し、
前記格納処理において、前記判定処理によって同一性ありと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けて前記記憶デバイスに格納し、前記判定処理によって同一性なしと判定された場合、前記第4対象物に関するデータを前記第3対象物に関するデータに関連付けずに前記記憶デバイスに格納し、
前記プロセッサは、前記複数の異なる処理のうち前記特定のデータ取得装置を制御する処理で、前記第4対象物の画像の特徴に基づいて、前記第4対象物が人物であるか否かを認識する認識処理を実行し、
前記認識処理によって前記第4対象物が人物であると認識された場合、前記判定処理を実行し、
前記取得処理において、前記特定のデータ取得装置が前記第4対象物から所定距離以内に存在する第5対象物を検出してからの前記第5対象物の一連の位置、画像および前記第5対象物からの音声を示す時系列データを第5対象物に関するデータとして前記特定のデータ取得装置から取得し、
前記認識処理において、前記第5対象物の画像の特徴に基づいて、前記第5対象物が人物であるか否かを認識し、
前記第5対象物が前記第4対象物から前記所定距離以内に存在する時間帯における前記第4対象物に関するデータを、前記第5対象物の端末に送信する送信処理を実行することを特徴とする制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016140185A JP6681800B2 (ja) | 2016-07-15 | 2016-07-15 | 制御装置、制御システム、および制御方法 |
EP17179639.4A EP3279754A1 (en) | 2016-07-15 | 2017-07-04 | Control apparatus, control system, and control method |
US15/648,568 US10339381B2 (en) | 2016-07-15 | 2017-07-13 | Control apparatus, control system, and control method |
CN201710569506.8A CN107618036B (zh) | 2016-07-15 | 2017-07-13 | 控制装置、控制***和控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016140185A JP6681800B2 (ja) | 2016-07-15 | 2016-07-15 | 制御装置、制御システム、および制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018008358A JP2018008358A (ja) | 2018-01-18 |
JP6681800B2 true JP6681800B2 (ja) | 2020-04-15 |
Family
ID=59298264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016140185A Expired - Fee Related JP6681800B2 (ja) | 2016-07-15 | 2016-07-15 | 制御装置、制御システム、および制御方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10339381B2 (ja) |
EP (1) | EP3279754A1 (ja) |
JP (1) | JP6681800B2 (ja) |
CN (1) | CN107618036B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6985230B2 (ja) * | 2018-09-19 | 2021-12-22 | 株式会社日立製作所 | 業務分析サーバ、業務分析方法、および業務分析プログラム |
KR102228866B1 (ko) * | 2018-10-18 | 2021-03-17 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
EP3900885A4 (en) * | 2018-12-21 | 2022-09-28 | LG Electronics Inc. | METHOD OF ROBOT CONTROL |
CN109605403B (zh) * | 2019-01-25 | 2020-12-11 | 北京妙趣伙伴科技有限公司 | 机器人及其操作***、控制装置、控制方法及存储介质 |
CN114450726A (zh) * | 2019-10-03 | 2022-05-06 | 索尼集团公司 | 数据处理装置、数据处理方法和机器人 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6850818B2 (en) * | 2001-10-22 | 2005-02-01 | Sony Corporation | Robot apparatus and control method thereof |
JP3529049B2 (ja) * | 2002-03-06 | 2004-05-24 | ソニー株式会社 | 学習装置及び学習方法並びにロボット装置 |
JP4115329B2 (ja) * | 2003-04-22 | 2008-07-09 | 株式会社リコー | 顧客管理システム、該システムの機能を実現するプログラム及び記録媒体 |
JP2005131713A (ja) | 2003-10-28 | 2005-05-26 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2005293052A (ja) * | 2004-03-31 | 2005-10-20 | Honda Motor Co Ltd | 顧客応対ロボット |
JP4539600B2 (ja) * | 2006-04-11 | 2010-09-08 | トヨタ自動車株式会社 | 案内ロボット |
JP4786516B2 (ja) | 2006-12-13 | 2011-10-05 | 三菱重工業株式会社 | ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム |
JP5438419B2 (ja) * | 2009-07-29 | 2014-03-12 | 富士フイルム株式会社 | 人物照合装置及び人物照合方法 |
JP5732632B2 (ja) | 2011-02-03 | 2015-06-10 | 株式会社国際電気通信基礎技術研究所 | ロボットシステムおよびそれに用いる空間陣形認識装置 |
JP5765153B2 (ja) * | 2011-09-12 | 2015-08-19 | 日本電気株式会社 | 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム |
JP6069826B2 (ja) * | 2011-11-25 | 2017-02-01 | ソニー株式会社 | 画像処理装置、プログラム、画像処理方法及び端末装置 |
JP2013192154A (ja) * | 2012-03-15 | 2013-09-26 | Omron Corp | 監視装置、信頼度算出プログラム、および信頼度算出方法 |
JP6025037B2 (ja) * | 2012-10-25 | 2016-11-16 | パナソニックIpマネジメント株式会社 | 音声エージェント装置、及びその制御方法 |
US9355368B2 (en) * | 2013-03-14 | 2016-05-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform |
JP5807170B2 (ja) * | 2013-03-21 | 2015-11-10 | パナソニックIpマネジメント株式会社 | 自律走行装置の自律走行制御方法及び装置並びに自律走行制御装置用プログラム |
US10366689B2 (en) * | 2014-10-29 | 2019-07-30 | Kyocera Corporation | Communication robot |
JP6635690B2 (ja) * | 2015-06-23 | 2020-01-29 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN106547338A (zh) * | 2015-09-22 | 2017-03-29 | 小米科技有限责任公司 | 指令生成方法及装置 |
US9984309B2 (en) * | 2015-09-30 | 2018-05-29 | International Business Machines Corporation | Classifying and grouping electronic images |
US9911213B2 (en) * | 2015-12-18 | 2018-03-06 | Ricoh Co., Ltd. | Panoramic image stitching using objects |
-
2016
- 2016-07-15 JP JP2016140185A patent/JP6681800B2/ja not_active Expired - Fee Related
-
2017
- 2017-07-04 EP EP17179639.4A patent/EP3279754A1/en not_active Withdrawn
- 2017-07-13 US US15/648,568 patent/US10339381B2/en not_active Expired - Fee Related
- 2017-07-13 CN CN201710569506.8A patent/CN107618036B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN107618036A (zh) | 2018-01-23 |
EP3279754A1 (en) | 2018-02-07 |
JP2018008358A (ja) | 2018-01-18 |
CN107618036B (zh) | 2020-11-06 |
US20180018520A1 (en) | 2018-01-18 |
US10339381B2 (en) | 2019-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6681800B2 (ja) | 制御装置、制御システム、および制御方法 | |
US10628714B2 (en) | Entity-tracking computing system | |
Kumar et al. | RETRACTED ARTICLE: Intelligent face recognition and navigation system using neural learning for smart security in Internet of Things | |
US11769159B2 (en) | System and method for human emotion and identity detection | |
JP6502491B2 (ja) | 顧客サービスロボットおよび関連するシステムおよび方法 | |
US11238871B2 (en) | Electronic device and control method thereof | |
US6686844B2 (en) | Human interface system using a plurality of sensors | |
JP5495235B2 (ja) | 監視対象者の行動を監視する装置及び方法 | |
US11407106B2 (en) | Electronic device capable of moving and operating method thereof | |
Schiffer et al. | Caesar: an intelligent domestic service robot | |
JP7375748B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN109765991A (zh) | 社交互动***、用于帮助用户进行社交互动的***及非暂时性计算机可读存储介质 | |
US10836044B2 (en) | Robot control device and robot control method | |
JP2019174164A (ja) | 物体認識情報及び受信電磁波情報に係るモデルを用いて端末位置を推定する装置、プログラム及び方法 | |
JP2019217558A (ja) | 対話システム及び対話システムの制御方法 | |
JP2023133410A (ja) | 対話制御装置、対話システム、対話制御方法及びプログラム | |
JP6886651B2 (ja) | 行動コマンド生成システム、応答システムおよび行動コマンド生成方法 | |
CN110192175A (zh) | 计算机可导航物理特征图的导航 | |
CN111919250B (zh) | 传达非语言提示的智能助理设备 | |
WO2021053949A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Ling | Indoor navigation for the visually impaired by reading shop trademarks in shopping mall | |
JP2022184032A (ja) | 表情認識装置、対話ロボット、表情認識システム、表情認識方法、及びプログラム | |
WO2024013092A1 (en) | Systems and methods for automatic extraction and alignment of labels derived from camera feed for moving sound sources recorded with a microphone array | |
JP2022072875A (ja) | 音声対話装置、音声対話装置の制御方法及びプログラム | |
JP2013232243A (ja) | グループ行動推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200324 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6681800 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |