JP7351383B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7351383B2 JP7351383B2 JP2022122003A JP2022122003A JP7351383B2 JP 7351383 B2 JP7351383 B2 JP 7351383B2 JP 2022122003 A JP2022122003 A JP 2022122003A JP 2022122003 A JP2022122003 A JP 2022122003A JP 7351383 B2 JP7351383 B2 JP 7351383B2
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- reliability
- action
- source direction
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 83
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000011156 evaluation Methods 0.000 claims description 197
- 230000009471 action Effects 0.000 claims description 112
- 230000010391 action planning Effects 0.000 claims description 69
- 230000004807 localization Effects 0.000 claims description 58
- 230000006870 function Effects 0.000 claims description 38
- 230000008859 change Effects 0.000 claims description 34
- 230000033001 locomotion Effects 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 21
- 230000001419 dependent effect Effects 0.000 claims description 20
- 238000010586 diagram Methods 0.000 description 36
- 238000004364 calculation method Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 22
- 210000003128 head Anatomy 0.000 description 20
- 238000004458 analytical method Methods 0.000 description 11
- 238000000034 method Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 7
- 241000282472 Canis lupus familiaris Species 0.000 description 6
- 230000006399 behavior Effects 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 230000012447 hatching Effects 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 210000005069 ears Anatomy 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
- A63H11/18—Figure toys which perform a realistic walking motion
- A63H11/20—Figure toys which perform a realistic walking motion with pairs of legs, e.g. horses
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H13/00—Toy figures with self-moving parts, with or without movement of the toy as a whole
- A63H13/005—Toy figures with self-moving parts, with or without movement of the toy as a whole with self-moving head or facial features
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H13/00—Toy figures with self-moving parts, with or without movement of the toy as a whole
- A63H13/02—Toy figures with self-moving parts, with or without movement of the toy as a whole imitating natural actions, e.g. catching a mouse by a cat, the kicking of an animal
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
- A63H30/02—Electrical arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/003—Manipulators for entertainment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/80—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
- G01S3/8003—Diversity systems specially adapted for direction finding
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/80—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
- G01S3/802—Systems for determining direction or deviation from predetermined direction
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Toys (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
1.構成
1.1.自律動作体10の概要
1.2.自律動作体10のハードウェア構成例
1.3.システム構成例
1.4.自律動作体10の機能構成例
1.5.情報処理サーバ20の機能構成例
2.第1の実施形態
2.1.概要
2.2.音源方向推定に係る信頼性の評価
2.3.信頼性評価に基づく行動計画
2.4.方向重みに基づく音源方向の推定
2.5.音源方向推定に基づく行動計画の流れ
3.第2の実施形態
3.1.概要
3.2.マイク穴の遮蔽制御
4.ハードウェア構成例
5.まとめ
<<1.1.自律動作体10の概要>>
まず、本開示の一実施形態に係る自律動作体10の概要について説明する。本開示の一実施形態に係る自律動作体10は、収集したセンサ情報に基づく状況推定を実行し、状況に応じた種々の動作を自律的に選択し実行する情報処理装置である。自律動作体10は、単にユーザの指示コマンドに従った動作を行うロボットとは異なり、状況ごとに最適であると推測した動作を自律的に実行することを特徴の一つとする。
次に、本開示の一実施形態に係る自律動作体10のハードウェア構成例について説明する。なお、以下では、自律動作体10がイヌ型の四足歩行ロボットである場合を例に説明する。
マイクロフォン515は、周囲の音を収集する機能を有する。上記の音には、例えば、ユーザの発話や、周囲の環境音が含まれる。自律動作体10は、例えば、頭部に4つのマイクロフォンを備えてもよい。複数のマイクロフォン515を備えることで、周囲で発生する音を感度高く収集すると共に、音源の定位を実現することが可能となる。
カメラ520は、ユーザや周囲環境を撮像する機能を有する。自律動作体10は、例えば、鼻先と腰部に2つの広角カメラを備えてもよい。この場合、鼻先に配置される広角カメラは、自律動作体10の前方視野(すなわち、イヌの視野)に対応した画像を撮像し、腰部の広角カメラは、上方を中心とする周囲領域の画像を撮像する。自律動作体10は、例えば、腰部に配置される広角カメラにより撮像された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。
ToFセンサ525は、頭部前方に存在する物体との距離を検出する機能を有する。ToFセンサ525は、頭部の鼻先に備えられる。ToFセンサ525によれば、種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することが可能となる。
人感センサ530は、ユーザやユーザが飼育するペットなどの所在を検知する機能を有する。人感センサ530は、例えば、胸部に配置される。人感センサ530によれば、前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することが可能となる。
測距センサ535は、自律動作体10の前方床面の状況を取得する機能を有する。測距センサ535は、例えば、胸部に配置される。測距センサ535によれば、自律動作体10の前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。
タッチセンサ540は、ユーザによる接触を検知する機能を有する。タッチセンサ540は、例えば、頭頂、あご下、背中など、ユーザが自律動作体10に対し触れる可能性が高い部位に配置される。タッチセンサ540は、例えば、静電容量式や感圧式のタッチセンサであってよい。タッチセンサ540によれば、ユーザによる触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことが可能となる。
照度センサ545は、自律動作体10が位置する空間の照度を検出する。照度センサ545は、例えば、頭部背面において尾部の付け根などに配置されてもよい。照度センサ545によれば、周囲の明るさを検出し、当該明るさに応じた動作を実行することが可能となる。
足裏ボタン550は、自律動作体10の脚部底面が床と接触しているか否かを検知する機能を有する。このために、足裏ボタン550は、4つの脚部の肉球に該当する部位にそれぞれ配置される。足裏ボタン550によれば、自律動作体10と床面との接触または非接触を検知することができ、例えば、自律動作体10がユーザにより抱き上げられたことなどを把握することが可能となる。
慣性センサ555は、頭部や胴部の速度や加速度、回転などの物理量を検出する6軸センサである。すなわち、慣性センサ555は、X軸、Y軸、Z軸の加速度および角速度を検出する。慣性センサ555は、頭部および胴部にそれぞれ配置される。慣性センサ555によれば、自律動作体10の頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することが可能となる。
ディスプレイ510は、自律動作体10の目の動きや感情を視覚的に表現する機能を有する。図5に示すように、ディスプレイ510は、感情や動作に応じた眼球、瞳孔、瞼の動作を表現することができる。ディスプレイ510は、文字や記号、また眼球運動とは関連しない画像などを敢えて表示しないことで、実在するイヌなどの動物に近い自然な動作を演出する。
次に、本開示の一実施形態に係るシステム構成例について説明する。図7は、本開示の一実施形態に係るシステム構成の一例を示す図である。図7を参照すると、本開示の一実施形態に係る情報処理システムは、複数の自律動作体10および情報処理サーバ20を備えてもよい。なお、自律動作体10と情報処理サーバ20、また自律動作体10同士は、ネットワーク30を介して互いに通信が行えるように接続される。
本開示の一実施形態に係る自律動作体10は、収集したセンサ情報に基づく状況推定を実行し、状況に応じた種々の動作を自律的に選択し実行する情報処理装置である。上述したように、本開示の一実施形態に係る自律動作体10は、例えば、ヒトやイヌなどの動物を模した形状や、動作能力を有する自律動作型ロボットであってもよい。
本開示の一実施形態に係る情報処理サーバ20は、複数の自律動作体10と接続され、自律動作体10から各種の情報を収集する機能を有する情報処理装置である。情報処理サーバ20は、例えば、各自律動作体10から収集した動作履歴を蓄積し、当該動作履歴に基づく各種の分析を行うことができる。また、本開示の一実施形態に係る情報処理サーバ20は、上記の分析結果を複数の自律動作体10に配布することが可能である。
ネットワーク30は、自律動作体10と情報処理サーバ20、自律動作体10同士を接続する機能を有する。ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
次に、本開示の一実施形態に係る自律動作体10の機能構成例について説明する。図8は、本開示の一実施形態に係る自律動作体10の機能構成例を示す図である。図8を参照すると、本開示の一実施形態に係る自律動作体10は、入力部110、認識部120、学習部130、行動計画部140、動作制御部150、駆動部160、出力部170、およびサーバ通信部180を備える。
入力部110は、ユーザや周囲環境に係る種々の情報を収集する機能を有する。入力部110は、例えば、ユーザの発話や周囲で発生する環境音、ユーザや周囲環境に係る画像情報、および種々のセンサ情報を収集する。このために、入力部110は、図1に示す各種のセンサを備える。
認識部120は、入力部110が収集した種々の情報に基づいて、ユーザや周囲環境、また自律動作体10の状態に係る種々の認識を行う機能を有する。一例としては、認識部120は、人識別、表情や視線の認識、物体認識、色認識、形認識、マーカー認識、障害物認識、段差認識、明るさ認識などを行ってよい。
学習部130は、環境(状況)と行動、また当該行動による環境への作用を学習する機能を有する。学習部130は、例えば、深層学習(Deep Learning)などの機械学習アルゴリズムを用いて、上記の学習を実現する。なお、学習部130が採用する学習アルゴリズムは、上記の例に限定されず、適宜設計可能である。
行動計画部140は、認識部120が推定した状況と学習部130が学習した知識に基づいて、自律動作体10が行う行動を計画する機能を有する。本開示の一実施形態に係る行動計画部140の機能詳細については別途後述する。
動作制御部150は、行動計画部140による行動計画に基づいて、駆動部160および出力部170の動作を制御する機能を有する。動作制御部150は、例えば、上記の行動計画に基づいて、アクチュエータ570の回転制御や、ディスプレイ510の表示制御、スピーカによる音声出力制御などを行う。本開示の一実施形態に係る動作制御部150の機能詳細については別途詳細に説明する。
駆動部160は、動作制御部150による制御に基づいて、自律動作体10が有する複数の関節部を屈伸させる機能を有する。より具体的には、駆動部160は、動作制御部150による制御に基づき、各関節部が備えるアクチュエータ570を駆動させる。
出力部170は、動作制御部150による制御に基づいて、視覚情報や音情報の出力を行う機能を有する。このために、出力部170は、ディスプレイ510やスピーカを備える。
サーバ通信部180は、情報処理サーバ20や他の自律動作体10との情報通信を行う機能を有する。例えば、サーバ通信部180は、認識部120が認識した状況に係る情報などを情報処理サーバ20に送信する。また、例えば、サーバ通信部180は、情報処理サーバ20から推奨行動や当該推奨行動に係る制御シーケンスデータを受信する。
信号処理部310は、入力部110が備える複数のマイクロフォン515が収集した音情報に基づく信号処理を行う。信号処理部310は、音源定位部312および音声強調部314を備える。
音源定位部312は、入力部110から入力される音情報に基づいて、音源方向の推定、すなわち音源定位を行う。音源定位部312は、例えば、ユーザの発話が行われた方向などを推定することができる。
音声強調部314は、入力部110から入力される音情報に対するノイズ除去などを行い、目的の音声(例えば、ユーザの発話)を強調する。音声強調部314は、例えば、ビームフォーミングやスペクトルサブトラクションなどの技術を用いて音声強調を実現することができる。
音声認識部320は、音声強調部314が強調した音声情報に基づいて、音声認識を行う。また、音声認識部320は、認識した音声が、「おいで」、「遊ぼう」、「かわいいね」などの自律動作体10への呼びかけであると判定した場合、音源定位部312が推定した音源方向が評価部340に入力されるようスイッチ330を制御する。
スイッチ330は、音声認識部320による上記の判定結果に基づいて、音源定位部312から評価部340への入力に係る回路のオンオフを切り替える。
評価部340は、音源定位部312が推定した音源方向の信頼性を評価する。この際、本開示の一実施形態に係る評価部340は、過去の評価実績に基づいて、上記の信頼性を評価することを特徴の一つとする。評価部340が有する機能の詳細については別途後述する。
評価結果保持部350は、評価部340による音源方向の信頼性評価の結果を保持する。評価結果保持部350が保持する信頼性評価の結果(評価実績)は、行動計画部140による行動計画に用いられる。
地図情報保持部360は、自律動作体10が存在する空間に係る種々の地図情報を保持する。上記の地図情報には、例えば、自律動作体10が設置されるユーザの自宅に係る間取りや障害物、家具の設置状況などが含まれる。
方向重み算出部370は、地図情報保持部360が保持する地図情報や、自律動作体10などが撮像した画像情報、また自律動作体10の姿勢状態などに基づいて、音源推定に係る方向の重み付けを行う。なお、本開示における姿勢には、自律動作体10の3軸姿勢および位置が含まれる。方向重み算出部370が有する機能の詳細については別途後述する。
次に、本開示の一実施形態に係る情報処理サーバ20の機能構成例について説明する。図10は、本開示の一実施形態に係る情報処理サーバ20の機能構成例を示す図である。図10を参照すると、本開示の一実施形態に係る情報処理サーバ20は、蓄積部210、分析部220、および端末通信部230を備える。
蓄積部210は、複数の自律動作体10から、動作履歴や音源方向推定に係る評価実績を収集し、当該情報の蓄積を行う。
分析部220は、蓄積部210が蓄積する情報に基づいて、種々の分析を実行する。分析部220は、例えば、複数の自律動作体10から収集、蓄積された音源方向推定に係る評価実績に基づいて、一般的な日本のマンションにおける音源方向推定の信頼性の傾向などを分析することが可能である。
端末通信部230は、ネットワーク30を介して、複数の自律動作体10と情報通信を行う機能を有する。端末通信部230は、例えば、自律動作体10から音源方向推定に係る評価実績を受信する。また、端末通信部230は、例えば、分析部220による制御に基づいて、上記の評価実績や、当該評価実績に係る分析結果を複数の自律動作体10に送信する。
<<2.1.概要>>
次に、本開示の第一の実施形態について説明する。上述したように、本開示の一実施形態に係る自律動作体10は、ユーザの発話などを含む音源の方向を推定し、当該方向に基づく種々の自律動作を行うことができる。自律動作体10は、例えば、自身に対するユーザの呼びかけに反応し、発話を検出した方向に頭部や視線を向けたり、当該方向に駆け寄る(移動する)ことなどの行動を行うことが可能である。
まず、本実施形態に係る音源方向推定に係る信頼性の評価について具体例を挙げながら説明する。上述したように、本実施形態に係る自律動作体10の評価部340は、音源定位部312が推定した音源方向の信頼性を評価する機能を有する。
次に、本実施形態に係る音源方向の信頼性評価に基づく行動計画について詳細に説明する。上述したように、本実施形態に係る行動計画部140は、音源方向の信頼性に係る評価結果に基づいて、当該音源方向に応じた方向依存動作を計画することができる。
次に、本実施形態に係る方向重みに基づく音源方向の推定について説明する。上記では、本実施形態に係る自律動作体10が音源方向の信頼性を評価し、当該信頼性が低い場合には、以降の音源方向推定の精度を高めるための行動を計画する場合について述べた。
次に、本実施形態に係る音源方向推定に基づく行動計画の流れについて詳細に説明する。図26は、本実施形態に係る自律動作体10による音源方向推定に基づく行動計画の流れを示すフローチャートである。
<<3.1.概要>>
次に、本開示の第2の実施形態について説明する。上記の第1の実施形態では、音源方向推定の精度を高める手法や、音源方向推定に係る信頼性が低い場合における効果的な行動計画について述べた。一方、自律動作体10のように音声認識機能を有する装置では、動作状況により音声認識に係る困難性が増大する場合や、音声認識が不能となる場合もある。このため、上記のような場合、音声認識に係る困難性や可否をユーザに示し、理解を得ることも重要となる。
上述したように、本実施形態に係る自律動作体10は、音声認識に係る状態に基づいて、マイク穴517を遮蔽に係る制御を行うことを特徴の一つとする。ここで、本実施形態に係るマイク穴517は、自律動作体10の内部に配置されるマイクロフォン515に外界の音を届かせるために外装表面に設けられる構成であってよい。すなわち、マイクロフォン515は、マイク穴517を介して外界に開放されるといえる。また、マイク穴517は、ユーザが視認可能な構成であってよい。
次に、本開示の一実施形態に係る情報処理サーバ20のハードウェア構成例について説明する。図28は、本開示の一実施形態に係る情報処理サーバ20のハードウェア構成例を示すブロック図である。図28を参照すると、情報処理サーバ20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
以上説明したように、本開示の一実施形態に係る自律動作体10は、認識処理に基づいて行動する動作体の行動計画を行う行動計画部140と、推定された音源方向の信頼性を評価する評価部340と、を備える。また、本開示の一実施形態に係る行動計画部140は、評価部340による信頼性の評価結果と、過去の評価実績とに基づいて、音源方向に応じた方向依存動作を計画すること、を特徴の一つとする。係る構成によれば、推定した音源方向に基づく、より自然かつ柔軟な自律動作体の行動を実現することが可能となる。
(1)
認識処理に基づいて行動する動作体の行動計画を行う行動計画部と、
推定された音源方向の信頼性を評価する評価部と、
を備え、
前記行動計画部は、前記評価部による前記信頼性の評価結果に基づいて、前記音源方向に応じた、前記動作体の姿勢変化に係る行動を含む方向依存動作を計画する、
情報処理装置。
(2)
前記行動計画部は、前記評価部による前記信頼性の評価結果と、過去の評価実績とに基づいて、前記動作体の姿勢変化に係る行動を計画する、
前記(1)に記載の情報処理装置。
(3)
前記行動計画部は、前記信頼性が閾値を下回る場合、前記過去の評価実績に基づいて、前記動作体の姿勢変化に係る行動を計画する、
前記(2)に記載の情報処理装置。
(4)
前記行動計画部は、前記信頼性が高い前記過去の評価実績が含む姿勢情報に基づいて、前記動作体の姿勢変化に係る行動を計画する、
前記(3)に記載の情報処理装置。
(5)
前記行動計画部は、前記動作体が、前記信頼性が高い前記過去の評価実績に対応する姿勢と同様の姿勢を取るように行動計画を行う、
前記(4)に記載の情報処理装置。
(6)
前記姿勢情報は、前記動作体の位置情報を含み、
前記行動計画部は、前記動作体が、前記信頼性が高い過去の評価実績に対応する位置に移動するように行動計画を行う、
前記(5)に記載の情報処理装置。
(7)
前記行動計画部は、前記信頼性が閾値を下回る場合、ユーザの存在確率が高いと推定される座標に基づいて、前記動作体の姿勢変化に係る行動を計画する、
前記(1)~(6)のいずれかに記載の情報処理装置。
(8)
前記評価部は、ユーザの認識結果に基づいて、前記音源方向の前記信頼性を評価する、
前記(1)~(7)のいずれかに記載の情報処理装置。
(9)
前記評価部は、推定された前記音源方向において、前記ユーザが認識された場合、前記信頼性が高いと評価する、
前記(8)に記載の情報処理装置。
(10)
前記評価部は、前記動作体が存在する空間に係る地図情報に基づいて、推定された前記音源方向の前記信頼性を評価する、
前記(1)~(9)のいずれかに記載の情報処理装置。
(11)
前記地図情報は、前記動作体が存在する空間における障害物の情報を含み、
前記評価部は、推定された前記音源方向において所定の距離以内に前記障害物が存在する場合、前記音源方向の前記信頼性が低いと評価する、
前記(10)に記載の情報処理装置。
(12)
前記地図情報は、前記動作体が存在する空間における位置と、当該位置において推定される前記音源方向の前記信頼性の傾向を示す信頼性マップを含み、
前記評価部は、前記信頼性マップに基づいて、推定された前記音源方向の前記信頼性を評価する、
前記(10)または(11)に記載の情報処理装置。
(13)
前記行動計画部は、前記信頼性マップに基づいて、前記動作体の姿勢変化に係る行動を計画する、
前記(12)に記載の情報処理装置。
(14)
ユーザの存在確率に基づいて決定された方向重みを用いて前記音源方向を推定する音源定位部、
をさらに備える、
前記(1)~(13)のいずれかに記載の情報処理装置。
(15)
前記音源定位部は、前記動作体が存在する空間に係る地図情報に基づいて算出された前記方向重みに基づいて前記音源方向の推定を行う、
前記(14)に記載の情報処理装置。
(16)
前記音源定位部は、前記動作体が存在する空間に係る地図情報に基づいて決定された方向範囲において前記音源方向の推定を行う、
前記(14)または(15)に記載の情報処理装置。
(17)
前記音源定位部は、前記動作体が撮像した画像情報に基づいて算出された前記方向重みに基づいて前記音源方向の推定を行う、
前記(14)~(16)のいずれかに記載の情報処理装置。
(18)
前記音源定位部は、前記方向重みを統合した特徴量に基づいて前記音源方向を推定する、
前記(14)~(17)のいずれかに記載の情報処理装置。
(18a)
前記方向重みを算出する方向重み算出部、
をさらに備える、
前記(14)~(17)のいずれかに記載の情報処理装置。
(19)
プロセッサが、認識処理に基づいて行動する動作体の行動計画を行うことと、
推定された音源方向の信頼性を評価することと、
を含み、
前記行動計画を行うことは、前記信頼性の評価結果に基づいて、前記音源方向に応じた、前記動作体の姿勢変化に係る行動を含む方向依存動作を計画すること、
をさらに含む、
情報処理方法。
(20)
コンピュータを、
認識処理に基づいて行動する動作体の行動計画を行う行動計画部と、
推定された音源方向の信頼性を評価する評価部と、
を備え、
前記行動計画部は、前記評価部による前記信頼性の評価結果に基づいて、前記音源方向に応じた、前記動作体の姿勢変化に係る行動を含む方向依存動作を計画する、
情報処理装置、
として機能させるためのプログラム。
110 入力部
120 認識部
130 学習部
140 行動計画部
150 動作制御部
160 駆動部
170 出力部
312 音源定位部
340 評価部
350 評価結果保持部
360 地図情報保持部
370 方向重み算出部
510 ディスプレイ
570 アクチュエータ
20 情報処理サーバ
210 蓄積部
220 分析部
230 端末通信部
Claims (18)
- 認識処理に基づいて行動する動作体の行動計画を行う行動計画部と、
推定された音源方向の信頼性を評価する評価部と、
を備え、
前記行動計画部は、
前記評価部による前記信頼性の評価結果に基づいて、前記音源方向に応じた、前記動作体の姿勢変化に係る行動を含む方向依存動作を計画し、
前記評価部による前記信頼性の評価結果と、過去の評価実績とに基づいて、前記動作体の姿勢変化に係る行動を計画し、
前記信頼性が閾値を下回る場合、前記信頼性が高い前記過去の評価実績が含む姿勢情報に基づいて、前記動作体の姿勢変化に係る行動を計画する、
情報処理装置。 - 前記行動計画部は、前記動作体が、前記信頼性が高い前記過去の評価実績に対応する姿勢と同様の姿勢を取るように行動計画を行う、
請求項1に記載の情報処理装置。 - 前記姿勢情報は、前記動作体の位置情報を含み、
前記行動計画部は、前記動作体が、前記信頼性が高い過去の評価実績に対応する位置に移動するように行動計画を行う、
請求項2に記載の情報処理装置。 - 認識処理に基づいて行動する動作体の行動計画を行う行動計画部と、
推定された音源方向の信頼性を評価する評価部と、
を備え、
前記行動計画部は、前記評価部による前記信頼性の評価結果に基づいて、前記音源方向に応じた、前記動作体の姿勢変化に係る行動を含む方向依存動作を計画し、
前記評価部は、前記動作体が存在する空間に係る地図情報に基づいて、推定された前記音源方向の前記信頼性を評価し、
前記地図情報は、前記動作体が存在する空間における障害物の情報を含み、
前記評価部は、推定された前記音源方向において所定の距離以内に前記障害物が存在する場合、前記音源方向の前記信頼性が低いと評価する、
情報処理装置。 - 前記地図情報は、前記動作体が存在する空間における位置と、当該位置において推定される前記音源方向の前記信頼性の傾向を示す信頼性マップを含み、
前記評価部は、前記信頼性マップに基づいて、推定された前記音源方向の前記信頼性を評価する、
請求項4に記載の情報処理装置。 - 前記行動計画部は、前記信頼性マップに基づいて、前記動作体の姿勢変化に係る行動を計画する、
請求項5に記載の情報処理装置。 - 前記行動計画部は、前記信頼性が閾値を下回る場合、ユーザの存在確率が高いと推定される座標に基づいて、前記動作体の姿勢変化に係る行動を計画する、
請求項1から6のいずれか一項に記載の情報処理装置。 - 前記評価部は、ユーザの認識結果に基づいて、前記音源方向の前記信頼性を評価する、
請求項1から7のいずれか一項に記載の情報処理装置。 - 前記評価部は、推定された前記音源方向において、前記ユーザが認識された場合、前記信頼性が高いと評価する、
請求項8に記載の情報処理装置。 - ユーザの存在確率に基づいて決定された方向重みを用いて前記音源方向を推定する音源定位部、
をさらに備える、
請求項1から9のいずれか一項に記載の情報処理装置。 - 前記音源定位部は、前記動作体が存在する空間に係る地図情報に基づいて算出された前記方向重みに基づいて前記音源方向の推定を行う、
請求項10に記載の情報処理装置。 - 前記音源定位部は、前記動作体が存在する空間に係る地図情報に基づいて決定された方向範囲において前記音源方向の推定を行う、
請求項10または11に記載の情報処理装置。 - 前記音源定位部は、前記動作体が撮像した画像情報に基づいて算出された前記方向重みに基づいて前記音源方向の推定を行う、
請求項10から12のいずれか一項に記載の情報処理装置。 - 前記音源定位部は、前記方向重みを統合した特徴量に基づいて前記音源方向を推定する、
請求項10から13のいずれか一項に記載の情報処理装置。 - プロセッサが、
認識処理に基づいて行動する動作体の行動計画を行うことと、
推定された音源方向の信頼性を評価することと、
を含み、
前記行動計画を行うことは、
前記信頼性の評価結果に基づいて、前記音源方向に応じた、前記動作体の姿勢変化に係る行動を含む方向依存動作を計画することと、
前記信頼性の評価結果と、過去の評価実績とに基づいて、前記動作体の姿勢変化に係る行動を計画することと、
前記信頼性が閾値を下回る場合、前記信頼性が高い前記過去の評価実績が含む姿勢情報に基づいて、前記動作体の姿勢変化に係る行動を計画することと、
をさらに含む、
情報処理方法。 - プロセッサが、
認識処理に基づいて行動する動作体の行動計画を行うことと、
推定された音源方向の信頼性を評価することと、
を含み、
前記行動計画を行うことは、前記信頼性の評価結果に基づいて、前記音源方向に応じた、前記動作体の姿勢変化に係る行動を含む方向依存動作を計画すること、をさらに含み、
前記信頼性を評価することは、前記動作体が存在する空間に係る地図情報に基づいて、推定された前記音源方向の前記信頼性を評価すること、をさらに含み、
前記地図情報は、前記動作体が存在する空間における障害物の情報を含み、
前記信頼性を評価することは、推定された前記音源方向において所定の距離以内に前記障害物が存在する場合、前記音源方向の前記信頼性が低いと評価することを、さらに含む、
情報処理方法。 - コンピュータを、
認識処理に基づいて行動する動作体の行動計画を行う行動計画部と、
推定された音源方向の信頼性を評価する評価部と、
を備え、
前記行動計画部は、
前記評価部による前記信頼性の評価結果に基づいて、前記音源方向に応じた、前記動作体の姿勢変化に係る行動を含む方向依存動作を計画し、
前記評価部による前記信頼性の評価結果と、過去の評価実績とに基づいて、前記動作体の姿勢変化に係る行動を計画し、
前記信頼性が閾値を下回る場合、前記信頼性が高い前記過去の評価実績が含む姿勢情報に基づいて、前記動作体の姿勢変化に係る行動を計画する、
情報処理装置、
として機能させるためのプログラム。 - コンピュータを、
認識処理に基づいて行動する動作体の行動計画を行う行動計画部と、
推定された音源方向の信頼性を評価する評価部と、
を備え、
前記行動計画部は、前記評価部による前記信頼性の評価結果に基づいて、前記音源方向に応じた、前記動作体の姿勢変化に係る行動を含む方向依存動作を計画し、
前記評価部は、前記動作体が存在する空間に係る地図情報に基づいて、推定された前記音源方向の前記信頼性を評価し、
前記地図情報は、前記動作体が存在する空間における障害物の情報を含み、
前記評価部は、推定された前記音源方向において所定の距離以内に前記障害物が存在する場合、前記音源方向の前記信頼性が低いと評価する、
情報処理装置、
として機能させるためのプログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018000943 | 2018-01-09 | ||
JP2018000943 | 2018-01-09 | ||
PCT/JP2018/037432 WO2019138619A1 (ja) | 2018-01-09 | 2018-10-05 | 情報処理装置、情報処理方法、およびプログラム |
JP2019564289A JP7120254B2 (ja) | 2018-01-09 | 2018-10-05 | 情報処理装置、情報処理方法、およびプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019564289A Division JP7120254B2 (ja) | 2018-01-09 | 2018-10-05 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022169548A JP2022169548A (ja) | 2022-11-09 |
JP7351383B2 true JP7351383B2 (ja) | 2023-09-27 |
Family
ID=67219580
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019564289A Active JP7120254B2 (ja) | 2018-01-09 | 2018-10-05 | 情報処理装置、情報処理方法、およびプログラム |
JP2022122003A Active JP7351383B2 (ja) | 2018-01-09 | 2022-07-29 | 情報処理装置、情報処理方法、およびプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019564289A Active JP7120254B2 (ja) | 2018-01-09 | 2018-10-05 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210031378A1 (ja) |
EP (1) | EP3739415A4 (ja) |
JP (2) | JP7120254B2 (ja) |
CN (1) | CN111527461B (ja) |
WO (1) | WO2019138619A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201811301D0 (en) * | 2018-07-10 | 2018-08-29 | Emotech Ltd | Robotic system |
US11957991B2 (en) * | 2020-03-06 | 2024-04-16 | Moose Creative Management Pty Limited | Balloon toy |
CN112256047B (zh) * | 2020-09-30 | 2023-04-11 | 江苏集萃智能制造技术研究所有限公司 | 一种基于四元数的四足姿态控制策略 |
CN113766402B (zh) * | 2021-09-11 | 2024-04-26 | 武汉左点科技有限公司 | 一种提高环境适应性的助听方法及装置 |
CN114326806B (zh) * | 2021-12-29 | 2022-07-22 | 北京航空航天大学 | 一种考虑任务体系下的无人机集群维修方法 |
WO2023248697A1 (ja) * | 2022-06-24 | 2023-12-28 | ソニーグループ株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004130427A (ja) | 2002-10-09 | 2004-04-30 | Sony Corp | ロボット装置及びロボット装置の動作制御方法 |
JP2008158868A (ja) | 2006-12-25 | 2008-07-10 | Toyota Motor Corp | 移動体、及びその制御方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1283428C (zh) * | 2000-03-31 | 2006-11-08 | 索尼公司 | 机器人设备、控制机器人设备动作的方法 |
JP4281286B2 (ja) * | 2002-03-18 | 2009-06-17 | ソニー株式会社 | ロボット装置及びその制御方法 |
JP4239635B2 (ja) * | 2003-03-20 | 2009-03-18 | ソニー株式会社 | ロボット装置、その動作制御方法、及びプログラム |
EP1691344B1 (en) * | 2003-11-12 | 2009-06-24 | HONDA MOTOR CO., Ltd. | Speech recognition system |
JP2005271137A (ja) * | 2004-03-24 | 2005-10-06 | Sony Corp | ロボット装置及びその制御方法 |
KR100754385B1 (ko) * | 2004-09-30 | 2007-08-31 | 삼성전자주식회사 | 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법 |
JP4675811B2 (ja) * | 2006-03-29 | 2011-04-27 | 株式会社東芝 | 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム |
JP5170440B2 (ja) * | 2006-05-10 | 2013-03-27 | 本田技研工業株式会社 | 音源追跡システム、方法、およびロボット |
JP4757786B2 (ja) * | 2006-12-07 | 2011-08-24 | Necアクセステクニカ株式会社 | 音源方向推定装置、音源方向推定方法、及びロボット装置 |
JP2009020423A (ja) * | 2007-07-13 | 2009-01-29 | Fujitsu Ten Ltd | 音声認識装置および音声認識方法 |
JP5408621B2 (ja) * | 2010-01-13 | 2014-02-05 | 株式会社日立製作所 | 音源探索装置及び音源探索方法 |
JP5595112B2 (ja) * | 2010-05-11 | 2014-09-24 | 本田技研工業株式会社 | ロボット |
JP2012040655A (ja) | 2010-08-20 | 2012-03-01 | Nec Corp | ロボット制御方法、プログラム、及びロボット |
JP5724125B2 (ja) * | 2011-03-30 | 2015-05-27 | 株式会社国際電気通信基礎技術研究所 | 音源定位装置 |
JP2013104938A (ja) * | 2011-11-11 | 2013-05-30 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
US9989626B2 (en) * | 2013-04-12 | 2018-06-05 | Hitachi, Ltd. | Mobile robot and sound source position estimation system |
CN104991573A (zh) * | 2015-06-25 | 2015-10-21 | 北京品创汇通科技有限公司 | 一种基于声源阵列的定位跟踪方法及其装置 |
CN106647423A (zh) * | 2015-10-28 | 2017-05-10 | ***通信集团公司 | 智能跟拍方法及装置 |
CN107199572B (zh) * | 2017-06-16 | 2020-02-14 | 山东大学 | 一种基于智能声源定位与语音控制的机器人***及方法 |
-
2018
- 2018-10-05 WO PCT/JP2018/037432 patent/WO2019138619A1/ja unknown
- 2018-10-05 US US16/959,674 patent/US20210031378A1/en not_active Abandoned
- 2018-10-05 EP EP18900174.6A patent/EP3739415A4/en not_active Withdrawn
- 2018-10-05 CN CN201880084433.6A patent/CN111527461B/zh active Active
- 2018-10-05 JP JP2019564289A patent/JP7120254B2/ja active Active
-
2022
- 2022-07-29 JP JP2022122003A patent/JP7351383B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004130427A (ja) | 2002-10-09 | 2004-04-30 | Sony Corp | ロボット装置及びロボット装置の動作制御方法 |
JP2008158868A (ja) | 2006-12-25 | 2008-07-10 | Toyota Motor Corp | 移動体、及びその制御方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111527461B (zh) | 2024-03-22 |
WO2019138619A1 (ja) | 2019-07-18 |
JP2022169548A (ja) | 2022-11-09 |
CN111527461A (zh) | 2020-08-11 |
JP7120254B2 (ja) | 2022-08-17 |
EP3739415A1 (en) | 2020-11-18 |
US20210031378A1 (en) | 2021-02-04 |
JPWO2019138619A1 (ja) | 2021-01-28 |
EP3739415A4 (en) | 2021-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7351383B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7400923B2 (ja) | 情報処理装置および情報処理方法 | |
JP7375748B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11675360B2 (en) | Information processing apparatus, information processing method, and program | |
US20200269421A1 (en) | Information processing device, information processing method, and program | |
JP7375770B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
JP2024009862A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20210197393A1 (en) | Information processing device, information processing method, and program | |
JP7363823B2 (ja) | 情報処理装置、および情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230828 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7351383 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |