JP6550643B2 - 動作推定装置、ロボット、及び動作推定方法 - Google Patents
動作推定装置、ロボット、及び動作推定方法 Download PDFInfo
- Publication number
- JP6550643B2 JP6550643B2 JP2015046241A JP2015046241A JP6550643B2 JP 6550643 B2 JP6550643 B2 JP 6550643B2 JP 2015046241 A JP2015046241 A JP 2015046241A JP 2015046241 A JP2015046241 A JP 2015046241A JP 6550643 B2 JP6550643 B2 JP 6550643B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- person
- time
- processing unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
(2)また、本発明の一態様に係る動作推定装置であって、前記状況推定部は、前記第1時刻と前記第1期間それぞれにおける対象物の高さ方向の距離を抽出し、前記第1時刻に前記抽出した高さ方向の距離と、前記第1期間に前記抽出した高さ方向の距離とを比較することで、人の反応を推定するようにしてもよい。
(3)また、本発明の一態様に係る動作推定装置であって、前記領域距離処理部は、前記第1時刻と前記第1期間における前記領域毎の高さ方向の距離を抽出し、前記第1時刻と前記第1期間における前記抽出した前記領域毎の高さ方向の距離に基づく値を比較することで、人の反応を推定するようにしてもよい。
(4)また、本発明の一態様に係る動作推定装置であって、前記領域毎の高さ方向の距離に基づく値は、前記第1時刻と前記第1期間における前記領域毎の高さ方向の距離が抽出された領域における前記高さ方向の距離の平均値であるようにしてもよい。
(5)また、本発明の一態様に係る動作推定装置は、前記人処理部が付与した識別子の距離を追跡する距離追跡部、を備え、前記状況推定部は、前記距離追跡部が付与した前記識別子の数を参照し、所定の期間に追跡不能になった前記識別子の数が所定の値を超えたとき、前記領域距離処理部によって求められた距離を用いて人の反応を推定し、所定の期間に追跡不能になった前記識別子の数が所定の値より少ないとき、前記人処理部によって求められた距離を用いて、人の反応を推定するようにしてもよい。
(6)また、本発明の一態様に係る動作推定装置であって、前記第1時刻または前記第1期間は、前記領域距離処理部によって測定される前記距離の変化が所定の値より小さくなったときに対応して決定されるようにしてもよい。
(7)また、本発明の一態様に係る動作推定装置であって、記状況推定部は、人が挙手を行っていない第2期間における前記取得部によって取得された前記距離と、人の体格データとに基づいて算出される挙手をしたときに人の手が存在する高さ方向の範囲である挙手存在範囲を算出し、算出した前記挙手存在範囲にある前記第1時刻または前記第1期間における前記取得部によって取得された前記距離を抽出し、前記抽出した距離に基づいて人の反応を推定するようにしてもよい。
(8)また、本発明の一態様に係る動作推定装置であって、前記人の反応は、人が挙手を行っている反応か挙手を行っていない反応かであり、状況推定部は、人の反応を複数回推定して、複数回推定した結果に基づいて、多数決の判定を行う。
(9)また、本発明の一態様に係る動作推定装置は、所定の範囲に対して自センサと対象物との距離の測定を行うセンサ、を備えるようにしてもよい。
(11)上記目的を達成するため、本発明の一態様に係る動作推定方法は、取得部が、センサと対象物との距離を取得する取得手順と、人処理部が、前記取得手順によって取得された前記距離に基づいて人を検出し、前記検出した人毎に識別子を付与する人処理手順と、領域距離処理部が、人の反応を推定する所定の範囲を1つ以上の領域に分割し、前記取得部によって取得された前記距離に基づいて該領域毎の距離を求める領域距離処理手順と、状況推定部が、人に対して挙手の終了を促した時刻に基づき設定される第1期間における前記取得部によって取得された前記距離に基づいて人の反応を推定する手順と、前記状況推定部が、前記人処理手順によって前記識別子が付与された前記人の前記距離を用いて、人に対して挙手の終了を促した時刻に基づき設定される第1時刻と前記第1期間それぞれにおける前記識別子毎の高さ方向の距離を抽出し、前記第1時刻と前記第1期間それぞれにおける前記抽出した前記識別子毎の高さ方向の距離同士を比較することで、人の反応を推定する手順と、前記状況推定部が、前記人処理手順によって前記識別子が付与された前記人の前記距離と、前記領域距離処理部によって求められた距離のうち、すくなくとも1つの距離によって人の反応を推定する手順と、を含む。
また、本発明の態様(1)、及び(2)によれば、人が手を下げる前の期間に人が手を挙げているときの高さ方向の値と、人が手を下げたときの高さ方向の値とに基づいて、手を挙げている人数を検出することができる。
また、本発明の態様(1)、(3)、及び(4)によれば、手を挙げている期間と、手を下げたときとの、領域における高さ方向の変化量を推定することができる。そして、動作推定装置3では、推定された結果に基づいて、多数決によってどの質問への挙手が最も多いかを推定することができる。
また、本発明の態様(5)によれば、検出結果に応じて、領域距離処理部によって求められた距離、または人処理部によって求められた距離を用いて、人の反応を推定することができる。
また、本発明の態様(6)によれば、人に対して挙手の終了を促すこと示すことにより設定されるときである手下げ時、及び人に対して挙手の終了を促すこと示すことにより設定される第1期間を、領域距離処理部によって検出された結果に基づいて決定することができる。
また、本発明の態様(7)によれば、個人を特定する必要がないので人が密集している領域が存在しても、人の反応を推定することができる。
また、本発明の態様(8)によれば、多数決の判定を行うことができる。
例えば、イベント会場において、人型のロボットが司会進行を行う場合がある。このような状況では、予めロボットに、シナリオ、動作、及び音声信号などを記憶させておき、記憶させた動作を行わせながら、シナリオに応じたタイミングで記憶されている音声信号を再生させる場合がある。このようなロボットの動作では、会場にいる人と、ロボットとのコミュニケーションが取りにくい場合がある。
このため、本実施形態では、会場にいる人達の反応に応じて、ロボットが次に行う動作や、出力する音声信号を選択することで、ロボットと人とのコミュニケーションを豊かにする。本実施形態では、ロボットが、会場にいる人による挙手を推定して、推定した結果に基づいて多数決を行うことで、提示した話題の中から話題の選択を行う。
図1は、本実施形態に係るロボット1の概略のブロック図である。
図1に示すように、ロボット1は、処理部2、及び動作推定装置3を含んで構成される。ロボット1は、n(nは1以上の整数)個のLRF(Laser Range Finder;レーザレンジファインダー)センサ10−1〜10−nに無線または有線で接続される。なお、LRFセンサ10−1〜10−nのうちいずれか1つを特定しない場合は、LRFセンサ10という。なお、本実施形態では、動作推定装置3をロボット1が備える例を説明するが、これに限られない。例えば、イベント会場等で用いられるガイドシステム等が動作推定装置3を備えるようにしてもよい。
処理部2は、ロボット1の動作等、各種の制御を行う。処理部2は、記憶部101、制御部102、及び音声出力部103を備える。
記憶部101には、ロボット1の制御に関する情報、音声出力データ、シナリオ情報等が記憶されている。なお、シナリオ情報とは、所定の動作を所定の時間に行うことが記述されている情報である。
音声出力部103は、制御部102の処理に応じて、音声信号を出力する。音声出力部103は、例えばスピーカーである。
動作推定装置3は、n個のセンシング処理部20−1〜20−n、人統合処理部(人処理部、距離追跡部)30、グリッド統合処理部(領域距離処理部)40、状況推定部50、及び記憶部60を備える。センシング処理部20−1〜20−nのうちいずれか1つを特定しない場合は、センシング処理部20という。また、LRFセンサ10−1〜10−nそれぞれは、対応するセンシング処理部20−1〜20−nに無線または有線を介して接続されている。また、動作推定装置3は、LRFセンサ10を含んで構成されていてもよい。
また、センシング処理部20は、LRFセンサ10から入力された検出結果を用いて、例えば所定の周期毎に測距点を、予め定められているグリッドに分類する。センシング処理部20は、分類したグリッド毎に高さの最大値を抽出し、抽出した最大値を、高さを示す情報とする。そして、センシング処理部20は、グリッド毎に、グリッドの位置を示す情報と高さを示す情報とを関連づけてグリッドデータd2を生成し、生成したグリッドデータd2をグリッド統合処理部40に出力する。
また、状況推定部50は、入力されたトリガー信号d5に応じて、グリッド統合処理部40から入力されたグリッド高さを示す情報d4を用いて、所定の期間(第1期間)におけるグリッド高さを示す情報の最大値を検出し、所定の期間に検出された最大値を第1グリッド高さ値として、記憶部60に記憶させる。
また、状況推定部50は、入力されたトリガー信号d5に応じて、所定の時刻のグリッド高さを示す情報の最大値を、第2グリッド高さ値として、記憶部60に記憶させる。
状況推定部50は、例えば、第1クラスタ高さ値から第2クラスタ高さ値を減算した値が所定の値以上の時、手を挙げていると判別する。または、状況推定部50は、例えば、第1クラスタ高さ値を第2クラスタ高さ値で除算した値が所定の値以上の時、手を挙げていると判別する。
まず、制御部102が、音声信号を出力するタイミングについて説明する。
時刻t0において、人は、ロボット1から出力される音声を聞いている。この時点で人は挙手を行っていない。
時刻t1のとき、制御部102は、記憶部101に記憶されているシナリオ情報に基づいて、音声信号「Aについて聞きたい人は、手を挙げてください」を、音声出力部103からの出力を開始する。
図3は、本実施形態に係るロボット1による挙手検出の処理手順のフローチャートである。
(ステップS1)制御部102は、記憶部101に記憶されているシナリオ情報を読み出す。制御部102は、処理をステップS2に進める。
(ステップS2)制御部102は、読み出したシナリオ情報に基づいて、音声信号を音声出力部103から出力させる。制御部102は、処理をステップS3に進める。
次に、グリッド統合処理部40は、ステップS4で生成されたグリッドデータを用いて統合処理を行う。なお、処理する順番は、人統合処理部30及びグリッド統合処理部40のどちらかが先であってもよく、平行して行うようにしてもよい。人統合処理部30及びグリッド統合処理部40は処理をステップS6に進める。
(ステップS8)状況推定部50は、第1処理を行う。状況推定部50は、処理終了後、ステップS3に戻る。
(ステップS9)状況推定部50は、第2処理を行う。状況推定部50は、処理終了後、ステップS10に進む。
(ステップS11)状況推定部50は、ステップS10で比較された結果に基づいて、手を挙げた人数を推定する。次に、状況推定部50は、ステップS10で比較された結果に基づいて、グリッド高さの変化量を推定する。
動作推定装置3は、シナリオ情報に基づいて、所定の質問を所定回数提示するまで、ステップS2〜S11を繰り返す。
以上で、挙手検出の処理を終了する。
次に、ステップS4(図3)で行われる人クラスタデータの生成について説明する。
図4は、本実施形態に係るLRFセンサ10による測定とセンシング処理部20と人統合処理部30とによる処理を説明する図である。図4では、紙面に向かって左右方向をx軸方向、奥行き方向をy軸方向、高さ方向をz軸方向とする。
図4に示す例では、検出対象の空間の天井に2つのLRFセンサ10−1とLRFセンサ10−2が、距離L1の間隔で設置されている。符号111が示す領域は、LRFセンサ10−1の検出可能な領域(以下、検出領域という)を示し、符号112が示す領域は、LRFセンサ10−2の検出領域を示している。また、図4に示した例では、所定の高さ以上の測距点を示している。
測距点121〜126は、人hu1に対する測距点であり、測距点131〜133は、人hu2に対する測距点である。測距点は、例えば、人の頭部、耳、服の襟、肩などに対応する点である。これらの測距点には、x、y、zの各成分が含まれている。すなわち、測距点には、xy平面上における位置を示す情報と、高さを示す情報とが含まれている。
そして、図4に示す例では、測距点122〜126がLRFセンサ10−1によって測定された測距点であり、測距点121〜126及び131〜133がLRFセンサ10−2によって測定された測距点である。
また、図4において、投影点141〜146は、測距点131〜136をxy平面に投影した点であり、投影点151〜153は、測距点131〜133をxy平面に投影した点である。
図5は、本実施形態に係るクラスタリング処理、人クラスタデータの生成の処理手順のフローチャートである。
(ステップS101)センシング処理部20は、対応するLRFセンサ10から入力された測距点の情報のうち、z軸成分の値が所定の値以上の測距点を、各測距点の情報に含まれるx軸成分とy軸成分を用いて、xy平面に投影する。センシング処理部20は、処理をステップS102に進める。
(ステップS104)センシング処理部20は、クラスタ分けしたクラスタ毎に、クラスタ内に含まれる投影点に対応する測距点のうち、z軸成分の最大値を抽出し、抽出した最大値をそのクラスタの高さを示す情報とする。センシング処理部20は、処理をステップS105に進める。
(ステップS105)センシング処理部20は、クラスタ毎の位置を示す情報と、高さを示す情報とを関連づけて、クラスタ毎の人クラスタデータを生成する。
センシング処理部20−1は、入力された測距点122〜126をxy平面に投影し、投影点142〜146の情報を生成する。センシング処理部20−2は、入力された測距点121〜126及び131〜133をxy平面に投影し、投影点141〜146及び151〜153の情報を生成する(ステップS101)。
センシング処理部20−1は、クラスタリングされた投影点142〜146の重心位置を計算する。センシング処理部20−1は、クラスタリングされた投影点141〜146の重心位置、投影点151〜153の重心位置を計算する(ステップS103)。
次に、人統合処理部30によって行われるステップS5(図3)の第1統合処理について説明する。
図6は、本実施形態に係る人統合処理部30によって行われる第1統合処理手順のフローチャートである。
(ステップS202)人統合処理部30は、統合された人クラスタデータを用いて、クラスタ毎にIDを割り当てる。人統合処理部30は、処理をステップS203に進める。
(ステップS204)人統合処理部30は、生成した人データを用いて、ID毎にIDが割り振られた人の位置、及び高さに対してトラッキングを行う。なお、人統合処理部30は、トラッキングができなくなった場合、トラッキングできなくなったIDに対応する人データを削除する。
人統合処理部30は、センシング処理部20−1から入力される人クラスタデータd1(11)と、センシング処理部20−2とから入力される人クラスタデータd1(21)を、位置を示す情報が所定の範囲内にあると判別して統合する(ステップS201)。次に、人統合処理部30は、人クラスタデータd1(11)とd1(21)が統合されたクラスタデータに対して、例えばID1を割り当てる(ステップS202)。また、人統合処理部30は、人クラスタデータd1(11)とd1(21)とに含まれる高さを示す情報のうち、最大値として測距点121のz軸成分の値を抽出する。
また、人統合処理部30は、センシング処理部20−2から入力される人クラスタデータd1(22)と、位置を示す情報が所定の範囲内にある人クラスタデータが他にないと判別する。この場合、人統合処理部30は、人クラスタデータd1(22)に他の人クラスタデータを統合しない(ステップS201)。次に、人統合処理部30は、人クラスタデータd1(22)にID2を割り当てる(ステップS202)。また、人統合処理部30は、人クラスタデータd1(22)に含まれる高さを示す情報を抽出する。
次に、人統合処理部30は、各IDをトラッキングする。トラッキングは、例えば時刻t1(図2)のときに割り当てられた各IDに含まれる統合後の人クラスタデータが、サンプリング時間Δt毎に、所定の範囲ないにある場合、同じIDであると判別する。所定の範囲とは、例えば、サンプリング時間Δtに人が歩いて移動したときに、人クラスタデータが移動可能な範囲等である。さらに、人統合処理部30は、同じIDであると判別された人データに含まれる高さを示す情報をトラッキングする(ステップS204)。
また、曲線g103に示すように、ID6のクラスタ高さは、時刻t21〜t23の期間、約1580[mm]であり、時刻t23においてクラスタ高さが約1900[mm]に変化し、時刻t24においてトラッキングが失敗している。
曲線g104に示すように、ID7のクラスタ高さは、時刻t21〜t26の期間、約1480[mm]のまま、変化していない。
次に、ステップS4(図3)で行われるグリッドデータの生成について説明する。
図8は、本実施形態に係るLRFセンサ10による測定とセンシング処理部20とグリッド統合処理部40による処理を説明する図である。図8では、図4と同様に、紙面に向かって左右方向をx軸方向、奥行き方向をy軸方向、高さ方向をz軸方向とする。また、検出対象の空間には、予めグリッドa(1、1)〜a(3、5)を設定しておく。グリッドは、縦L2、横L2であり、L2は例えば10cmである。なお、図4と同様のものについては、同じ符号を用いて説明を省略する。また、図8に示す例では、図4と同様に、所定の高さ以上の測距点を示している。
(ステップS301)センシング処理部20は、ステップS101(図5)後、投影した投影点を、グリッド毎に分類する。センシング処理部20は、処理をステップS302に進める。
(ステップS302)センシング処理部20は、グリッド毎に、グリッドに含まれる投影点に対応する測距点のz軸成分の最大値を抽出し、抽出したz軸成分を、そのグリッドの高さを示す情報とする。センシング処理部20は、処理をステップS303に進める。
(ステップS303)センシング処理部20は、グリッド毎に、グリッドの位置を示す情報と、抽出したグリッドの高さを示す情報と関連づけてグリッドデータを生成する。
なお、センシング処理部20は、高さを示す情報が抽出されたグリッドのみグリッドデータを作成する。
次に、ステップS5(図3)で行われる統合処理について説明する。
図10は、本実施形態に係るグリッド統合処理部40によって行われる統合処理手順のフローチャートである。
(ステップS401)グリッド統合処理部40は、グリッドデータd2に含まれる位置を示す情報が一致する、センシング処理部20−1〜20−nから入力されるグリッドデータd2を統合する。グリッド統合処理部40は、処理をステップS402に進める。
(ステップS403)グリッド統合処理部40は、高さを示す情報を有している統合後のグリッド数をカウントし、グリッド数とする。次に、グリッド統合処理部40は、高さを示す情報を有する全てのグリッドの高さ値を加算し、グリッド数で除算することで、グリッドの高さの平均値を算出する。
次に、グリッド統合処理部40は、時刻t5(図2)のときの高さを示す情報を有するグリッドの高さの平均値Zaveを、式(1)を用いて算出する。
期間p4(図2)のとき、人hu1と人hu2が2人とも手を挙げている場合、手を挙げている期間p4におけるグリッドの高さの平均値Zaveは、202.5[cm](=(210[cm]+195[cm])/2)である。この場合、期間p4における最大値Zmaxは、平均値Zaveであるとする。このまた、手を下げている時刻t5のときのグリッドの高さの平均値Zaveは、170.5[cm](=(173[cm]+168[cm])/2)である。期間p4の最大値Zmax202.5[cm]と、時刻t5のときの平均値Zave170.5[cm]とを比較すると、差は32[cm]である。
すなわち、期間p4の最大値Zmaxと時刻t5のときの平均値Zaveとの差が大きい程、手を挙げている人数が多いことになる。
状況推定部50は、1回目の時刻t1(1)において、音声信号「Aについて聞きたい人は、手を挙げてください」を、音声出力部103から出力させる。そして、1回目の期間p4(1)の最大値と時刻t5(1)のときの平均値との差Δg1を算出する。
次に、状況推定部50は、2回目の時刻t1(2)(=時刻t11、図2)において、音声信号「Bについて聞きたい人は、手を挙げてください」を、音声出力部103から出力させる。そして、2回目の期間p4(2)の平均値と時刻t5(2)(=時刻t15、図2)のときの平均値との差Δg2を算出する。
状況推定部50は、このように算出した差Δg1〜Δg3を比較することで、質問のA〜Cのうち、どの質問に対する挙手が最も多かったかを推定する。
この構成によって、本実施形態の動作推定装置3は、多数決の判定を行うことができる。
また、グリッド統合処理部40は、センシング処理部20−2から入力されたグリッドデータd2(22)に含まれる位置を示す情報と一致する他のグリッドデータがないため、他のグリッドデータとの統合を行わない。そして、グリッド統合処理部40は、高さを表す情報である測距点132のz軸成分を最大値として抽出する。
そして、グリッド統合処理部40は、測距点121と132とのz軸成分の加算値を、グリッド数の2で除算してグリッド高さを算出する。
次に、第1処理及び第2処理を行うタイミングについて説明する。
図11は、本実施形態に係る第1処理及び第2処理を行うタイミングを説明する図である。
図11において、図7と同様に、横軸は時間、縦軸はクラスタの高さである。また、曲線g111〜g114それぞれは、人統合処理部30によってID4〜ID7が割り振られた人のクラスタ高さの時間変化である。図11に示した例では、ID4〜ID7が割り振られた4人をトラッキングできたときの結果である。なお、制御部102は、時刻t31において時刻t1(図2)と同様の音声信号「Aについて聞きたい人は、手を挙げてください」の出力を開始させ、時刻t35において時刻t4(図2)と同様の音声信号「はい、わかりました」の出力を開始させる。
このため、本実施形態では、時刻t35において音声信号「はい、わかりました」が出力されたことをトリガー信号とし、手を挙げていると推定される、トリガー信号が入力される時刻より所定の時間前の間に第1処理を行う。そして、本実施形態では、トリガー信号が入力される時刻より所定の時間後に第2処理を行い、第1処理と第2処理との結果を比較することで、手を挙げている人数を検出する。所定の時間は、例えば2秒間である。
次に、ステップS8(図3)で行われる第1処理について説明する。
まず、状況推定部50が人データd3を用いて行う第1処理について、図2を用いて説明する。
状況推定部50は、期間(p2−p4)経過後〜期間p2経過後まで、すなわち時刻t3〜t4の間、ID毎に人データd3に含まれる高さを示す情報の中から最大値を検出する。最大値の検出は、例えば、時刻t−Δt(サンプリング時間)と時刻tとの高さを示す情報を比較し、値が大きい方を最大値として保持することで検出する。
状況推定部50は、時刻t3〜t4の間に検出された最大値を、そのIDの第1クラスタ高さ値として、記憶部60に記憶させる。
状況推定部50は、時刻t3〜t4の間、グリッド高さを示す情報d4の中から最大値を検出する。状況推定部50は、時刻t3〜t4の間に検出された最大値を、第1グリッド高さ値として、記憶部60に記憶させる。
次に、ステップS9(図3)で行われる第2処理について説明する。
まず、状況推定部50が人データd3を用いて行う第2処理について、図2を用いて説明する。
状況推定部50は、期間(p2+p4)経過後、すなわち時刻t5のとき、ID毎に人データに含まれる高さを示す情報を検出する。状況推定部50は、時刻t5のときに抽出された値を、そのIDの第2クラスタ高さ値として、記憶部60に記憶させる。
状況推定部50は、時刻t5のときのグリッド高さを示す情報d4を、第2グリッド高さ値として、記憶部60に記憶させる。
次に、ステップS10及びS11(図3)で行われる比較処理及び推定処理について説明する。
まず、状況推定部50が人データd3に対して行う比較処理及び推定処理について説明する。
状況推定部50は、ID毎に、記憶部60に記憶させた第1クラスタ高さ値と第2クラスタ高さ値とを読み出し、読み出した第1クラスタ高さ値と第2クラスタ高さ値とを比較することで、ID毎に手を挙げているか否かを判別する。
状況推定部50は、例えば、第1クラスタ高さ値から第2クラスタ高さ値を減算した値が所定の値以上の時、手を挙げていると判別する。または、状況推定部50は、例えば、第1クラスタ高さ値を第2クラスタ高さ値で除算した値が所定の値以上の時、手を挙げていると判別する。
状況推定部50は、記憶部60に記憶させた第1グリッド高さ値と第2グリッド高さ値とを読み出し、読み出した第1グリッド高さ値と第2グリッド高さ値とを比較することでグリッド高さの変化量を算出する。
状況推定部50は、例えば、第1グリッド高さ値から第2グリッド高さ値を減算した値をグリッド高さ変化量としてもよく、または、第1グリッド高さ値を第2グリッド高さ値で除算した値をグリッド高さ変化量としてもよい。
状況推定部50は、以下のような条件に応じて、人統合処理部30が検出した検出結果か、グリッド統合処理部40が検出した検出結果かを選択する。
(条件1)人統合処理部30から入力されたトラッキング結果に基づいて選択
トラッキングを失敗した回数または失敗した率が所定の値未満の場合、人統合処理部30が検出した検出結果を選択し、トラッキングを失敗した回数または失敗した率が所定の値以上の場合、グリッド統合処理部40が検出した検出結果を選択する。
(条件2)人の密集度に基づいて選択
グリッド毎の密集度を検出し、検出したグリッド毎の密集度が所定の値未満の場合、人統合処理部30が検出した検出結果を選択し、検出したグリッド毎の密集度が所定の値以上の場合、グリッド統合処理部40が検出した検出結果を選択する。なお、本実施形態における密集度とは、例えば、所定の面積内にいる人数に基づく指標である。
また、本実施形態の動作推定装置3において、状況推定部(例えば状況推定部50)は、第1時刻(例えば時刻t3)と第1期間(例えば時刻t3からt4の期間p4)それぞれにおける対象物(例えば人)の高さ方向の距離を抽出し、第1時刻に抽出した高さ方向の距離と、第1期間に抽出した高さ方向の距離とを比較することで、人の反応を推定する。
状況推定部50は、グリッド統合処理部40によって算出される高さを示す情報が抽出されたグリッドに高さの平均値をサンプリングタイム毎に取得するようにしてもよい。そして、状況推定部50は、取得した高さを示す情報が抽出されたグリッドに高さの平均値が、予め定められている値より小さくなったか否かを判別し、予め定められている値より小さくなったと判別したとき、検出領域にいる人達の手が下がったときと判別するようにしてもよい。そして、状況推定部50は、検出領域にいる人達の手が下がったときに基づいて、手が上がっている期間、及び手が下がっているときを決定するようにしてもよい。この場合、動作推定装置3は、人統合処理部30によって処理された結果と、グリッド統合処理部40によって処理された結果それぞれを、時刻を示す情報と関連づけて記憶部60に記憶させ、決定した期間及び時刻の情報を記憶部60から読み出して第1処理及び第2処理を行うようにしてもよい。
図12は、本実施形態に係るロボット1Aの概略のブロック図である。
図12に示すように、ロボット1Aは、処理部2、及び動作推定装置3Aを含んで構成される。ロボット1Aは、n(nは1以上の整数)個のLRFセンサ10−1〜10−nに無線または有線で接続される。なお、ロボット1と同じ機能を有する機能部については、同じ符号を用いて説明を省略する。また、LRFセンサ10−1〜10−nのうちいずれか1つを特定しない場合は、LRFセンサ10という。なお、イベント会場等で用いられるガイドシステム等が動作推定装置3Aを備えるようにしてもよい。
センシング処理部20Aは、LRFセンサ10から入力された検出結果を用いて、例えば所定の周期毎に測距点を分類する(クラスタリング)。センシング処理部20Aは、分類したクラスタ毎の重心位置を算出し、算出した重心位置を、位置を示す情報とする。センシング処理部20Aは、分類したクラスタ毎に高さの最大値を抽出し、抽出した最大値を、高さを示す情報とする。そして、センシング処理部20Aは、クラスタ毎に、位置を示す情報と高さを示す情報とを関連づけて人クラスタデータd1を生成し、生成した人クラスタデータd1を人統合処理部30に出力する。
さらに、状況推定部50Aは、予め定められている条件、または人統合処理部30とグリッド統合処理部40とセンシング処理部20Aとのうち少なくとも1つから入力された結果に基づいて、手を挙げている人数、または手を挙げていることによるグリッド高さの変化量を推定し、推定した結果を制御部102に出力する。
(仮定1)人の身長と腕の長さとには、統計的に相関があり、また、年齢、性別を問わずにほぼ一定であることが知られている。
(仮定2)一般的に、人は手をまっすぐ上に向けて上げる。
(仮定3)人が密集している場合、人は、近接する人の挙げた手と接触を避けるように、手を挙げることが多い。すなわち、人は、暗黙的に手のパーソナル空間のようなものを設定している。
(仮定4)人の体幹の厚さ(腹厚)以上には他人には近づけない傾向がある。
上述した仮定1のように、身長Hhに対する手首Hwの比率と、身長Hhに対する肩峰高Hsとの比率とには、大きな差異がない。このため、人が挙手した時に手がある手首Hwの高さは、子供も大人も関係なく身長Hhまたは肩峰高Hsから暗黙的な比率によりにわかる。
このため、本実施形態では、測距点が、頭の位置の高さ(=身長Hh)から手を挙げたときの高さ(=手首Hw)の比率と、肩峰高Hsから手を挙げたときの高さ(=手首Hw)の比率との間にある場合、手であると判別する。
図14Bでは、紙面に向かって左右方向をx軸方向、奥行き方向をy軸方向、高さ方向をz軸方向とする。図14Bにおいて、点は測距点を表している。また、図14Bに示す第1マップは、1回のサンプリングによって取得された測距点による第1マップ(A)である。
図15Bでは、紙面に向かって左右方向をx軸方向、奥行き方向をy軸方向、高さ方向をz軸方向とする。図15Bにおいて、点は測距点を表している。また、図15Bに示す第1マップは、所定の時刻に取得された測距点による第2マップ(B)である。
図15A及び図15Bに示した例では、人hu2と人hu4が手を挙げている例である。
図16は、本実施形態に係る状況推定部50Aが第1マップ〜第5マップを用いて行う処理を説明する図である。図17は、本実施形態に係る状況推定部50Aがクラスタリングを行って手を挙げている人数を推定する処理を説明する図である。図18は、本実施形態に係る状況推定部50Aの処理手順のフローチャートである。また、図16では、紙面に向かって左右方向をx軸方向、奥行き方向をy軸方向、高さ方向をz軸方向とする。図17では、紙面に向かって左右方向をx軸方向、奥行き方向をy軸方向とする。
また、以下の処理の説明において、状況推定部50Aが第1マップ〜第5マップを用いて行う処理のみを説明するが、状況推定部50Aは、第1実施形態と同様に、ステップS1〜S11(図3)の処理も行う。
(ステップS503)状況推定部50Aは、ステップS502で生成した平均の第1マップ(Av)のz軸成分の値に、記憶部60Aから読み出した手首Hwと肩峰高Hsとの比(Hw/Hs)を乗じて、図16の符号m303が示す領域の図のような第3マップ(AzMax)を生成する。Hw/Hsは、例えば、1.1である。この意味合いは、手が下げられているときに測定された測距点が肩峰だったとき、手が挙げられた場合の手首のz軸成分の値の上限値を算出している。状況推定部50Aは、処理をステップS504に進める。
動作推定装置3Aは、シナリオ情報に基づいて、所定の質問を所定回数提示するまで、ステップS501〜S509を繰り返す。
以上で、挙手検出の処理を終了する。
例えば、プレゼンターが人であってもよい。この場合、プレゼンターは、検出領域にいる人に向けて質問を発するタイミングで、不図示の操作スイッチを押すことで、トリガー信号d5を動作推定装置(3、または3A)に出力するようにしてもよい。例えば、プレゼンターは、挙手を促す質問を発するときにAボタンを押し、手を挙げることを促す音声を発するときにBボタンを押し、全ての質問が終了したときにCボタンを押すようにしてもよい。操作スイッチは、押されたボタンに応じたトリガー信号d5を動作推定装置(3、または3A)に出力するようにしてもよい。この場合であっても、動作推定装置(3、または3A)は、入力されたトリガー信号d5に応じて、所定の期間、及び所定の時刻に上述した処理を行うことで、多数決処理を行うことができる。
また、加速度センサやGPS(グローバル・ポジショニング・システム;Global Positioning System)など位置検出を行える携帯端末を人が上げ下げするようにしてもよい。そして、動作推定装置(3、または3A)は、これらの携帯端末が送信する情報を受信し、受信した情報も用いて、人が手を挙げたか否かの判別、手を挙げた人の人数等の人の反応を推定するようにしてもよい。
図19は、人に対して挙手の終了を促した時刻、第1時刻、及び第1期間を説明する図である。
時刻t101〜t102の期間は、音声出力部103が人に対して挙手の終了を促す音声信号「てをさげてください」を出力した期間である。
また、時刻t3〜時刻t4の期間p4と、時刻t4〜時刻t5の期間p6とは、人に対して挙手の終了を促した時刻に基づき設定される第1期間である。
または、状況推定部50は、時刻t3のデータを用いて検出された高さと、時刻t5のデータを用いて検出された高さと、を比較して挙手されている人数を推定するようにしてもよい。
または、状況推定部50は、時刻t3のデータを用いて検出された高さと、期間p6のデータ(例えば平均値、最小値、統計処理された値)を用いて検出された高さと、を比較して挙手されている人数を推定するようにしてもよい。
または、状況推定部50は、期間p4のデータを用いて検出された高さと、期間p6のデータ(例えば平均値、最小値、統計処理された値)を用いて検出された高さと、を比較して挙手されている人数を推定するようにしてもよい。
以上のように、状況推定部50は、人が手を挙げていると推定される時刻または期間のいずれかの高さと、人が手を下げていると推定される時刻または期間のいずれかの高さと、を比較して挙手されている人数を推定するようにしてもよい。
Claims (11)
- センサと対象物との距離を取得する取得部と、
人に対して挙手の終了を促した時刻に基づき設定される第1時刻における前記取得部によって取得された前記距離に基づいて人の反応を推定する状況推定部と、
前記取得部によって取得された前記距離に基づいて人を検出し、前記検出した人毎に識別子を付与する人処理部と、
人の反応を推定する所定の範囲を1つ以上の領域に分割し、前記取得部によって取得された前記距離に基づいて該領域毎の距離を求める領域距離処理部と、
を備え、
前記状況推定部は、
人に対して挙手の終了を促した時刻に基づき設定される第1期間における前記取得部によって取得された前記距離に基づいて人の反応を推定し、
前記人処理部によって前記識別子が付与された前記人の前記距離を用いて、前記第1時刻と前記第1期間それぞれにおける前記識別子毎の高さ方向の距離を抽出し、前記第1時刻と前記第1期間それぞれにおける前記抽出した前記識別子毎の高さ方向の距離同士を比較することで、人の反応を推定し、
前記人処理部によって前記識別子が付与された前記人の前記距離と、前記領域距離処理部によって求められた距離のうち、すくなくとも1つの距離によって人の反応を推定する動作推定装置。 - 前記状況推定部は、
前記第1時刻と前記第1期間それぞれにおける対象物の高さ方向の距離を抽出し、前記第1時刻に前記抽出した高さ方向の距離と、前記第1期間に前記抽出した高さ方向の距離とを比較することで、人の反応を推定する請求項1に記載の動作推定装置。 - 前記領域距離処理部は、
前記第1時刻と前記第1期間における前記領域毎の高さ方向の距離を抽出し、前記第1時刻と前記第1期間における前記抽出した前記領域毎の高さ方向の距離に基づく値を比較することで、人の反応を推定する請求項1または請求項2に記載の動作推定装置。 - 前記領域毎の高さ方向の距離に基づく値は、
前記第1時刻と前記第1期間における前記領域毎の高さ方向の距離が抽出された領域における前記高さ方向の距離の平均値である請求項3に記載の動作推定装置。 - 前記人処理部が付与した識別子の距離を追跡する距離追跡部、を備え、
前記状況推定部は、
前記距離追跡部が付与した前記識別子の数を参照し、所定の期間に追跡不能になった前記識別子の数が所定の値を超えたとき、前記領域距離処理部によって求められた距離を用いて人の反応を推定し、所定の期間に追跡不能になった前記識別子の数が所定の値より少ないとき、前記人処理部によって求められた距離を用いて、人の反応を推定する請求項1から請求項4のいずれか1項に記載の動作推定装置。 - 前記第1時刻または前記第1期間は、
前記領域距離処理部によって測定される前記距離の変化が所定の値より小さくなったときに対応して決定される請求項1から請求項5のいずれか1項に記載の動作推定装置。 - 前記状況推定部は、
人が挙手を行っていない第2期間における前記取得部によって取得された前記距離と、人の体格データとに基づいて算出される挙手をしたときに人の手が存在する高さ方向の範囲である挙手存在範囲を算出し、算出した前記挙手存在範囲にある前記第1時刻または前記第1期間における前記取得部によって取得された前記距離を抽出し、前記抽出した距離に基づいて人の反応を推定する請求項1から請求項6のいずれか1項に記載の動作推定装置。 - 前記人の反応は、人が挙手を行っている反応か挙手を行っていない反応かであり、
前記状況推定部は、
前記人の反応を複数回推定して、前記複数回推定した結果に基づいて、多数決の判定を行う請求項1から請求項7のいずれか1項に記載の動作推定装置。 - 所定の範囲に対して自センサと対象物との距離の測定を行うセンサ、を備える請求項1から請求項8のいずれか1項に記載の動作推定装置。
- 前記人に対して挙手の終了を促すこと示す信号を出力する出力部と、
請求項1から請求項9のいずれか1項に記載の動作推定装置を備えるロボット。 - 取得部が、センサと対象物との距離を取得する取得手順と、
人処理部が、前記取得手順によって取得された前記距離に基づいて人を検出し、前記検出した人毎に識別子を付与する人処理手順と、
領域距離処理部が、人の反応を推定する所定の範囲を1つ以上の領域に分割し、前記取得部によって取得された前記距離に基づいて該領域毎の距離を求める領域距離処理手順と、
状況推定部が、人に対して挙手の終了を促した時刻に基づき設定される第1期間における前記取得部によって取得された前記距離に基づいて人の反応を推定する手順と、
前記状況推定部が、前記人処理手順によって前記識別子が付与された前記人の前記距離を用いて、人に対して挙手の終了を促した時刻に基づき設定される第1時刻と前記第1期間それぞれにおける前記識別子毎の高さ方向の距離を抽出し、前記第1時刻と前記第1期間それぞれにおける前記抽出した前記識別子毎の高さ方向の距離同士を比較することで、人の反応を推定する手順と、
前記状況推定部が、前記人処理手順によって前記識別子が付与された前記人の前記距離と、前記領域距離処理部によって求められた距離のうち、すくなくとも1つの距離によって人の反応を推定する手順と、
を含む動作推定方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015046241A JP6550643B2 (ja) | 2014-03-14 | 2015-03-09 | 動作推定装置、ロボット、及び動作推定方法 |
US14/644,491 US9684824B2 (en) | 2014-03-14 | 2015-03-11 | Motion estimation device, robot, and method to estimate reaction of a person |
CN201510108828.3A CN104908048B (zh) | 2014-03-14 | 2015-03-12 | 动作推断装置、机器人以及动作推断方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014052295 | 2014-03-14 | ||
JP2014052295 | 2014-03-14 | ||
JP2015046241A JP6550643B2 (ja) | 2014-03-14 | 2015-03-09 | 動作推定装置、ロボット、及び動作推定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015187856A JP2015187856A (ja) | 2015-10-29 |
JP6550643B2 true JP6550643B2 (ja) | 2019-07-31 |
Family
ID=54069193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015046241A Active JP6550643B2 (ja) | 2014-03-14 | 2015-03-09 | 動作推定装置、ロボット、及び動作推定方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9684824B2 (ja) |
JP (1) | JP6550643B2 (ja) |
CN (1) | CN104908048B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6455310B2 (ja) * | 2015-05-18 | 2019-01-23 | 本田技研工業株式会社 | 動作推定装置、ロボット、及び動作推定方法 |
US9751212B1 (en) * | 2016-05-05 | 2017-09-05 | Toyota Jidosha Kabushiki Kaisha | Adapting object handover from robot to human using perceptual affordances |
JP6713837B2 (ja) * | 2016-05-31 | 2020-06-24 | 株式会社日立製作所 | 輸送機器制御システム、及び、輸送機器制御方法 |
JP6761786B2 (ja) * | 2017-08-10 | 2020-09-30 | 本田技研工業株式会社 | 天井地図作成方法、天井地図作成装置及び天井地図作成プログラム |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4018218B2 (ja) * | 1997-12-25 | 2007-12-05 | キヤノン株式会社 | 光学装置及び測距点選択方法 |
JP2001128134A (ja) * | 1999-11-01 | 2001-05-11 | Atr Media Integration & Communications Res Lab | プレゼンテーション装置 |
JP2002197463A (ja) * | 2000-12-26 | 2002-07-12 | Matsushita Electric Ind Co Ltd | 挙動検出装置および挙動検出システム |
US7274800B2 (en) * | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
DE602004006190T8 (de) * | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
JP2005215927A (ja) * | 2004-01-29 | 2005-08-11 | Mitsubishi Heavy Ind Ltd | 行動認識システム |
JP4692159B2 (ja) | 2004-08-31 | 2011-06-01 | パナソニック電工株式会社 | ジェスチャースイッチ |
JP4267648B2 (ja) * | 2006-08-25 | 2009-05-27 | 株式会社東芝 | インターフェース装置及びその方法 |
US7770136B2 (en) * | 2007-01-24 | 2010-08-03 | Microsoft Corporation | Gesture recognition interactive feedback |
US7965866B2 (en) * | 2007-07-03 | 2011-06-21 | Shoppertrak Rct Corporation | System and process for detecting, tracking and counting human objects of interest |
WO2009042579A1 (en) * | 2007-09-24 | 2009-04-02 | Gesturetek, Inc. | Enhanced interface for voice and video communications |
JP2010239327A (ja) * | 2009-03-31 | 2010-10-21 | Brother Ind Ltd | 会議装置、会議支援方法、会議支援プログラム |
JP5256109B2 (ja) * | 2009-04-23 | 2013-08-07 | 株式会社日立製作所 | 表示装置 |
US9377857B2 (en) * | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US9277021B2 (en) | 2009-08-21 | 2016-03-01 | Avaya Inc. | Sending a user associated telecommunication address |
JP5648840B2 (ja) * | 2009-09-17 | 2015-01-07 | 清水建設株式会社 | ベッド上及び室内の見守りシステム |
JP5116754B2 (ja) * | 2009-12-10 | 2013-01-09 | シャープ株式会社 | 光学式検出装置および電子機器 |
US9244533B2 (en) * | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
JP5320332B2 (ja) * | 2010-03-19 | 2013-10-23 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法、及びプログラム |
JP2011204019A (ja) * | 2010-03-25 | 2011-10-13 | Sony Corp | ジェスチャ入力装置、ジェスチャ入力方法およびプログラム |
US8457353B2 (en) * | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
JP2012065833A (ja) * | 2010-09-22 | 2012-04-05 | Konami Digital Entertainment Co Ltd | ゲーム装置、ゲーム制御方法、ならびに、プログラム |
JP2012113460A (ja) * | 2010-11-24 | 2012-06-14 | Sony Corp | 情報処理装置および方法、並びにプログラム |
CN102509092A (zh) | 2011-12-12 | 2012-06-20 | 北京华达诺科技有限公司 | 体感手势识别方法 |
JP5830653B2 (ja) * | 2012-04-27 | 2015-12-09 | パナソニックIpマネジメント株式会社 | 空気調和機 |
CN103019570A (zh) | 2012-12-31 | 2013-04-03 | 上海华勤通讯技术有限公司 | 手势识别方法及移动终端 |
US9430044B2 (en) * | 2013-03-15 | 2016-08-30 | Lutron Electronics Co., Inc. | Gesture-based load control |
CN103279791B (zh) | 2013-05-30 | 2016-03-30 | 上海汇纳信息科技股份有限公司 | 基于多特征的行人计算方法 |
CN103544469B (zh) | 2013-07-24 | 2017-05-10 | Tcl集团股份有限公司 | 一种基于掌心测距的指尖检测方法和装置 |
CN103543834A (zh) | 2013-11-05 | 2014-01-29 | 上海电机学院 | 一种手势识别装置与方法 |
-
2015
- 2015-03-09 JP JP2015046241A patent/JP6550643B2/ja active Active
- 2015-03-11 US US14/644,491 patent/US9684824B2/en active Active
- 2015-03-12 CN CN201510108828.3A patent/CN104908048B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US9684824B2 (en) | 2017-06-20 |
CN104908048B (zh) | 2017-04-12 |
CN104908048A (zh) | 2015-09-16 |
JP2015187856A (ja) | 2015-10-29 |
US20150262003A1 (en) | 2015-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6455310B2 (ja) | 動作推定装置、ロボット、及び動作推定方法 | |
US20220057226A1 (en) | Navigation methods and apparatus for the visually impaired | |
JP6550643B2 (ja) | 動作推定装置、ロボット、及び動作推定方法 | |
US9682482B2 (en) | Autonomous moving device and control method of autonomous moving device | |
CN102903362B (zh) | 集成的本地和基于云的语音识别 | |
EP2529355B1 (en) | Voice-body identity correlation | |
JP4435212B2 (ja) | 姿勢認識装置及び自律ロボット | |
JP2017209736A (ja) | ロボット制御システム | |
US20160205352A1 (en) | Method for providing telepresence using avatars, and system and computer-readable recording medium using the same | |
JP2013537618A (ja) | オブジェクト追跡及び認識方法及び装置 | |
JP2017076202A (ja) | 反応出力システム、反応出力プログラム、反応出力方法 | |
CN111009028A (zh) | 虚拟脸部模型的表情拟真***及方法 | |
JPWO2018087971A1 (ja) | 移動体制御装置および移動体制御プログラム | |
WO2019171685A1 (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
JP5700963B2 (ja) | 情報処理装置およびその制御方法 | |
US9471983B2 (en) | Information processing device, system, and information processing method | |
JP5418938B2 (ja) | グループ行動推定装置およびサービス提供システム | |
US20230226460A1 (en) | Information processing device, information processing method, and recording medium | |
CN203630718U (zh) | 基于3d体感摄影机的舞台交互*** | |
JP5567725B2 (ja) | グループ行動推定装置 | |
US20190369713A1 (en) | Display control apparatus, display control method, and program | |
JP7009939B2 (ja) | 制御プログラム、制御方法および制御装置 | |
WO2022209000A1 (ja) | コンテンツ再生システム、情報処理装置及びコンテンツ再生制御アプリケーション | |
WO2022208906A1 (ja) | コンテンツ再生システム、情報処理装置及びコンテンツ再生制御アプリケーション | |
Chu et al. | A study of motion recognition system using a smart phone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171129 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6550643 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |