JP2016224686A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2016224686A5 JP2016224686A5 JP2015110215A JP2015110215A JP2016224686A5 JP 2016224686 A5 JP2016224686 A5 JP 2016224686A5 JP 2015110215 A JP2015110215 A JP 2015110215A JP 2015110215 A JP2015110215 A JP 2015110215A JP 2016224686 A5 JP2016224686 A5 JP 2016224686A5
- Authority
- JP
- Japan
- Prior art keywords
- processing apparatus
- information processing
- recognition
- predetermined
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 50
- 238000000605 extraction Methods 0.000 claims description 17
- 230000000875 corresponding Effects 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 4
- 230000005484 gravity Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims 4
- 238000004590 computer program Methods 0.000 claims 1
- 230000001276 controlling effect Effects 0.000 claims 1
- 230000003247 decreasing Effects 0.000 claims 1
- 210000000746 body regions Anatomy 0.000 description 9
- 210000003733 Optic Disk Anatomy 0.000 description 3
- 210000000038 chest Anatomy 0.000 description 3
- 210000000707 Wrist Anatomy 0.000 description 2
- 210000000481 Breast Anatomy 0.000 description 1
- 210000001513 Elbow Anatomy 0.000 description 1
- 210000002356 Skeleton Anatomy 0.000 description 1
- 230000000295 complement Effects 0.000 description 1
- 230000001809 detectable Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
Description
本発明は、上記の目的を達成する一手段として、所定の物体を撮像した画像から、前記所定の物体の一部によって示される指示位置を検出する検出手段と、前記画像から、前記所定の物体の状態に関する特徴を抽出する抽出手段と、前記検出手段によって検出された2つ以上の前記指示位置の位置関係の変化に基づいて、所定の操作を認識する第1の認識手段と、前記抽出手段によって抽出された特徴の変化に基づいて、前記所定の操作を認識する第2の認識手段と、前記第1の認識手段及び前記第2の認識手段のうち、前記検出手段によって検出された前記指示位置の数の遷移に応じたいずれかの認識結果を出力する出力手段と、を備える。
本発明によれば、所定の物体の一部が画像取得手段の死角に隠れた影響で入力中の操作を構成する複数の指示位置の少なくとも1つの検出が困難となった場合でも、入力中の操作を継続して認識可能となる。
ステップS305では、判定部214が、ステップS304において取得された指示位置の座標情報のうち、高さに対応する情報に基づいて、タッチ状態にある指示位置が存在するか否かを判定する。本実施形態では、タッチ閾値と、タッチ閾値よりも高い非タッチ閾値を設け、タッチ閾値よりも低い位置に存在する指示位置をタッチ状態にあると判定する。一旦タッチ状態と判定された指示位置は、非タッチ閾値よりも高い位置に移動した時点で、非タッチ状態と判定される。このように閾値をそれぞれ設けることにより、距離画像センサの検出誤差が原因となって、タッチ中であるはずの指が非タッチ状態であると判定されることで、操作が中断されるという影響を抑えることが可能となる。タッチ状態にある指示位置が存在すると判定した場合(ステップS305でYes)、ステップS306に進む。タッチ状態にある指示位置が存在しないと判定した場合(ステップS305でNo)、ステップS312に進む。
ステップS306では、選択部215が、タッチ状態にある指示位置の数を特定する。特定される数は、操作面をタッチすることによって指示されているタッチ位置の数に相当する。選択部215は、特定した数をRAM202に保持する。ステップS307では、選択部215は、特定されたタッチ状態にある指示位置の数が2か否かを判定する。2であると判定した場合(ステップS307でYes)、処理はステップS308に進み、選択部215は、第1の認識処理を選択する。選択部215は、第1の認識処理が選択されていることを示す情報をRAM202に保持するとともに、第1認識部216に認識処理の実行を指示する信号を通知する。一方、タッチ状態にある指示位置の数が2ではないと判定した場合(ステップS307でNo)、処理はステップS309に進む。
ステップS309では、選択部215が、特定されたタッチ状態にある指示位置の数が1か否かを判定する。タッチ状態にある指示位置の数が1であると判定した場合(ステップS309でYes)、処理はステップS310に進む。一方、タッチ状態にある指示位置の数が1ではないと判定した場合(ステップS309でNo)、処理はステップS311に進む。なお、ステップS309からステップS311に進む場合は、タッチ状態にある指示位置の数が3以上である場合に相当する。
ステップS310では、選択部215が、特定されたタッチ状態にある指示位置の数が2点以上から1点に遷移したか否かを判定する。選択部215は、RAM202に保持されている指示位置の数の情報を参照して判定を行う。タッチ状態にある指示位置の数が2点以上から1点に遷移したと判定した場合(ステップS310でYes)、処理はステップS311に進む。一方、タッチ状態にある指示位置の数が2点以上から1点に遷移したのではない、と判定した場合(ステップS310でNo)、処理を修了する。タッチ状態にある指示位置の数が2点以上から1点に遷移したのではない場合とは、すなわち、0点から1点に遷移した場合である。本実施形態ではこの場合、操作者は、始めから1点の指示位置を使ったシングルタッチ操作を意図している可能性、あるいは、2点目の指示位置がタッチされる前段階の状態である可能性が高いとみなす。従って、マルチタッチ操作の認識処理である図3のフローチャートからは抜ける。ステップS311では、選択部215が、第2の認識処理を選択する。選択部215は、第2の認識処理が選択されていることを示す情報をRAM202に保持するとともに、第2認識部215に認識処理の実行を指示する信号を通知する。
一方、ステップS305において、タッチ状態にある指示位置(タッチ位置)が存在しなかった場合、ステップS312では、判定部214が、抽出された手領域に基づいて、手の高さを取得する。本実施形態では、手の高さとして、手領域の重心に当たる画素値に対応する高さ情報を求める。ただし、重心の画素値を採用する方法に限らず、例えば、手首より先の部分の画素値の平均を利用するなどしてもよい。ステップS313において、判定部214は、取得した手の高さが、所定の高さの閾値以上に大きいか否かを判定する。手の高さが所定の高さの閾値より小さいと判定された場合(ステップS313でNo)、ステップS315に進む。そして、過去の処理で選択された状態にある認識処理が実行される。一方、手の高さが所定の高さの閾値以上に大きいと判定された場合(ステップS313でYes)、ステップS314に進む。ステップS314において、選択部215は、認識処理の選択を解除する。本実施形態では、RAM202に保持されている、選択状態にある認識処理を示す情報を参照し、対応する認識部に選択の解除を通知するとともに、当該情報を削除する。タッチ状態にある2点の指示位置の検出数に基づくジェスチャ認識の選択および解除処理の詳細は後述する。
そして、ステップS315では、選択された状態にある認識処理が実行される。ステップS308で第1の認識処理が選択された場合、ステップS315では、第1認識部216が、タッチ状態にある2点の指示位置の位置関係の変化に基づいて、所定のマルチタッチ操作を認識する。ステップS311で第2の認識処理が選択された場合、ステップS315では、第2認識部217が、特徴抽出部213によって抽出された特徴に基づく操作者の手の状態変化に基づいて、所定のマルチタッチ操作を認識する。それぞれの認識処理の詳細は後述する。ステップS316は、表示制御部218が、ステップS315における第1認識部216あるいは第2認識部217のいずれかの認識結果に基づいて、表示部であるプロジェクタ104に対する出力を制御する。例えば、拡縮操作が認識された場合には、ステップS315において出力される拡縮倍率に応じて表示されている画像を拡大あるいは縮小させる。また、回転操作が認識された場合には、ステップS315で出力される回転角度に応じて、表示されている画像を回転させる。
ステップS407では、2つの指示位置を結ぶベクトルの方向として、x軸周りの回転角度を取得する。ステップS408では、現在の処理フレームが、第1の認識処理を開始する最初のフレームであるかを判定し、最初のフレームであると判定された場合(ステップS408でYes)、ステップS409に進む。最初のフレームではない場合(ステップS408でNo)、ステップS409に進む。ステップS409では、ステップS407で現在のフレームから取得された回転角度を、基準方向の情報としてRAM202に保持する。
本実施形態では、拡縮操作を認識するために、2つの指示位置間の距離の変化に代わる情報として、手領域から抽出した特徴が示す、手の見た目の大きさ(目で見て、手だと認識できる部分の大きさを指す。以下、単に「手の大きさ」という。)の変化を用いる。ここで、図5(a)の上段は、ピンチイン操作中の手106を、xy平面に平行に見た様子を表し、図5(a)の下段は、上段と同じタイミングでの距離画像中の手106の見た目の様子を表す。図5(a)より、ピンチイン操作により2点の指示位置の間の距離501が小さくなるのに応じて、距離画像中の手の見た目の大きさを表す円602の大きさが変化することが分かる。これは、指先がセンサの死角に入り、指示位置自体を検出できなくなった場合でも、別途継続して検出可能な変化である。そこで第2の認識処理は、距離画像中の手領域の大きさが大きくなれば拡大、小さくなれば縮小を示す拡縮操作として認識し、手領域の大きさの変化量に応じた拡縮率を出力する。ただし、2つの指示位置間の距離は略0に近づけることが可能であるのに対し、手の見た目の大きさは、こぶしの大きさ程度が下限となる。そのため、2つの指示位置間の距離変化に基づいて得られる縮小倍率と、手の見た目の大きさ変化に基づいて得られる縮小倍率が一致するとは限らない。
図6のフローチャートを用いて、ステップS315において第2の認識部217が行う第2の認識処理の流れを説明する。第2の認識処理では、まず、ステップS601において、第2の認識処理を開始する最初のフレームであるかを判定する。最初のフレームであれば(ステップS601でYes)、ステップS602において、ステップS303で求めた「手の大きさ」の情報を、基準の大きさの情報としてRAM202に保持する。最初のフレームでなければ(ステップS601でNo)、ステップS603において、基準大きさに対する現フレームの「手の大きさ」の比率を取得する。ステップS604において、取得した比率と、前回の出力時に取得した比率との差分が閾値以上であるかを判定する。差分が閾値以上であれば(ステップS604でYes)、ステップS605において、ステップS603で取得した比率を、マルチタッチ操作で指示された表示画像の拡縮倍率として、表示制御部218に出力する。
ステップS606において、現フレームが第2の認識処理を開始する最初のフレームであるかを判定する。最初のフレームであれば(ステップS606でYes)、ステップS607において、ステップS303で抽出した「手の方向」を示す情報と、基準方向の情報としてRAM202に保持する。最初のフレームでなければ(ステップS606でNo)、ステップS608において、基準方向と、現フレームから取得された「手の方向」の角度差を取得する。そして、ステップS609において、取得した角度差と、前回の出力時に取得した角度差との差分が閾値以上かを判定する。差分が閾値以上であれば(ステップS609でYes)、ステップS610において、ステップS608で取得した角度差を、マルチタッチ操作で指示された表示画像の回転角度として、表示制御部218に出力する。
なお、ステップS604およびS609の閾値判定を加えることで、微小な手領域の姿勢の変動による不要な拡縮・回転操作認識結果の出力を抑えることが可能になる。基準の大きさおよび基準方向は、一旦設定された場合、第2の認識処理の選択状態が解除されるまでは変更されない。本実施形態では、ステップS316の処理に基づいて選択が解除される際にRAM202から削除される。また、情報処理装置100が拡縮操作を認識しない場合は、拡縮操作に対応するステップS601からステップS605の処理は省略可能である。同様に、情報処理装置100が回転操作を認識しない場合は、回転操作に対応するステップS606からステップS610の処理は省略可能である。
ステップS1102では、人体領域抽出部1010が、ステップS1101において抽出された人体領域の姿勢に基づき、人体領域の特徴を抽出する。本実施形態では、拡縮操作を認識するための特徴として人体の上半身の見た目の大きさを、回転操作を認識するための特徴として人体の上半身の方向を抽出する。ステップS1103では、検出部1011が、人体領域のうち手(手首より先)部分を検出する。
一方で、ステップS1104において、こぶしを握るポーズをとった手が存在しないと判定された場合(ステップS1104でNo)、処理はステップS1107に進む。ステップS1107では、判定部214が、抽出された人体領域に基づいて、人体と操作面(壁面スクリーン)との間の距離を取得する。本実施形態では、人体領域から推定された両肘とスクリーンとの平均距離を人体とスクリーンとの距離として求める。そして、ステップS1108において、判定部214は、人体とスクリーンとの距離について閾値判定を行い、距離が閾値以上であれば(ステップS1108でYes)、ステップS314に進み、選択部215によって認識処理の選択が解除される。本実施形態では、RAM202に保持されている、選択状態にある認識処理を示す情報を参照し、対応する認識部に選択の解除を通知するとともに、当該情報を削除する。人体とスクリーンとの距離が閾値未満であれば(ステップS1108でNo)、処理はステップS1106に進む。本実施形態では、以上説明した空間ジェスチャ操作の認識処理が、距離画像センサ102から距離画像が入力される毎に繰り返し行われる。
[第2の認識処理]
ここで、第2の実施形態において、ステップS311で第2の認識処理が選択された場合に、ステップS1106で実行される認識処理の詳細を説明する。第2の認識処理は、指示位置を2点検出できない場合の補完手段として、指示位置の検出可否に依存せずに、人体領域から抽出することが可能な上半身の特徴が示す上半身の状態の変化に基づいて所定の空間ジェスチャ操作を認識する。第2の実施形態においても、第1の認識処理では認識可能なピンチアウト操作、ピンチイン操作、回転操作による指示のそれぞれが認識可能であり、第2の認識処理では、第1の認識処理とは異なる方法でそれらを認識することが可能である。
ここで、第2の実施形態において、ステップS311で第2の認識処理が選択された場合に、ステップS1106で実行される認識処理の詳細を説明する。第2の認識処理は、指示位置を2点検出できない場合の補完手段として、指示位置の検出可否に依存せずに、人体領域から抽出することが可能な上半身の特徴が示す上半身の状態の変化に基づいて所定の空間ジェスチャ操作を認識する。第2の実施形態においても、第1の認識処理では認識可能なピンチアウト操作、ピンチイン操作、回転操作による指示のそれぞれが認識可能であり、第2の認識処理では、第1の認識処理とは異なる方法でそれらを認識することが可能である。
また、本実施形態では、人体領域から得られる上半身部分の見た目の方向(以下、「上半身の方向」)に基づいて、回転操作を認識する。ここで、回転操作中の距離画像中の人体の見た目の様子を12(b)に示す。回転操作中の2つの指示位置を結ぶベクトル1211の方向の変化に応じて、距離画像中の「上半身の方向」を表すベクトル504も変化することが分かる。これは、こぶしがセンサの死角に入り指示位置を検出できない場合にも、検出可能な特徴の変化である。そこで第2の認識処理では、距離画像から得られる「上半身の方向」の変化に応じて回転操作を認識し、その変化量に応じた回転角度を出力する。本実施形態では、人体領域抽出部1010がステップS1102において、人体領域の胸の位置1213を中心とした上半身部分の慣性主軸の方向を「上半身の方向」として算出する。ここでも手の検出と同様、各関節の位置推定による骨格抽出とRDFによるパーツ識別に基づいて、胸の位置の推定を行う。なお、距離画像センサ102の設置位置等に応じて、人体の胸の位置からの最短距離が最長となる上半身部分の輪郭点と胸の中心位置とが成す角度を人体の方向として算出することも可能である。
Claims (24)
- 所定の物体を撮像した画像から、前記所定の物体の一部によって示される指示位置を検出する検出手段と、
前記画像から、前記所定の物体の状態に関する特徴を抽出する抽出手段と、
前記検出手段によって検出された2つ以上の前記指示位置の位置関係の変化に基づいて、所定の操作を認識する第1の認識手段と、
前記抽出手段によって抽出された特徴の変化に基づいて、前記所定の操作を認識する第2の認識手段と、
前記第1の認識手段及び前記第2の認識手段のうち、前記検出手段によって検出された前記指示位置の数の遷移に応じたいずれかの認識結果を出力する出力手段と、
を備えることを特徴とする情報処理装置。 - 前記所定の物体の状態に関する特徴とは、前記画像に写っている前記所定の物体の一部の大きさ、又は前記画像に写っている前記所定の物体の方向を表す特徴を含むことを特徴とする請求項1に記載の情報処理装置。
- 前記出力手段は、前記検出手段によって検出された前記指示位置の数が2点に遷移したことに基づいて、前記第1の認識手段の認識結果を出力する
ことを特徴とする請求項1又は2に記載の情報処理装置。 - 前記出力手段は、前記検出手段によって検出された指示位置の数が2点から1点に遷移したことに基づいて、前記第2の認識手段の認識結果を出力する
ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 - 前記出力手段は、所定の表示部に表示されている画像に対して、前記第1の認識手段あるいは前記第2の認識手段によって認識された前記所定の操作の操作量に応じた変化量を与える処理を行う
ことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 - 前記所定の操作とは、前記表示部によって表示されている画像に関する長さを変化させる指示、及び、前記表示部によって表示されている画像に関する方向を変化させる指示の少なくともいずれかを入力するための操作を含む
ことを特徴とする請求項5に記載の情報処理装置。 - 前記所定の操作とは、前記表示部によって表示されている画像を拡大あるいは縮小させる指示、及び、前記表示部によって表示されている画像を回転させる指示の少なくともいずれかを入力するためのマルチタッチ操作を含む
ことを特徴とする請求項5または6に記載の情報処理装置。 - 前記第2の認識手段は、前記検出手段が検出する前記指示位置の数が1点に遷移したことに基づいて、前記遷移の前に前記第1の認識手段が認識していた操作と同じ操作を引き継いで認識する
ことを特徴とする請求項6または7に記載の情報処理装置。 - 前記所定の操作は、前記表示部に表示されている画像の縮小を指示する操作を含み、前記第1の認識手段は、2点の前記指示位置の間の距離に応じて前記縮小を指示する操作を認識し、前記第2の認識手段は、前記第1の認識手段が前記縮小を指示する操作を認識している間に前記検出手段に検出される指示位置数が減った場合に、前記縮小を指示する操作を引き継いで認識する
ことを特徴とする請求項5乃至8のいずれか1項に記載の情報処理装置。 - 前記所定の物体を撮像した画像は、距離画像センサによって撮像された距離画像であって、
前記距離画像センサは、前記所定の物体と、前記所定の物体を用いたタッチ入力の対象となる操作面との間の距離に対応する軸に沿った距離情報が前記距離画像の画素値に反映されるように設置される
ことを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 - 前記第1の認識手段は、前記距離画像から検出される前記指示位置と前記操作面の間の距離に応じて、前記所定の物体と前記操作面とのタッチ状態を認識し、前記第2の認識手段は、前記距離画像から検出される前記所定の物体の重心の位置と前記操作面との間の距離に応じて前記所定の物体と前記操作面とのタッチ状態を認識する
ことを特徴とする請求項10に記載の情報処理装置。 - 更に、前記出力手段は、前記検出手段によって検出された指示位置の数が0点に遷移した場合、前記距離画像に基づいて推定される前記所定の物体と操作面との間の距離が所定の条件より小さいことに基づいて前記第2の認識手段による認識結果を出力する出力手段
ことを特徴とする請求項10または11に記載の情報処理装置。 - 前記出力手段は、前記検出手段によって検出された指示位置の数が3点以上に遷移した場合、前記第2の認識手段の認識結果を出力する
ことを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。 - 前記第1の認識手段は、前記検出手段によって検出された2点の前記指示位置の間の距離の変化に基づいて、所定の表示部に表示されている画像を拡大あるいは縮小させる指示を表す操作を認識し、
前記抽出手段は、前記所定の物体を撮像した画像のうち、前記所定の物体の像に対応する領域に基づいて、前記所定の物体の大きさに関する特徴を抽出し、
前記第2の認識手段は、前記抽出手段によって抽出される、前記所定の物体の大きさに対応する特徴の変化に基づいて、前記表示部に表示されている画像を拡大あるいは縮小させる指示を表す操作を認識する
ことを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。 - 前記第1の認識手段は、前記検出手段によって検出された2つ以上の前記指示位置の相対的な回転に基づいて、所定の表示部によって表示されている画像を回転させる指示を表す操作を認識し、
前記抽出手段は、前記所定の物体を撮像した画像のうち、前記所定の物体の像に対応する領域の形状に関する情報に基づいて、前記所定の物体の方向に関する特徴を抽出し、
前記第2の認識手段は、前記抽出手段によって抽出される、前記所定の物体の方向に対応する特徴の変化に基づいて、前記表示部に部に表示されている画像を回転させる指示を表す操作を認識する
ことを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。 - 更に、前記検出手段によって検出された前記指示位置の数の遷移に基づいて、前記第1の認識手段と前記第2の認識手段のいずれかを選択する選択手段を備え、
前記第1の認識手段及び前記第2の認識手段は、前記選択手段に選択されたことに応じて、前記所定の物体を用いて入力された操作の認識を実行することを特徴とする請求項1乃至15のいずれか1項に記載の情報処理装置。 - 前記所定の物体は、操作者の片手であって、
前記抽出手段は、前記操作者の片手を撮像した画像のうち前記片手が撮像された手領域の特徴を抽出し、
前記検出手段は、前記手領域のうち、1以上の指先の位置を検出することを特徴とする請求項1乃至16のいずれか1項に記載の情報処理装置。 - 検出手段により、所定の物体を撮像した画像から、前記所定の物体の一部によって示される指示位置を検出する検出工程と、
抽出手段により、前記画像から、前記所定の物体の状態に関する特徴を抽出する抽出工程と、
第1の認識手段により、前記検出工程において検出された2つ以上の前記指示位置の位置関係の変化に基づいて、所定の操作を認識する第1の認識工程と、
第2の認識手段により、前記抽出工程において抽出された特徴の変化に基づいて、前記所定の操作を認識する第2の認識工程と、
出力手段により、前記第1の認識手段及び前記第2の認識手段のうち、検出された前記指示位置の数の遷移に応じたいずれかによる認識結果を出力する出力工程と、
を備えることを特徴とする情報処理装置の制御方法。 - コンピュータに読み込ませ実行させることによって、前記コンピュータに、請求項18に記載された情報処理装置の制御方法を実行させるプログラム。
- 請求項19に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
- 操作者の手を撮像した画像から、前記手のうち1以上の指先の位置を検出する検出手段と、
前記画像から、前記指先の位置とは異なる前記手の状態を表す特徴を抽出する抽出手段と、
前記検出手段によって検出された前記指先の位置の数が2以上の所定の数である場合、検出された前記所定の数の指先の位置の位置関係の変化に基づいて、前記操作者によって入力される所定の操作を認識し、前記検出手段によって検出された前記指先の位置の数が前記所定の数から減少した場合、前記抽出手段によって抽出された特徴の変化に基づいて、前記所定の操作の認識を続ける認識手段
を備えることを特徴とする情報処理装置。 - 検出手段により、操作者の手を撮像した画像から、前記手のうち1以上の指先の位置を検出する検出工程と、
抽出手段により、前記画像から、前記指先の位置とは異なる前記手の状態を表す特徴を抽出する抽出工程と、
認識手段により、前記検出工程において検出された前記指先の位置の数が2以上の所定の数である場合、検出された前記所定の数の指先の位置の位置関係の変化に基づいて、前記操作者によって入力される所定の操作を認識し、前記検出工程において検出された前記指先の位置の数が前記所定の数から減少した場合、前記抽出手段によって抽出された特徴の変化に基づいて、前記所定の操作の認識を続ける認識工程
を備えることを特徴とする情報処理装置の制御方法。 - コンピュータに読み込ませ実行させることによって、前記コンピュータに、請求項22に記載された情報処理装置の制御方法を実行させるプログラム。
- 請求項23に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015110215A JP6618276B2 (ja) | 2015-05-29 | 2015-05-29 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
US15/164,123 US9916043B2 (en) | 2015-05-29 | 2016-05-25 | Information processing apparatus for recognizing user operation based on an image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015110215A JP6618276B2 (ja) | 2015-05-29 | 2015-05-29 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016224686A JP2016224686A (ja) | 2016-12-28 |
JP2016224686A5 true JP2016224686A5 (ja) | 2018-06-14 |
JP6618276B2 JP6618276B2 (ja) | 2019-12-11 |
Family
ID=57398497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015110215A Expired - Fee Related JP6618276B2 (ja) | 2015-05-29 | 2015-05-29 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9916043B2 (ja) |
JP (1) | JP6618276B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9880267B2 (en) * | 2015-09-04 | 2018-01-30 | Microvision, Inc. | Hybrid data acquisition in scanned beam display |
CN108369451B (zh) * | 2015-12-18 | 2021-10-29 | 索尼公司 | 信息处理装置、信息处理方法及计算机可读存储介质 |
WO2018042923A1 (ja) * | 2016-08-31 | 2018-03-08 | ソニー株式会社 | 情報処理システム、情報処理方法、およびプログラム |
CN110045825B (zh) * | 2018-03-27 | 2022-05-13 | 杭州凌感科技有限公司 | 用于车辆交互控制的手势识别*** |
JP2020046500A (ja) * | 2018-09-18 | 2020-03-26 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
KR102469722B1 (ko) * | 2018-09-21 | 2022-11-22 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
CN113119103B (zh) * | 2019-12-31 | 2022-10-14 | 深圳富泰宏精密工业有限公司 | 确定标记物的深度标准值的方法、计算机装置 |
CN111339877B (zh) * | 2020-02-19 | 2023-04-07 | 阿波罗智联(北京)科技有限公司 | 盲区的长度检测方法、装置、电子设备及存储介质 |
US20220261085A1 (en) * | 2021-02-12 | 2022-08-18 | Apple Inc. | Measurement based on point selection |
JP7482090B2 (ja) * | 2021-08-27 | 2024-05-13 | 株式会社東芝 | 推定装置、推定方法及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4803883B2 (ja) * | 2000-01-31 | 2011-10-26 | キヤノン株式会社 | 位置情報処理装置及びその方法及びそのプログラム。 |
US6943774B2 (en) * | 2001-04-02 | 2005-09-13 | Matsushita Electric Industrial Co., Ltd. | Portable communication terminal, information display device, control input device and control input method |
JP2011503709A (ja) * | 2007-11-07 | 2011-01-27 | エヌ−トリグ リミテッド | デジタイザのためのジェスチャ検出 |
WO2009128064A2 (en) * | 2008-04-14 | 2009-10-22 | Pointgrab Ltd. | Vision based pointing device emulation |
JP2012003690A (ja) * | 2010-06-21 | 2012-01-05 | Toyota Infotechnology Center Co Ltd | ユーザインタフェース装置 |
GB201110156D0 (en) * | 2011-06-16 | 2011-07-27 | Light Blue Optics Ltd | Touch-sensitive display devices |
JP2013065061A (ja) * | 2011-09-15 | 2013-04-11 | Funai Electric Co Ltd | プロジェクタ |
JP2013205983A (ja) | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
US20140240225A1 (en) * | 2013-02-26 | 2014-08-28 | Pointgrab Ltd. | Method for touchless control of a device |
-
2015
- 2015-05-29 JP JP2015110215A patent/JP6618276B2/ja not_active Expired - Fee Related
-
2016
- 2016-05-25 US US15/164,123 patent/US9916043B2/en not_active Expired - Fee Related
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016224686A5 (ja) | ||
JP6618276B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6482196B2 (ja) | 画像処理装置、その制御方法、プログラム、及び記憶媒体 | |
EP2381339A2 (en) | User interface using hologram and method thereof | |
JP6711817B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP5318189B2 (ja) | インターフェース制御装置、及びその方法 | |
KR20130105725A (ko) | 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전 | |
WO2013008236A1 (en) | System and method for computer vision based hand gesture identification | |
JP2012022632A (ja) | 情報処理装置およびその制御方法 | |
JP6452369B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
EP2831701B1 (en) | Display control device, display control method, and program | |
KR101338958B1 (ko) | 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법 | |
JPWO2020080107A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6366267B2 (ja) | 情報処理装置、その情報処理方法、プログラム、及び記憶媒体 | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
JP2017084307A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6418585B2 (ja) | ウェアラブルデバイス、及びウェアラブルデバイスの動作方法 | |
JP6289655B2 (ja) | 画面操作装置及び画面操作方法 | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6252351B2 (ja) | 電子機器 | |
JP6447179B2 (ja) | 情報入力システムおよび入力装置 | |
JP6559017B2 (ja) | 制御装置及び制御方法 | |
JP2012032944A (ja) | 情報処理装置及びその制御方法 | |
WO2017188840A1 (en) | Mobile device with user interface | |
JP6400110B2 (ja) | カーソル制御装置及びカーソル制御方法 |