JP2014029656A - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP2014029656A JP2014029656A JP2012171408A JP2012171408A JP2014029656A JP 2014029656 A JP2014029656 A JP 2014029656A JP 2012171408 A JP2012171408 A JP 2012171408A JP 2012171408 A JP2012171408 A JP 2012171408A JP 2014029656 A JP2014029656 A JP 2014029656A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- image
- dimensional
- screen
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【解決手段】画像処理装置は、スクリーン4に投影されている3次元画像に対する3次元の操作を指示する、たとえば、手5を撮像して、その色信号および深度信号を出力する、撮像手段、たとえば、Kinetect1と、Kinetect1から出力された色信号および深度信号から手5の動きを検出し、検出した結果に応じて3次元画像に対する画像処理を行なうPC3と、PC3から出力された画像信号をスクリーン4に投影するプロジェクタ2とを有する。
【選択図】図1
Description
より特定的には、本発明は、たとえば、3次元画像(3次元オブジェクト、3Dオブジェクト)に対する、回転などの信号処理を指示する操作手段、たとえば、人間の手、の3次元位置、形状、動きを検出して、それに応じた3Dオブジェクトに対する画像処理を行う、画像処理装置に関する。また本発明はそのような信号処理を行なう画像処理方法に関する。
このようなデバイスを用いると、従来のマウスを使用した場合に比較して、フリックによるスクロール、ピンチイン、ピンチアウトによる図形の3次元的な拡大または縮小(拡大・縮小)などが、ユーザの指の操作で直観的に行なうことができる。
また、上述したデバイスでは、個人を想定しているため、情報を表示する範囲が狭く、情報表示そのものに限界がある。
(1)手の形状情報に対して表示されたCGに対して3次元的な回転処理を行うことができない。
(2)情報を表示する範囲は、個人を想定しているため、狭く、情報表示に限界がある。
(3)特殊な反射板を用いており、枠があるところでしか使用出来ない。
また本発明によれば、手などの操作指示内容を、たとえば、Kinetectなどの3次元撮像手段(3次元形状取得手段)を用いて撮像し、撮像結果に基づく3次元操作手段の色信号および深度信号から3次元操作手段(たとえば、手)の位置、姿勢などを分析して、その分析結果に基づいて3次元画像に対して信号処理して表示するので、直接的かつインタラクティブな操作が可能となる。
図1を参照して本発明の実施の形態の画像処理装置10について述べる。
図1は本発明の画像処理装置の1実施の形態としての構成を示す図であり、図1(A)は全体構成図であり、図1(B)は図1(A)に図解したプロジェクタとKinetectの平面図であり、図1(C)は図1(A)に図解したプロジェクタとKinetectの正面図である。
Kinetect(1)は、3次元画像に対する3次元操作を指示する操作対象としての手5を、実時間で撮像し、手5の色信号、たとえば、各ピクセル毎のRGB信号、および、たとえば、図6に例示した各ブロックごとの深度信号を出力する、本発明の撮像手段(または、3次元形状取得手段)の1例である。
PC3は、Kinetect(1)から出力された色信号および深度信号を実時間で入力してメモリ部に記憶し、入力した色信号および深度信号を解析して手5で指示された画像処理のための操作内容を検出し、当該検出した操作結果に応じた画像処理を、スクリーン4に表示される3次元画像に対して行なって映像信号を実時間で表示手段に出力する、本発明の信号処理手段の1例である。
また、Kinetect(1)から出力されたRGB信号から輝度信号を得ることができる。
特に、下記に述べる手5の内容を分析するためには、RGB信号そのものを用いず、たとえば、0〜255の階調を持つ白色または黒色の輝度信号として扱う。
しかしながら、指を備えた手5に相当する義手、または、それに相当する手段など、たとえば、フリックして画像をスクロールさせる手段、ピンチイン、ピンチアウトさせる手段、あるいは、後述する移動、回転などをさせるための他の手段を用いることができる。
Kinetect(1)は、Kinetect(1)とスクリーン4との間に位置して3次元画像に対する画像処理操作を指示する手5を、たとえば、赤外線センサ窓を介して入射した赤外線を用いて実時間で撮像して、手5の色信号および深度信号を実時間でPC3に出力する。
なお、この例示では、Kinetect(1)はプロジェクタ2の上に載置されている。
PC3は、その結果の映像信号を実時間でプロジェクタ2に出力する。
PC3の処理内容については図3を参照して後述する。
PC3は図4〜図6を参照して述べる下記の初期設定を行う。
この初期設定は、特に、プロジェクタ2と、スクリーン4との距離を任意に設定可能としているためであり、プロジェクタ2とスクリーン4との距離が固定している場合は、不要である。なお、この初期設定は、必ずしも、実時間で行なう必要はない。
図4は、図1(A)に図解したスクリーン4の4隅に隅(角)を指向した4個のランドマーク(基準マーク)を配置する例を示す図である。
ユーザは、スクリーン4の投影面(投射面)の4隅に隅(角)を指向したランドマークを配置する。
なお、4個のランドマークは、スクリーン4に対する手5の操作範囲(手移動抽出範囲)を規定し、さらに、PC3からプロジェクタ2を介して出力される画像のスクリーン4における有効範囲を規定する。
すなわち、4個のランドマークで規定される領域にプロジェクタ2からの画像が投影され、この領域(手移動抽出範囲)において手5が操作される。
図5はスクリーン4の4隅に配置されたランドマークをKinetect(1)で撮像して、4隅の座標位置を検出する方法を示す図である。
Kinetect(1)は、ランドマークが配置されたスクリーン4を撮像して、RGB信号および、深度信号を生成して、PC3に出力する。
PC3はKinetect(1)から出力されたRGB信号を、PC3内のメモリ部に記憶する。なお、PC3は手5の操作を処理するとき、RGB信号としてではなく、たとえば、0〜255の階調を持つ輝度信号として用いるので、PC3のメモリ部には輝度信号も記憶される。メモリ部は、各ピクセル毎に輝度信号をも記憶している。
この処理以降、メモリ部に記憶したランドマークの座標の範囲内で、PC3が画像処理を行う。
図6はKinetectから出力されるランドマークの深度情報の初期値の例を示す図である。
スクリーン4の投射面にユーザの手5が存在しない状態で、Kinetect(1)でスクリーン4を撮像して、Kinetect(1)からのスクリーン4上のランドマークの深度状態を取得する。この深度情報は、Kinetect(1)の先端からスクリーン4までの距離を意味する。
PC3はその深度情報、すなわち、スクリーン4までの距離情報をPC3内のメモリ部に記憶する。
なお、この例示では、Kinetect(1)から、ヒクセル毎ではなく、横8×縦8=64ブロック(区分)の各ブロックごとに深度情報が出力される。
この例示では、スクリーン4が下から上に向かって傾斜しており、上列の深度情報が大きく、下列の深度情報が小さい。
換言すれば、スクリーン4に表示する3次元画像の大きさ、手移動可能領域の大きさ等に応じて、スクリーン4とプロジェクタ2の距離、または、スクリーン4とKinetect(1)の距離を設定した場合に、上述した初期設定を行えば、希望するスクリーン4とKinetect(1)またはプロジェクタ2の距離に応じた3次元画像(3次元オブジェクト)を得ること、および、手5の操作が可能となる。
図7〜図9を参照して、ユーザの手5の3次元座標を取得するために、PC3は、Kinetect(1)と協働して、スクリーン4の投影画像上の手5の領域(手移動可能領域)の抽出を行う。
図7はスクリーンの投射面にユーザが手5を置いた時に、それを撮像したKinetect(1)の手の深度情報の例を示す図である。
図7に例示したように、ユーザがスクリーン4の投影面に手5を置いた状態で、Kinetect(1)で手5を撮像し、Kinetect(1)は撮像による深度情報をPC3に出力する。PC3はその深度情報をメモリ部に記憶する。
なお、図7に例示した深度情報と図5に例示した深度情報とを対比すると、図7の深度情報は手5があるブロック(区分)の深度情報の値が小さい。
スクリーン4の投射面における手5の深度情報の差が、スクリーン4とKinetect(1)との間の手移動可能領域の下限値、たとえば、20mmより大きいとき、PC3は、有効な手移動可能領域とする。この例示では、手5はスクリーン4の投射面から20mm以上離して操作する。
図9はプロジェクタ2からスクリーン4に3次元画像を投影(投射)する画像領域を抽出することを示す図である。図9において、左側の上部にプロジェクタ2側から肉眼で見た画面を示し、左側の下部にKinetect(1)で撮像した画像を示す。また、図9において、右側の上部に左側の上部の肉眼で見た画面を4隅のランドマーク内に展開した図を示し、右側の下部にスクリーン4の投影画像上の手移動可能領域を示す。
PC3は、図9の左側の上部に図解した、初期設定で取得したスクリーン4へのランドマークの投影画像の4隅の座標を用いて、座標変換のための射影変換行列を算出し、手移動可能領域から、図9の右側に図解した、手移動可能領域を抽出する。
n+1次元アフィン空間An+1の一次変換Fを考える。
F:An+1 −−> An+1(u−−>MU)
ただし、uは、縦ベクトル表示してあるものとし、
Mは、n+1次正方行列である。
原点を通る直線はFによって再び原点を通る直線に移る。したがって、Fは射影空間の変換を引きおこしている。
F:Pn −−> Pn (〔u〕−−> M〔u〕=〔Mu〕
これを射影変換という。
なお、n+1次元の縦ベクトルu(≠0)に対して、〔u〕は対応するn次元射影空間の点とする。
図10〜図13を参照して、手5の3次元座標(x,y,z)の取得を行う。
(1)手の中心座標の取得
図10は、スクリーン4における手5の中心の座標を取得する方法を示す図である。
PC3は、図10の左側に図解した手5の手移動可能領域を抽出した画像を、図10において、白画素から最も近い黒画素までの距離で正規化する。そして、PC3は、輝度値が最大の輝度、本例では、255の画素を検出し、図10の右側に図解したように、その座標を手5の中心座標とする。
図11の左側に図解したように、手5の他に腕も手移動可能領域に入った場合には、その状態でスクリーン4の投影画像上の手移動可能領域を、白画素から元も近い黒画素まで距離で正規化して、最大輝度値、たとえば、255の画素を検出すると、図11の右側に図解したように、腕の中心座標を検出してしまうという問題が起こる。
図12はスクリーン4の前の手移動抽出範囲に腕が入る状況での手の中心位置の座標を示す図である。
PC3は、腕がスクリーン4の前の手移動可能領域に位置する状態で手の中心座標を検出する。
まず、PC3は、腕の画像を削除するため、PC3のメモリ部に記憶してある画像データについて、取得した腕の中心座標から輪郭までの最短距離を計測する。
PC3は、その距離を半径として、図12の左側に図解したように、腕の中心座標を中心とする黒い円を描く。そして、黒い円の輝度は低いので、それら低い輝度を排除して、腕の画像を廃棄する。これにより、手移動可能領域に入り込んだ腕の情報を削除することができる。
したがって、ユーザは、手5の操作に対して、特別注意をする必要がない。
この最大輝度値の画素の部分が、図12の右側に図解した、手5の中心座標(x,y)である。
この垂直成分は、手5までの距離を意味している。
以上の処理により、ステップ3の手の3次元座標を取得する処理が終了する。
手5の操作に応じて、スクリーン4に表示されている3次元画像(すなわち、3Dオブジェクト)の移動、回転、拡大、縮小操作の切り替えを一意的に行うため、操作の分岐処理を行う。
図14は、図4に図解したステップ4の分岐処理を詳細に図解したフローチャートである。
図4においては、3Dオブジェクトの移動操作(ステップ4a)、3次元画像(3Dオブジェクト)の回転操作(ステップ4b)、3Dオブジェクトの拡大、縮小操作(ステップ4c)と、簡略して図解している。
他方、図14においては、片手または両手の操作(ステップS41)、片手のグー操作またはパー操作(ステップS42)、両手のグー操作またはパー操作(ステップS43)、Kinetect(1)から見て、スクリーン4に表示されている3次元画像(3Dオブジェクト)の上に(または、前に)手5がある処理(ステップS44)、移動操作(ステップS45)、z軸回転操作(ステップS46)、xy軸回転操作(ステップS47)、拡大・縮小操作(ステップS48)、3Dオブジェクトの表示(ステップS49)の操作に分類している。
3次元画像(3Dオブジェクト)の移動操作は、手5が片手で(ステップS41)、手5の形状が「グー(握りこぶし)」のとき(ステップS42、ステップS45)、その手5の移動方向、移動量、移動速度などに対応して行う(ステップS45)。
PC3が行う3次元画像の移動操作としては、スクリーン4において3次元画像の上下左右への移動、スクリーン4から3次元画像がKinetect(1)に向かって近づく、または、Kinetect(1)からスクリーン4に向かって遠ざかるなどの操作である。
なお、PC3は、3次元画像がスクリーン4に向かって移動するとき、3次元画像をその距離に応じて縮小させることもできる。他方、PC3は、3次元画像がスクリーン4から離れてKinetect(1)に向かって接近するとき、3次元画像をその距離に応じて拡大させることもできる。
以下、各画面におけるKinetect(1)の撮像データに基づく、PC3の処理について述べる。
図15は両手の認識を行う方法を示す図である。
PC3は、図15に図解したように、Kinetect(1)から出力されて、メモリ部に記憶しているRGB信号に基づく輝度値のうち、スクリーン4の投影画像上の画像について、たとえば、図7、図8に例示した区分(領域)のピクセル(画素)ごとに、画像処理において、画像処理において通常行われている「ラベリング処理」を行い、輝度が第1の輝度値、たとえば、250、より大きな最大領域を抽出して、最大領域を認識する。
PC3は、再度、「ラベリング処理」を行い、輝度が上記第1の輝度値より小さな第2の輝度値、たとえば、240、より大きな大きい領域が所定量のピクセル、たとえば、100ピクセル以上存在すれば、両手であると認識する。
両手でなければ、PC3は、片手であると判断する。
図16は手がグーパー(グー、または、パー)のいずれかであることを認識することを示す図である。
まず、PC3が、上記処理で、手移動可能領域にあるものが、片手であると認識した場合を例示して述べる。
PC3は、スクリーン4の投影画像上の輪郭を検出する。この輪郭の検出は、隣接する二次元方向の領域(ピクセル)の輝度の差が所定の値以上の部分として(あるいは、2次元方向の微分値が所定値以上の部分として)検出することができる。その結果を、図16において、細い白線で示している。
PC3は次いで、輪郭線の曲率を算出する。
輪郭線の曲率は、変曲点を意味しており、手5が開いている場合は、握りこぶしのときより、変曲点は多くなる。
このような曲率の演算は、通常の数学モデルを用いて行なうことができる。
PC3は、曲率の高い部分が所定量以下、たとえば、5個以下の場合は、手5が「グー」であると判断する。他方、PC3は、曲率の高い部分が所定量以上、たとえば、6個以下の場合は、手5が「パー」であると(検出)認識する。
それにより、両手の場合についても、片手ごとに、「グー」または「パー」を検出することができる。
PC3は、Kinetect(1)で撮像した結果得られた、ある時刻におけるRGB信号および深度信号を用いて、上述した処理を行う。
PC3は、Kinetect(1)から時々刻々と連続して出力される、RGB信号および深度信号についての上述した処理結果を追跡している。
それにより、PC3は総合的に、(1)手5の動き、たとえば、手5全体の動き、手5の指の広がりの程度、(2)さらに、それらの動きの速度、(3)動きの方向などを検出することができる。
すなわち、時々刻々と連続して出力される、RGB信号および深度信号についての上述した処理結果の変化を追跡していくことにより、(1)手5の動き、たとえば、手5全体の動き、手5の指の広がりの程度、(2)さらに、それらの動きの速度、(3)動きの方向などを検出することができる。
図17は手の3次元座標系(x,y,z)から3Dオブジェクト(3次元画像)の3次元座標系(X,Y,Z)への変換を示す図である。
PC3は、図17に例示した手移動可能領域について、下記式(1)、(2)に基づいてxy軸への変換を行う。
PC3は、次いで、図17に例示した範囲について、下記式(3)に基づいて、z軸への変換を行う。
移動操作以外の他の操作についても、PC3は、スクリーン4に投影されている3次元画像に対応するメモリ部に記憶されている画像データについて、対応する信号処理を行う。
PC3は、上記結果に基づく画像処理した画像データをプロジェクタ2に出力する。
プロジェクタ2は、その画像データをスクリーン4に、3次元画像として投影する。
図18は手の指の角度を検出することを示す図である。
スクリーン4に投影されている3次元画像(3Dオブジェクト)上に手5がある場合、PC3は、手5の角度を用いて、垂直軸(Z軸)の回転操作を行う。
PC3は、図18に例示したように、投影画像上の手移動可能領域の画像信号(RGB画像)において中心座標を腕の中心座標として、その半径を手の中心座標(x,y)までの距離で黒い円を描く。
PC3は次に、手の中心座標から最も遠い白画素を検出する。検出した座標を、中指の座標(Fx,Fy)とする。
PC3は、中指の座標(Fx,Fy)と手の中心座標(x,y)の角度Fθを、下記式(4)により、算出する。
PC3におけるこの回転操作は、たとえば、CGなどで行う変換処理と同様に行うことができる。
PC3は、回転操作の結果に基づく画像データをプロジェクタ2に出力する。
プロジェクタ2は、その画像データをスクリーン4に3次元画像として投影する。
図19は手の平面を推定する方法を示す図である。
PC3は、手5がスクリーン4に投影されている3Dオブジェクト(3次元画像)の上にない場合、手の法線ベクトルを用いて、3Dオブジェクトの平面(xy軸面)の回転操作を行う。
PC3は、まず、手の法線ベクトル(H)を算出するため、図19に例示した手の3点を検出する。
PC3は、まず、手の中心座標O(x,y,z)の点を第1の点とする。PC3はこの点を中心に手の幅を検出する。
PC3は次に、中指の方向に、手の中心座標O(x,y,z)から手の幅の分離れた点を検出する。
PC3は次に、手の中心座標O(x,y,z)を中心に、中指の方向の点を+45度の点を第2の点とし、その座標をR1(R1 x,R1 y,R1 z)とする。
また、PC3は、手の中心座標O(x,y,z)を中心に、中指の方向の点を−45度の点を第3の点とし、その座標をR2(R2 x,R2 y,R2 z)とする。
以上の3点を用いて、下記式(5)、(6)、(7)を用いて、手5の法線ベクトル(H)を算出する。
次に、PC3は、手の法線ベクトル(H)とz軸ベクトルとの間の角度Rθを下記式(9)を用いて算出する。
この角度Rθを平面軸(xy軸)回転操作の回転角度とする。
PC3は、上記回転操作の結果に基づく画像データをプロジェクタ2に出力する。
プロジェクタ2は、その画像データをスクリーン4に3次元画像(3Dオブジェクト)として投影する。
図20は両手の中心座標を示す図である。
両手がグーの場合(ステップS43)、PC3は、両手間のベクトルと距離に応じて、3Dオブジェクトの任意軸方向の拡大・縮小操作を行う。
PC3は、まず、図20に例示した、両手の中心座標を検出する。右手の中心座標S1を(S1 x,S1 y,S1 z)とし、左手の中心座標S2を(S2 x,S2 y,S2 z)とする。
PC3は、式(11)、(12)を用いて、両手間のベクトル(u)と、距離λとを算出する。
PC3は次に、式(13)を用いて、任意軸方向の拡大・縮小行列Tを算出する。
PC3は、上記任意軸方向の拡大・縮小操作の結果に基づく、3Dオブジェクトの画像データをプロジェクタ2に出力する。
プロジェクタ2は、その画像データを3次元画像として、スクリーン4に投影する。
PC3は、ユーザが終了指示をするまで、上述したステップS2〜ステップS4の処理を反復する。
PC3は、ユーザが終了指示をしたとき、上記処理を終了する。
また、プロジェクタ2も既存のものを使用することができる。
したがって、以上の実施の形態においては、上述した処理を行うパーソナル・コンピュータ(PC)3のみを新規に開発すればよく、実施で容易であった。
また、上記実施の形態において、PC3からの映像を3次元画像として表示する表示手段として、プロジェクタ2を用いた場合について述べたが、その表示手段をPC3の表示画面、または、他のコンピュータの表示画面とすることもできる。PC3の表示画面、または、他のコンピュータの表示画面は、プロジェクタ2からの投射画像とは異なるが、PC3のユーザ、または、他の聴衆に視認することができる。
なお、ユーザは、PC3の表示画面の前に規定される手移動可能領域、または、他のコンピュータの表示画面の前に規定される手移動可能領域において、手5による操作を行う。
したがって、本発明の表示手段としては、プロジェクタ2には限定されない。
Claims (6)
- 表示された、または、スクリーンに投影された3次元画像に対して3次元的な画像処理を指示する3次元操作対象を撮像し、当該3次元操作対象の色信号および深度信号を出力する撮像手段と、
当該撮像手段から出力された色信号および深度信号を入力し、当該入力した色信号および深度信号を解析して前記3次元操作対象の操作内容を検出し、当該検出した結果に応じて前記3次元画像に対して画像処理を行なって表示手段に出力する、信号処理手段と
を有する、
画像処理装置。 - 上記表示手段は、上記信号処理手段から出力された画像処理された映像信号に応じた3次元画像をスクリーンに向けて投影(投射)する、投影手段を含む、
請求項1に記載の画像処理装置。 - 上記撮像手段は、Kinetectを含む、
請求項1または2に記載の画像処理装置。 - 上記投影手段は、プロジェクタを含む、
請求項2または3のいずれかに記載の画像処理装置。 - 上記手による操作指示は、フリックによるスクロール、ピンチイン、ピンチアウトを含む3次元画像の回転、移動などに対応する操作指示である、
請求項1〜4のいずれかに記載の画像処理装置。 - 表示手段に表示された、または、スクリーンに投影された3次元画像に対して3次元的な画像処理を指示する3次元操作対象を撮像し、当該3次元操作対象の色信号および深度信号を出力する撮像手段から出力された色信号および深度信号を解析して前記3次元操作対象の操作内容を検出し、
当該検出した結果に応じて前記3次元画像に対して画像処理を行なって表示手段に出力する、画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012171408A JP2014029656A (ja) | 2012-06-27 | 2012-08-01 | 画像処理装置および画像処理方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012144691 | 2012-06-27 | ||
JP2012144691 | 2012-06-27 | ||
JP2012171408A JP2014029656A (ja) | 2012-06-27 | 2012-08-01 | 画像処理装置および画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014029656A true JP2014029656A (ja) | 2014-02-13 |
Family
ID=50202168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012171408A Pending JP2014029656A (ja) | 2012-06-27 | 2012-08-01 | 画像処理装置および画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014029656A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104570558A (zh) * | 2015-01-26 | 2015-04-29 | 田文胜 | 一种智能激光投影*** |
JP2015184986A (ja) * | 2014-03-25 | 2015-10-22 | 学校法人 創価大学 | 複合現実感共有装置 |
JP2016012203A (ja) * | 2014-06-27 | 2016-01-21 | 株式会社リコー | 表示装置、表示方法およびプログラム |
WO2016032039A1 (ko) * | 2014-08-28 | 2016-03-03 | 엘지전자 주식회사 | 영상 투사 장치 및 그의 동작 방법 |
JP2016167268A (ja) * | 2015-03-06 | 2016-09-15 | 国立大学法人 筑波大学 | ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム |
WO2016157804A1 (ja) * | 2015-03-30 | 2016-10-06 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
JP2018055257A (ja) * | 2016-09-27 | 2018-04-05 | キヤノン株式会社 | 情報処理装置、およびその制御方法ならびにプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039844A (ja) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2012079177A (ja) * | 2010-10-04 | 2012-04-19 | Panasonic Corp | 仮想物体操作装置 |
JP2012221498A (ja) * | 2011-04-08 | 2012-11-12 | Sony Computer Entertainment Inc | ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法 |
-
2012
- 2012-08-01 JP JP2012171408A patent/JP2014029656A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039844A (ja) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2012079177A (ja) * | 2010-10-04 | 2012-04-19 | Panasonic Corp | 仮想物体操作装置 |
JP2012221498A (ja) * | 2011-04-08 | 2012-11-12 | Sony Computer Entertainment Inc | ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法 |
Non-Patent Citations (7)
Title |
---|
上野大輔 他: ""3次元ユーザインタフェースによる仮想物体の形状操作"", 第74回全国大会講演論文集, JPN6016016137, 6 March 2012 (2012-03-06), pages 4 - 295, ISSN: 0003309111 * |
中村薫 他, "KINECT FOR WINDOWS SDKプログラミング C#編", vol. 第1版, JPN6017017995, 10 April 2012 (2012-04-10), pages 140 - 144, ISSN: 0003560816 * |
和田英行 他: ""プロジェクタと単眼Webカメラを用いた手の3次元操作による投影型インタフェースの開発"", 電子情報通信学会技術研究報告, vol. 110, no. 421, JPN6016043191, 14 February 2011 (2011-02-14), pages 245 - 250, ISSN: 0003437343 * |
和田英行 他: ""プロジェクタと単眼Webカメラを用いた手の3次元操作による投影型インタフェースの開発"", 電子情報通信学会技術研究報告, vol. 110, no. 421, JPN6017017991, 14 February 2011 (2011-02-14), pages 245 - 250, ISSN: 0003560814 * |
山田裕之 他: ""スクリーン仮想タッチを実現したプレゼンテーション支援システムとそのセットアップの効率化"", 情報処理学会第74回(平成24年)全国大会講演論文集, JPN6016043192, 6 March 2012 (2012-03-06), pages 4 - 253, ISSN: 0003437344 * |
山田裕之 他: ""スクリーン仮想タッチを実現したプレゼンテーション支援システムとそのセットアップの効率化"", 情報処理学会第74回全国大会講演論文集, JPN6017017993, 6 March 2012 (2012-03-06), pages 4 - 253, ISSN: 0003560815 * |
金子将大 他: ""拡張現実感による協調作業環境の構築"", 第74回全国大会講演論文集, JPN6016016138, 6 March 2012 (2012-03-06), pages 4 - 271, ISSN: 0003309110 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184986A (ja) * | 2014-03-25 | 2015-10-22 | 学校法人 創価大学 | 複合現実感共有装置 |
JP2016012203A (ja) * | 2014-06-27 | 2016-01-21 | 株式会社リコー | 表示装置、表示方法およびプログラム |
WO2016032039A1 (ko) * | 2014-08-28 | 2016-03-03 | 엘지전자 주식회사 | 영상 투사 장치 및 그의 동작 방법 |
KR20160025929A (ko) * | 2014-08-28 | 2016-03-09 | 엘지전자 주식회사 | 영상 투사 장치 및 그의 동작 방법 |
US10429939B2 (en) | 2014-08-28 | 2019-10-01 | Lg Electronics Inc. | Apparatus for projecting image and method for operating same |
KR102271184B1 (ko) * | 2014-08-28 | 2021-07-01 | 엘지전자 주식회사 | 영상 투사 장치 및 그의 동작 방법 |
CN104570558A (zh) * | 2015-01-26 | 2015-04-29 | 田文胜 | 一种智能激光投影*** |
JP2016167268A (ja) * | 2015-03-06 | 2016-09-15 | 国立大学法人 筑波大学 | ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム |
WO2016157804A1 (ja) * | 2015-03-30 | 2016-10-06 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
JP2016188892A (ja) * | 2015-03-30 | 2016-11-04 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
JP2018055257A (ja) * | 2016-09-27 | 2018-04-05 | キヤノン株式会社 | 情報処理装置、およびその制御方法ならびにプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10082879B2 (en) | Head mounted display device and control method | |
US9778748B2 (en) | Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program | |
JP6089722B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6417702B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6323040B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
TWI540461B (zh) | 手勢輸入的方法及系統 | |
JP6248533B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US9645735B2 (en) | Information processing device and information processing method | |
JP2014029656A (ja) | 画像処理装置および画像処理方法 | |
EP2790089A1 (en) | Portable device and method for providing non-contact interface | |
JP5201096B2 (ja) | 対話操作装置 | |
US10372229B2 (en) | Information processing system, information processing apparatus, control method, and program | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
US20150277570A1 (en) | Providing Onscreen Visualizations of Gesture Movements | |
JP2012238293A (ja) | 入力装置 | |
JP2007034525A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
Sharma et al. | Air-swipe gesture recognition using OpenCV in Android devices | |
TWI499938B (zh) | 觸控系統 | |
KR101426378B1 (ko) | 깊이 정보를 이용한 프레젠테이션 이벤트 처리 장치 및 방법 | |
JP2016099643A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
Liang et al. | Turn any display into a touch screen using infrared optical technique | |
Hartanto et al. | Real time hand gesture movements tracking and recognizing system | |
WO2011096571A1 (ja) | 入力装置 | |
JP2013114467A (ja) | 表示システム、表示方法およびプログラム | |
US10824237B2 (en) | Screen display control method and screen display control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161227 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170523 |