JPWO2019244270A1 - 眼3次元座標取得装置及びジェスチャ操作装置 - Google Patents

眼3次元座標取得装置及びジェスチャ操作装置 Download PDF

Info

Publication number
JPWO2019244270A1
JPWO2019244270A1 JP2020525143A JP2020525143A JPWO2019244270A1 JP WO2019244270 A1 JPWO2019244270 A1 JP WO2019244270A1 JP 2020525143 A JP2020525143 A JP 2020525143A JP 2020525143 A JP2020525143 A JP 2020525143A JP WO2019244270 A1 JPWO2019244270 A1 JP WO2019244270A1
Authority
JP
Japan
Prior art keywords
dimensional
eye
gesture
straight line
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020525143A
Other languages
English (en)
Other versions
JP6873326B2 (ja
Inventor
津田 圭一
圭一 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019244270A1 publication Critical patent/JPWO2019244270A1/ja
Application granted granted Critical
Publication of JP6873326B2 publication Critical patent/JP6873326B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

眼3次元座標取得装置(100)は、眼2次元座標(D14)を計算する眼2次元座標計算部(103)と、最大撮像画角(D13)と眼2次元座標とから、撮像位置である第1起点から眼の位置に向かう第1の3次元ベクトル及び第1起点を起点とし第1の3次元ベクトルを方向ベクトルとする第1の直線(D15)を計算する第1の直線計算部(104)と、2次元画像と眼2次元座標とから、眼の位置である第2起点から注視点の位置に向かう第2の3次元ベクトル(D16)を計算する3次元ベクトル計算部(105)と、第2の3次元ベクトルの逆ベクトルであり、注視点の位置である第3起点から眼の位置に向かう第3の3次元ベクトル及び第3起点を起点とし第3の3次元ベクトルを方向ベクトルとする第2の直線(D17)を計算する第2の直線計算部(106)を有し、第1の直線と第2の直線と注視点位置情報(D12)とから眼3次元座標(D18)を計算する。

Description

本発明は、2次元撮像部によって撮像された2次元画像に基づいて、2次元画像に含まれる眼の位置を示す眼3次元座標を取得する眼3次元座標取得装置及びこれを有するジェスチャ操作装置に関する。
近年、様々な情報機器において、操作者の身振り手振りなどのジェスチャ操作によって情報を入力するジェスチャ操作装置が使用されている。ジェスチャ操作装置の中には、操作者の身体の部位の位置を示す3次元座標を、例えば、ステレオカメラのような機器を用いて取得された3次元画像(すなわち、立体画像)から取得して操作者にとっての操作性を向上させるものが存在する(例えば、特許文献1及び2参照)。
特開2011−175617号公報(例えば、段落0010〜0013、図2) 特開2011−54118号公報(例えば、段落0010、図2)
しかしながら、3次元撮像部を用いて身体の部位の位置を示す3次元座標を取得する機能を備えた装置は、部品点数が多く、構造及び制御が複雑であるという課題がある。
本発明は、上記従来技術の課題を解決するためになされたものであり、2次元撮像部によって撮像された2次元画像に基づいて、2次元画像に含まれる眼の位置を示す眼3次元座標を取得することができる眼3次元座標取得装置及びこれを有するジェスチャ操作装置を提供することを目的とする。
本発明の一形態に係る眼3次元座標取得装置は、2次元撮像部によって撮像された2次元画像と注視点の位置を示す注視点位置情報とから、前記注視点を見る眼の位置を示す眼3次元座標を取得する装置であって、前記2次元画像内における前記眼の2次元位置を示す眼2次元座標を計算する眼2次元座標計算部と、前記2次元撮像部の最大撮像画角と前記眼2次元座標とから、前記2次元撮像部の撮像位置である第1起点から前記眼の位置に向かう第1の3次元ベクトルを方向ベクトルとし且つ前記第1起点を起点とする第1の直線を計算する第1の直線計算部と、前記2次元画像と前記眼2次元座標とから、前記眼の位置である第2起点から前記注視点の位置に向かう第2の3次元ベクトルを計算する3次元ベクトル計算部と、前記第2の3次元ベクトルの逆ベクトルであり、前記注視点の位置である第3起点から前記眼の位置に向かう第3の3次元ベクトルを方向ベクトルとし且つ前記第3起点を起点とする第2の直線を計算する第2の直線計算部と、前記第1の直線と前記第2の直線と前記注視点位置情報とから三角測量法を用いて前記眼3次元座標を計算する眼3次元座標計算部と、を有することを特徴とする。
本発明の他の形態に係るジェスチャ操作装置は、上記眼3次元座標取得装置と、ジェスチャ操作を含む2次元画像を撮像する撮像装置と、前記ジェスチャ操作が行われる仮想の操作面である仮想面における前記ジェスチャ操作の位置を示す仮想面内ジェスチャ座標を取得するジェスチャ座標取得部と、を有することを特徴とする。
本発明に係る眼3次元座標取得装置は、2次元撮像部が撮像する2次元画像に基づいて、2次元画像に含まれる眼の位置を示す眼3次元座標を取得することができる。また、本発明に係る眼3次元座標取得装置によれば、装置の構造及び制御を簡素化することができる。
本発明に係るジェスチャ操作装置は、眼3次元座標取得装置によって取得された眼3次元座標に基づいて、ジェスチャ操作が行われる仮想面の位置を計算するので、操作者のジェスチャ操作を正確に検出することができる。また、本発明に係るジェスチャ操作装置によれば、装置の構造及び制御を簡素化することができる。
本発明の実施の形態1に係る眼3次元座標取得装置を示すブロック図である。 実施の形態1における2次元撮像部の撮像位置、眼の位置、及び注視点の位置の例をzx平面上に示す図である。 実施の形態1における2次元撮像部の撮像位置、眼の位置、及び注視点の位置の例をxy平面上に示す図である。 実施の形態1における注視点としての発光素子の例を示す図である。 実施の形態1に係る眼3次元座標取得装置の眼2次元座標計算部が受信する2次元画像及び眼2次元座標計算部が出力する眼の位置の2次元座標の例を示す図である。 実施の形態1における2次元撮像部の撮像位置から眼の位置に向かう方向の3次元ベクトルのヨー成分の計算方法を示す図である。 実施の形態1における2次元撮像部の撮像位置から眼の位置に向かう方向の3次元ベクトルのピッチ成分の計算方法を示す図である。 実施の形態1における2次元撮像部の撮像位置である第1起点から眼の位置に向かう方向の第1の3次元ベクトル及び、第1の3次元ベクトルを方向ベクトルとし且つ第1起点を起点とする第1の直線の例を示す図である。 実施の形態1における眼の位置である第2起点から注視点の位置に向かう方向の第2の3次元ベクトルの例を示す図である。 実施の形態1における注視点の位置である第3起点から眼の位置に向かう方向の第3の3次元ベクトル(すなわち、第2の3次元ベクトルの逆ベクトル)及び、第3の3次元ベクトルを方向ベクトルとし且つ第3起点を起点とする第2の直線の例を示す図である。 図8に示される第1の直線と図10に示される第2の直線を三角測量実施平面に射影することで得られた第1の射影直線と第2の射影直線を示す図である。 図11に示される三角測量実施平面上における交点を通る法線と第1の直線及び第2の直線との交点を示す図である。 図11に示される三角測量実施平面上における交点を通る法線と第1の直線との交点及び法線と第2の直線との交点を示す図である。 本発明の実施の形態2における注視点の提示方法の例を示す図である。 実施の形態2における注視点の提示方法の他の例を示す図である。 実施の形態2における注視点の提示方法のさらに他の例を示す図である。 本発明の実施の形態3に係るジェスチャ操作装置を示すブロック図である。 実施の形態3における3次元仮想面の例を示す概略図である。 実施の形態3における2次元仮想面の例を示す概略図である。 実施の形態3における2次元仮想面内のジェスチャ画像の例を示す概略図である。 実施の形態3における2次元仮想面内におけるジェスチャ位置を示す座標の例を示す概略図である。 本発明の実施の形態4に係るジェスチャ操作装置を示すブロック図である。 本発明の実施の形態5に係るジェスチャ操作装置を示すブロック図である。 実施の形態5に係るジェスチャ操作装置の動作を示す図である。 実施の形態1から5の変形例のハードウェア構成の例を示すブロック図である。
以下に、本発明の実施の形態に係る眼3次元座標取得装置及びこれを有するジェスチャ操作装置を、添付図面を参照しながら説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
以下の説明では、3次元位置を示すためにxyz直交座標系であるワールド座標系を用いる。ワールド座標系において、x軸は、2次元撮像部の光軸に直交する横方向の座標軸である。y軸は、2次元撮像部の光軸に直交する縦方向の座標軸である。z軸は、2次元撮像部の撮像位置(すなわち、2次元撮像部の撮像素子の中心位置)を通る光軸に一致する座標軸である。以下の実施の形態において、撮像位置は、ワールド座標系の原点である。
また、以下の説明では、2次元撮像部が撮像した2次元画像における2次元位置を示すXY直交座標系を用いる。XY直交座標系において、X軸は、2次元画像の横方向に対応する座標軸であり、Y軸は、2次元画像の縦方向に対応する座標軸である。
2次元撮像部における光学歪みが十分に小さい場合には、ワールド座標系におけるx軸とXY直交座標系におけるX軸とは、互いに平行であるとみなすことができる。2次元撮像部における光学歪みが十分に小さい場合には、ワールド座標系におけるy軸とXY直交座標系におけるY軸とは、互いに平行であるとみなすことができる。ただし、通常、ワールド座標系における単位長さとXY直交座標系における単位長さとは一致しない。例えば、ワールド座標系における単位長さ1mmに対応する、XY直交座標系における単位長さは、1画素の長さ(すなわち、互いに隣接する画素の中心位置の間隔)である。
実施の形態1.
図1は、実施の形態1に係る眼3次元座標取得装置100を示すブロック図である。眼3次元座標取得装置100は、2次元撮像部101によって撮像領域を撮像して得られた2次元画像(すなわち、2次元画像データ)D11と注視点(「注視対象点」とも言う)の位置31を示す注視点位置情報D12とから、注視点を見る眼の位置をワールド座標系の3次元座標で示す眼3次元座標D18を取得する装置である。眼は、例えば、眼3次元座標取得装置100を有する装置の操作者(例えば、ユーザー)の眼である。注視点は、操作者が注目しやすい(すなわち、操作者の視線が向けられる)物体又は表示された画像部分などである。
図1に示されるように、眼3次元座標取得装置100は、2次元画像D11内における眼2次元座標D14を計算する眼2次元座標計算部103と、撮像位置を起点(すなわち、第1起点)とする第1の直線LV1(すなわち、D15)を計算する第1の直線計算部104と、眼の位置を起点(すなわち、第2起点)とする第2の3次元ベクトルV2(すなわち、D16)を計算する3次元ベクトル計算部105と、注視点の位置を起点(すなわち、第3起点)とする第2の直線LV3(すなわち、D17)を計算する第2の直線計算部106と、眼3次元座標D18を計算する眼3次元座標計算部107とを有する。眼3次元座標取得装置100は、2次元撮像部101を含んでもよい。また、眼3次元座標取得装置100は、注視点位置情報提供部102を含んでもよい。
図2は、実施の形態1における2次元撮像部101の撮像位置11、操作者20の眼の位置21、及び注視点の位置31の例をzx平面上に示す図である。図3は、2次元撮像部101の撮像位置11、操作者20の眼の位置21、及び注視点の位置31の例をxy平面上に示す図である。2次元撮像部101は、撮影領域の2次元画像(すなわち、2次元画像データ)D11を取得する。2次元撮像部101は、例えば、撮影領域の画像を取得する撮像素子を備えたカメラである。図2及び図3において、操作者20は、注視点の位置31に視線22を向けている。
図4は、実施の形態1における注視点としての発光素子30の例を示す図である。図4において、操作者20は、点灯している発光素子30の中心位置である注視点の位置31に視線22を向けている。発光素子30は、例えば、予め決められた位置に配置されたLED(Light Emitting Diode)である。複数の発光素子30を備え、その内のいずれか1つを点灯させることによって、注視点の位置31を変更することができる。注視点位置情報提供部102は、注視点の位置31を示す注視点位置情報D12(例えば、注視点の位置31の3次元座標)を提供する装置である。注視点位置情報提供部102は、注視点位置情報D12を記憶する記憶部、又は、注視点位置情報D12を受信する受信部などである。注視点位置情報提供部102は、眼3次元座標取得装置100に注視点位置情報D12を提供する装置、又は、眼3次元座標取得装置100によって注視点位置情報D12を計算可能にする情報を提供する装置であれば、どのような装置であってもよい。注視点は、ランプの中心点、回転灯の中心点、レーザーポインタによる光照射点、又は特別な手段を備えないが操作者によって注視されるということが予想される予め決められた位置などである。なお、注視点位置情報提供部102は、注視点としての発光素子30を備えた装置、注視点としての発光素子30に接続された装置であってもよい。また、図4において注視点としての発光素子30はx軸上に存在しているが、発光素子30の存在する位置はx軸上に限らず、空間の任意の点に存在してよい。
図5は、実施の形態1に係る眼3次元座標取得装置100の眼2次元座標計算部103が受信する2次元画像D11及び眼2次元座標計算部103が出力する眼の位置の眼2次元座標D14の例を示す図である。図6は、2次元撮像部101の撮像位置11から眼の位置21に向かう方向の3次元ベクトルのヨー成分の計算方法を示す図である。図7は、2次元撮像部101の撮像位置11から眼の位置21に向かう方向の3次元ベクトルのピッチ成分の計算方法を示す図である。なお、図6には、注視点の位置31と眼の位置21とを結ぶ直線と眼の位置21を通りx軸に垂直な直線とによって決まる角γとγも示されている。これらは、実施の形態2で説明される。
眼2次元座標計算部103は、2次元撮像部101によって取得された2次元画像D11内における眼2次元座標D14を検出する(すなわち、計算によって取得する)。2次元画像D11から眼2次元座標D14を検出するときには、例えば、ASM(Active Shape Model)又はAAM(Active Appearance Models)などを用いた対象物体の抽出方法を用いることができる。
図6に示されるように、2次元画像D11内における眼2次元座標D14のX座標(例えば、X方向の画素数)をXで表し、2次元画像D11の横方向の総画素数の1/2の画素数をXmaxで表し、3次元ベクトルと撮像系の光軸であるz軸とがなす角度である3次元ベクトルのヨー角をαで表し、2次元画像D11の横方向の撮影最大画角をβで表す。このとき、以下の関係式が成立する。
:Xmax=tanα:tanβ
したがって、3次元ベクトルのヨー角αは、以下の式(1)で計算できる。
Figure 2019244270
図7に示されるように、2次元画像D11内における眼2次元座標D14のY座標(例えば、Y方向の画素数)をYで表し、2次元画像D11の縦方向の総画素数の1/2の画素数をYmaxで表し、3次元ベクトルと撮像系の光軸であるz軸とがなす角度である3次元ベクトルのピッチ角をαで表し、2次元画像D11の縦方向の撮影最大画角をβで表す。このとき、以下の関係式が成立する。
:Ymax=tanα:tanβ
したがって、3次元ベクトルのピッチ角αは、以下の式(2)で計算できる。
Figure 2019244270
なお、眼2次元座標計算部103は、眼の位置21を示す眼2次元座標D14、すなわち、座標(X,Y)として、一方又は両方の眼に基づく眼の代表位置を用いることができる。例えば、眼2次元座標計算部103は、眼の代表位置として、右眼の位置、又は左眼の位置、又は両眼の位置、又は両眼の位置の平均位置などを用いることができる。眼の位置21として一方の眼の位置のみを用いる場合には、眼2次元座標計算部103が一方の眼の位置のみを検出できた場合であっても、眼の位置の計算を行うことができる、すなわち、眼の位置の検出不能の頻度を減らすことができるという利点がある。眼の位置21として、両方の眼の位置を用いる場合には、一方の眼の位置のみを使う場合よりも高精度な眼の位置の計算を行うことができるという利点がある。
図8は、実施の形態1における2次元撮像部101の撮像位置11である第1起点から眼の位置21に向かう方向の第1の3次元ベクトルV1を方向ベクトルとし且つ第1起点を起点とする第1の直線LV1(すなわち、D15)の例を示す図である。第1の直線計算部104は、2次元撮像部101によって撮像された2次元画像D11の最大撮像画角β及びβ(すなわち、D13)と眼2次元座標計算部103によって取得された眼の位置21に対応する眼2次元座標D14とから、2次元撮像部101の撮像位置11である第1起点から眼の位置21に向かう3次元方向の情報を持つ単位ベクトルである撮像位置・眼方向3次元ベクトル、すなわち、第1の3次元ベクトルV1を計算し、第1の3次元ベクトルV1を方向ベクトルとし且つ第1起点を起点とする第1の直線LV1を計算する。
図9は、実施の形態1における眼の位置21である第2起点から注視点の位置31に向かう方向の第2の3次元ベクトルV2(すなわち、D16)の例を示す図である。3次元ベクトル計算部105は、2次元画像D11と眼2次元座標D14とから、眼の位置21である第2起点から注視点の位置31に向かう3次元方向の情報を持つ単位ベクトルである眼・注視点方向3次元ベクトル、すなわち、第2の3次元ベクトルV2を計算する。3次元ベクトル計算部105は、第2の3次元ベクトルV2の方向を計算するためには、目尻目頭法、角膜反射法、明瞳孔法、又は暗瞳孔法などのような公知の方法を用いることができる。また、顔の向きは視線方向と強い相関があるため、顔の向きを視線方向として用いてもよい。この場合、3次元ベクトル計算部105は、2次元画像における操作者20の顔全体の範囲を、カスケード検出器、SVM(Support Vector Machine)、又はディープラーニングなどの方法で検出し、検出された顔全体の範囲内の必要な顔パーツである眼、鼻、又は口の位置をASM法又はAAM法で計算し、検出された顔全体の範囲内における顔パーツの位置の偏りに基づいて、顔の向きを計算することができる。
図10は、実施の形態1における注視点の位置31である第3起点から眼の位置21に向かう方向の第3の3次元ベクトルV3を方向ベクトルとし且つ第3起点を起点とする第2の直線LV3(すなわち、D17)の例を示す図である。第3の3次元ベクトルV3は、第2の3次元ベクトルV2の逆ベクトルである。第2の直線計算部106は、注視点の位置31である第3起点から眼の位置21に向かう3次元方向の情報を持つ単位ベクトルである注視点・眼方向3次元ベクトル、すなわち、第3の3次元ベクトルV3を計算し、第3の3次元ベクトルV3を方向ベクトルとし且つ第3起点を起点とする第2の直線LV3を計算する。
図11は、図8に示される第1の直線LV1と図10に示される第2の直線LV3を三角測量実施平面40に射影することで得られた第1の射影直線PV1aと第2の射影直線PV3aならびに、第1の射影直線PV1aと第2の射影直線PV3aとの交点23aを示す図である。図12は、図11に示される三角測量実施平面40上における交点23aを通る法線である眼存在範囲直線41と第1の直線LV1及び第2の直線LV3との交点23を示す図である。
眼3次元座標計算部107は、第1の直線LV1と第2の直線LV3と注視点位置情報D12とから三角測量法を用いて眼3次元座標D18を計算する。眼3次元座標D18の計算方法の例を以下に説明する。
三角測量法では、3次元空間における直線及び3次元空間上の点を射影する任意の平面である三角測量実施平面40を用いる。図11及び図12において、三角測量実施平面40は、u軸とv軸とを座標軸とするuv直交座標系のuv平面である。u軸及びv軸は、ワールド座標系のx軸、y軸、z軸と平行ではある必要はない。しかし、u軸又はv軸は、x軸、y軸、z軸のいずれかと平行であってもよい。
三角測量実施平面40は、例えば、重力方向(すなわち、鉛直方向)に直交する水平面である。三角測量実施平面40は、2次元撮像部101の光軸と直交し且つ水平面に対して平行な直線と、2次元撮像部101の光軸とを含む平面に平行な平面であってもよい。また、三角測量実施平面40として、他の平面を用いてもよい。
三角測量実施平面40を定めた後、眼3次元座標計算部107は、図11に示されるように、撮像位置11から眼の位置21に向かう第1の直線LV1を三角測量実施平面40へ射影することで第1の射影直線PV1aを求める。
同様に、図11に示されるように、眼3次元座標計算部107は、注視点の位置31から眼の位置21に向かう第2の直線LV3を三角測量実施平面40へ射影することで第2の射影直線PV3aを求める。
ここで、図11に示されるように、第1の射影直線PV1aと第2の射影直線PV3aとの交点23aが、眼の位置21の三角測量実施平面40への射影点となる。したがって、図12に示されるように、眼3次元座標D18は、眼の位置21の三角測量実施平面40への射影点(交点23a)を通り、三角測量実施平面40に垂直な直線(すなわち、法線)を眼存在範囲直線41とすると、眼存在範囲直線41上のいずれかの位置に決定される。
さらに、第1の直線LV1(すなわち、撮像位置11を通り、第1の3次元ベクトルV1を方向ベクトルとする直線)と第2の直線LV3(すなわち、注視点の位置31を通り、第3の3次元ベクトルV3を方向ベクトルとする直線)とは、理論上は、眼存在範囲直線41上の一点である交点23で交わる。このため、眼3次元座標計算部107は、交点23の座標を眼3次元座標D18として出力する。
図13は、図11に示される三角測量実施平面40上における交点23を通る法線である眼存在範囲直線41と第1の直線LV1との交点24及び眼存在範囲直線41と第2の直線LV3との交点25を示す図である。
実際の計算では、眼2次元座標D14の計算誤差、第2の3次元ベクトルV2の計算誤差、及びコンピュータの計算上の量子化誤差若しくは丸め誤差などにより、図13に示されるように、第1の直線LV1と眼存在範囲直線41との交点24と、第2の直線LV3と眼存在範囲直線41との交点25とが一致しないことがある。これを言い換えれば、第1の直線LV1と第2の直線LV3とが互いにねじれの位置の関係にある場合である。この場合、眼3次元座標計算部107は、第1の直線LV1と眼存在範囲直線41との交点24と、第2の直線LV3と眼存在範囲直線41との交点25とを結び、両端(すなわち、交点24と25)を含む線分、すなわち、交点24と25を結ぶ線分上のいずれかの点の座標である眼3次元座標D18を出力する。眼3次元座標D18を交点24と25を結ぶ線分上のどこに決めるかは、例えば、以下の方法を用いることができる。
眼3次元座標計算部107は、第1の直線LV1と眼存在範囲直線41との交点24、又は第2の直線LV3と眼存在範囲直線41との交点25のいずれかを眼3次元座標D18に決めることができる。また、眼3次元座標計算部107は、交点24と交点25の中点を眼3次元座標D18に決めてもよい。さらにまた、眼3次元座標計算部107は、眼2次元座標計算部103が両方の眼の位置を計算したときの、両方の眼の位置の信頼度を併せて計算し、両方の眼の位置の信頼度に応じて内分した内分点を眼3次元座標D18に決めてもよい。なお、このように第1の直線LV1と第2の直線LV3とが互いにねじれの位置の関係にある場合、三角測量実施平面40として、第1の直線LV1と第2の直線LV3との両方に直交する直線(すなわち、共通垂線)に垂直な平面を用いることで、交点24と25を結ぶ線分を最も短く設定することができ、眼3次元座標D18の範囲を最も絞り込むことができる。
以上に説明したように、実施の形態1に係る眼3次元座標取得装置100は、2次元撮像部101によって撮像された2次元画像D11と注視点の位置31を示す注視点位置情報D12とから、注視点を見る眼の位置を示す眼3次元座標D18を取得することができる。また、実施の形態1に係る眼3次元座標取得装置100によれば、3次元撮像部を用いる必要がないので、装置の構造及び制御を簡素化することができる。
実施の形態2.
実施の形態2に係る眼3次元座標取得装置は、注視点の提示方法を除いて、実施の形態1に係る眼3次元座標取得装置100と同じである。実施の形態2においては、注視点は、表示画像の一部である画像部分によって操作者に提示される。実施の形態2では、実施の形態1の説明で用いた図1から図13を参照する。
図14は、実施の形態2における注視点の提示方法の例を示す図である。図14の例では、注視点は、表示装置であるVDT(Visual Display Terminals)装置32aの表示画面にマーク(例えば、矢印形のポインタ)32として表示される。マーク32は、点灯と消灯を交互に繰り返すように点滅させてもよい。また、マーク32を注視することを促すメッセージが表示されてもよい。この場合、注視点位置情報提供部102は、マーク32の位置を示す位置情報を眼3次元座標取得装置に提供する。
図15は、実施の形態2における注視点の提示方法の他の例を示す図である。図15の例では、注視点は、プロジェクタ装置33aによってマーク(例えば、矢印形のポインタ)33として投影される。マーク33は、点灯と消灯を交互に繰り返すように点滅させてもよい。また、マーク33を注視することを促すメッセージが表示されてもよい。この場合、注視点位置情報提供部102は、マーク33の位置を示す位置情報を眼3次元座標取得装置に提供する。
図16は、実施の形態2における注視点の提示方法のさらに他の例を示す図である。図16の例では、注視点は、表示装置であるVDT装置34aの表示画面にマーク(例えば、矢印形のポインタ)34として表示される。図16の例では、VDT装置34aの上部中央付近に2次元撮像部101が配置されている。この場合には、注視点としてのマーク34を、2次元撮像部101の撮像位置11から最も離れた位置に表示する。このように、注視点を示すマーク34の位置を撮像位置11から遠くすることで(図16では、左下隅に移動することで)、三角測量における見込み角(例えば、図6におけるπ/4−α+γ、図7におけるπ/4−α+γ)を大きくすることができ、その結果、眼3次元座標D18の計測精度を向上させることができる。
以上に説明したように、実施の形態2に係る眼3次元座標取得装置は、2次元撮像部101によって撮像された2次元画像D11と注視点の位置31を示す注視点位置情報D12とから、注視点を見る眼の位置を示す眼3次元座標D18を取得することができる。また、実施の形態1に係る眼3次元座標取得装置100によれば、3次元撮像部を用いる必要がないので、装置の構造及び制御を簡素化することができる。
また、実施の形態2に係る眼3次元座標取得装置は、図14のVDT装置32a、図15のプロジェクタ装置33a、又は図16のVDT装置34aを、装置の一部として含んでもよい。
実施の形態3.
図17は、実施の形態3に係るジェスチャ操作装置300を示すブロック図である。図17に示されるように、実施の形態3に係るジェスチャ操作装置300は、実施の形態1又は2に係る眼3次元座標取得装置100と、操作者のジェスチャ操作を含む2次元画像を撮像する撮像装置と、ジェスチャ操作が行われる仮想の操作面である仮想面におけるジェスチャ操作の位置を示す仮想面内ジェスチャ座標D22を取得するジェスチャ座標取得部310とを有する。図17では、撮像装置は、2次元撮像部101であるが、2次元撮像部101と異なる他の2次元撮像部であってもよい。
実施の形態3に係るジェスチャ操作装置300は、ジェスチャ操作UI(User Interface)である。ジェスチャ操作装置300は、空間における操作者の手の位置に対応した仮想面内ジェスチャ座標D22を操作対象機器(図示せず)に送信する。操作対象機器の表示装置(図示せず)の画面上のポインタは、仮想面内ジェスチャ座標D22に応じた位置に移動し、画面上の特定の位置に表示されたアイコンなどの操作部品のいずれかが選択される。ジェスチャ操作装置300を、リモコン又はマウスなどのような物理的な入力装置の代わりに用いることにより、操作対象機器の容易な操作が可能になる。また、ジェスチャ操作装置300では、操作者は空間において身体の部位(例えば、手)を動かすことで操作を行うことができ、入力操作部に手を接触させる必要がないため、衛生面で優れている。
実施の形態3に係るジェスチャ操作装置300では、操作者の手の位置及び動きに応じた仮想面内ジェスチャ座標D22を受信した操作対象機器の表示装置の画面におけるポインタを表示及び移動させる構成を説明する。ジェスチャ操作は、手以外の身体部位、例えば、顔、腕、身体全体、又は脚などによって行われてもよい。また、ジェスチャ操作装置300は、ジェスチャ操作に応じて操作対象機器の表示装置の画面におけるポインタを移動させるのでなく、ジェスチャ操作が開始された座標、ジェスチャ操作を行った身体部位の種類、ジェスチャ操作における身体部位の移動の方向などに応じた内容の動作を、操作対象機器に実行させるように構成されてもよい。表示装置の画面は、例えば、VDT装置、プロジェクタ装置、又はヘッドマウントディスプレイなどである。また、ジェスチャ操作装置300は、表示装置を備えていない操作対象機器の操作に使用することもできる。
図17に示されるように、ジェスチャ座標取得部310は、眼3次元座標取得装置100から提供された眼3次元座標D18に基づいて仮想面3次元座標D19を計算する仮想面3次元座標計算部301と、仮想面3次元座標D19に基づいて仮想面2次元座標D20を計算する仮想面2次元座標計算部302と、2次元画像D11から、ジェスチャ操作が行われている位置の2次元座標を示す2次元画像内ジェスチャ座標D21を計算するジェスチャ座標計算部303と、仮想面2次元座標D20と2次元画像内ジェスチャ座標D21とから、仮想面2次元座標D20における仮想面内ジェスチャ座標D22を計算する仮想面内ジェスチャ座標計算部304とを有する。実施の形態3においては、2次元画像内ジェスチャ座標D21は、2次元画像内における手の位置の移動範囲内の位置である。2次元画像内ジェスチャ座標D21の計算には、ルールベースによる方法、テンプレートマッチングによる方法、又はディープラーニングを用いる方法などを使用することができる。
図18は、実施の形態3における仮想面371(「仮想操作面」とも言う)の例を示す概略図である。仮想面3次元座標計算部301は、眼3次元座標D18から仮想面371を示す座標である仮想面3次元座標D19を計算する。仮想面371は、操作者20から表示装置の画面又は操作対象機器に向かう方向に存在することが、操作性の点で望ましい。したがって、仮想面3次元座標計算部301は、眼3次元座標D18である起点から予め決められた方向の3次元ベクトルV30(例えば、第2の3次元ベクトルV2)から延在した直線上における、操作者の腕の可動範囲内の点を仮想面基準点372として設定し、仮想面基準点372を含む面を仮想面371として設定する。
仮想面基準点372は、例えば、仮想面371の中心である。ただし、仮想面基準点372は、仮想面371の中心以外の点であってもよい。仮想面基準点372は、例えば、眼の位置21と注視点の位置31とを結ぶ直線上の点であり、操作者による手の可動範囲は、この直線の位置からいずれかの方向にオフセットしているためである。例えば、手の可動範囲は眼の位置21より鉛直方向の下側であるため、仮想面371を第2の3次元ベクトルV2より少し鉛直方向の下側にオフセットさせて設定することで、操作性が高まる。また、眼の位置21として、一方の眼の位置を使用した場合は、仮想面371を一方の眼の位置の方向にオフセットさせることで、操作性が高まる。また、ジェスチャ操作を行う手が右手であるのか左手であるのかが予めわかっている場合は、仮想面371をジェスチャ操作を行う手の方向にオフセットさせることで、操作性が高まる。このように、ジェスチャ操作の仕様に応じて仮想面371がオフセットするような仮想面基準点372を設定することで、装置の操作性を高めることができる。
操作者の腕の可動範囲は、予め決められた値の範囲内である。腕の長さの平均値を70cm程度(日本人の平均値)である場合には、眼3次元座標D18から仮想面基準点372まで距離は0〜70cmの範囲内であることが妥当である。しかし、この距離が短過ぎる場合又は長すぎる場合には操作性が低下する。このため、実施の形態3では、眼3次元座標D18から仮想面基準点372までの距離を、腕の長さの平均値の1/2の35cmである場合を説明する。眼3次元座標D18と仮想面基準点372との距離は、操作者の腕の長さ以下の範囲内で選択可能である。
仮想面371は、図18に示されるような曲面であってもよいし、又は平面であってもよい。手の可動範囲は、腕の付け根(肩関節の位置)を中心に円周状又は球面状であるため、仮想面371は手の可動範囲に近い曲面である場合に操作性が向上する。しかし、計算の簡便化のために、仮想面371を平面としてもよい。
図19は、実施の形態3における仮想面381の例を示す概略図である。図20は、実施の形態3におけるジェスチャ操作を含む2次元画像D11の例を示す概略図である。図19及び図20に示されるように、仮想面2次元座標計算部302は、図18に示される仮想面371の2次元画像D11上への投影面である仮想面381の座標である仮想面2次元座標D20を、仮想面371上の仮想面3次元座標D19を用いて計算する。
図21は、実施の形態3における仮想面381内におけるジェスチャ位置390を示す座標の例を示す概略図である。図21に示されるように、仮想面内ジェスチャ座標計算部304は、仮想面2次元座標D20と2次元画像内ジェスチャ座標D21とから、仮想面内ジェスチャ座標D22を計算する。図21には、仮想面内ジェスチャ座標D22が示す位置として、ジェスチャ操作が行われたジェスチャ領域の中心であるジェスチャ位置390及びジェスチャ領域の四隅391〜394が示されている。仮想面内ジェスチャ座標D22が示す位置は、図21の例に限定されない。
また、図20に示されるように、一般に、仮想面381は2次元画像D11に比べて狭い範囲に設定される。このため、仮想面内ジェスチャ座標D22が、仮想面381の外側になる場合があり得る。このような状況は、ジェスチャ座標計算部303が、ジェスチャ操作が行われていない領域の座標をジェスチャ操作の座標であると誤検出した状況であると想定される。このため、仮想面内ジェスチャ座標計算部304は、仮想面内ジェスチャ座標D22が、仮想面381の外側にある場合には、ジェスチャ操作を無効と判定してもよい。
以上に説明したように、実施の形態3に係るジェスチャ操作装置300は、眼3次元座標取得装置100によって取得された眼3次元座標D18に基づいて、ジェスチャ操作が行われる仮想面371の位置を計算し、仮想面371を2次元画像D11に投影することで仮想面381を設定し、仮想面381内におけるジェスチャ座標である仮想面内ジェスチャ座標D22を出力する。仮想面371は、操作者20の眼の位置21から適切な位置に設定されるので、仮想面381も適切な位置に設定される。したがって、ジェスチャ操作を正確に検出することができる。また、ジェスチャ操作装置300によれば、3次元撮像部を備えていないので、装置の構造及び制御を簡素化することができる。
実施の形態4.
図22は、実施の形態4に係るジェスチャ操作装置400を示すブロック図である。図22において、図17に示される構成要素と同一又は対応する構成要素には、図17に示される符号と同じ符号が付される。実施の形態4に係るジェスチャ操作装置400は、ジェスチャ座標取得部410のジェスチャ座標計算部403が行う処理方法の点において、実施の形態3に係るジェスチャ操作装置300と異なる。
実施の形態3におけるジェスチャ座標計算部303は、2次元画像D11の全体から、ジェスチャ操作に対応する部分、例えば、ジェスチャ操作を行う手の範囲を抽出している。しかし、このような処理には非常に大きな情報処理量が必要であり、また、情報処理量を削減すると手の範囲の抽出精度が低下する。すなわち、情報処理量と抽出精度にはトレードオフの関係がある。例えば、2次元画像D11内の切り出し範囲であるスライディングウインドウを少しずつ移動させながら、スライディングウインドウ内の画像がジェスチャ操作の範囲に該当するかを判定する場合、スライディングウインドウの移動ステップを大きくすればジェスチャの抽出精度が低下し、スライディングウインドウの移動ステップを小さくすれば処理の繰り返し回数が増加するため、情報処理量が増加する。
そこで、実施の形態4におけるジェスチャ座標計算部403は、仮想面2次元座標D20が示す範囲のみから、ジェスチャ操作を検出する。これにより、情報処理量が削減できると共に、仮想面2次元座標D20が示す範囲から外れた領域で、ジェスチャ操作を誤検出することがない。
以上に説明したように、実施の形態4に係るジェスチャ操作装置400は、実施の形態3で説明した効果を得ることができる。さらに、実施の形態4に係るジェスチャ操作装置400は、誤検出の抑制と、情報処理量の削減を両立させることができる。
上記以外の点については、実施の形態4に係るジェスチャ操作装置400は、実施の形態3に係るジェスチャ操作装置300と同じである。
実施の形態5.
図23は、実施の形態5に係るジェスチャ操作装置500を示すブロック図である。図23において、図17に示される構成要素と同一又は対応する構成要素には、図17に示される符号と同じ符号が付される。実施の形態5に係るジェスチャ操作装置500は、ジェスチャ座標取得部510の構成の点において、実施の形態3に係るジェスチャ操作装置300と異なる。実施の形態5に係るジェスチャ操作装置500は、実施の形態3に係るジェスチャ操作装置300における仮想面2次元座標計算部302、ジェスチャ座標計算部303、及び仮想面内ジェスチャ座標計算部304に代えて、2次元画像仮想面投影部502と仮想面内ジェスチャ座標計算部503を備えている。
実施の形態3に係るジェスチャ操作装置300では、ジェスチャ座標計算部303が2次元画像D11から2次元画像内ジェスチャ座標D21を抽出する。しかし、ジェスチャ操作を行う操作者が撮像装置である2次元撮像部101の真正面から離れた位置、すなわち、光軸から離れた位置にいる場合、又は操作者が2次元撮像部101の法線方向と乖離した方向を向いている場合、すなわち、光軸と乖離した方向を向いているような場合には、2次元画像D11内のジェスチャ操作が変形したジェスチャ操作として検出され、2次元画像内ジェスチャ座標D21の正確な検出ができない状況が発生し得る。
そこで、実施の形態5に係るジェスチャ操作装置500においては、図23に示されるように、2次元画像仮想面投影部502は、2次元画像D11と仮想面3次元座標D19を用いて、仮想面の変形の補償を行い、その補償結果である2次元画像仮想面射影画像D51を出力する。
図24は、実施の形態5に係るジェスチャ操作装置500の動作を示す図である。2次元画像D11内の画素Pの座標を(X,Y)とする。図24に示されるように、2次元画像D11内における画素PのX座標(例えば、X方向の画素数)をXで表し、2次元画像D11の横方向の総画素数の1/2の画素数をXmaxで表し、3次元ベクトルV51と撮像系の光軸であるz軸とがなす角度である3次元ベクトルのヨー角をαで表し、2次元画像D11の横方向の撮影最大画角をβで表す。このとき、以下の関係式が成立する。
:Xmax=tanα:tanβ
したがって、3次元ベクトルのヨー角αは、以下の式(3)で計算できる。
Figure 2019244270
3次元ベクトルV51のピッチ角は、式(3)と同様に計算される。
このようにして画素Pを通る方向ベクトルが得られたことにより、撮像位置を起点とし、起点から画素Pに向かう3次元ベクトルV51を延在することで得られた直線(すなわち、撮像位置を通り、3次元ベクトルV51を方向ベクトルとする直線)と仮想面571の交点が画素Pの投影点572として得られる。仮想面571は、実施の形態3における仮想面371と同様に取得される。
この投影処理を、2次元画像D11上の画素のうちの全ての画素について行うか、又は処理量削減のため、仮想面571上の投影像を得るために必要な範囲内の画像について行うことにより、2次元画像仮想面射影画像D51が得られる。この際、一般には、2次元画像D11と仮想面571との画素粒度が異なるため、何らかの補間が必要になる。補間には、ニアレストネイバー法、バイリニア法、バイキュービック法、ランチョス法などのような画像処理方法を用いることができる。
また、2次元画像内D11の画素Pを起点にして、仮想面571上の対応する座標を得ているが、逆に、仮想面571内の画素を起点とし、2次元画像D11上の対応する座標を計算してもよい。
仮想面内ジェスチャ座標計算部503は、このようにして得られた2次元画像仮想面射影画像D51から、仮想面内ジェスチャ座標D52を計算する。
以上に説明したように、実施の形態5に係るジェスチャ操作装置500は、ジェスチャの認識精度を向上させることができる。さらに、実施の形態5に係るジェスチャ操作装置500は、誤検出の抑制と、情報処理量の削減を両立させることができる。
上記以外の点については、実施の形態5に係るジェスチャ操作装置500は、実施の形態3に係るジェスチャ操作装置300と同じである。
変形例.
図25は、実施の形態1から5の変形例のハードウェア構成の例を示すブロック図である。図1に示される眼3次元座標取得装置100は、ソフトウェアとしてのプログラムを格納する記憶装置としてのメモリ91と、メモリ91に格納されたプログラムを実行する情報処理部としてのプロセッサ92とを用いて(例えば、コンピュータにより)実現することができる。この場合には、図1における各構成部分の一部を、図25に示されるメモリ91と、プログラムを実行するプロセッサ92とによって実現することができる。
また、図17、図22、及び図23に示されるジェスチャ座標取得部310,410,及び510を、ソフトウェアとしてのプログラムを格納する記憶装置としてのメモリ91と、メモリ91に格納されたプログラムを実行する情報処理部としてのプロセッサ92とを用いて(例えば、コンピュータにより)実現することもできる。この場合には、ジェスチャ座標取得部310,410,及び510の全体又は一部を、図25に示されるメモリ91と、プログラムを実行するプロセッサ92とによって実現することができる。
11 撮像位置、 20 人(操作者)、 21 眼の位置、 22 視線、 23 第1の直線と第2の直線との交点、 23a 第1の射影直線と第2の射影直線との交点、 24 交点、 25 交点、 30 発光素子、 31 注視点の位置、 31a 注視点の位置の射影点、 32,33,34 ポインタ、 32a,34a VDT装置(表示装置)、 33a プロジェクタ装置、 40 三角測量実施平面、 41 眼存在範囲直線(法線)、 100 眼3次元座標取得装置、 101 2次元撮像部、 102 注視点位置情報提供部、 103 眼2次元座標計算部、 104 第1の直線計算部、 105 3次元ベクトル計算部、 106 第2の直線計算部、 107 眼3次元座標計算部、 301 仮想面3次元座標計算部、 302 仮想面2次元座標計算部、 303 ジェスチャ座標計算部、 304 仮想面内ジェスチャ座標計算部、 310,410,510 ジェスチャ座標取得部、 371 仮想面、 372 仮想面基準点、 381 仮想面、 571 仮想面、 572 二次元画像の仮想面への投影点、 D11 2次元画像、 D12 注視点位置情報、 D13、β、β 最大撮像画角、 D14 眼2次元座標、 D15,LV1 第1の直線、 D16,V2 第2の3次元ベクトル、 D17,LV3 第2の直線、 D18 眼3次元座標、 D19 仮想面3次元座標、 D20 仮想面2次元座標、 D21 2次元画像内ジェスチャ座標、 D22,D42,D52 仮想面内ジェスチャ座標、 PV1a 第1の射影直線、 PV3a 第2の射影直線。

Claims (15)

  1. 2次元撮像部によって撮像された2次元画像と注視点の位置を示す注視点位置情報とから、前記注視点を見る眼の位置を示す眼3次元座標を取得する眼3次元座標取得装置であって、
    前記2次元画像内における前記眼の2次元位置を示す眼2次元座標を計算する眼2次元座標計算部と、
    前記2次元撮像部の最大撮像画角と前記眼2次元座標とから、前記2次元撮像部の撮像位置である第1起点から前記眼の位置に向かう第1の3次元ベクトルを方向ベクトルとし且つ前記第1起点を起点とする第1の直線を計算する第1の直線計算部と、
    前記2次元画像と前記眼2次元座標とから、前記眼の位置である第2起点から前記注視点の位置に向かう第2の3次元ベクトルを計算する3次元ベクトル計算部と、
    前記第2の3次元ベクトルの逆ベクトルであり、前記注視点の位置である第3起点から前記眼の位置に向かう第3の3次元ベクトルを方向ベクトルとし且つ前記第3起点を起点とする第2の直線を計算する第2の直線計算部と、
    前記第1の直線と前記第2の直線と前記注視点位置情報とから三角測量法を用いて前記眼3次元座標を計算する眼3次元座標計算部と、
    を有することを特徴とする眼3次元座標取得装置。
  2. 前記眼3次元座標計算部は、
    任意の三角測量実施平面に前記第1の直線を射影することによって第1の射影直線を取得し、
    前記三角測量実施平面に前記第2の直線を射影することによって第2の射影直線を取得し、
    前記第1の射影直線と前記第2の射影直線との交点における前記三角測量実施平面の法線と、前記第1の直線と、前記第2の直線との交点に基づいて前記眼3次元座標を計算する
    ことを特徴とする請求項1に記載の眼3次元座標取得装置。
  3. 前記眼3次元座標計算部は、
    任意の三角測量実施平面に前記第1の直線を射影することによって第1の射影直線を取得し、
    前記三角測量実施平面に前記第2の直線を射影することによって第2の射影直線を取得し、
    前記第1の射影直線と前記第2の射影直線との交点における前記三角測量実施平面の法線と、前記第1の直線との交点、又は前記第2の直線との交点とに基づいて前記眼3次元座標を計算する
    ことを特徴とする請求項1に記載の眼3次元座標取得装置。
  4. 前記三角測量実施平面は、重力方向に直交する水平面に平行な平面であることを特徴とする請求項2又は3に記載の眼3次元座標取得装置。
  5. 前記三角測量実施平面は、前記2次元撮像部の光軸と、重力方向に直交し且つ前記光軸と交差する直線と、を含む平面であることを特徴とする請求項2又は3に記載の眼3次元座標取得装置。
  6. 前記三角測量実施平面は、前記第1の直線及び前記第2の直線と直交する直線に対して垂直な平面であることを特徴とする請求項2又は3に記載の眼3次元座標取得装置。
  7. 前記注視点の位置は、発光素子の発光点の位置又はレーザ−ポインタによる光照射点の位置又は視線が向けられることが予想される予め決められた位置であることを特徴とする請求項1から6のいずれか1項に記載の眼3次元座標取得装置。
  8. 前記注視点の位置は、表示装置に表示された又はプロジェクタ装置によって投射された前記注視点としての映像部分の位置であることを特徴とする請求項1から6のいずれか1項に記載の眼3次元座標取得装置。
  9. 請求項1から8のいずれか1項に記載の眼3次元座標取得装置と、
    ジェスチャ操作を含む2次元画像を撮像する撮像装置と、
    前記ジェスチャ操作が行われる仮想の操作面である仮想面における前記ジェスチャ操作の位置を示す仮想面内ジェスチャ座標を取得するジェスチャ座標取得部と、
    を有することを特徴とするジェスチャ操作装置。
  10. 前記撮像装置は、前記2次元撮像部であることを特徴とする請求項9に記載のジェスチャ操作装置。
  11. 前記ジェスチャ座標取得部は、
    前記眼3次元座標取得装置から提供された眼3次元座標に基づいて、前記仮想面に含まれる仮想面3次元座標を計算する仮想面3次元座標計算部と、
    前記仮想面3次元座標から仮想面2次元座標を計算する仮想面2次元座標計算部と、
    を有することを特徴とする請求項9又は10に記載のジェスチャ操作装置。
  12. 前記仮想面3次元座標計算部は、前記眼3次元座標取得装置から提供された前記眼3次元座標を起点とし、前記眼3次元座標から前記第2の3次元ベクトルの方向に延在して得られた直線上であって、前記眼3次元座標から予め決められた距離の点を含む面を前記仮想面の3次元座標とすることを特徴とする請求項11に記載のジェスチャ操作装置。
  13. 前記撮像装置が撮像した2次元画像内におけるジェスチャ操作の範囲を示す2次元画像内ジェスチャ座標を計算するジェスチャ座標計算部と、
    前記仮想面2次元座標と前記2次元画像内ジェスチャ座標とから、前記仮想面内ジェスチャ座標を計算する、仮想面内ジェスチャ座標計算部と
    を有することを特徴とする請求項11又は12に記載のジェスチャ操作装置。
  14. 前記2次元画像のうち、前記仮想面2次元座標が示す範囲からジェスチャ操作の発生した範囲の2次元画像内ジェスチャ座標を計算するジェスチャ座標計算部と、
    前記仮想面2次元座標と、前記2次元画像内ジェスチャ座標とから、前記仮想面内ジェスチャ座標を計算する、仮想面内ジェスチャ座標計算部と
    を有することを特徴とする請求項11から13のいずれか1項に記載のジェスチャ操作装置。
  15. 前記仮想面3次元座標を用いて、前記2次元画像を前記仮想面上に投影した画像を、2次元画像仮想面投影画像として出力する2次元画像仮想面射影部と、
    前記2次元画像仮想面投影画像内から、ジェスチャ操作の発生した範囲を前記仮想面内ジェスチャ座標として計算する仮想面内ジェスチャ座標計算部と
    を有することを特徴とする請求項11に記載のジェスチャ操作装置。
JP2020525143A 2018-06-20 2018-06-20 眼3次元座標取得装置及びジェスチャ操作装置 Active JP6873326B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/023426 WO2019244270A1 (ja) 2018-06-20 2018-06-20 眼3次元座標取得装置及びジェスチャ操作装置

Publications (2)

Publication Number Publication Date
JPWO2019244270A1 true JPWO2019244270A1 (ja) 2021-03-11
JP6873326B2 JP6873326B2 (ja) 2021-05-19

Family

ID=68983529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020525143A Active JP6873326B2 (ja) 2018-06-20 2018-06-20 眼3次元座標取得装置及びジェスチャ操作装置

Country Status (2)

Country Link
JP (1) JP6873326B2 (ja)
WO (1) WO2019244270A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100367A (ja) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd 画像生成装置、画像生成方法、及び画像生成プログラム
JP2009266086A (ja) * 2008-04-28 2009-11-12 Omron Corp 視線検出装置および方法、並びに、プログラム
JP2016207042A (ja) * 2015-04-24 2016-12-08 株式会社コーエーテクモゲームス プログラム及び記録媒体
JP2017539035A (ja) * 2015-04-16 2017-12-28 楽天株式会社 ジェスチャインタフェース

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100367A (ja) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd 画像生成装置、画像生成方法、及び画像生成プログラム
JP2009266086A (ja) * 2008-04-28 2009-11-12 Omron Corp 視線検出装置および方法、並びに、プログラム
JP2017539035A (ja) * 2015-04-16 2017-12-28 楽天株式会社 ジェスチャインタフェース
JP2016207042A (ja) * 2015-04-24 2016-12-08 株式会社コーエーテクモゲームス プログラム及び記録媒体

Also Published As

Publication number Publication date
WO2019244270A1 (ja) 2019-12-26
JP6873326B2 (ja) 2021-05-19

Similar Documents

Publication Publication Date Title
CN109564472B (zh) 用于选取与虚拟对象的交互方法的方法、介质和***
CN108958473B (zh) 眼球追踪方法、电子装置及非暂态电脑可读取记录媒体
US9171405B1 (en) Identifying and filling holes across multiple aligned three-dimensional scenes
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
US20170308172A1 (en) Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium
JP6548171B2 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
US9367951B1 (en) Creating realistic three-dimensional effects
JP4608326B2 (ja) 指示動作認識装置及び指示動作認識プログラム
US20150103096A1 (en) Display device, head mount display, calibration method, calibration program and recording medium
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
JP5873362B2 (ja) 視線誤差補正装置、そのプログラム及びその方法
US20170078570A1 (en) Image processing device, image processing method, and image processing program
US11042730B2 (en) Method, apparatus and device for determining an object, and storage medium for the same
WO2019005644A1 (en) EYE TRACKING SYSTEM WITH DETECTION AND CORRECTION OF SLIDING
US20190073820A1 (en) Ray Tracing System for Optical Headsets
CN111275801A (zh) 一种三维画面渲染方法及装置
WO2018176773A1 (zh) 三维空间的交互***及其操作方法
JP2018099174A (ja) 瞳孔検出装置及び瞳孔検出方法
KR20190027079A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
JPWO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2007029126A (ja) 視線検出装置
US10296098B2 (en) Input/output device, input/output program, and input/output method
US20220300120A1 (en) Information processing apparatus, and control method
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
JP6873326B2 (ja) 眼3次元座標取得装置及びジェスチャ操作装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210420

R150 Certificate of patent or registration of utility model

Ref document number: 6873326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250