JP2010205031A - 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム - Google Patents

入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム Download PDF

Info

Publication number
JP2010205031A
JP2010205031A JP2009050621A JP2009050621A JP2010205031A JP 2010205031 A JP2010205031 A JP 2010205031A JP 2009050621 A JP2009050621 A JP 2009050621A JP 2009050621 A JP2009050621 A JP 2009050621A JP 2010205031 A JP2010205031 A JP 2010205031A
Authority
JP
Japan
Prior art keywords
input operation
input
dimensional
function
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009050621A
Other languages
English (en)
Inventor
Akihiro Shindo
晃浩 新藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009050621A priority Critical patent/JP2010205031A/ja
Publication of JP2010205031A publication Critical patent/JP2010205031A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】入力画面を通して視認される現実環境での対象物の動きをユーザが認識して入力操作する場合、ユーザが認識する対象物の位置と入力操作を適切に対応付けることができるようにすること。
【解決手段】表示制御手段17は、複数の操作子を含む入力操作用画面を、現実環境の視認可能な表示面を有する表示手段18に表示させる。入力操作認識手段15は、三次元位置取得手段14により取得される対象物の三次元位置情報に基づいて対象物による入力操作を認識する。入力位置特定手段16は、認識された入力操作における対象物が、表示手段18の表示面上で認識される位置を特定する。入力操作特定手段は、特定された位置と入力操作用画面上の操作子の位置の対応関係から入力操作を特定する。
【選択図】図1

Description

本発明は、入力位置特定方法、入力位置特定方システムおよび入力位置特定用プログラムに関し、特に、透過型ヘッドマウントディスプレイに入力画面を表示し、ジェスチャによる入力操作位置を適切に対応付けることができる入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラムに関する。
従来から、装着することにより眼前にディスプレイが配置され、視界を覆ってディスプレイ画面のみを利用者に視認させる非透過型ヘッドマウントディスプレイ(Head Mounted Display:以下では、HMDと称する。)が存在する。この非透過型HMDによれば、ユーザは意識的に視線を向けなくても、それに提示される電子情報を確認することができ、かつ小型のディスプレイを用いて仮想的に大型の画面表示を実現できる。非透過型HMD(Vuzix iWear vr920)は、非特許文献1に記載されている
近年では、視界を確保しながら電子情報を付加表示することが可能な透過型HMDも実現されている。透過型HMDでは視界を確保することができるため、視界上に実在する対象物についての関連情報をHMD上に付加表示する拡張現実サービスへの適用が期待されている。透過型HMD(LUMUS)は、非特許文献2に記載されている。
一方、人の動きを画像認識して端末操作の入力として用いるジェスチャ入力技術が存在する。近年では、カメラからの距離(深さ)を認識可能なカメラを用いて3次元の動きを認識し、入力に用いる技術も存在する。深さ認識カメラ(ZCAM)は、非特許文献3に記載されている。
http://www.vuzix.com/iwear/ products_vr920.html http://www.lumusvision.com/ http://www.3dvsystems. com/
複数のボタンなどの操作子が配置された入力画面を透過型HMDに表示し、ユーザの指などの動きを透過型HMDに搭載されたカメラを用いて認識して入力操作とする場合、ユーザが指の位置をいずれの操作子上に認識しているかを特定する必要がある。
図3は、透過型HMDに表示された入力画面を用いた入力操作を示す説明図であり、入力画面上の操作子kを操作しようとして、ユーザの眼から見て対象物(指)Oを操作子kに合わせた状態を示している。同図(a)は、対象物Oを近距離で操作子kに合わせた場合であり、同図(b)は、対象物Oを近距離で操作子kに合わせた場合である。
図4は、カメラで認識される対象物Oの二次元位置を示す図である。対象物Oの位置はカメラからの二次元画像を基に認識されるが、カメラの位置によって、例えば、同図(a)に示すように、対象物Oが操作子kの範囲に含まれない(x,y)として認識されることがある。対象物Oが近距離の場合には眼とカメラの位置の誤差の影響がより大きくなり、例えば、同図(b)に示すように(x′,y′)として認識される。このように、カメラにより取得される二次元画像から認識される対象物Oの位置は、対象物Oの深さ情報によって変わってくるので、対象物Oの二次元画像のみから対象物Oにより操作された操作子を適切に特定することができない。図4には、対象物Oと操作子のX,Y軸上でのずれを示している。
従来のジェスチャ入力技術は、ユーザの指などの対象物のみの動きを認識して入力操作とするものであり、透過型HMDに表示される入力画面を通して現実環境で認識される対象物の動きにより入力操作を行うジェスチャ入力、その場合に、ユーザが認識する対象物の位置を特定し、それを入力操作に適切に対応付ける方法は存在しない。
本発明の目的は、透過型HMDを用いて入力画面を表示し、その入力画面を通して現実環境での指などの対象物の動きをユーザが認識して入力操作を行う場合、ユーザが認識する対象物の位置と入力操作を適切に対応付けることができる入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラムを提供することにある。
上記課題を解決するため、本発明の入力位置特定システムは、複数の操作子を含む入力操作用画面を生成する表示制御手段と、現実環境の視認が可能な表示面を有し、前記表示制御手段により生成された入力操作用画面を表示する表示手段と、二次元画像データを取得する二次元画像取得手段と、前記二次元画像取得手段により取得された二次元画像データから対象物の固有情報を認識し、該対象物の二次元画像での二次元位置情報を特定する画像認識手段と、深さ画像データを取得する深さ画像取得手段と、前記画像認識手段により特定された対象物の二次元位置情報と前記深さ画像取得手段により取得された深さ画像データから対象物の三次元位置情報を取得する三次元位置取得手段と、前記三次元位置取得手段により取得された三次元位置情報に基づいて対象物による入力操作を認識する入力操作認識手段と、前記入力操作認識手段により認識された入力操作における対象物が、前記表示手段の表示面上で認識される位置を特定する入力位置特定手段と、前記入力位置特定手段により特定された位置と前記表示手段により表示された入力操作用画面上の操作子の位置の対応関係から入力操作を特定する入力操作特定手段とを備えたことを特徴としている。
また、本発明の入力位置特定システムは、前記入力操作認識手段が、前記画像認識手段により特定された対象物の二次元位置の軌跡に基づいて入力操作を認識することを特徴としている。
また、本発明の入力位置特定システムは、前記入力操作認識手段が、前記三次元位置取得手段により取得された対象物の三次元位置の軌跡に基づいて入力操作を認識することを特徴としている。
また、本発明の入力位置特定システムは、前記表示制御手段が、対象物が前記画像認識手段において二次元画像内または二次元画像の所定領域内で認識された場合に入力操作用画面を前記表示手段に表示させることを特徴としている。
また、本発明の入力位置特定システムは、前記表示制御手段が、対象物が前記三次元位置取得手段において三次元位置の所定距離範囲内で取得された場合に入力操作用画面を前記表示手段に表示させることを特徴としている。
なお、本発明は、入力位置特定システムとしてだけでなく、入力位置特定方法、あるいは入力位置特定用プログラムとしても実現できる。
本発明によれば、透過型HMD画面上に表示された入力画面に対してユーザがジェスチャ入力によって操作する場合に、カメラにより認識したジェスチャ位置に対応するHMD画面上の入力位置をユーザの意図した通りに適切に判定することができる。
本発明の一実施形態を示す機能ブロック図である。 本発明の位置特定手段の一例を示す図である。 透過型HMDに表示された入力画面を用いた入力操作を示す説明図である。 カメラで認識される対象物の二次元位置を示す図である。
以下、図面を参照して本発明を説明する。図1は、本発明の一実施形態を示す機能ブロック図である。本実施形態は、本発明を入力位置特定方システムとして実現したものであり、二次元画像取得手段11、画像認識手段12、深さ画像取得手段13、三次元位置取得手段14、入力操作認識手段15、入力位置特定手段16、表示制御手段17、表示手段18および入力特定手段19を備える。画像認識手段12、三次元位置取得手段14、入力操作認識手段15、入力位置特定手段16、表示制御手段17および入力特定手段19は、入力操作処理装置として機能し、例えば携帯電話などに設けられる。これらの各部はハードウエアでもソフトウエアでも実現できる。
二次元画像取得手段11は、入力操作を行う対象物の二次元画像データをカメラによって取得する。入力操作を行う対象物は、例えば、ユーザの指や入力ペンなどである。カメラは、透過型HMD(以下、単にHMDと称する。)に搭載されてもよいし、入力操作処理装置に搭載されてもよい。また、単独の装置としてもよい。
画像認識手段12は、二次元画像取得手段11により取得された二次元画像データから対象物の固有情報および二次元画像での二次元位置情報を特定する。対象物の固有情報および二次元位置情報は、例えば、予め登録された物体の二次元画像データと取得された二次元画像データを比較し、両者の画像パターンの類似性に基づいて特定することができる。なお、ここで特定する二次元位置情は、ユーザの指の指先端部分の中心部、入力ペンの先端部などである。
深さ画像取得手段13は、深さ画像データを取得する。深さ画像データは、例えば、深さ認識カメラによって取得されたピクセルごとの深さ(Z値)である。深さ認識カメラは、深さ情報の認識が可能なカメラであり、例えばZCAM(http://www.3dvsystems. com/)を用いることができる。
三次元位置取得手段14は、画像認識手段12により特定された対象物の二次元位置情報と、深さ画像取得手段13により取得されたZ値のうちの二次元位置に対応するZ値を取得することで、対象物の三次元位置情報を取得する。ここで、二次元画像データを取得するカメラと深さ認識カメラの位置が異なる位置に設けられている場合やそれらの歪度が異なる場合には、互いに二次元位置を対応させてZ値を取得する。
なお、深さ画像取得手段13で先にZ値を取得し、Z値がある範囲(一定深さ)の、二次元位置のピクセル数が一定数以上の場合のみ画像認識手段12が画像認識を行う構成としてもよい。この場合には、深さ画像取得手段13が取得したZ値を画像認識手段12に与える。
入力操作認識手段15は、三次元位置取得手段14により取得された対象物の三次元位置情報に基づいて入力操作を認識し、このときの対象物の二次元あるいは三次元位置情報を入力操作位置情報として取得する。ユーザの指の位置情報に基づく入力操作の認識では、例えば、指の二次元あるいは三次元位置情報を取得し、指が特定の移動をした場合に入力操作が行われたと認識する。
これは、例えば、指が描くパターンを予め設定された移動パターンと比較し、両者の合致が予め設定された一定割合以上である場合に入力操作が行われたと認識することで実現できる。このときの入力操作移動パターンと指が描くパターンとの比較は、二次元あるいは三次元上の何れでも構わない。また、指の移動が一定時間停止、あるいはある空間範囲内に一定時間位置した場合に入力操作が行われたと認識するようにしてもよい。なお、入力操作位置は、指の移動軌跡の始点、終点、あるいは予め設定されたタイミングの位置のいずれかの三次元位置とすることができる。
入力位置特定手段16は、HMDを装着したユーザの眼の位置と入力操作認識手段15により取得された対象物の三次元位置を元に、HMD画面上の入力位置を特定する。この入力位置の特定方法については、後で詳述する。
表示制御手段17は、入力操作用画面、例えば複数のボタンなどの操作子が配置された画面を生成する。なお、入力操作用画面は、画像認識手段12により特定された対象物の二次元位置情報や三次元位置取得手段14により取得された三次元位置情報に従って表示させるようにしてもよい。例えば、通常時にはHMDに入力用操作子(ボタン)を表示させずに、現実環境が何ら支障なく視認されるようにしておく。そして、指などの対象物が、画像認識手段12において二次元画像内または二次元画像の所定領域内で認識された場合、あるいは三次元位置取得手段14において三次元位置の所定距離範囲内で取得された場合に入力用操作子を表示させる。また、HMDを入力操作用とするモードを設定可能にしておき、該モードが設定された場合に入力操作用画面が生成されて入力操作が可能になるようにしてもよい。
表示手段18は、透過型HMDとして構成され、表示制御手段18により生成された入力操作用画面を表示する。これにより、ユーザの眼前に、入力用操作子が配置された入力操作用画面が表示される。なお、表示手段19は、表示制御手段18に画像出力用ケーブルで接続される。この接続方法は、有線接続でもよく、Bluetooth, IEEE802.11, Wireless HDなどの無線接続でもよい。
入力特定手段19は、入力位置特定手段16により特定された入力位置と入力操作用画面での操作子の位置から入力操作を特定し、該入力操作に従って入力処理を実行させる。この入力処理は、携帯電話だけでなく、その他の別の装置を有線あるいは無線を介して制御、コントロールするものでも構わない。
図2は、入力位置特定手段16での入力位置の特定方法を示す説明図である。ここでは、YおよびZ軸に関する位置を図示しているが、XおよびZ軸に関する位置も同様である。入力位置特定手段16は、以下に示す算定方法により特定される位置をHMD画面上の入力位置として特定する。
三次元位置取得手段14により取得された対象物OのX軸、Y軸およびZ軸方向の三次元位置を(x,y,z)、HMDを装着しているユーザの一方の眼(例えば右眼) からHMD画面(レンズ)に垂線を引いた時の交点のHMD画面上の二次元位置を(u,v)とする。また、ユーザの右眼の位置とHMD画面との間の距離をrとし、ユーザの右眼の位置を原点としたときの、二次元画像取得手段(カメラ)11の位置を(dx,dy,dz)とする。ユーザの右眼の二次元位置(u,v)は既知であり、二次元画像取得手段11の位置(dx,dy,dz)およびユーザの右眼の位置とHMD画面との間の距離rも一意に決められる。
ユーザの右眼の位置を原点としたとき、ユーザがHMDを通して現実環境を視認した時の対象物Oの三次元位置は、図2に示すように、(x+dx,y+dy,z+dz)となり、対象物Oは、HMD画面(レンズ:画像投影面)上において、ユーザの右眼の位置と対象物Oの三次元位置を結ぶ線分とHMD画面が交差する点Pとなる。点PのX座標、Y座標はそれぞれ、式(1),(2)で算出される。なお、*は乗算を表す。なお、ユーザの顔とカメラの向きが一致していない場合には、さらにその不一致による二次元位置(x,y)のずれを補正することが必要である。
点PのX座標:u+(x+dx)*r/(z+dz) (1)
点PのY座標:v+(y+dy)*r/(z+dz) (2)
ユーザは、HMDを通して現実環境を視認した時に対象物Oの位置をHMD画面上では点Pとして認識するので、対象物Oのその位置での入力操作は、HMD画面の点Pに位置する操作子(ボタン)によるものと考えることができる。そこで、入力位置特定手段16は、この入力操作を点Pに位置する操作子の入力操作と特定する。HMD画面上の (u+(x+dx)*r/(z+dz)、v+(y+dy)*r/(z+dz))(長さ:単位m)の位置である。コンピュータ上で処理する場合には、長さを画素数に換算するために定倍した座標を電子的な表示座標とする。例えば、HMD画面の大きさがX軸方向に0.02m、Y軸方向に0.015mでHMD画面の画素数が800x600である場合、電子的な表示座標は((u+(x+dx)*r/(z+dz))/0.02m*800, (v+(y+dy)*r/(z+dz))/0.015*600)(ピクセル)となる。
以上、ユーザの右眼について説明したが、左眼についても同様に、対象物による入力操作を特定することができる。ただし、両者での入力操作の特定を1つにするため、HMD画面における操作子の表示を右眼用と左眼用とで少しずらして立体視できるようにする。この場合、この立体視での奥行き位置での対象物の入力操作が認識されるので、上述したように、対象物が三次元位置の所定距離範囲内で取得された場合に入力用操作子を表示させるのがよい。
なお、構成および処理の簡単化のため、ユーザの眼の位置を両眼の真ん中の位置あるいは利き眼の位置と考え、対象物による入力操作を特定するようにすることもできる。
以上実施形態を説明したが、本発明は、上記実施形態に限定されず、種々に変形することができる。例えば、上記実施形態は、本発明を入力位置特定システムとして実現したものであるが、本発明は、システムとしての他、入力位置特定方法、あるいは携帯電話などに搭載してそれを入力位置特定システムとして機能させる入力位置特定用プログラムとしても実現できる。
11・・・二次元画像取得手段、12・・・画像認識手段、13・・・深さ画像取得手段、14・・・三次元位置取得手段、15・・・入力操作認識手段、16・・・入力位置特定手段、17・・・表示制御手段、18・・・表示手段、19・・・入力特定手段

Claims (7)

  1. 複数の操作子を含む入力操作用画面を生成する第1のステップと、
    前記第1のステップにより生成された入力操作用画面を、現実環境の視認が可能な表示面に表示する第2のステップと、
    現実環境の二次元画像データを取得する第3のステップと、
    前記第3のステップにより取得された二次元画像データから対象物の固有情報を認識し、該対象物の二次元画像での二次元位置情報を特定する第4のステップと、
    深さ画像データを取得する第5のステップと、
    前記第4のステップにより特定された対象物の二次元位置情報と前記第5のステップにより取得された深さ画像データから対象物の三次元位置情報を取得する第6のステップと、
    前記第6のステップにより取得された三次元位置情報に基づいて対象物による入力操作を認識する第7のステップと、
    前記第7のステップにより認識された入力操作における対象物が、前記第2のステップによる表示面上で認識される位置を特定する第8のステップと、
    前記第8のステップにより特定された位置と前記第2のステップにより表示された入力操作用画面上の操作子の位置の対応関係から入力操作を特定する第9のステップとを備えたことを特徴とする入力位置特定方法。
  2. 複数の操作子を含む入力操作用画面を生成する表示制御手段と、
    現実環境の視認が可能な表示面を有し、前記表示制御手段により生成された入力操作用画面を表示する表示手段と、
    現実環境の二次元画像データを取得する二次元画像取得手段と、
    前記二次元画像取得手段により取得された二次元画像データから対象物の固有情報を認識し、該対象物の二次元画像での二次元位置情報を特定する画像認識手段と、
    深さ画像データを取得する深さ画像取得手段と、
    前記画像認識手段により特定された対象物の二次元位置情報と前記深さ画像取得手段により取得された深さ画像データから対象物の三次元位置情報を取得する三次元位置取得手段と、
    前記三次元位置取得手段により取得された三次元位置情報に基づいて対象物による入力操作を認識する入力操作認識手段と、
    前記入力操作認識手段により認識された入力操作における対象物が、前記表示手段の表示面上で認識される位置を特定する入力位置特定手段と、
    前記入力位置特定手段により特定された位置と前記表示手段により表示された入力操作用画面上の操作子の位置の対応関係から入力操作を特定する入力操作特定手段とを備えたことを特徴とする入力位置特定システム。
  3. 前記入力操作認識手段は、前記画像認識手段により特定された対象物の二次元位置の軌跡に基づいて入力操作を認識することを特徴とすることを特徴とする請求項2に記載の入力位置特定システム。
  4. 前記入力操作認識手段は、前記三次元位置取得手段により取得された対象物の三次元位置の軌跡に基づいて入力操作を認識することを特徴とすることを特徴とする請求項2に記載の入力位置特定システム。
  5. 前記表示制御手段は、対象物が前記画像認識手段において二次元画像内または二次元画像の所定領域内で認識された場合に入力操作用画面を前記表示手段に表示させることを特徴とする請求項2ないし4のいずれかに記載の入力位置特定システム。
  6. 前記表示制御手段は、対象物が前記三次元位置取得手段において三次元位置の所定距離範囲内で取得された場合に入力操作用画面を前記表示手段に表示させることを特徴とする請求項2ないし5のいずれかに記載の入力位置特定システム。
  7. コンピュータに、
    複数の操作子を含む入力操作用画面を生成する第1の機能と、
    前記第1の機能により生成された入力操作用画面を、現実環境の視認が可能な表示面に表示する第2の機能と、
    現実環境の二次元画像データを取得する第3の機能と、
    前記第3の機能により取得された二次元画像データから対象物の固有情報を認識し、該対象物の二次元画像での二次元位置情報を特定する第4の機能と、
    深さ画像データを取得する第5の機能と、
    前記第4の機能により特定された対象物の二次元位置情報と前記第5の機能により取得された深さ画像データから対象物の三次元位置情報を取得する第6の機能と、
    前記第6の機能により取得された三次元位置情報に基づいて対象物による入力操作を認識する第7の機能と、
    前記第7の機能により認識された入力操作における対象物が、前記第2の機能による表示面上で認識される位置を特定する第8の機能と、
    前記第8の機能により特定された位置と前記第2の機能により表示された入力操作用画面上の操作子の位置の対応関係から入力操作を特定する第9の機能を実現させる入力位置特定用プログラム。
JP2009050621A 2009-03-04 2009-03-04 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム Pending JP2010205031A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009050621A JP2010205031A (ja) 2009-03-04 2009-03-04 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009050621A JP2010205031A (ja) 2009-03-04 2009-03-04 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム

Publications (1)

Publication Number Publication Date
JP2010205031A true JP2010205031A (ja) 2010-09-16

Family

ID=42966436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009050621A Pending JP2010205031A (ja) 2009-03-04 2009-03-04 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム

Country Status (1)

Country Link
JP (1) JP2010205031A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234316A (ja) * 2011-04-28 2012-11-29 Ntt Docomo Inc 表示装置、表示装置の制御方法及びプログラム
WO2014002686A1 (ja) * 2012-06-29 2014-01-03 トーヨーカネツソリューションズ株式会社 物品のピッキング作業の支援装置及びシステム
JP2014115693A (ja) * 2012-12-06 2014-06-26 Mitsubishi Electric Corp 入力装置、情報処理方法、及び情報処理プログラム
JPWO2014045683A1 (ja) * 2012-09-21 2016-08-18 ソニー株式会社 制御装置および記憶媒体
US9715740B2 (en) 2012-10-30 2017-07-25 Samsung Electronics Co., Ltd. Methods of and apparatuses for recognizing motion of objects, and associated systems
KR101844306B1 (ko) * 2015-12-31 2018-04-02 서울대학교산학협력단 디스플레이 보정을 제공하는 머리착용형 디스플레이 장치 및 디스플레이 보정 방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234316A (ja) * 2011-04-28 2012-11-29 Ntt Docomo Inc 表示装置、表示装置の制御方法及びプログラム
WO2014002686A1 (ja) * 2012-06-29 2014-01-03 トーヨーカネツソリューションズ株式会社 物品のピッキング作業の支援装置及びシステム
JPWO2014002686A1 (ja) * 2012-06-29 2016-05-30 トーヨーカネツソリューションズ株式会社 物品のピッキング作業の支援装置及びシステム
US11307411B2 (en) 2012-06-29 2022-04-19 Toyo Kanetsu Solutions K.K. Support device and system for article picking or sorting work
JPWO2014045683A1 (ja) * 2012-09-21 2016-08-18 ソニー株式会社 制御装置および記憶媒体
US10318028B2 (en) 2012-09-21 2019-06-11 Sony Corporation Control device and storage medium
US9715740B2 (en) 2012-10-30 2017-07-25 Samsung Electronics Co., Ltd. Methods of and apparatuses for recognizing motion of objects, and associated systems
US10186045B2 (en) 2012-10-30 2019-01-22 Samsung Electronics Co., Ltd. Methods of and apparatuses for recognizing motion of objects, and associated systems
JP2014115693A (ja) * 2012-12-06 2014-06-26 Mitsubishi Electric Corp 入力装置、情報処理方法、及び情報処理プログラム
KR101844306B1 (ko) * 2015-12-31 2018-04-02 서울대학교산학협력단 디스플레이 보정을 제공하는 머리착용형 디스플레이 장치 및 디스플레이 보정 방법

Similar Documents

Publication Publication Date Title
CN110022470B (zh) 使用合成图像训练对象检测算法的方法和***和存储介质
CN107615214B (zh) 界面控制***、界面控制装置、界面控制方法及程序
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
JP5966510B2 (ja) 情報処理システム
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
WO2013035758A1 (ja) 情報表示システム、情報表示方法、及び記憶媒体
EP3262505B1 (en) Interactive system control apparatus and method
US10579109B2 (en) Control device and control method
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
US20160358380A1 (en) Head-Mounted Device and Method of Enabling Non-Stationary User to Perform 3D Drawing Interaction in Mixed-Reality Space
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP2010205031A (ja) 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム
US20180165853A1 (en) Head-mounted display apparatus and virtual object display system
KR101638550B1 (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
US20220155881A1 (en) Sensing movement of a hand-held controller
JP5215211B2 (ja) 関連情報表示位置特定システムおよび関連情報表示位置特定用プログラム
US10296098B2 (en) Input/output device, input/output program, and input/output method
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
JP2023111956A (ja) オブジェクト姿勢制御プログラムおよび情報処理装置
CN111722401A (zh) 显示装置、显示控制方法以及显示***
JP2013218423A (ja) 指向性映像コントロール装置及びその方法
JP6765846B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7331462B2 (ja) ロボットシステム、ロボット制御方法及び電子装置
JP5520772B2 (ja) 立体画像の表示システム及び表示方法
WO2024064925A1 (en) Methods for displaying objects relative to virtual surfaces