JP2009284175A - 表示デバイスのキャリブレーション方法及び装置 - Google Patents

表示デバイスのキャリブレーション方法及び装置 Download PDF

Info

Publication number
JP2009284175A
JP2009284175A JP2008133515A JP2008133515A JP2009284175A JP 2009284175 A JP2009284175 A JP 2009284175A JP 2008133515 A JP2008133515 A JP 2008133515A JP 2008133515 A JP2008133515 A JP 2008133515A JP 2009284175 A JP2009284175 A JP 2009284175A
Authority
JP
Japan
Prior art keywords
calibration
image
display
marker
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008133515A
Other languages
English (en)
Other versions
JP4681629B2 (ja
Inventor
Tomohiro Yamada
智広 山田
Takashi Fujimura
考 藤村
Masanobu Abe
匡伸 阿部
Junichi Kishigami
順一 岸上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008133515A priority Critical patent/JP4681629B2/ja
Publication of JP2009284175A publication Critical patent/JP2009284175A/ja
Application granted granted Critical
Publication of JP4681629B2 publication Critical patent/JP4681629B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】複雑な光学系を必要とせず、利用者の装着方法にばらつきがあった場合でも容易に実空間のオブジェクト位置とシースルーディスプレイ上のポインタの位置の調整を可能にする。
【解決手段】本発明は、メガネの部分にカメラが配置された装置において、メガネのレンズ部分に配置された表示デバイスの上端及び下端にキャリブレーション用マーカを表示し、各マーカと遠方にあるオブジェクトとを重ね合わせた状態で各一枚の画像を取得し、2枚の画像でキャリブレーション用物体が写りこんでいる座標値を算出し、当該座標値に基づいて上下方向のキャリブレーション用パラメータを求める。
【選択図】図1

Description

本発明は、表示デバイスのキャリブレーション方法及び装置に係り、実世界の映像と仮想空間の映像を重ね合わせて表示するための表示デバイスのキャリブレーション方法及び装置に関する。具体的には、透過型ヘッドマウントディスプレイに代表されるメガネ型の装置の中で、メガネのフレーム部分にカメラを配置した装置の上下方向のキャリブレーション方法・装置に関するものである。
従来の透過型ヘッドマウントディスプレイは、図31に示すように、プリズムとハーフミラーを用い、カメラと表示部(LCD)を視線に対して、光学的に一致させるほう式がある(例えば、非特許文献1参照)。
A. Takagi, S. Yamazaki, Y. Saito and N. Taniguchi, "Development of a stereo video see-through HMD for AR systems," Proc. ISAR 2000, pp.68-77, 2000
しかしながら、上記従来の方式では、光学的に視線を一致させるため、光学系の配置を正確に調整する必要があり、装着方法の自由度がなく、例えば、通常のメガネのように、装着位置がずれてしまう場合の光学系の調整が困難であった。また、ミラーをプリズムの前方に設置するという構成のため、光学系を形成するためのスペースが大きくなり、例えば、通常のメガネのように、日常装着できる大きさで実装するのが困難であった。
ヘッドマウントディスプレイを利用したアプリケーションの中には、多少のずれ、例えば、カメラをメガネのフレームに相当する部分に取り付けた場合に、カメラと目の横の位置のずれについては許容できるアプリケーションもあると考えられる。多少の位置のずれを許容できるアプリケーションのためには、従来技術での光学系を用いた厳密なキャリブレーションではなく、キャリブレーション精度は荒くとも簡便なキャリブレーション方法が適する。
本発明は、上記の点に鑑みなされたもので、複雑な光学系を必要とせず、利用者の装着方法にばらつきがあった場合でも容易に実空間のオブジェクト位置とシースルーディスプレイ上のポインタの位置の調整が可能な表示デバイスのキャリブレーション方法及び装置を提供することを目的とする。
図1は、本発明の原理を説明するための図である。
本発明(請求項1)は、実世界の中のキャリブレーション用マーカを用いてカメラを備え持つ透過型表示デバイスのキャリブレーション方法であって、
記憶手段から少なくとも透過型表示デバイスの上端のいずれかの座標値と、下端のいずれかの座標値の2つの座標値をキャリブレーション用画像表示座標値として持つキャリブレーション用画像表示座標データを読み出して、該透過型表示デバイス上の、該キャリブレーション用画像表示座標データで指定される座標値にキャリブレーション用画像を表示し(ステップ1)、
実世界の中のキャリブレーション用マーカと表示デバイスに表示されたキャリブレーション用画像とが重なって見えるように顔の向きを変えることを該表示デバイスの装着者に指示し(ステップ2)、
実世界の中のキャリブレーション用マーカと表示デバイスに表示されたキャリブレーション用画像とが重なって見えることを示す情報を受信し(ステップ3)、カメラ画像をキャプチャし(ステップ4)、
カメラ画像のキャプチャ画像から実世界の中のキャリブレーション用マーカを検出して該カメラ画像内でのマーカの座標値を算出し(ステップ5)、
マーカの座標値を用いてカメラ画像での座標値と透過型表示デバイスの座標値とのキャリブレーションパラメータを算出する(ステップ6)。
図2は、本発明の原理構成図である。
本発明(請求項2)は、実世界の中のキャリブレーション用マーカを用いてカメラ4を備え持つ透過型表示デバイス3のキャリブレーション装置であって、
少なくとも透過型表示デバイスの上端のいずれかの座標値と、下端のいずれかの座標値の2つの座標値をキャリブレーション用画像表示座標値として持つキャリブレーション用画像表示座標データを格納した記憶手段170と、
記憶手段170からキャリブレーション用画像表示座標データを読み出して、透過型表示デバイス3上の、該キャリブレーション用画像表示座標データで指定される座標値にキャリブレーション用画像を表示するキャリブレーション用画像表示制御手段120と、
実世界の中のキャリブレーション用マーカと透過型表示デバイス3に表示されたキャリブレーション用画像とが重なって見えるように顔の向きを変えることを該表示デバイスの装着者に指示する方向指示手段161と、
実世界の中のキャリブレーション用マーカと表示デバイ3スに表示されたキャリブレーション用画像とが重なって見えることを示す情報を受信し、カメラ画像をキャプチャする映像キャプチャ手段110と、
カメラ画像のキャプチャ画像から実世界の中のキャリブレーション用マーカを検出して該カメラ画像内でのマーカの座標値を算出するマーカ座標値算出手段150と、
マーカの座標値を用いてカメラ画像での座標値と透過型表示デバイス3の座標値とのキャリブレーションパラメータを算出するパラメータ算出手段と160、を有する。
上記のように、本発明によれば、カメラを視線位置と略同じ高さに設置し、キャリブレーションの方向を重畳表示に最も影響が発生する上下方向に限定し、オブジェクト選択を行うことで、複雑な光学系を組む必要がなく、実装スペースの削減が可能になる。また、マーカを使ったキャリブレーションにより、利用者の装着方法にばらつきが合った場開いでも、容易に実空間のオブジェクト位置とシースルーディスプレイ上のポインタの位置の調整が可能となる。
以下、図面と共に本発明の実施の形態を説明する。
[第1の実施の形態]
図3は、本発明の第1の実施の形態における装置構成を示す。
同図に示す装置は、カメラ4、シースルーディスプレイ3、制御部100から構成される。
制御部100は、映像キャプチャ部110、表示位置制御部120、オブジェクト画像抽出部130、ポインタ座標算出部140、マーカ座標算出部150、キャリブレーション部160、記憶部170から構成される。
記憶部170には、シースルーディスプレイ3の装着者が実世界の物体をポインティング際のポインティング動作を一連の画像から検出するために用いるポインティング特徴量、ポインティング動作が検出された座標値(あるいは画像領域)とポインタ座標値との関係(例:ポインティング動作が検出された画像領域の重心位置をポインタ座標値とする)と、そのポインティング動作に対応付けられたアクション(例1:座標値を決定、例:シースルーディスプレイ3に制御部100が持つ操作メニューを表示)を予め記録する。検出対象となるポインティング動作は複数種類あってもよい。
制御部100の映像キャプチャ部110は、カメラ4から入力された画像を解析可能なディジタル信号に変換し、カメラ画像として出力する。
ポインタ座標算出部140は、映像キャプチャ部110でキャプチャされたカメラ画像から記憶部170に記録されているポインティング特徴量を用いて、ポインティング動作を検出する。検出された動作と、画像内での検出位置(座標値や画像領域)に応じて、記憶部170に予め記録された情報に従ってポインタ座標値を算出する。
オブジェクト画像抽出部130は、ポインタ座標算出部140から座標情報を受け取り、受け取った座標値を用いてカメラ画像からオブジェクト画像を抽出視する。例えば、ポインタ座標算出部140から1つの座標のみを受け取った場合には、その座標の周囲の、予め定めた領域を抽出対象領域としてもよい。ポインタ座標算出部140から2つの座標値が与えられた場合、2つの座標値を対角の頂点として持つ矩形領域を抽出対象領域としてもよい。
表示位置制御部120は、ポインタ座標算出部140から受け取った座標値を、キャリブレーションにより求めた変換式を用いて表示用座標値に変換し、シースルーディスプレイ3に表示する。
マーカ座標算出部150は、映像キャプチャ部110でキャプチャされたカメラ画像からキャリブレーションに用いるマーカを検出する。検出されたキャリブレーションに用いるマーカの画像内での重心座標値を、マーカ座標値として出力する。
キャリブレーション部160は、キャリブレーションを行い、カメラ画像の中での座標位置と、シースルーディスプレイでの表示座標位置との対応関係式を算出する。
図4は、本発明の第1の実施の形態におけるキャリブレーション動作のフローチャートである。同図に示す動作は、カメラ画像での座標位置と、表示装置の座標位置との対応関係を算出するものである。
キャリブレーションに用いる実空間上のマーカの種類については、予め定めておいてもよい。例えば、画面中で明るい点光源をマーカに用いることを予め定めておいてもよい。また、シースルーディスプレイ3に初期設定用の画面を表示し、シースルーディスプレイ3の装着者がメニュー形式で選択してもよい。例えば、マーカの選択肢として、"明るい点光源"を含む複数の選択肢を表示し、シースルーディスプレイ3の装着者がメニューの中からマーカの種類を選択することにより、マーカの種類が選択される。
シースルーディスプレイ3の装着者が、制御部100のメニューを用いて、キャリブレーションを開始することにより、キャリブレーションが開始する。以下、シースルーディスプレイ3の装着者がキャリブレーションに用いる種類を指定する場合でのキャリブレーションパラメータを算出する動作を説明する。
ステップ101) キャリブレーション部160は、キャリブレーションのための初期設定を実施する。
まず、キャリブレーション部160は、シースルーディスプレイ3の装着者(以下、ユーザと記す)が指定した、キャリブレーション用のマーカを検出するアルゴリズムを記憶部170から読み出し、マーカ座標算出部150に設定する。
次に、キャリブレーション部160は、記憶部170のキャリブレーション用データからキャリブレーション用画像データと、シースルーディスプレイ上でのキャリブレーション用画像表示座標値データを取得する。キャリブレーション用画像表示座標値データは、シースルーディスプレイ3の上端のいずれかの位置を示す座標値と、下端のいずれかの位置を示す座標値の2つの座標値を含む、2つ以上の座標値からなる。以後の、ステップ102からステップ105までの処理は、キャリブレーション用画像表示座標値データに含まれる、全ての座標値に対して実施される。
ステップ102) キャリブレーション部160は、表示位置制御部120にキャリブレーション用画像データと、シースルーディスプレイ3上でのキャリブレーション用画像表示財表値を受け渡す。表示位置制御部120がシースルーディスプレイ3にキャリブレーション用画像を表示する。
ステップ103) キャリブレーション部160は、シースルーディスプレイ3に表示されたキャリブレーション用画像と、実世界にあるキャリブレーション用マーカ(例えば、遠くの点光源)が重なって見えるように顔の向きを変えて、実世界にあるキャリブレーション用マーカ(例えば、遠くの点光源)が重なって見えたら予め定めた所定のアクションをとるよう、ユーザに指示する。ユーザへの指示方法としては、例えば、シースルーディスプレイに指示内容を示すメッセージを表示する。スピーカを備える装置の場合、スピーカを用いて音声で指示を与えてもよい。
ステップ104) キャリブレーション部160は、ユーザがシースルーディスプレイ3に表示されたキャリブレーション用画像と、実世界にあるキャリブレーション用マーカ(例えば、遠くの点光源)が重なって見える位置にあることを示す所定のアクションをとったことを示すコマンドを受信し、そのコマンドを受信した時点でのカメラ画像を映像キャプチャ部110から取得する。
キャリブレーション用画像と、実世界にあるキャリブレーション用マーカが重なって見える位置にあることを示す所定のアクションとしては、例えば、予めキャリブレーション用画像と、実世界にあるキャリブレーション用マーカが重なって見える位置にあることを示すポインティング動作を定めて、カメラ撮影範囲の中で、ユーザにこのポインティング動作を実施してもらうこととしてもよい。この場合、記憶部170のポインティング特徴量に、実世界にあるキャリブレーション用マーカが重なって見える位置にあることを示す所定のアクションに該当するポインティング特徴量を予め格納し、ポインタ座標算出部140でこのポインティング動作がなされたかどうか、及び、このポインティング動作が行われた座標値を検出する。キャリブレーション部160が、ポインタ座標算出部140よりポインティング動作がなされたかどうかと、このポインティング動作が行われた座標値を受け取る。キャリブレーション部160は、これらの情報を受け取ると、カメラ画像を映像キャプチャ部110から取得する。
ステップ105) キャリブレーション部160は、ステップ104で取得した画像をマーカ座標算出部150に入力して、マーカ座標算出部150からマーカ座標値を取得し、この値を出力する。なお、マーカ座標算出部150は、ステップ104でキャプチャされたカメラ画像の中から、記憶部170に格納されているマーカ特徴量を用いてマーカを抽出し、カメラ画像内でのマーカの座標値を出力とする。
ステップ106) ステップ102からステップ105までの処理を、キャリブレーション用画像表示座標値に含まれるすべての座標値に対して実施したかどうかを判断する。実施していないキャリブレーション用画像表示座標値がある場合には、ステップ102に戻る。全てのキャリブレーション用画像表示座標値に対してステップ102からステップ105までの処理を実施済みの場合は、ステップ107に移行する。
ステップ107)キャリブレーション用画像をシースルーディスプレイ3の上端に表示した場合、下端に表示した場合の2つの場合に対しての、ステップ102でキャリブレーション用画像を表示したシースルーディスプレイ3上での座標位置と、ステップ105で検出したカメラ画像でのマーカの座標位置の組み合わせ(2組の組み合わせ)を用いて、カメラ画像とシースルーディスプレイ3の座標の変換パラメタを算出する。
ステップ106で検出した全ての座標値のうち、キャリブレーション用画像をシースルーディスプレイ3の上端の座標値に表示した場合と、下端の座標値に表示した場合の2つの場合の映像キャプチャ部110で取得した画像上の座標値を算出する。
図5において、抽出した2つの座標値の、上端を(xc1,yc1)、下端を(xc2、yc2)とする。
また、シースルーディスプレイ3の表示デバイスの、鉛直方向の画素数をNとする。このとき、キャリブレーション用パラメータα、βを、
α=yc1
β=│yc1−yc2│/N
として求める。
なお、シースルーディスプレイの表示デバイスの鉛直方向の画素数Nについては、予め記憶部170に格納しておくこととする。
このとき、シースルーディスプレイ3の(xd,yd)の座標値にポインタを表示する場合、シースルーディスプレイの装着者から見て、このポインタが重なって見える物体が、キャプチャ画像の中で写りこんでいる座標位置(xc,yc)は、
xc=xd
yc=yd×β+α
として求めることができる。
このα、βを求めることにより、カメラ座標系と、シースルーディスプレイの座標系のキャリブレーションが実現される。
[第2の実施の形態]
本発明のキャリブレーション技術を用いて表示デバイスのキャリブレーションを実施し、カメラ映像から人の指の特定の形状を検出する処理を加えることで、実空間の物体を選択し、選択された物体に関する情報を検索するアプリケーション(以下、実空間情報検索)に適用した例を示す。
図6は、本発明の第2の実施の形態におけるキャリブレーション装置の構成を示す。
同図に示す装置は、メガネ本体1、シースルーディスプレイ3、カメラ4、制御装置10、無線通信装置20から構成される。
ユーザは、メガネ本体1を装着し、シースルーディスプレイ3を通して、対象オブジェクト2を見る。カメラ4は、ユーザの効き目の近くに配置され、ユーザの効き目で見える画像に近い映像を撮影し、撮影された実空間情報を制御装置10に送る。制御装置10では、カメラ4で撮影されたユーザの指の動き情報あるいは無線通信装置20から取得した加速度センサ情報を利用し、ユーザが選択したオブジェクト属性情報及びオブジェクト位置を含む画像情報を無線通信装置20に送る。無線通信装置20は、入手したオブジェクト属性情報、オブジェクト画像情報に加え、GPS等により取得したユーザの位置情報、無線通信装置が内蔵している時刻情報のいずれかあるいは両方の情報を検索キーとして、遠隔地にあるサーバあるいは、無線通信装置20が保持しているオブジェクト情報を検索する。検索結果は、制御装置10に送信され、制御装置10では、検索結果の表示画像を合成し、シースルーディスプレイ3に表示する。ユーザは、対象オブジェクトに関する検索結果を実際に見ている実空間にオーバレイした情報としてみることができる。
メガネの形状をしており、メガネのレンズ部分に透過型表示デバイスを設置した表示デバイス(「ビデオグラス」と呼ばれることもある)の市販製品としては以下のようなものがある。
・Video Eyeglasses (イスラエル、LUMUS社)
(http://www.lumus-optical.com/index.php?optioon=com_content&task=view&id=9&Itemid=15) "
・Eye-Trek (オリンパス社)
(http://www.watch.impress.co.jp/av/docs/20011010/olymus.htm)
次に、カメラ4、シースルーパネル(ディスプレイ)3の配置について説明する。
図7は、本発明のカメラ、シースルーパネルの配置の例を示す。同図に示すように、利用者の焦点位置とカメラの焦点位置を近くするため、カメラ4は効き目側に配置し、且つ、カメラ4の焦点位置は、利用者の目の焦点位置に近い奥行きになるように配置する。また、オブジェクト選択及びポインタ表示における上下方向の誤差を少なくするため、カメラの焦点位置、シースルーディスプレイ3の中心及び利用者の目の焦点位置は上下方向では一致するように配置する。オブジェクト選択においては、シースルーディスプレイ3とオブジェクトが存在する平面の上下方向の関係を利用し、シースルーディスプレイ上のポインタ位置と実時間のオブジェクト位置を一致させているため、上下方向の誤差を抑えることは有効である。
図8は、本発明の第2の実施の形態における制御装置と無線通信装置の構成を示す。
制御装置10は、映像キャプチャ部11、オブジェクト画像抽出部12、ポインタ座標算出部13、表示位置制御部14、表示情報生成部15からから構成される。
無線通信部20は、検索制御部21、GPS機能部22、日時取得部23、通信制御部24から構成される。
制御装置10の映像キャプチャ部11は、カメラ4から入力された画像を解析可能なディジタル信号に変換する。
オブジェクト画像抽出部12は、ポインタ座標算出部13からの座標情報を使用し、検索対象となるオブジェクトのディジタル情報切り出す。
ポインタ座標算出部13は、映像キャプチャ部11から受け取ったディジタル情報からの指のアクションを検出し、ユーザが選択したオブジェクト位置、あるいは選択したメニュー位置を特定する機能を有する。
図9は、本発明の第2の実施の形態におけるポインタ座標算出部における指検出アルゴリズムを説明するための図(その1)である。
同図のイメージAに示すように、撮影しているカメラの前方で、指先を閉じた後、イメージBのように指の付け根の位置を大きく変えずに、オブジェクトを挟むように人差し指と親指を開く。このアクションは、指が背景に比べて前方にあり、かつ、背景に比べ、画像における変化量が大きいことから、イメージAとイメージBの間の動きについて、イメージCに示すように、動き情報を検出することができる。イメージCに示すように、動きが最大であった場所の終端(黒丸で示す部分)をオブジェクトの上端及び下端として抽出する。
なお、指の動き情報の検出には、例えば、「映情学技報、VIS2001-103, Vol.25, No. 85, pp.47-52 (2001)」で提案されている方法などを利用する(http://www.is.aist.go.jp/weavy/paper/distribution/2001/ITE2001-kurata.pdf)。
図10は、本発明の第2の実施の形態におけるポインタ座標算出部における指検出アルゴリズムを説明するための図(その2)である。
図9に示すアルゴリズムとの違いは、指の動きを検出しやすいように、背景色との識別が容易なマーカを指に装着しているところにある。図9に示すイメージAのように、視界を撮影しているカメラ前方で、指先を閉じた後、イメージBのように指の付け根の位置を大きく変えずに、オブジェクトを挟むように人差し指と親指を開く。撮影した画像からイメージCのようにマーカ部分を抽出し、マーカの上端、下端よりオブジェクトの上端と下端を検出することができる。
図11は、本発明の第2の実施の形態におけるポインタ座標算出部のポインタ座標決定アルゴリズムを説明するための図である。
シースルーディスプレイ3に対して垂直方句をX軸、シースルーディスプレイ3に対して平行でかつ上下方向の軸をY軸として説明する。
(X0,Y0)は目及びカメラ4の焦点位置であり、本説明においては、目及びカメラ4の焦点位置はX軸及びY軸上で略同じであると仮定する。X1はメガネ4に含まれルシースルーディスプレイ3のX軸上の位置を示している。X3はキャプチャ画像上のX軸上の位置を示している。Y0は、焦点位置からシースルーディスプレイ3に下ろした垂線の延長線上のY軸上の位置を示している。(X3,Y1)及び(X3,Y2)は、オブジェクトの上端と下端の座標を示している。(X1,y1)及び(X1,y2)は、シースルーディスプレイ3上でのオブジェクトの上端と下端に対応する座標(X3,yc1)及び(X3,yc2)はカメラ4の画像をキャプチャした画像のうち、シースルーディスプレイ3の上端(X1,a1)及び下端(X1,a2)に対応するX3軸上の位置を示している。
カメラ画像は、メガネ本体1に付属のカメラ4により取得されている画像イメージを示している。
上記の図9、図10に示すアルゴリズムにより検出された指の位置は、カメラ画像上の黒丸の位置に相当する。カメラ画像上の黒丸の位置と、シースルーディスプレイ3上の黒丸の位置の関係は、以下のようにして決定することができる。
Y1=y1×β+α
Y2=y2×β+α
なお、αとβは、第1の実施の形態で算出したものを用いる。本例では、N=│a1−a2│である。従って、表示するポインタ位置は、画像中の指の位置から以下のように算出することができる。
y1=(Y1−α)/β
y2=(Y2−α)/β
表示位置制御部14は、ポインタ座標算出部13から受け取った画像の表示位置の調整及び合成を行う。
表示情報生成部15は、無線通信装置20の検索制御部21から受け取った検索結果の情報を画像情報に変換する。
無線通信装置20の検索制御部21は、制御装置10のオブジェクト画像抽出部12から受け取ったディジタル情報、GPS機能部22から受け取った位置情報及び日時取得部23から受け取った日時情報を使用し、オブジェクト情報の検索指示及び結果受け取りを行う。また、文字認識などの処理の指示を行う。
通信制御部24は、検索制御部21からの指示により、遠隔地にあるサーバとの通信を行う。
次に、上記の構成における動作を説明する。
図13は、本発明の第2の実施の形態におけるオブジェクト選択のフローチャートであり、図14は、当該動作の画面イメージであり、を説明するための図であり、同図(A)のP0は、指の出現を検出した時のポインタの初期位置を示す。同図(B)のP1、P2は指のアクションを検出して得られた人差し指及び親指の先端の位置、P3はマーク表示したエリアの画像をオブジェクト画像抽出部12でキャプチャした画像を表示する位置を示す。
ステップ301)利用者が効き目の前方に指をかざすと、ポインタ座標算出部13において、指の出現を検出し、表示位置制御部14においてP0にポインタを表示する。
ステップ302) 利用者は、人差し指と親指をポインタが見えている位置に移動させ、両指を合わせることにより、ポインタを仮想的につかむ。
ステップ303) 親指と人差し指を閉じたまま、検索対象のオブジェクト位置までポインタを移動させ、オブジェクトの位置で指を開く。
ステップ304) ポインタ座標算出部13において、指の開くアクションを検出し、人差し指及び親指の先端の位置から、上端P1、下端P2を決定する。
ステップ305) 表示位置制御部14は、上端P1、下端P2に囲まれた円形あるいは正方形のエリアにマークを表示する。
ステップ306) マーク表示したエリアの画像をオブジェクト画像抽出部12でキャプチャする。
ステップ307) キャプチャした画像をP3位置に表示する。
図14は、本発明の第2の実施の形態におけるオブジェクト検索動作のフローチャートであり、図15、図16は、オブジェクト検索のイメージ図である。図15(A)のQ0は、対象オブジェクトの種別リストの選択画面の表示位置を示しており、図15(B)のQ1は、選択された所望のオブジェクト種別の背景色を変更して表示する位置を示している。図16(C)のR0は、検索結果の表示位置を示している。図16(D)のR1は選択した所望のオブジェクト候補の位置、S1は、オブジェクト情報の表示位置を示している。
ステップ401) 上記の図12の処理により、オブジェクトを選択後、利用者が再び指を閉じると、オブジェクト画像抽出部12において、指を再び閉じるアクションを検出し、表示位置制御部14において対象オブジェクトの種別リストの選択画面を表示位置Q0に表示する。
ステップ402) 利用者が指でポインタを掴み、ポインタをQ0に移動させる。
ステップ403) 利用者は、指を開いて、再び閉じることで、所望のオブジェクト種別Q1を選択する。
ステップ404) 無線通信装置20の検索制御部21は、日時取得部23、GPS機能部22から現在の日時、場所を取得する。
ステップ405) 無線通信装置20の検索制御部21は、オブジェクト種別から対象DBを決定し、キャプチャ画像、日時、場所からオブジェクト情報を検索する。
ステップ406) 制御装置20の表示情報生成部15は、検索制御部21から検索結果を受け取ると、画像情報に変換し、シースルーディスプレイ3のR0の位置に類似度の高い順に候補を出力する。
ステップ407) 指でポインタを掴み、ポインタをシースルーディスプレイ3のR1に移動させ、指を開いて、再び閉じることで、詳細情報をシースルーディスプレイ3のS1に表示する。
次に、オブジェクト種別として、文字あるは看板を選択した場合の動作を説明する。
図17は、本発明の第2の実施の形態における文字認識動作のフローチャートであり、図18、図19は、文字認識のイメージ図である。図18(A)のQ0は、対象オブジェクトの種別リストの選択画面の表示位置を示しており、同図(B)のQ1は、選択された所望のオブジェクト種別の背景色を変更して表示する位置を示している。図19(C)のR0は、検索結果の表示位置を示しており、同図(D)のR1は選択した所望のオブジェクト候補の位置、S1はオブジェクト情報の表示位置を示している。
ステップ501) 対象オブジェクトを含む画像が表示され、指を再び閉じるアクションを検出し、対象オブジェクトの種別リストの選択画面を表示位置Q0(図18(A))に表示する。
ステップ502) 利用者は、指でポインタをつまみ、ポインタをQ0に移動させる。
ステップ503) 指を開いて、再び閉じることで所望のオブジェクト種別Q1(看板、あるいはラベル(図18(B))を選択する。
ステップ504) 対象オブジェクト領域に対して文字認識を実施し、認識結果候補を信頼性の高い順にR0(図19(C))に表示する。
ステップ505) R0のエリアに類似度の高い順に候補を表示する。
ステップ506) 指でポインタをつまみ、ポインタをR1(図19(D))に移動させる。
ステップ507) 再び指を閉じることで、商品、店舗、駅などの検索を実施し、検索結果をS0(図19(D))に表示する。
[第3の実施の形態]
本実施の形態は、前述の第2の実施の形態における図8の無線通信装置20の構成に加速度センサ及び操作部を設けた点において、第2の実施の形態と異なる。
図20は、本発明の第3の実施の形態における制御装置と無線通信装置の構成を示す。同図において、図8と同一構成部分には同一符号を付し、その説明を省略する。
図20に示す無線通信装置20は、図8の構成に、加速度センサ25と操作部26が付加された構成である。加速度センサ25と操作部26は、図21に示すように、タッチパネル34の下部に、利用者がポインタ位置を決定するための決定ボタン31、ポインタ位置を解除し、再設定するためのキャンセルボタン32、オブジェクト選択を最初からやり直すためのホームポジションボタン33を有し、タッチパネル34の上部に加速センサ25とGPS機能部22を設けた構成である。
図8におけるポインタ座標算出部13は、指のアクションを検出し、ユーザが選択したオブジェクト位置、あるいは、選択したメニュー位置を特定していたが、本実施の形態では、加速度センサ25からの動き情報により、ユーザが選択したオブジェクト位置、あるいは、選択したメニュー位置を特定する。
加速度センサ25は、無線通信装置20の動きを検出し、ポインタ座標算出部13に送る。操作部26は、ユーザが決定ボタン31を押したことを検出し、操作情報をポインタ座標算出部13に送る。ポインタ座標算出部13では、加速度センサ25からの動きをシースルーディスプレイ平面状の動きに射影変換する。
次に、本実施の形態におけるポインタ座標算出部13の動作を説明する。
図22は、本発明の第3の実施の形態におけるポインタ座標算出部におけるポインタ座標からの画像抽出範囲の決定アルゴリズムを示している。
図20に示す構成の場合は、カメラ画像からポインタ位置を検出するのではなく、無線通信装置20に付属している加速度センサ25によりシースルーディスプレイ3に表示されているポインタを動かして、オブジェクトを選択するため、ポインタ位置から、カメラ画像上の対応するオブジェクト位置を決定する必要がある。(X0,Y0)は目及びカメラ4の焦点位置であり、本発明においては、目及びカメラ4の焦点位置はX軸及びY軸上で、略同じであると仮定する。X1は、メガネ1に含まれるシースルーディスプレイ3のX軸上の位置を示している。X3はオブジェクトが存在するX軸上の位置を示している。Y0は、焦点位置からシースルーディスプレイに下ろした垂線の延長線上のY軸上の位置を示している。(X3,Y1)及び(X3,Y2)は、オブジェクトの上端と下端の座標を示している。(X1,y1)及び(X1,y2)は、シースルーディスプレイ3上でのオブジェクトの上端と下端に対応する座標を示している。(X3,yc1)及び(X3,yc2)は、カメラ4の画像をキャプチャした画像のうち、シースルーディスプレイ3の上端(X1,a1)及び下端(X1,a2)に対応するX3軸上の位置を示している。カメラ画像は、カメラ4により取得されている画像イメージを示している。
(X1,a1)及び(X1,a2)は、利用者が無線通信装置20の決定ボタンを押下することによって座標が決まる。カメラ画像上のオブジェクトの位置は以下のように算出される。
Y1=y1×β+α
Y2=y2×β+α
なお、αとβは第1の実施の形態で算出したものを用いる。本例では、N=│a1−a2│である。
図23は、本発明の第2の実施の形態におけるオブジェクト選択時のフローチャートであり、図24は、オブジェクト選択のイメージ図であり、図24(A)のP0は無線通信装置20の決定ボタン31を押下したときのポインタの初期位置を示す。同図(B)のP1、P2は、無線通信装置20でポインタを移動させ、決定ボタン31の押下で設定したオブジェクトの上端と下端の位置、P3はマーク表示したエリアの画像をオブジェクト画像抽出部12でキャプチャした画像を表示する位置を示す。
ステップ601) ユーザが無線通信装置20の決定ボタン31を押下すると、P0(図24(A))にポインタを表示する。
ステップ602) 加速度センサ25付きの無線通信装置20を動かすことにより、検索対象のオブジェクト位置までポインタを左右上下に移動させる。
ステップ603) 加速度センサ25から情報により、ポインタがその表示位置をP1(図24(B))に移動させる。
ステップ604) オブジェクトの上端P1で無線通信装置20の決定ボタン31を押下して、オブジェクトの上端を決定する。
ステップ605) 加速度センサ25からの情報により、ポインタ画像の中心位置をP2(図24(B))に移動する。
ステップ606) 再び、加速度センサ25付きの無線通信装置20をオブジェクトの下端P2に移動させ、P2を決定し、選択されたエリアであることを示すために、P1,P2に囲まれた円形あるいは正方形のエリアにマークを表示する。
ステップ607) 決定されたP1,P2に囲まれた領域の画像を対象オブジェクトとしてキャプチャし、キャプチャした画像をP3(図24(B))位置に表示する。
ステップ608) P1,P2に囲まれた領域に選択したことを示すマークを表示する。
次に、オブジェクト検索動作時の例を説明する。
図25は、本発明の第3の実施の形態におけるオブジェクト検索時のフローチャートであり、図26,図27はオブジェクト検索のイメージ図である。図26(A)のQ0は、対象オブジェクトの種別リストの選択画面の表示位置を示している。図26(B)のQ1は、選択された所望のオブジェクト種別の背景色を変更して表示する位置を示している。図27(C)のR0は検索結果の表示位置を示している。同図(D)のR1は、選択した所望のオブジェクト候補の位置、S1はオブジェクト情報の表示位置を示している。
ステップ701) 対象オブジェクトを含む画像が表示されると、当該対象オブジェクトの種別リストの選択画面を表示位置Q0(図26(A))に表示する。
ステップ702) 加速度センサ25付きの無線通信装置20を移動させ、ポインタをQ0に移動する。
ステップ703) 無線通信装置20の決定ボタン31を押下して、所望のオブジェクト種別Q1(図26(B))を選択する。
ステップ704) 検索制御部21は、日時取得部23、GPS機能部22から日時及び場所の情報を取得する。
ステップ705) 検索制御部21は、オブジェクト種別から対象DBを決定し、キャプチャ画像、日時、場所から候補を検索する。
ステップ706) 表示情報生成部15は、R0(図27(C))の位置に類似度の高い順に候補を出力する。
ステップ707) 加速度センサ25付き無線通信装置20を移動させ、ポインタR0(図27(C))の位置に類似度の高い順に候補を出力する。
ステップ708) 無線通信装置20を移動させ、ポインタをR1(図27(D))に移動させ、無線通信装置20の決定ボタン31を押下すると、詳細情報をS0(図27(D))に表示する。
次に、オブジェクト種別として文字あるいは看板を選択した場合について説明する。
図28は、本発明の第3の実施の形態における文字認識動作のフローチャートであり、図29、図30は、文字認識動作時の画面イメージを示す。図29(A)のQ0は対象オブジェクトの種別リストの選択画面の表示位置を示し、図29(B)のQ1は選択された所望のオブジェクト種別の背景色を変更して表示する位置を示し、図30(C)のR0は、検索結果の表示位置を示し、図30(D)のR1は選択した所望のオブジェクト候補の位置、S1はオブジェクト情報の表示位置を示している。
ステップ801) 対象オブジェクトの種別リストの選択画面を表示位置Q0(図29(A))に表示する。
ステップ802) 加速度センサ25付きの無線通信装置20を移動させ、ポインタをQ0に移動させる。
ステップ803) 無線通信装置20の決定ボタン31を押下して所望のオブジェクト種別Q1(看板あるいはラベル)を選択する。
ステップ804) オブジェクト画像抽出部12は、対象オブジェクトエリアから看板あるいはラベル候補を抽出する。
ステップ805) 対象オブジェクト領域に対して文字認識を実施し、認識結果候補を信頼性高い順にR0(図30(C))に表示する。
ステップ806) 加速度センサ25付き無線通信装置20を移動させ、ポインタをR1(図30(D))に移動する。
ステップ807) 無線通信装置20の決定ボタン31を押下すると、検索制御部21において翻訳あるいは、商品、店舗、駅などの検索を実施する。
ステップ808) 表示情報生成部15は、S0(図30(D))に翻訳結果や検索結果を表示する。
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
本発明は、キャリブレーション技術に適用可能である。
本発明の原理を説明するための図である。 本発明の原理構成図である。 本発明の第1の実施の形態におけるキャリブレーション装置構成図である。 本発明の第1の実施の形態におけるキャリブレーション動作のフローチャートである。 本発明の第1の実施の形態における座標値を説明するための図である。 本発明の第2の実施の形態におけるキャリブレーション装置の構成図である。 本発明の第2の実施の形態におけるカメラ、シースルーパネル配置の例である。 本発明の第2の実施の形態における制御装置と無線通信装置の構成図である。 本発明の第2の実施の形態におけるポインタ算出部における指検出アルゴリズムを説明するための図(その1)である。 本発明の第2の実施の形態におけるポインタ算出部における指検出アルゴリズムを説明するための図(その2)である。 本発明の第2の実施の形態におけるポインタ座標算出部のポインタ表示位置決定アルゴリズムを説明するための図である。 本発明の第2の実施の形態におけるオブジェクト選択動作のフローチャートである。 本発明の第2の実施の形態におけるオブジェクト選択動作の画面イメージである。 本発明の第2の実施の形態におけるオブジェクト検索動作のフローチャートである。 本発明の第2の実施の形態におけるオブジェクト検索動作の画面イメージ(sの1)である。 本発明の第2の実施の形態におけるオブジェクト検索動作の画面イメージ(その2)である。 本発明の第2の実施の形態における文字認識動作のフローチャートである。 本発明の第2の実施の形態における文字認識動作の画面イメージ(その1)である。 本発明の第2の実施の形態における文字認識動作の画面イメージ(その2)である。 本発明の第3の実施の形態における制御装置と無線通信装置の構成図である。 本発明の第3の実施の形態における無線通信装置の配置の例である。 本発明の第3の実施の形態におけるポインタ位置からの画像抽出処理を説明するための図である。 本発明の第3の実施の形態におけるオブジェクト選択時のフローチャートである。 本発明の第3の実施の形態におけるオブジェクト選択動作の画面イメージである。 本発明の第3の実施の形態におけるオブジェクト検索時のフローチャートである。 本発明の第3の実施の形態におけるオブジェクト検索動作の画面イメージ(その1)である。 本発明の第3の実施の形態におけるオブジェクト検索動作の画面イメージ(その2)である。 本発明の第3の実施の形態における文字認識動作のフローチャートである。 本発明の第3の実施の形態における文字認識動作の画面イメージ(その1)である。 本発明の第3の実施の形態における文字認識動作の画面イメージ(その2)である。 従来の透過型ヘッドマウントディスプレイの構成図である。
符号の説明
1 メガネ本体
2 対象オブジェクト
3 透過型表示デバイス、シースルーディスプレイ
4 カメラ
10 制御装置
11 映像キャプチャ部
12 オブジェクト画像抽出部
13 ポインタ座標算出部
14 表示位置制御部
15 表示情報性西部
20 無線通信装置
21 検索制御部
22 GPS機能部
23 日時取得部
24 通信制御部
25 加速度センサ
26 操作部
31 決定ボタン
32 キャンセルボタン
33 ホームポジションボタン
34 タッチパネル
100 制御装置
110 映像キャプチャ手段、映像キャプチャ部
120 キャリブレーション用画像表示制御手段、表示位置制御部
130 オブジェクト画像抽出部
140 ポインタ座標算出部
150 マーカ座標値算出手段、マーカ座標算出部
160 パラメータ算出手段、キャリブレーション部
161 方向指示手段
170 記憶手段、記憶部

Claims (2)

  1. 実世界の中のキャリブレーション用マーカを用いてカメラを備え持つ透過型表示デバイスのキャリブレーション方法であって、
    記憶手段から少なくとも透過型表示デバイスの上端のいずれかの座標値と、下端のいずれかの座標値の2つの座標値をキャリブレーション用画像表示座標値として持つキャリブレーション用画像表示座標データを読み出して、該透過型表示デバイス上の、該キャリブレーション用画像表示座標データで指定される座標値にキャリブレーション用画像を表示し、
    実世界の中のキャリブレーション用マーカと前記表示デバイスに表示された前記キャリブレーション用画像とが重なって見えるように顔の向きを変えることを該表示デバイスの装着者に指示し、
    前記実世界の中のキャリブレーション用マーカと前記表示デバイスに表示されたキャリブレーション用画像とが重なって見えることを示す情報を受信し、カメラ画像をキャプチャし、
    前記カメラ画像のキャプチャ画像から前記実世界の中のキャリブレーション用マーカを検出して該カメラ画像内でのマーカの座標値を算出し、
    前記マーカの座標値を用いて前記カメラ画像での座標値と前記透過型表示デバイスの座標値とのキャリブレーションパラメータを算出する
    ことを特徴とする表示デバイスのキャリブレーション方法。
  2. 実世界の中のキャリブレーション用マーカを用いてカメラを備え持つ透過型表示デバイスのキャリブレーション装置であって、
    少なくとも透過型表示デバイスの上端のいずれかの座標値と、下端のいずれかの座標値の2つの座標値をキャリブレーション用画像表示座標値として持つキャリブレーション用画像表示座標データを格納した記憶手段と、
    前記記憶手段から前記キャリブレーション用画像表示座標データを読み出して、前記透過型表示デバイス上の、該キャリブレーション用画像表示座標データで指定される座標値にキャリブレーション用画像を表示するキャリブレーション用画像表示制御手段と、
    実世界の中のキャリブレーション用マーカと前記透過型表示デバイスに表示された前記キャリブレーション用画像とが重なって見えるように顔の向きを変えることを該表示デバイスの装着者に指示する方向指示手段と、
    前記実世界の中のキャリブレーション用マーカと前記表示デバイスに表示されたキャリブレーション用画像とが重なって見えることを示す情報を受信し、カメラ画像をキャプチャする映像キャプチャ手段と、
    前記カメラ画像のキャプチャ画像から前記実世界の中のキャリブレーション用マーカを検出して該カメラ画像内でのマーカの座標値を算出するマーカ座標値算出手段と、
    前記マーカの座標値を用いて前記カメラ画像での座標値と前記透過型表示デバイスの座標値とのキャリブレーションパラメータを算出するパラメータ算出手段と、
    を有することを特徴とする表示デバイスのキャリブレーション装置。
JP2008133515A 2008-05-21 2008-05-21 表示デバイスのキャリブレーション方法及び装置 Active JP4681629B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008133515A JP4681629B2 (ja) 2008-05-21 2008-05-21 表示デバイスのキャリブレーション方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008133515A JP4681629B2 (ja) 2008-05-21 2008-05-21 表示デバイスのキャリブレーション方法及び装置

Publications (2)

Publication Number Publication Date
JP2009284175A true JP2009284175A (ja) 2009-12-03
JP4681629B2 JP4681629B2 (ja) 2011-05-11

Family

ID=41454175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008133515A Active JP4681629B2 (ja) 2008-05-21 2008-05-21 表示デバイスのキャリブレーション方法及び装置

Country Status (1)

Country Link
JP (1) JP4681629B2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013128612A1 (ja) * 2012-03-01 2013-09-06 パイオニア株式会社 ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
WO2013145147A1 (ja) * 2012-03-28 2013-10-03 パイオニア株式会社 ヘッドマウントディスプレイ及び表示方法
CN103389580A (zh) * 2012-05-09 2013-11-13 索尼公司 显示装置和图像显示方法
JP2014106642A (ja) * 2012-11-26 2014-06-09 Kddi Corp 光学式シースルー型hmdを用いたarシステム
KR20140090549A (ko) * 2013-12-10 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 디바이스 및 그 제어 방법
JP2014170374A (ja) * 2013-03-04 2014-09-18 Kddi Corp 光学式シースルー型hmdを用いたarシステム
JP2014183554A (ja) * 2013-03-21 2014-09-29 Ntt Docomo Inc 表示装置
JP2015060071A (ja) * 2013-09-18 2015-03-30 コニカミノルタ株式会社 画像表示装置、画像表示方法、および画像表示プログラム
JP2016009912A (ja) * 2014-06-23 2016-01-18 富士通株式会社 キャリブレーション装置、キャリブレーション方法、表示制御装置および表示制御方法
JP2016057634A (ja) * 2015-11-19 2016-04-21 パイオニア株式会社 ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP2016092567A (ja) * 2014-11-04 2016-05-23 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016186658A (ja) * 2016-07-14 2016-10-27 セイコーエプソン株式会社 頭部装着型表示装置および方法
JP2017041766A (ja) * 2015-08-20 2017-02-23 株式会社Jvcケンウッド 頭外定位処理装置、及びフィルタ選択方法
JP2017102269A (ja) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム
JP2017215597A (ja) * 2017-07-13 2017-12-07 パイオニア株式会社 情報表示方法及び情報表示装置
JP2018073071A (ja) * 2016-10-28 2018-05-10 京セラドキュメントソリューションズ株式会社 情報処理装置
JP2018078448A (ja) * 2016-11-09 2018-05-17 セイコーエプソン株式会社 プログラム、頭部装着型表示装置
US10018846B2 (en) 2012-01-24 2018-07-10 Sony Corporation Display device
WO2019004565A1 (ko) * 2017-06-29 2019-01-03 주식회사 맥스트 증강현실 객체의 정합을 위한 캘리브레이션 방법 및 이를 수행하기 위한 헤드 마운트 디스플레이
US10642040B2 (en) 2014-03-17 2020-05-05 Sony Corporation Display apparatus and optical apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764709A (ja) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd 指示処理装置
JP2002229730A (ja) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764709A (ja) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd 指示処理装置
JP2002229730A (ja) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10018846B2 (en) 2012-01-24 2018-07-10 Sony Corporation Display device
WO2013128612A1 (ja) * 2012-03-01 2013-09-06 パイオニア株式会社 ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
WO2013145147A1 (ja) * 2012-03-28 2013-10-03 パイオニア株式会社 ヘッドマウントディスプレイ及び表示方法
US9972135B2 (en) 2012-05-09 2018-05-15 Sony Corporation Display instrument and image display method
CN103389580A (zh) * 2012-05-09 2013-11-13 索尼公司 显示装置和图像显示方法
US10540822B2 (en) 2012-05-09 2020-01-21 Sony Corporation Display instrument and image display method
JP2014106642A (ja) * 2012-11-26 2014-06-09 Kddi Corp 光学式シースルー型hmdを用いたarシステム
JP2014170374A (ja) * 2013-03-04 2014-09-18 Kddi Corp 光学式シースルー型hmdを用いたarシステム
JP2014183554A (ja) * 2013-03-21 2014-09-29 Ntt Docomo Inc 表示装置
JP2015060071A (ja) * 2013-09-18 2015-03-30 コニカミノルタ株式会社 画像表示装置、画像表示方法、および画像表示プログラム
KR102083963B1 (ko) * 2013-12-10 2020-04-14 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 디바이스 및 그 제어 방법
KR20140090549A (ko) * 2013-12-10 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 디바이스 및 그 제어 방법
US10642040B2 (en) 2014-03-17 2020-05-05 Sony Corporation Display apparatus and optical apparatus
JP2016009912A (ja) * 2014-06-23 2016-01-18 富士通株式会社 キャリブレーション装置、キャリブレーション方法、表示制御装置および表示制御方法
JP2016092567A (ja) * 2014-11-04 2016-05-23 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2017041766A (ja) * 2015-08-20 2017-02-23 株式会社Jvcケンウッド 頭外定位処理装置、及びフィルタ選択方法
US10412530B2 (en) 2015-08-20 2019-09-10 Jvckenwood Corporation Out-of-head localization processing apparatus and filter selection method
JP2016057634A (ja) * 2015-11-19 2016-04-21 パイオニア株式会社 ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP2017102269A (ja) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム
JP2016186658A (ja) * 2016-07-14 2016-10-27 セイコーエプソン株式会社 頭部装着型表示装置および方法
JP2018073071A (ja) * 2016-10-28 2018-05-10 京セラドキュメントソリューションズ株式会社 情報処理装置
JP2018078448A (ja) * 2016-11-09 2018-05-17 セイコーエプソン株式会社 プログラム、頭部装着型表示装置
WO2019004565A1 (ko) * 2017-06-29 2019-01-03 주식회사 맥스트 증강현실 객체의 정합을 위한 캘리브레이션 방법 및 이를 수행하기 위한 헤드 마운트 디스플레이
JP2017215597A (ja) * 2017-07-13 2017-12-07 パイオニア株式会社 情報表示方法及び情報表示装置

Also Published As

Publication number Publication date
JP4681629B2 (ja) 2011-05-11

Similar Documents

Publication Publication Date Title
JP4681629B2 (ja) 表示デバイスのキャリブレーション方法及び装置
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
US11087728B1 (en) Computer vision and mapping for audio applications
US9651782B2 (en) Wearable tracking device
US11029762B2 (en) Adjusting dimensioning results using augmented reality
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
CN105339870B (zh) 用于提供虚拟输入界面的方法和可穿戴装置
WO2022005693A1 (en) Augmented reality experiences using speech and text captions
WO2015105044A1 (ja) インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびプログラム記憶媒体
CN108027654B (zh) 输入设备、输入方法和程序
JP2017102768A (ja) 情報処理装置、表示装置、情報処理方法、及び、プログラム
JP2011128220A (ja) 情報提示装置、情報提示方法及びプログラム
KR101343748B1 (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
CN104364733A (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
JPWO2014141504A1 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
US20150015542A1 (en) Control Method And Electronic Device
KR102360176B1 (ko) 웨어러블 디바이스에서 가상의 입력 인터페이스를 제공하는 방법 및 이를 위한 웨어러블 디바이스
CN111507246A (zh) 通过手势选定标记对象的方法、装置、***及存储介质
JP2017016599A (ja) 表示装置、表示装置の制御方法、及び、プログラム
CN103713387A (zh) 电子设备和采集方法
KR20150068276A (ko) 헤드 마운트 디스플레이 및 그 제어 방법
CN106662911A (zh) 在媒体中使用参考帧的注视检测器
EP3951561A1 (en) Information processing device, information processing method, and program
KR20240028897A (ko) HMD(head mounted display) 장치에서 가상키보드를 표시하는 방법 및 장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110204

R150 Certificate of patent or registration of utility model

Ref document number: 4681629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350