JP5844880B2 - ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 - Google Patents

ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP5844880B2
JP5844880B2 JP2014501911A JP2014501911A JP5844880B2 JP 5844880 B2 JP5844880 B2 JP 5844880B2 JP 2014501911 A JP2014501911 A JP 2014501911A JP 2014501911 A JP2014501911 A JP 2014501911A JP 5844880 B2 JP5844880 B2 JP 5844880B2
Authority
JP
Japan
Prior art keywords
image
calibration
display device
user
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014501911A
Other languages
English (en)
Other versions
JPWO2013128612A1 (ja
Inventor
雄悟 石川
雄悟 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2013128612A1 publication Critical patent/JPWO2013128612A1/ja
Application granted granted Critical
Publication of JP5844880B2 publication Critical patent/JP5844880B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、ヘッドマウントディスプレイの技術分野に関する。
従来から、ヘッドマウントディスプレイなどを用いて、現実空間に対して仮想の画像を重ね合わせて表示するAR(Augmented Reality)に関する技術が提案されている。また、このようなARに関して、現実空間と仮想空間との間の位置姿勢合わせ(校正)を行う技術が提案されている。例えば、特許文献1には、ユーザの姿勢と、位置および姿勢を計測するセンサの値とを用いて、校正を行う技術が開示されている。具体的には、当該技術では、ユーザに表示とマーカとが一致するような姿勢を取らせることで、校正を行っている。このようなマーカを用いて校正を行う技術は、これ以外にも、例えば特許文献2及び非特許文献1乃至3に開示されている。更に、例えば特許文献3には、ディスプレイの表示と風景とが一致するように、ユーザがボタンを操作してディスプレイの表示を変換することで校正を行う技術が開示されている。
特開2002−229730号公報 特開2009−284175号公報 特開2011−2753号公報
加藤博一,Mark Billinghurst,浅野浩一,橘啓八郎,"マーカー追跡に基づく拡張現実感システムとそのキャリブレーション",日本バーチャルリアリティ学会論文誌,Vol. 4 (1999),No. 4,pp.607-616 Mihran Tuceryan,Yakup Genc,Nassir Navab,Single point active alignment method (SPAAM) for optical see-through HMD calibration for augmented reality,Teleoperators and Virtual Environments,Vol. 11,Issue 3,pp. 259-276,June 2002,published by the MIT Press 佐藤清秀,山本裕之事,田村秀行,カメラと3次元センサの組み合わせによる現実空間と仮想空間の位置合わせ手法,TVRSJ VoL4 No.i,pp.295-302
しかしながら、上記の特許文献1乃至3および非特許文献1乃至3に記載された技術では、校正を行う場合に、現実空間と仮想空間との位置関係を調整するための所定の作業をユーザに課していたため、ユーザにとって手間であった。
本発明が解決しようとする課題は上記のようなものが例として挙げられる。本発明は、容易に校正を行うことが可能なヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体を提供することを課題とする。
請求項1に記載の発明では、撮影手段及び光学透過可能な画像表示デバイスを有し、前記撮影手段の撮影画像に基づく情報を前記画像表示デバイス上で視認させるヘッドマウントディスプレイは、前記撮影手段によって撮影された、前記ヘッドマウントディスプレイを装着したユーザの鏡像の撮影画像に基づいて、前記画像表示デバイスを介して観察される観察対象と前記情報との前記ユーザの視界における位置関係を調整するための校正を行う校正手段を備え、前記校正手段は、前記鏡像の撮影画像に含まれる前記撮影手段及び前記ユーザの眼球の位置関係に基づいて、前記撮影手段にて規定される座標系から前記画像表示デバイスにて規定される座標系へ座標変換するために用いられる座標変換パラメータを求めることで、前記校正を行い、前記校正手段は、前記鏡像の撮影画像から、前記ユーザの眼球の実像における中心位置を推定する第1推定手段と、前記第1推定手段によって推定された前記中心位置に基づいて、前記撮影手段にて規定される座標系の座標を、前記ユーザの眼球にて規定される座標系の座標へ変換するための第1パラメータを、前記座標変換パラメータの1つとして求める第1パラメータ算出手段と、前記第1推定手段によって推定された前記中心位置に基づいて、前記ユーザの眼球にて規定される座標系の座標を前記画像表示デバイスに投影するための第2パラメータを、前記座標変換パラメータの1つとして求める第2パラメータ算出手段と、を備える。

請求項9に記載の発明では、撮影手段及び光学透過可能な画像表示デバイスを有し、前
記撮影手段の撮影画像に基づく情報を前記画像表示デバイス上で視認させるヘッドマウン
トディスプレイによって実行される校正方法は、前記撮影手段によって撮影された、前記
ヘッドマウントディスプレイを装着したユーザの鏡像の撮影画像に基づいて、前記画像表
示デバイスを介して観察される観察対象と前記情報との前記ユーザの視界における位置関係を調整するための校正を行う校正工程を備え、前記校正工程は、前記鏡像の撮影画像に含まれる前記撮影手段及び前記ユーザの眼球の位置関係に基づいて、前記撮影手段にて規定される座標系から前記画像表示デバイスにて規定される座標系へ座標変換するために用いられる座標変換パラメータを求めることで、前記校正を行い、前記校正工程は、前記鏡像の撮影画像から、前記ユーザの眼球の実像における中心位置を推定する第1推定工程と、前記第1推定工程によって推定された前記中心位置に基づいて、前記撮影手段にて規定される座標系の座標を、前記ユーザの眼球にて規定される座標系の座標へ変換するための第1パラメータを、前記座標変換パラメータの1つとして求める第1パラメータ算出工程と、前記第1推定工程によって推定された前記中心位置に基づいて、前記ユーザの眼球にて規定される座標系の座標を前記画像表示デバイスに投影するための第2パラメータを、前記座標変換パラメータの1つとして求める第2パラメータ算出工程と、を備える。
請求項10に記載の発明では、撮影手段及び光学透過可能な画像表示デバイスを有し、前記撮影手段の撮影画像に基づく情報を前記画像表示デバイス上で視認させると共に、コンピュータを備えるヘッドマウントディスプレイによって実行される校正プログラムは、前記撮影手段によって撮影された、前記ヘッドマウントディスプレイを装着したユーザの鏡像の撮影画像に基づいて、前記画像表示デバイスを介して観察される観察対象と前記情報との前記ユーザの視界における位置関係を調整するための校正を行う校正手段、として前記コンピュータを機能させ、前記校正手段は、前記鏡像の撮影画像に含まれる前記撮影手段及び前記ユーザの眼球の位置関係に基づいて、前記撮影手段にて規定される座標系から前記画像表示デバイスにて規定される座標系へ座標変換するために用いられる座標変換パラメータを求めることで、前記校正を行い、前記校正手段は、前記鏡像の撮影画像から、前記ユーザの眼球の実像における中心位置を推定する第1推定手段と、前記第1推定手段によって推定された前記中心位置に基づいて、前記撮影手段にて規定される座標系の座標を、前記ユーザの眼球にて規定される座標系の座標へ変換するための第1パラメータを、前記座標変換パラメータの1つとして求める第1パラメータ算出手段と、前記第1推定手段によって推定された前記中心位置に基づいて、前記ユーザの眼球にて規定される座標系の座標を前記画像表示デバイスに投影するための第2パラメータを、前記座標変換パラメータの1つとして求める第2パラメータ算出手段と、を備える。
本実施例に係るHMDの概略構成を示すブロック図である。 本実施例に係るHMDの全体構成を概略的に示した図である。 本実施例に係るHMDの画像表示デバイスの概略構成を示す側面図である。 提示情報がずれた位置に表示されてしまうといった問題点を説明するための図を示す。 本実施例に係る校正方法の概要を説明するための図を示す。 本実施例で用いる座標系を説明するための図を示す。 本実施例に係る座標変換方法を示すフローチャートである。 目座標系での座標と投影座標との関係を示す。 本実施例に係る座標変換パラメータの算出方法を示すフローチャートである。
本発明の1つの観点では、撮影手段及び光学透過可能な画像表示デバイスを有し、前記撮影手段の撮影画像に基づく情報を前記画像表示デバイス上で視認させるヘッドマウントディスプレイは、前記撮影手段によって撮影された、前記ヘッドマウントディスプレイを装着したユーザの鏡像の撮影画像に基づいて、前記画像表示デバイスを介して観察される観察対象と前記情報との前記ユーザの視界における位置関係を調整するための校正を行う校正手段を備える。
上記のヘッドマウントディスプレイは、撮影手段及び光学透過可能な画像表示デバイスを有し、撮影手段の撮影画像に基づく情報(提示情報)を画像表示デバイス上でユーザに視認させる。校正手段は、撮影手段によって撮影された、ヘッドマウントディスプレイを装着したユーザの鏡像の撮影画像に基づいて、画像表示デバイスを介して観察される観察対象と提示情報とのユーザの視界における位置関係を調整する。これにより、ユーザが鏡などに向き合うことで自動的に校正が行われるため、前述した先行技術文献に記載された技術と比較して、校正時におけるユーザの手間を少なくすることができる。
上記のヘッドマウントディスプレイの一態様では、前記校正手段は、前記鏡像の撮影画像に含まれる前記撮影手段及び前記ユーザの眼球の位置関係に基づいて、前記校正を行うことができる。この態様によれば、簡便な処理にて校正を行うことができる。
上記のヘッドマウントディスプレイの他の一態様では、前記校正手段は、前記鏡像の撮影画像に含まれる前記撮影手段、前記画像表示デバイス及び前記ユーザの眼球の位置関係に基づいて、前記校正を行うことができる。この態様によれば、撮影手段と画像表示デバイスとの位置関係が固定されていない場合であっても、精度良く校正を行うことができる。
上記のヘッドマウントディスプレイにおいて好適には、前記撮影手段には、マーカが付加されており、前記校正手段は、前記鏡像の撮影画像に含まれる、前記撮影手段に付加された前記マーカに基づいて、前記校正を行うことができる。
また好適には、前記鏡像を形成する鏡には、マーカが付加されており、前記校正手段は、前記鏡像の撮影画像に含まれる、前記鏡に付加された前記マーカに基づいて、前記校正を行うことができる。なお、本明細書では、「鏡」には、純粋な意味での鏡だけでなく、所定以上の反射率を有するもの(例えばガラスなど)も含まれるものとする。
また好適には、前記画像表示デバイスには、マーカが付加されており、前記校正手段は、前記鏡像の撮影画像に含まれる、前記画像表示デバイスに付加された前記マーカに基づいて、前記校正を行うことができる。
上記のヘッドマウントディスプレイの他の一態様では、前記校正手段は、前記鏡像の撮影画像に基づいて、前記撮影手段にて規定される座標系から前記画像表示デバイスにて規定される座標系へ座標変換するために用いられる座標変換パラメータを求めることで、前記校正を行う。この態様では、校正手段は、ヘッドマウントディスプレイの校正として、撮影手段にて規定される座標系から画像表示デバイスにて規定される座標系への変換を決定する。
上記のヘッドマウントディスプレイの他の一態様では、前記校正手段によって求められた前記座標変換パラメータを用いて前記座標変換を行うことで、前記情報を前記画像表示デバイス上に表示させる制御を行う表示制御手段を更に備える。これにより、画像表示デバイスを透過したユーザの観察像に重畳される画像表示デバイス上の情報表示位置を、撮影画像とこれに基づく情報の位置関係に適切に一致させることができる。
上記のヘッドマウントディスプレイにおいて好適には、前記校正手段は、前記鏡像の撮影画像から、前記撮影手段の鏡像における光学中心位置及び光軸方向を推定する第1推定手段と、前記鏡像の撮影画像から、前記ユーザの眼球の鏡像における中心位置を推定する第2推定手段と、前記第1推定手段によって推定された前記光学中心位置及び前記光軸方向に基づいて、前記鏡像を生成した鏡平面を推定する第3推定手段と、前記第3推定手段によって推定された前記鏡平面、及び前記第2推定手段によって推定された前記中心位置に基づいて、前記ユーザの眼球の実像における中心位置を推定する第4推定手段と、前記第4推定手段によって推定された前記中心位置に基づいて、前記撮影手段にて規定される座標系の座標を、前記ユーザの眼球にて規定される座標系の座標へ変換するための第1パラメータを、前記座標変換パラメータの1つとして求める第1パラメータ算出手段と、前記第4推定手段によって推定された前記中心位置に基づいて、前記ユーザの眼球にて規定される座標系の座標を前記画像表示デバイスに投影するための第2パラメータを、前記座標変換パラメータの1つとして求める第2パラメータ算出手段と、前記第4推定手段によって推定された前記中心位置に基づいて、前記ユーザの眼球にて規定される座標系の座標を、前記情報を前記画像表示デバイス上に表示させるために前記ヘッドマウントディスプレイにて規定される座標系の座標へ変換するための第3パラメータを、前記座標変換パラメータの1つとして求める第3パラメータ算出手段と、を備える。これにより、座標変換パラメータを適切に求めることができる。なお、「実像」は、鏡像の生成元となった像を意味するものとする。
また、上記のヘッドマウントディスプレイにおいて好適には、前記校正手段は、前記鏡像の撮影画像から、前記画像表示デバイスの鏡像における位置及び方向を推定する第5推定手段と、前記第3推定手段によって推定された前記鏡平面、及び前記第5推定手段によって推定された前記位置及び前記方向に基づいて、前記画像表示デバイスの実像における位置及び方向を推定する第6推定手段と、を更に備え、前記第2パラメータ算出手段は、前記第4推定手段によって推定された前記中心位置、及び前記第6推定手段によって推定された前記位置及び前記方向に基づいて、前記第2パラメータを求め、前記第3パラメータ算出手段は、前記第4推定手段によって推定された前記中心位置、及び前記第6推定手段によって推定された前記位置及び前記方向に基づいて、前記第3パラメータを求める。この場合、前記画像表示デバイスの位置及び方向を推定し、当該位置及び当該方向に基づいて座標変換パラメータを求める。これにより、精度良く座標変換パラメータを求めることができる。
上記のヘッドマウントディスプレイにおいて好適には、前記ユーザの眼球の中心位置は、瞳孔中心位置又は光学中心位置が用いられる。瞳孔中心位置を採用した場合には、撮影画像から容易に眼球の位置を求めることができる。光学中心位置を採用した場合には、精度良く座標変換パラメータを求めることができる。
好適な例では、前記撮影手段として、ステレオカメラを用いることができる。
また、好適な例では、前記鏡像の撮影画像として、前記ユーザと鏡とが概ね正対した状態にて撮影された画像を用いることができる。
本発明の他の観点では、撮影手段及び光学透過可能な画像表示デバイスを有し、前記撮影手段の撮影画像に基づく情報を前記画像表示デバイス上で視認させるヘッドマウントディスプレイによって実行される校正方法は、前記撮影手段によって撮影された、前記ヘッドマウントディスプレイを装着したユーザの鏡像の撮影画像に基づいて、前記画像表示デバイスを介して観察される観察対象と前記情報との前記ユーザの視界における位置関係を調整するための校正を行う校正工程を備える。
本発明の更に他の観点では、撮影手段及び光学透過可能な画像表示デバイスを有し、前記撮影手段の撮影画像に基づく情報を前記画像表示デバイス上で視認させると共に、コンピュータを備えるヘッドマウントディスプレイによって実行される校正プログラムは、前記撮影手段によって撮影された、前記ヘッドマウントディスプレイを装着したユーザの鏡像の撮影画像に基づいて、前記画像表示デバイスを介して観察される観察対象と前記情報との前記ユーザの視界における位置関係を調整するための校正を行う校正手段、として前記コンピュータを機能させる。
なお、上記の校正プログラムは、記録媒体に記録した状態で好適に取り扱うことができる。
以下、図面を参照して本発明の好適な実施例について説明する。
[装置構成]
まず、本実施例に係るヘッドマウントディスプレイ(以下、適宜「HMD」と表記する。)の構成について説明する。
図1は、本実施例に係るHMD1の概略構成を示すブロック図である。図1に示すように、HMD1は、主に、制御部11と、カメラ12と、光学透過可能な画像表示デバイス13とを有する。HMD1は、例えば眼鏡型に構成されており、ユーザの頭部に装着可能に構成されている。また、HMD1は、画像表示デバイス13を用いることで、外界に存在する対象物(例えば、現実空間における人物や物体、物品、景色等)のユーザによる視認を可能とし、対象物の像(現実の像)に対して仮想の画像を重ね合わせて表示させることで、AR(拡張現実)を実現する。
カメラ(撮影手段)12は、HMD1の前方を撮影し、撮影画像を生成する。カメラ12は、内部パラメータが既知のピンホールカメラ、あるいはレンズ歪みが補正されかつ内部パラメータが既知のカメラである。
画像表示デバイス13は、撮影画像に応じた情報(以下、「提示情報」と呼ぶ。)を対象物の像とオーバーラップしてユーザに視認せしめる。
制御部11は、図示しないCPUやRAMやROMなどを有し、HMD1の全体的な制御を行う。具体的には、制御部11は、カメラ12から撮影画像を取得し、提示情報を画像表示デバイス13上でユーザに視認させるための制御を行う。この場合、制御部11は、撮影画像を解析することで、提示すべき提示情報を決定すると共に、提示情報を提示する提示位置を決定し、当該提示情報を当該提示位置に表示させる制御を行う。
なお、制御部11は、本発明における「校正手段」及び「表示制御手段」の一例に相当する。具体的には、制御部11は、「第1推定手段」、「第2推定手段」、「第3推定手段」、「第4推定手段」、「第5推定手段」、「第6推定手段」、「第1パラメータ算出手段」、「第2パラメータ算出手段」、「第3パラメータ算出手段」として機能する。これらの詳細については後述する。
図2は、本実施例に係るHMD1の全体構成を概略的に示した図である。図2に示すように、HMD1は、眼鏡型に構成されており、カメラ12及び画像表示デバイス13がフレーム14に固定されている。なお、図2では、制御部11の図示を省略している。また、図2では、左目用の画像表示デバイス13のみを示し、右目用の画像表示デバイス13の図示を省略している。なお、両目に対して画像表示デバイス13を適用することに限定はされず、片目のみに画像表示デバイス13を適用することとしても良い。つまり、片目のみに画像を表示させることとしても良い。
また、図2に示すように、カメラ12及び画像表示デバイス13には、それぞれ、マーカ12a及びマーカ13aが付加されている。これらのマーカ12a、13aは、後述する校正方法にて用いられる。マーカ12a、13aの大きさや形状は、制御部11が把握しているものとする。加えて、カメラ12の光学中心(optical center)とマーカ12aとの位置関係、及び画像表示デバイス13とマーカ13aとの位置関係についても、制御部11が把握しているものとする。
なお、図2に示すようにマーカ12a、13aを4つ設けることに限定はされず、また、図2に示すような位置にマーカ12a、13aを設けることに限定はされない。更に、HMD1を眼鏡型に構成することに限定はされず、ヘルメットのようなもので構成しても良い。
図3は、本実施例に係る画像表示デバイスの概略構成を示す側面図である。LCD13bに表示された画像は、レンズ13cとハーフミラー13dを用いてユーザの眼から距離hの位置に虚像40(以下、「仮想スクリーン」あるいは単に「スクリーン」と表記することがある。)を結ぶ。レンズ13cによって虚像40に歪みが生じる可能性があるが、制御部11によって画像を補正する。画像表示デバイス13と仮想スクリーン40の位置関係は、制御部11が把握しているものとする。本実施例の画像表示デバイスは特に制限されるわけではない。光学ガラスやプラスチック材料等からなる導光板を有していてもよい。また、LCDではなく例えばOELD等を用いてもよい。また、ハーフミラーではなくホログラム光学素子等を用いてもよい。また、レンズは2枚以上用いてもよく、レンズを用いなくてもよい。
[校正方法の概要]
次に、本実施例に係る校正方法の概要について説明する。
上記したように、制御部11は、現実空間に提示情報を提示するAR(拡張現実)を実現するに当たり、カメラ12の撮影画像を解析し、それに基づいて提示情報及び提示位置を決定して、画像表示デバイス13に表示し、ユーザは仮想スクリーン40を視認する。ところで、ユーザが実際に見ている風景とカメラ12の撮影画像とでは、視点(どこから見ているか)や、視角(画角)や、視軸が異なる傾向にある。そのため、カメラ12の撮影画像を解析して決定した提示位置に提示情報を表示した場合に、ユーザが見ている現実空間の中でずれた位置に提示情報が表示されてしまう可能性がある。
図4は、提示情報がずれた位置に表示されてしまうといった問題点を説明するための図を示している。図4(a)は、HMD1を装着したユーザが実際に視認する像の一例を示している。具体的には、図4(a)は、ユーザの視野の適切な位置に提示情報(施設A、施設Bといった文字や、建物を囲んだ丸や、引き出し線など)が表示された場合の例を示している。図4(b)は、カメラ12の撮影画像の一例を示している。具体的には、図4(b)は、カメラ12の撮影画像が、ユーザが実際に見ている風景とずれている場合の例を示している。図4(c)は、HMD1を装着したユーザが視認する像の他の例を示している。具体的には、図4(c)は、図4(b)に示したような撮影画像を解析して決定した提示位置に提示情報を表示させた場合の例を示している。これより、ユーザの視野の適切な位置に提示情報が表示されていないことがわかる。つまり、提示情報を表示すべき位置からずれた位置に、提示情報が表示されていることがわかる。
本実施例では、このような提示情報がずれた位置に表示されてしまうといった問題を解消するべく、HMD1についての校正を行う。ここで、「校正」とは、カメラ12にて規定される座標系(カメラ座標系)から、仮想スクリーン40にて規定される座標系(スクリーン座標系)への変換を決定することに相当する。具体的には、本実施例では、HMD1を装着したユーザの鏡像をカメラ12によって撮影し、その撮影画像に基づいて、画像表示デバイス13を介して観察される観察対象と提示情報とのユーザの視界における位置関係を調整する。
図5は、本実施例に係る校正方法の概要を説明するための図を示す。本実施例では、校正を行う場合に、HMD1とともに、図5(a)に示すような鏡30を用いる。そして、図5(b)に示すように、鏡30に形成された、HMD1を装着したユーザの鏡像を、カメラ12によって撮影する。このような撮影を行う場合、鏡30は、反射面がユーザのほうを向き、ユーザの顔面と概ね正対し、ユーザの頭部が映るように配置されるものとする。なお、鏡30は、特殊なものを用いる必要はなく、手鏡などの身近にあるものを用いても良い。
制御部11は、HMD1を装着したユーザの鏡像の撮影画像に基づいて、カメラ12、画像表示デバイス13及び目20の位置関係を推定する。具体的には、制御部11は、撮影画像から、カメラ12に付加されたマーカ12aを検出することで、カメラ12の光学中心位置及び光軸方向を推定する。この場合、制御部11は、マーカ12aの大きさや形状、及びカメラ12の光学中心とマーカ12aとの位置関係に基づいて、カメラ12の光学中心位置及び光軸方向を推定する。また、制御部11は、撮影画像から、画像表示デバイス13に付加されたマーカ13aを検出することで、画像表示デバイス13の位置及び方向を推定する。この場合、制御部11は、マーカ13aの大きさや形状、及び画像表示デバイス13とマーカ13aとの位置関係に基づいて、画像表示デバイス13の位置及び方向を推定する。
更に、制御部11は、撮影画像から、ユーザの目20の黒目の部分を検出することで(黒目の大きさは既知であるものとする)、目20の3次元位置を推定する。この場合、制御部11は、目20の位置として、瞳孔中心位置を推定する。なお、瞳孔中心位置は眼球運動によって変化するため、撮影を行う際には、視軸(見ている方向)が鏡30に概ね正対するようにユーザに注目させ、さらに校正中はユーザに眼球運動を行わせないようにする。
制御部11は、このように撮影画像から推定された、カメラ12の光学中心位置及び光軸方向、画像表示デバイス13の位置及び方向、及び瞳孔中心位置に基づいて、HMD1についての校正を行う。具体的には、制御部11は、当該校正として、カメラ座標系からスクリーン座標系へ座標変換する過程で必要なパラメータ(座標変換パラメータ)を求める処理を行う。座標変換パラメータの算出方法については、詳細は後述する。
[座標系の定義]
次に、図6を参照して、本実施例で用いる座標系について説明する。図6に示すように、本実施例では、カメラ座標系、目座標系、画像表示デバイス座標系及びスクリーン座標系を用いる。なお、このような座標系は、制御部11が撮影画像に基づいて画像表示デバイス13に提示情報を表示させるに当たって、カメラ座標系からスクリーン座標系へ座標変換するために用いられる。
カメラ座標系は、カメラ12の光学中心を原点Oとする3次元座標系である。カメラ座標系は、カメラ12の光軸をZ軸とし、撮影画像のx軸及びy軸にそれぞれ平行な方向をX軸及びY軸とする。目座標系は、HMD1のユーザの視覚に対応するものであり、ユーザの瞳孔中心を原点Oとする3次元座標系である。目座標系は、鏡30が存在する平面(以下、「鏡平面」と呼ぶ。)の法線方向をZ軸とし、カメラ座標系のX軸及びY軸にそれぞれ平行な方向をX軸及びY軸とする。
スクリーン座標系は、仮想スクリーン40の画像座標である。画像表示デバイス座標系は、提示情報を仮想スクリーン40上に表示させるために制御部11にて規定される座標系であり、仮想スクリーン40を投影面とする3次元座標系である。画像表示デバイス座標系は、Z軸が仮想スクリーン40の中心と交わり、スクリーン座標系のx軸及びy軸にそれぞれ平行な方向をX軸及びY軸とする。
[座標変換方法]
次に、本実施例に係る座標変換方法について説明する。ここで、座標変換の概要について簡単に説明する。まず、制御部11は、カメラ12の撮影画像を解析し、提示情報を提示する座標(以下、「提示座標」と呼ぶ。)を求める。次に、制御部11は、カメラ座標系での提示座標を目座標系へ変換し、変換後の座標を仮想スクリーン40に投影した投影座標を求める。次に、制御部11は、投影座標を画像表示デバイス座標系に変換し、変換後の座標をスクリーン座標系へ透視投影する。
図7は、本実施例に係る座標変換方法を示すフローチャートである。このフローは、HMD1の制御部11によって繰り返し実行される。
まず、ステップS101では、制御部11は、カメラ12の撮影画像を解析し、その解析結果に基づいて、提示すべき提示情報と、提示情報を提示する提示座標L(カメラ座標系で規定されるものとする)とを決定する。具体的には、制御部11は、撮影画像に対して、ARマーカ認識や特定物体認識などの手法を用いて、提示情報を提示すべき対象物体を検出し、対象物体の位置及び姿勢を算出することで、提示情報についての提示座標Lを決める。そして、処理はステップS102に進む。
ステップS102では、制御部11は、以下の式(1)を用いて、カメラ座標系での提示座標Lを、目座標系での座標Lに変換する。
Figure 0005844880
式(1)中の「R」及び「t」は、それぞれ、カメラ座標系から目座標系へ変換するための回転行列及び並進ベクトルである。また、「R」及び「t」は、上記した座標変換パラメータの1つである。以上のステップS102の後、処理はステップS103に進む。
ステップS103では、制御部11は、目座標系での座標Lを、仮想スクリーン40に投影した投影座標M(目座標系で規定されるものとする)を算出する。図8は、座標Lと投影座標Mとの関係を示している。図8から分かるように、投影座標Mを求めるということは、仮想スクリーン40の平面と直線OeLeとの交点を求めることと同義である。目座標系で規定される、仮想スクリーン40の平面における単位法線ベクトルを「n」とし、仮想スクリーン40の平面と目座標系の原点Oとの距離を「h」とすると、制御部11は、以下の式(2)及び(3)を用いて、座標Lから投影座標Mへ変換する。なお、平面と直線との交点の求め方は、公知の手法を用いることができる。
Figure 0005844880
具体的には、制御部11は、式(3)に「L」、「n」及び「h」を代入することで「α」を求め、この「α」を式(2)に代入することで、座標Lから投影座標Mを求める。なお、「n」及び「h」は、上記した座標変換パラメータの1つである。以上のステップS103の後、処理はステップS104に進む。
ステップS104では、制御部11は、以下の式(4)を用いて、目座標系での投影座標Mを、画像表示デバイス座標系での座標Mに変換する。
Figure 0005844880
式(4)中の「R」及び「t」は、それぞれ、目座標系から画像表示デバイス座標系へ変換するための回転行列及び並進ベクトルである。また、「R」及び「t」は、上記した座標変換パラメータの1つである。以上のステップS104の後、処理はステップS105に進む。
ステップS105では、制御部11は、以下の式(5)を用いて、画像表示デバイス座標系での座標Mを、スクリーン座標系での座標mに透視投影する。
Figure 0005844880
式(5)より得られる座標mが、仮想スクリーン40の表示座標である。式(5)において、「width」及び「height」は仮想スクリーン40の画像サイズであり、「k」及び「k」はLCD13bのドットピッチとLCD13bから仮想スクリーン40までの光路で決まる係数である。以上のステップS105の後、処理は終了する。
なお、上記では、仮想スクリーン40の平面が目の視線に対して傾いている(つまり目座標系のZ軸と画像表示デバイス座標系のZ軸とが平行でない)ことを前提とした、座標変換の例を示した。他の例では、目の視線と仮想スクリーン40の平面とが直交している(つまり目座標系のZ軸と画像表示デバイス座標系のZ軸とが平行である)ことを前提として、座標変換を行うことができる。この場合には、目座標系からスクリーン座標系へ直接に透視投影を行うことができる。つまり、上記のステップS104の処理を行わなくて良い。
[座標変換パラメータの算出方法]
次に、本実施例における座標変換パラメータの算出方法について説明する。本実施例では、HMD1の校正として、座標変換パラメータの算出を行う。前述したように、座標変換パラメータは、回転行列R、R、並進ベクトルt、t、仮想スクリーン40の平面の単位法線ベクトルn、及び、仮想スクリーン40の平面と目座標系の原点Oとの距離hである。「R」及び「t」は、カメラ座標系から目座標系に変換するためのパラメータであり、以下では、これらをまとめて「第1パラメータ」と呼ぶ。「n」及び「h」は、目座標系での座標を仮想スクリーン40の平面に投影するためのパラメータであり、以下では、これらをまとめて「第2パラメータ」と呼ぶ。「R」及び「t」は、目座標系から画像表示デバイス座標系に変換するためのパラメータであり、以下では、これらをまとめて「第3パラメータ」と呼ぶ。
ここで、座標変換パラメータの算出方法の概要について簡単に説明する。まず、制御部11は、カメラ12によって撮影された、HMD1を装着したユーザの鏡像の撮影画像を取得する。次に、制御部11は、撮影画像から、カメラ12に付加されたマーカ12a(以下、適宜「カメラマーカ」と呼ぶ。)と、ユーザの目20と、画像表示デバイス13に付加されたマーカ13a(以下、適宜「スクリーンマーカ」と呼ぶ。)とを検出し、カメラ12、目20及び画像表示デバイス13のそれぞれについて、カメラ座標系での鏡像の位置及び方向を推定する。次に、制御部11は、カメラ12の鏡像の位置及び方向に基づいて鏡平面を推定し、目20及び画像表示デバイス13のそれぞれについて、カメラ座標系での実像(鏡像の生成元となった像を意味する。以下同様とする。)の位置及び方向を推定する。制御部11は画像表示デバイス13と仮想スクリーン40の位置関係を把握しており、カメラ座標系での仮想スクリーン40の位置及び方向を推定する。以上の推定により、カメラ12、目20及び仮想スクリーン40の位置・方向関係がわかるため、制御部11は、そのような位置・方向関係に基づいて、座標変換パラメータ(具体的には、第1パラメータR、t、第2パラメータn、h、及び第3パラメータR、t)を求める。
図9は、本実施例に係る座標変換パラメータの算出方法を示すフローチャートである。このフローは、HMD1の制御部11によって実行される。例えば、当該フローは、HMD1がユーザに装着された際に実行される。
まず、ステップS201では、制御部11は、カメラ12によって撮影された、HMD1を装着したユーザの鏡像の撮影画像を取得する。例えば、制御部11は、HMD1を装着した状態を鏡30に映し、この状態をカメラ12で撮影すべき旨を、ユーザに対して報知することで、撮影画像を取得する。この後、処理はステップS202、S203及びS204に進む。
ステップS202では、制御部11は、撮影画像から、カメラマーカの画像上の位置を検出する。ステップS203では、制御部11は、撮影画像から、ユーザの目20の画像上の位置を検出する。ステップS204では、制御部11は、撮影画像から、スクリーンマーカの画像上の位置を検出する。以上のステップS202、S203及びS204の後、処理はステップS205、S206及びS207に進む。
ステップS205では、制御部11は、ステップS202で検出された位置で画像解析を行い、カメラマーカの位置及び姿勢を利用して、カメラ座標系でのカメラ12の鏡像の光学中心位置及び光軸方向を推定する。この後、処理はステップS208に進む。ステップS206では、制御部11は、ステップS203で検出された位置で画像解析を行い、目20の位置及び大きさを利用して、カメラ座標系での目20の鏡像の瞳孔中心位置を推定する。ステップS207では、制御部11は、ステップS204で検出された位置で画像解析を行い、スクリーンマーカの位置及び姿勢を利用して、カメラ座標系での画像表示デバイス13の鏡像の位置及び方向を推定する。
ステップS208では、制御部11は、ステップS205で推定されたカメラ12の鏡像の光学中心位置及び光軸方向に基づいて、鏡平面を推定する。具体的には、制御部11は、カメラ座標系での鏡平面の単位法線ベクトル及び原点Oとの距離を推定する。鏡平面は、カメラ12の鏡像の光学中心位置と原点Oの中点で交わる。また、鏡平面の法線は、カメラ12の鏡像の光軸方向をZ軸方向に1/2倍回転させた方向である。以上のステップS208の後、処理はステップS209及びS210に進む。
ステップS209では、制御部11は、カメラ座標系での目20の実像の瞳孔中心位置を推定する。具体的には、制御部11は、ステップS206で推定された目20の鏡像の瞳孔中心位置を、ステップS208で推定された鏡平面で折り返すことで、目20の実像の瞳孔中心位置を推定する。ステップS210では、制御部11は、カメラ座標系での仮想スクリーン40の中心位置及び方向を推定する。具体的には、制御部11は、ステップS207で推定された画像表示デバイス13の鏡像の位置及び方向を、ステップS208で推定された鏡平面で折り返すことで、画像表示デバイス13の実像の位置及び方向を推定し、制御部11が把握している画像表示デバイス13と仮想スクリーン40の位置関係を利用して、仮想スクリーン40のカメラ座標系での中心位置及び方向を推定する。以上により、カメラ座標系のもとで、カメラ12、目20及び仮想スクリーン40の位置関係及び方向関係が判明する。ステップS209、S210の後、処理はステップS211、S212及びS213に進む。
ステップS211では、制御部11は、ステップS209で推定された目20の実像の瞳孔中心位置に基づいて、カメラ座標系から目座標系に変換するための第1パラメータR、t(回転行列R、並進ベクトルt)を求める。ステップS212では、制御部11は、ステップS209で推定された目20の実像の瞳孔中心位置と、ステップS210で推定された仮想スクリーン40の中心位置及び方向とに基づいて、目座標系での座標を仮想スクリーン40に投影するための第2パラメータn、h(目座標系での仮想スクリーン40の平面の単位法線ベクトルn、仮想スクリーン40の平面と目座標系の原点Oとの距離h)を求める。ステップS213では、制御部11は、ステップS209で推定された目20の実像の瞳孔中心位置と、ステップS210で推定された仮想スクリーン40の中心位置及び方向とに基づいて、目座標系から画像表示デバイス座標系に変換するための第3パラメータR、t(回転行列R、並進ベクトルt)を求める。以上のステップS211、S212及びS213の後、処理は終了する。
この後、制御部11は、上記のように求められた座標変換パラメータを用いて座標変換を行うことで、提示情報を画像表示デバイス13に表示させる制御を行う。
[本実施例の作用効果]
以上説明した本実施例によれば、HMD1の校正を容易に行うことができる。具体的には、本実施例では、ユーザが鏡30に向き合うことで自動的に校正が行われるため、前述した先行技術文献に記載された技術と比較して、校正時におけるユーザの手間を少なくすることができる。また、このような校正は、ユーザの身近にある鏡30(手鏡など)を利用して実現できるので、本実施例によれば、校正用の特殊なもの(例えば校正用のマーカ)を携帯したり、使用環境に埋め込んだりする必要はない。
[変形例]
以下で、上記した実施例の変形例を提示する。下記の変形例は、任意に組み合わせて実施することができる。
(変形例1)
上記したカメラ12として、ステレオカメラを用いても良い。カメラ12としてステレオカメラを用いた場合、位置及び方向についての推定精度を向上させることができる。また、ステレオカメラを用いると、マーカ12a、13aの大きさが未知であっても、撮影画像から3次元位置を推定することができる。そのため、マーカ12a、13aの大きさを制御部11に予め把握させておく必要はない。
(変形例2)
上記では、撮影画像からカメラ12及び画像表示デバイス13の位置及び方向を推定するに当たって、マーカ12a、13aを用いる実施例を示したが、このようなマーカ12a、13aを用いなくても良い。他の例では、マーカ12a、13aを用いずに、カメラ12の形状の特徴及び画像表示デバイス13の形状の特徴を用いて、カメラ12及び画像表示デバイス13の位置及び方向を推定することができる。
(変形例3)
上記では、ユーザの目20の位置として瞳孔中心位置を用いる実施例を示したが、瞳孔中心位置の代わりに、目20の光学中心位置を用いても良い。瞳孔中心位置と光学中心位置との関係を予め計測しておけば、撮影画像から目20の光学中心位置を推定することができる。このような光学中心位置を用いた場合には、瞳孔中心位置を用いた場合より、精度良く座標変換パラメータを求めることができる。
(変形例4)
上記では、画像表示デバイス13の位置及び方向を推定して、当該位置及び当該方向に基づいて座標変換パラメータを求める実施例を示した。他の例では、画像表示デバイス13の位置及び方向を推定せずに、座標変換パラメータを求めることができる。カメラ12と画像表示デバイス13との位置関係が固定されている場合(例えばフレーム14で、これらが適切に固定されている場合)には、画像表示デバイス13の位置及び方向が一義的に決まるため、仮想スクリーン40の位置及び方向を推定しなくても良い。この場合には、図9に示したステップS204、S207、S210の処理を行わなくて良い。つまり、スクリーンマーカの検出、画像表示デバイス13の鏡像の位置及び方向の推定、仮想スクリーン40の中心位置及び方向の推定を行わなくて良い。
(変形例5)
鏡像の撮影画像を得るために鏡30を用いることに限定はされない。鏡30の代わりに、所定以上の反射率を有するもの(例えばガラスなど)を用いて、鏡像の撮影画像を得ても良い。
(変形例6)
上記では、鏡平面を推定するために、カメラ12の鏡像の光学中心位置及び光軸方向を推定する実施例を示したが、鏡にマーカを付加させ、それを撮影することで鏡平面を推定してもよい。この場合には、図9に示したステップS202、S205、S208の処理は行わなくてよい。
(変形例7)
上記では、光学透過可能な画像表示デバイスとして、LCD13b、レンズ13c、ハーフミラー13dを用いる形態を示した。他の例では、透明有機ELや透明LCDを用いた透明ディスプレイや、例えば曇りガラスのような半透明の板上にLCDプロジェクターで投影するものでもよい。
本発明は、ヘッドマウントディスプレイの校正を行うために利用することができる。
1 ヘッドマウントディスプレイ(HMD)
11 制御部
12 カメラ
12a、13a マーカ
13 画像表示デバイス
13b LCD
13c レンズ
13d ハーフミラー
14 フレーム

Claims (10)

  1. 撮影手段及び光学透過可能な画像表示デバイスを有し、前記撮影手段の撮影画像に基づく情報を前記画像表示デバイス上で視認させるヘッドマウントディスプレイであって、
    前記撮影手段によって撮影された、前記ヘッドマウントディスプレイを装着したユーザの鏡像の撮影画像に基づいて、前記画像表示デバイスを介して観察される観察対象と前記情報との前記ユーザの視界における位置関係を調整するための校正を行う校正手段を備え、
    前記校正手段は、前記鏡像の撮影画像に含まれる前記撮影手段及び前記ユーザの眼球の位置関係に基づいて、前記撮影手段にて規定される座標系から前記画像表示デバイスにて規定される座標系へ座標変換するために用いられる座標変換パラメータを求めることで、前記校正を行い、
    前記校正手段は、
    前記鏡像の撮影画像から、前記ユーザの眼球の実像における中心位置を推定する第1推定手段と、
    前記第1推定手段によって推定された前記中心位置に基づいて、前記撮影手段にて規定される座標系の座標を、前記ユーザの眼球にて規定される座標系の座標へ変換するための第1パラメータを、前記座標変換パラメータの1つとして求める第1パラメータ算出手段と、
    前記第1推定手段によって推定された前記中心位置に基づいて、前記ユーザの眼球にて規定される座標系の座標を前記画像表示デバイスに投影するための第2パラメータを、前記座標変換パラメータの1つとして求める第2パラメータ算出手段と、
    を備えることを特徴とするヘッドマウントディスプレイ。
  2. 前記校正手段は、
    前記第1推定手段によって推定された前記中心位置に基づいて、前記ユーザの眼球にて規定される座標系の座標を、前記情報を前記画像表示デバイス上に表示させるために前記ヘッドマウントディスプレイにて規定される座標系の座標へ変換するための第3パラメータを、前記座標変換パラメータの1つとして求める第3パラメータ算出手段、
    を更に備えることを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3. 前記校正手段は、
    前記鏡像の撮影画像から、前記撮影手段の鏡像における光学中心位置及び光軸方向を推定する第2推定手段と、
    前記鏡像の撮影画像から、前記ユーザの眼球の鏡像における中心位置を推定する第3推定手段と、
    前記第2推定手段によって推定された前記光学中心位置及び前記光軸方向に基づいて、前記鏡像を生成した鏡平面を推定する第4推定手段と、を更に備え、
    前記第1推定手段は、前記第4推定手段によって推定された前記鏡平面、及び前記第3推定手段によって推定された前記中心位置に基づいて、前記ユーザの眼球の実像における中心位置を推定することを特徴とする請求項1または2に記載のヘッドマウントディスプレイ。
  4. 前記撮影手段には、マーカが付加されており、
    前記校正手段は、前記鏡像の撮影画像に含まれる、前記撮影手段に付加された前記マーカに基づいて、前記校正を行うことを特徴とする請求項1または2に記載のヘッドマウントディスプレイ。
  5. 前記画像表示デバイスには、マーカが付加されており、
    前記校正手段は、前記鏡像の撮影画像に含まれる、前記画像表示デバイスに付加された前記マーカに基づいて、前記校正を行うことを特徴とする請求項1または2に記載のヘッドマウントディスプレイ。
  6. 前記校正手段によって求められた前記座標変換パラメータを用いて前記座標変換を行うことで、前記情報を前記画像表示デバイス上に表示させる制御を行う表示制御手段を更に備えることを特徴とする請求項1または2に記載のヘッドマウントディスプレイ。
  7. 前記校正手段は、
    前記鏡像の撮影画像から、前記画像表示デバイスの鏡像における位置及び方向を推定する第5推定手段と、
    前記第4推定手段によって推定された前記鏡平面、及び前記第5推定手段によって推定された前記位置及び前記方向に基づいて、前記画像表示デバイスの実像における位置及び方向を推定する第6推定手段と、を更に備え、
    前記第2パラメータ算出手段は、前記第1推定手段によって推定された前記中心位置、及び前記第6推定手段によって推定された前記位置及び前記方向に基づいて、前記第2パラメータを求め、
    前記第3パラメータ算出手段は、前記第1推定手段によって推定された前記中心位置、及び前記第6推定手段によって推定された前記位置及び前記方向に基づいて、前記第3パラメータを求めることを特徴とする請求項3に記載のヘッドマウントディスプレイ。
  8. 前記ユーザの眼球の中心位置は、瞳孔中心位置又は光学中心位置が用いられることを特徴とする請求項1乃至6のいずれか一項に記載のヘッドマウントディスプレイ。
  9. 撮影手段及び光学透過可能な画像表示デバイスを有し、前記撮影手段の撮影画像に基づく情報を前記画像表示デバイス上で視認させるヘッドマウントディスプレイによって実行される校正方法であって、
    前記撮影手段によって撮影された、前記ヘッドマウントディスプレイを装着したユーザの鏡像の撮影画像に基づいて、前記画像表示デバイスを介して観察される観察対象と前記情報との前記ユーザの視界における位置関係を調整するための校正を行う校正工程を備え、
    前記校正工程は、前記鏡像の撮影画像に含まれる前記撮影手段及び前記ユーザの眼球の位置関係に基づいて、前記撮影手段にて規定される座標系から前記画像表示デバイスにて規定される座標系へ座標変換するために用いられる座標変換パラメータを求めることで、前記校正を行い、
    前記校正工程は、
    前記鏡像の撮影画像から、前記ユーザの眼球の実像における中心位置を推定する第1推定工程と、
    前記第1推定工程によって推定された前記中心位置に基づいて、前記撮影手段にて規定される座標系の座標を、前記ユーザの眼球にて規定される座標系の座標へ変換するための第1パラメータを、前記座標変換パラメータの1つとして求める第1パラメータ算出工程と、
    前記第1推定工程によって推定された前記中心位置に基づいて、前記ユーザの眼球にて規定される座標系の座標を前記画像表示デバイスに投影するための第2パラメータを、前記座標変換パラメータの1つとして求める第2パラメータ算出工程と、
    を備えることを特徴とする校正方法。
  10. 撮影手段及び光学透過可能な画像表示デバイスを有し、前記撮影手段の撮影画像に基づく情報を前記画像表示デバイス上で視認させると共に、コンピュータを備えるヘッドマウントディスプレイによって実行される校正プログラムであって、
    前記撮影手段によって撮影された、前記ヘッドマウントディスプレイを装着したユーザの鏡像の撮影画像に基づいて、前記画像表示デバイスを介して観察される観察対象と前記情報との前記ユーザの視界における位置関係を調整するための校正を行う校正手段、として前記コンピュータを機能させ、
    前記校正手段は、前記鏡像の撮影画像に含まれる前記撮影手段及び前記ユーザの眼球の位置関係に基づいて、前記撮影手段にて規定される座標系から前記画像表示デバイスにて規定される座標系へ座標変換するために用いられる座標変換パラメータを求めることで、前記校正を行い、
    前記校正手段は、
    前記鏡像の撮影画像から、前記ユーザの眼球の実像における中心位置を推定する第1推定手段と、
    前記第1推定手段によって推定された前記中心位置に基づいて、前記撮影手段にて規定される座標系の座標を、前記ユーザの眼球にて規定される座標系の座標へ変換するための第1パラメータを、前記座標変換パラメータの1つとして求める第1パラメータ算出手段と、
    前記第1推定手段によって推定された前記中心位置に基づいて、前記ユーザの眼球にて規定される座標系の座標を前記画像表示デバイスに投影するための第2パラメータを、前記座標変換パラメータの1つとして求める第2パラメータ算出手段と、
    を備えることを特徴とする校正プログラム。
JP2014501911A 2012-03-01 2012-03-01 ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 Active JP5844880B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/055226 WO2013128612A1 (ja) 2012-03-01 2012-03-01 ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015226418A Division JP6266580B2 (ja) 2015-11-19 2015-11-19 ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体

Publications (2)

Publication Number Publication Date
JPWO2013128612A1 JPWO2013128612A1 (ja) 2015-07-30
JP5844880B2 true JP5844880B2 (ja) 2016-01-20

Family

ID=49081857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014501911A Active JP5844880B2 (ja) 2012-03-01 2012-03-01 ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体

Country Status (2)

Country Link
JP (1) JP5844880B2 (ja)
WO (1) WO2013128612A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013145147A1 (ja) * 2012-03-28 2015-08-03 パイオニア株式会社 ヘッドマウントディスプレイ及び表示方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6314339B2 (ja) * 2014-01-16 2018-04-25 コニカミノルタ株式会社 眼鏡型表示装置
JP6347067B2 (ja) * 2014-01-16 2018-06-27 コニカミノルタ株式会社 眼鏡型表示装置
JP6054333B2 (ja) * 2014-05-09 2016-12-27 株式会社東芝 画像表示システム、表示装置および情報処理方法
JP6394107B2 (ja) * 2014-06-23 2018-09-26 富士通株式会社 キャリブレーション装置、キャリブレーション方法、表示制御装置および表示制御方法
JP6539981B2 (ja) * 2014-10-24 2019-07-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、表示システム、及び、プログラム
JP6701631B2 (ja) * 2015-06-22 2020-05-27 セイコーエプソン株式会社 表示装置、表示装置の制御方法、表示システム、及び、プログラム
JP6492531B2 (ja) * 2014-10-27 2019-04-03 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP2016200686A (ja) * 2015-04-09 2016-12-01 株式会社テレパシージャパン 調整指標を有する頭部装着型画像表示装置
JP6266580B2 (ja) * 2015-11-19 2018-01-24 パイオニア株式会社 ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP2017134558A (ja) * 2016-01-27 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2017215597A (ja) * 2017-07-13 2017-12-07 パイオニア株式会社 情報表示方法及び情報表示装置
JP2019022084A (ja) * 2017-07-18 2019-02-07 オリンパス株式会社 ウェアラブルデバイス及びウェアラブルデバイスの制御方法
WO2020059157A1 (ja) * 2018-09-20 2020-03-26 株式会社ソニー・インタラクティブエンタテインメント 表示システム、プログラム、表示方法、及び頭部装着装置
EP3760157A1 (en) 2019-07-04 2021-01-06 Scopis GmbH Technique for calibrating a registration of an augmented reality device
CN114900624A (zh) * 2022-04-25 2022-08-12 歌尔股份有限公司 拍摄校准方法、***、设备及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000201289A (ja) * 1999-01-07 2000-07-18 Sony Corp 映像入出力装置及び映像取得方法
JP2002159019A (ja) * 2000-11-16 2002-05-31 Canon Inc 表示制御装置、撮影位置推測装置、表示システム、撮影システム、画像位置決め方法、撮影位置推測方法、及び処理プログラムを記録した記録媒体
JP2004233201A (ja) * 2003-01-30 2004-08-19 Canon Inc 位置姿勢計測方法
JP2009010728A (ja) * 2007-06-28 2009-01-15 Olympus Corp カメラ設置支援装置
JP4989383B2 (ja) * 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
JP4991515B2 (ja) * 2007-12-25 2012-08-01 キヤノン株式会社 画像処理システム、画像処理システムの制御方法及びコンピュータプログラム
JP4681629B2 (ja) * 2008-05-21 2011-05-11 日本電信電話株式会社 表示デバイスのキャリブレーション方法及び装置
JP5259429B2 (ja) * 2009-01-05 2013-08-07 株式会社東芝 表示装置
JP2010243972A (ja) * 2009-04-10 2010-10-28 Konica Minolta Opto Inc 映像表示装置およびヘッドマウントディスプレイ
JP5402293B2 (ja) * 2009-06-22 2014-01-29 ソニー株式会社 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013145147A1 (ja) * 2012-03-28 2015-08-03 パイオニア株式会社 ヘッドマウントディスプレイ及び表示方法

Also Published As

Publication number Publication date
JPWO2013128612A1 (ja) 2015-07-30
WO2013128612A1 (ja) 2013-09-06

Similar Documents

Publication Publication Date Title
JP5844880B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP5923603B2 (ja) 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
TWI591378B (zh) 擴增實境系統之光學透視頭戴式顯示器之校準方法及非暫態電腦可讀媒體
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
TWI496108B (zh) AR image processing apparatus and method
JP6008397B2 (ja) 光学式シースルー型hmdを用いたarシステム
WO2016115873A1 (zh) 双目ar头戴显示设备及其信息显示方法
US11134238B2 (en) Goggle type display device, eye gaze detection method, and eye gaze detection system
JP2023511066A (ja) 頭部搭載型ディスプレイシステムにおける変形に関する補償
JP6349660B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP2018067115A (ja) プログラム、追跡方法、追跡装置
US11012677B1 (en) Systems and methods for correcting rolling shutter artifacts
US12020448B2 (en) Systems and methods for updating continuous image alignment of separate cameras
EP4168987A1 (en) Dense depth computations aided by sparse feature matching
JP6266580B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
EP4158447A1 (en) Systems and methods for providing mixed-reality experiences under low light conditions
JP6509101B2 (ja) 眼鏡状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する画像表示装置、プログラム及び方法
WO2021100553A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US11450014B2 (en) Systems and methods for continuous image alignment of separate cameras
JP2008070319A (ja) 物体計測装置および方法
JP2017215597A (ja) 情報表示方法及び情報表示装置
WO2021237952A1 (zh) 一种增强现实的显示***及方法
WO2013179425A1 (ja) 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
US20210400249A1 (en) Systems and methods for temporal corrections for parallax reprojection
JP2018009886A (ja) 顔向き検出システム、顔向き検出装置及び顔向き検出プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151119

R150 Certificate of patent or registration of utility model

Ref document number: 5844880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150