JP6693656B2 - 瞳孔間のキャリブレーションプログラム、前記プログラムを用いたWebサーバ、及び、瞳孔間のキャリブレーション方法 - Google Patents
瞳孔間のキャリブレーションプログラム、前記プログラムを用いたWebサーバ、及び、瞳孔間のキャリブレーション方法 Download PDFInfo
- Publication number
- JP6693656B2 JP6693656B2 JP2017232151A JP2017232151A JP6693656B2 JP 6693656 B2 JP6693656 B2 JP 6693656B2 JP 2017232151 A JP2017232151 A JP 2017232151A JP 2017232151 A JP2017232151 A JP 2017232151A JP 6693656 B2 JP6693656 B2 JP 6693656B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- calibration
- display
- eye
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Description
<開発背景>
「多くの人にVRの体験をしてもらいたい」と発明者は考えたが、VRには構造上「斜視リスク」が存在し法規制と安全面の考慮から13歳以下の2眼VRヘッドセットの使用は非推奨となっている。
ちなみに、VR映像は常に同じ距離のスクリーンにピントを合わせ、左右に違う映像を見せる事で遠近感を表現し脳を騙す技術になる。
実際には3Dではないもの(平面の映像)を3D(立体)に見せかける錯覚なわけであるので、目に負担がかり、VRコンテンツを体験する際、「視界が少しぼやける」、「すぐに疲れる」、「見え方が歪んで見えて酔いやすい」という現象が起こる。
そしてこの「立体視細胞」は人間の体が成長するのと同じようにこの視細胞も時間が経つにつれて徐々に発達していくことで物を立体的にとらえられるようになる。
つまり幼少期は「目の使い方」を学んでいる段階なので、その発達をVRや3Dの映像で妨げる可能性があり、目に負担のかかるものは避けた方がいいというのが医療関係者の意見となっている。
両眼視差による立体視はおおよそ生後2ヶ月から2歳頃までで形成され、身体能力に個人差があるように立体視する力も個人によって強弱があり、この立体視細胞の発達は大体6歳くらいまでに完成すると言われている。
・幼少期(6歳くらいまで)は斜視リスクが高い
・瞳孔間距離の増大によるリスク(調節出来れば問題なし)
・COPPAによる13歳未満の年齢制限
・規制や反対運動を回避するための保守的な年齢設定
そして、その開発にあたって、本発明者が着目したのは、右目用の画面と左目用の画面を表示させて、右目左目の2眼でVR映像を使用者に視認させる、VRヘッドマウントディスプレイを使用したコンテンツを、安全に観賞・体験するには次の点に留意すべきということである。すなわち、「眼球を含めた空間認知の発達に影響を及ぼさないように、HMDは瞳孔間距離を考慮したものにすべき」であり、瞳孔間距離の異なる女性・男性から子供に至るまで、すべての人の目に合わせて、VR視聴時の視差や歪の補正作業(瞳孔間距離補正)を行う必要があると考えた。
そして、本発明に関わるソフトウエアプログラム及びシステムは、利用者の個人差による瞳孔間距離に加え、ゴーグルのレンズ間距離、スマートフォンの画面サイズ、ゴーグルレンズとスマートフォン液晶までの距離など複雑な要素の絡まりを、利用者は意識すること無く簡単なステップを行うだけで自動的にキャリブレーションを行う事の出来るアプリケーションツールであることが肝要であると、本発明者は考えた。
・ディスプレイ
・立体視のためのレンズ
・頭の位置を読み取るヘッドトラッキング機能を行うために必要なセンサ(ジャイロセンサ、加速度センサ)である。
図1に示すのが、前記スマートフォンAをセットしヘッドマウントディプレイとして使用するための、VRゴーグルBの原理図である。
図において、A1は、スマートフォンAの液晶画面を示し、B1は、左目用レンズ、B2は右目用レンズである。
また、同図において、aは、左右レンズB1とB2の外側間距離、bは、左右レンズB1とB2の内側間距離、cは、レンズB1とB2の直径、dは、レンズB1とB2との半径、eは、左右レンズB1とB2の中心間距離、fは、レンズとスマートフォンAの表示面としての液晶面A1との距離を表しており、現在市場に出回っている各種のスマートフォン用のゴーグルにおいては、前記a〜fがそれぞれ次のような寸法のものが存在する。α社ゴーグル製品:a=85mm、b=36.5mm、c=24.25、d=12.125mm、e=60.75mm、f=37mmであった。
β社ゴーグル製品:a=98mm、b=26mm、c=36mm、d=18mm、e=62mm,f=37mmであった。
γ社ゴーグル製品:a=90mm、b=42mm、c=24mm、d=12mm、e=66mm,f=43mmであった。
そして、α社製品には年齢制限が記されていないが、β社製品は13歳以下は不可、γ社製品には15歳以上との記載がそれぞれされている。
上述した、α、β、γ社のVR用のゴーグルのレンズ間距離差は、前述したように、α社(Cardboard)60.75mm、β社(HOMIDO 62mm)、γ社(100円均一ノーブランド66mm)と3個体のみの計測でレンズの中心間距離差が5.25mmもある事が確認出来た。つまり、ゴーグルによって、レンズの中心間距離がまちまちである。
一方、瞳孔間距離差に関しては、日本人頭部データベース2001によると、瞳孔間距離差は最少値55mm、最大値71mm、平均値62.8mmとなっており、瞳孔間距離差は16mm以上ある事が確認されている。(メガネ協会では最少値55mm、最大値78mm、平均値63.5mm※非公式)このデータからすると、ゴーグルの製造メーカは、瞳孔間距離gに関して、日本人の平均的な寸法を採用しているものの、個人差があるので、左右の目とレンズ中心とディスプレイの左右目用の表示中心が一致するような汎用性のあるゴーグルを設計できないという制約がある。
この要因は、スマートフォンの画面サイズがメーカや製品ごとに異なることも原因となっている。例えば、スマートフォンガイド.netによる2018年1月末までに発売のスマートフォン132機種の画面サイズは最小3.5インチ(アスペクト比5:3)、最大6.3インチ(アスペクト比18.5:9)となっており、2眼表示画面中心距離は最小値38.1mm、最大値72mmとなり、画面中心距離差は33.9mmもある事が確認できた。
また、図3は、NTTドコモ社から提供されるGalaxy(登録商標)S7のスマートフォンを用いて、VRゴーグルの人体の頭部に装着した場合の各種寸法比較した図であって、左右目用の表示ディスプレイの中央位置間距離h2と、レンズと液晶ディスプレイとの距離f2、VRゴーグルのレンズ間距離e2、目の間の距離g2を示している。図1における符号に「1」が付加された符号は、寸法は異なるが同一の箇所寸法を意味する。
そして、このVRゴーグルの機能概要は次のようになっていると本発明者は分析した。
瞳孔間距離(IPD)をミリメートル(mm)で設定
垂直視野(度)
レンズの歪みの強さ
値:0.0〜5.0,0.0=歪みなし
この歪みは、1パスレンダリングステップで内部魚眼ビュー歪みを使用してレンダリングされます。
これは、第2パス後処理レンズ歪みステップです。
用するために使用できます。
歪みパラメータがズームを引き起こしているとき、画像品質は、スケーリングおよび補間のためにわずかに縮退する可能性があります。
4つの歪みパラメータがあります:
r=r*(1.0/k1)*(1.0+k2*r2+k3*r4+k4*r6)
この歪みは追加のGPU処理能力を必要とし、フレームレートを低下させる可能性があり
す。
360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する画像表示手段と、
前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する実行するスクロール表示手段と、
前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件(注視時間)を満たした場合に、前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットするキャリブレーションデータの設定手段と、
前記画像表示手段は、
前記キャリブレーションデータの設定手段の設定後に、その設定されたキャリブレーションデータに基づいた、再生用の右目用画像と左目用画像を前記ディスプレイに表示ことを特徴とするキャリブレーションプログラム。
(a)360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する処理と、
(b)前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する処理と、
(c)前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件を満たしたか否かを判定する処理と、
(f)前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定する処理と、
(g)前記設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットする処理と、
(h)前記キャリブレーションデータを、その後のVR動画再生時における、再生用の右目用画像と左目用画像の調整に用いるために、前記端末装置又は使用者のIDと関連付けて格納する処理。
図4(A)に示すのは、VRゴーグルの周りにキャリブレーション設定用のマーカ画像の複数が配置されている状態を示している概念図である。この(A)の複数のマーカ画像は、(B)の左目用のマーカ画像と、(C)の右目用マーカ画像が使用者の脳内で視差により立体視して認識された状態を示している。つまり、(A)のマーカ画像Mは、M1とM2が脳内で合成されて認識される仮想の現実画像である。
図5は、図4を2次元で表示した状態を示したものであり、左右用のマーカ画像は、瞳孔間距離を割り出して、瞳孔間距離(IPD/Interpupillary distanceの略)のキャリブレーションを行うためのキャリブレーションデータを取得するために、左右のマーカ画像を脳内で重ねて視認する際に、個人差や年齢によって変化するIPDによって見え方、つまり、重なるマーカ画像が異なるように、前記複数のマーカ画像が左右で少しずつズレて視認されるように配置されている。このズレた左右目用のマーカ画像を視認しつつ、左右のマーカ画像が重なってはっきりと視認できるようになったところで、後述するスマートフォン内に内蔵されたタイマーで予め設定された時間の間、静止状態が継続されたことを検知すると、中央に表示されるマーカ画像(図の場合は、「0」のマーカ画像)が選択されたと検知し、この検知されたマーカ画像に対して予め用意された瞳孔間距離のキャリブレーションデータを、後のVR画像を表示するための基準データとして、VR映像コントローラが設定する。VR映像コントローラは、スマートフォンが内蔵するCPUを含むコントローラがその役割を担う場合も想定されるが、本実施形態のように、スマートフォンが通信回線を通じて接続されるサーバのコントローラがその役割を担うように構成することができる。後者の場合には、スマートフォンのディスプレイに表示される左右目用の複数のマーカ画像は、ブラウザー上で生成されて前記スマートフォンのディスプレイに対して表示される。
図7に示すのが、本発明の瞳孔間距離のキャリブレーションデータを得るために、WEB上のWEBサーバ1から前述した左右目用の複数のマーカ画像を端末であるスマートフォンAのディスプレイA1に表示するための概念図である。
この図において、端末機器としてのスマートフォンAよりQRコード及びURLをリクエストし、インターネット2を経由してWebサーバーへアクセス。
Webサーバ1より、HTML形式で端末機器Aのブラウザに、端末機器Aのメモリに格納されるようなアプリケーションを介さず、IPDキャリブレーションデータを得るための前述した複数のマーカ画像、及び、瞳孔間距離のキャリブレーションデータを得て、そのキャリブレーションデータを用いてキャリブレーションデータを実行した360度VR動画を直接表示する。
図8及び図9は、画面の変遷によって示す処理フローである。
(A)スマートフォンなどの端末装置Aを用いて、QRコード及びURLを介して、Webサーバー1へアクセス。図8(A)において、ディスプレイA1に表示するのは、スマートフォンのカメラ機能を用いて撮影されたQRコードである。
(B)Webサーバ1よりHTMLで端末機器AのディスプレイA1によって、端末装置AのブラウザにTOP画面(後述する図8(B)の選択画面)を表示。動画及びIPDキャリブレーションの選択ボタンでIPDを選択。この選択画面によって、使用者は、VR動画を視聴するか、キャリブレーションデータを得るための処理を行うかを選択できる。VR動画を視聴する場合には、使用者の識別情報の入力データを得ることで、Webサーバ1内のデータベースに予め格納された当該使用者のキャリブレーションデータに基づいた調整後のVR動画を視聴することが可能となる。
(C)IPDキャリブレーション画面に移動。画面上にウィザードで操作方法を表示。所謂、操作案内画面を表示する。
(D)IPDキャリブレーション画面−1:スマートフォン選択(端末情報を読み込んで機種を自動選択するが、適切な機種が選択されない場合は画面のインチサイズ情報をマニュアルで入力する)
(E)IPDキャリブレーション画面−2:ゴーグル選択(予め用意したゴーグルデータベースより、使用するゴーグルを選択。使用するゴーグルの該当機種が無い場合はカスタム画面にてマニュアル調整を行う)このゴーグルデータベースは、Webサーバのデータベースに備わっている。図10には、同じスマートフォンとしての端末装置AをVRゴーグルにセットしても、ディスプレイA1における左右目用の画像の中心間距離hが異なることを示しているが、このように同じ端末装置A1であっても中心間距離hが異なるので、これを事前に設定できる工程を経ることで、より使用者に合致した瞳孔間距離のキャリブレーションデータを実行することができるようになる。
(F)IPDキャリブレーション画面−3:オブジェクト選択画面に移動、360度空間に左目用・右目用に配置されたオブジェクトより、最もズレの少ないオブジェクトを選択。選択方法は様々であろうが、本発明の場合には、前述した従来の汎用品であるVRゴーグルにスマートフォンを設け、このスマートフォンを備えたVRゴーグルを人体の頭部に装着して使用され、スマートフォンAに一般的に備わっているジャイロ機能を有するセンサと、時間の経過を検知することが可能なタイマーとして計時装置を用いて、複数のマーカ画像が鮮明に表示されているマーカ画像を、頭部の回転によって中央に持ってきて、その状態を保持(計時装置である所定の時間の経過を測定することで静止したと判定するとともに、使用者が選択したと判定する)することで、中央位置に配置されているマーカ画像に基づいてキャリブレーションデータを得るようにしている。より詳しくは、以下の(G)で説明する。
(G)IPDキャリブレーション画面−3:左右一致しているオブジェクト(左右のマーカ画像が重なった状態の画像、左右目のマーカ画像が重なった状態であるが、視認されるのはマーカ画像となる)を画面A1中心で一定時間注視(視点操作)することで瞳孔間距離を割り出し、自分に合ったIPDキャリブレーションデータを取得するのである。瞳孔間距離を数値として割り出すようにして、その後のVR動画の再生に用いた方が、キャリブレーションデータとして汎用性があるが、ある特定のVR動画の良好に視聴するだけの場合には、数値としてのキャリブレーションデータを得ることなく、前記画面A1の中央で一定時間注視したマーカ画像(上記オブジェクト)に対するキャリブレーションの処理を完了したVR再生画像を用意しておき、そのVR動画を再生するように構成することもできる。
(H)IPDキャリブレーション画面−4:IPDキャリブレーション完了画面で、左右の画像が一致していることを確認し、問題が無ければ「OK」を選択して動画選択画面へ移動。ズレていた場合は再度キャリブレーション画面に戻り選択操作を行う。
(I)IPDキャリブレーション完了後、動画選択画面へ
以上のような処理フローを実行することによって、次のような特徴のある発明を実行できる。
360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する画像表示手段と、
前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する実行するスクロール表示手段と、
前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件(注視時間)を満たした場合に、前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットするキャリブレーションデータの設定手段と、
前記画像表示手段は、
前記キャリブレーションデータの設定手段の設定後に、その設定されたキャリブレーションデータに基づいた、再生用の右目用画像と左目用画像を前記ディスプレイに表示ことを特徴とするキャリブレーションプログラム。
前記コントローラは、以下の処理を実行する。
(a)360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する処理と、
(b)前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する処理と、
(c)前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件を満たしたか否かを判定する処理と、
(f)前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定する処理と、
(g)前記設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットする処理と、
(h)前記キャリブレーションデータを、その後のVR動画再生時における、再生用の右目用画像と左目用画像の調整に用いるために、前記端末装置又は使用者のIDと関連付けて格納する処理。
以上、本発明の実施形態を説明したが、具体例を例示したに過ぎず、特に本発明を限定するものではなく、各手段等の具体的構成は、適宜設計変更可能である。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
Claims (2)
- 人体のヘッド部に装着されて使用されるVRゴーグルに設けられ、ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備えた画像処理装置で、個人差のある瞳孔間距離のキャリブレーションを実行する瞳孔間のキャリブレーションプログラムであって、
360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する画像表示手段と、
前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する処理を実行するスクロール表示手段と、
前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件を満たした場合に、前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定し、この設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットするキャリブレーションデータの設定手段と、
前記画像表示手段は、
前記キャリブレーションデータの設定手段の設定後に、その設定されたキャリブレーションデータに基づいた、再生用の右目用画像と左目用画像を前記ディスプレイに表示することを特徴とするキャリブレーションプログラム。 - ヘッドトラッキング機能を行うためのセンサ及びディスプレイとを備え、画像処理機能を具備した端末装置との双方向通信によって、その端末装置を操作する使用者の瞳孔間距離のキャリブレーションデータを得るために、瞳孔間のキャリブレーションプログラムを実行するWebサーバのコントローラであって、
前記コントローラは、以下の処理を実行する。
(a)360度VR空間に右目用と左目用でそれぞれ僅かに位置をずらして配置された、キャリブレーション用の複数のマーカ画像を、前記ディスプレイに対して、右目用画像と左目用画像を表示する処理と、
(b)前記センサの移動検知信号に基づいて、前記右目用画像と左目用画像を前記ディスプレイに対して前記360度VR空間にスクロール表示する処理と、
(c)前記センサの移動検知信号に基づいて、前記画像処理装置の静止状態を検知し、前記静止状態が、予め設定された条件を満たしたか否かを判定する処理と、
(f)前記ディスプレイに表示される中央の前記複数のマーカ画像の一つをキャリブレーション設定用のマーカ画像に設定する処理と、
(g)前記設定されたキャリブレーション設定用のマーカ画像に基づいた瞳孔間距離のキャリブレーションデータをセットする処理と、
(h)前記キャリブレーションデータを、その後のVR動画再生時における、再生用の右目用画像と左目用画像の調整に用いるために、前記端末装置又は使用者のIDと関連付けて格納する処理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017232151A JP6693656B2 (ja) | 2017-11-14 | 2017-11-14 | 瞳孔間のキャリブレーションプログラム、前記プログラムを用いたWebサーバ、及び、瞳孔間のキャリブレーション方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017232151A JP6693656B2 (ja) | 2017-11-14 | 2017-11-14 | 瞳孔間のキャリブレーションプログラム、前記プログラムを用いたWebサーバ、及び、瞳孔間のキャリブレーション方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019092140A JP2019092140A (ja) | 2019-06-13 |
JP6693656B2 true JP6693656B2 (ja) | 2020-05-13 |
Family
ID=66836750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017232151A Active JP6693656B2 (ja) | 2017-11-14 | 2017-11-14 | 瞳孔間のキャリブレーションプログラム、前記プログラムを用いたWebサーバ、及び、瞳孔間のキャリブレーション方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6693656B2 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3271300B2 (ja) * | 1992-06-11 | 2002-04-02 | ソニー株式会社 | 眼鏡型ディスプレイ装置 |
JPH08191419A (ja) * | 1995-01-10 | 1996-07-23 | Yamaha Corp | 頭部装着型表示システム |
JP5341462B2 (ja) * | 2008-10-14 | 2013-11-13 | キヤノン株式会社 | 収差補正方法、画像処理装置および画像処理システム |
JP2013232744A (ja) * | 2012-04-27 | 2013-11-14 | Bi2−Vision株式会社 | ディスプレイシステム、ディスプレイ調整システム、ディスプレイ調整方法、およびプログラム |
US10108018B2 (en) * | 2012-11-13 | 2018-10-23 | Sony Corporation | Image display apparatus for displaying an image captured by a mobile apparatus |
US10228562B2 (en) * | 2014-02-21 | 2019-03-12 | Sony Interactive Entertainment Inc. | Realtime lens aberration correction from eye tracking |
-
2017
- 2017-11-14 JP JP2017232151A patent/JP6693656B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019092140A (ja) | 2019-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7373800B2 (ja) | キャリブレーションシステム、及び、瞳孔間のキャリブレーション方法 | |
CN104598180B (zh) | 显示控制方法、装置及近眼显示设备 | |
JP6026836B2 (ja) | 画像表示装置、制御方法、プログラム及び記憶媒体 | |
EP3409013B1 (en) | Viewing device adjustment based on eye accommodation in relation to a display | |
CN106773064B (zh) | 影像画面的显示控制方法、装置及头戴式显示设备 | |
CN105684074A (zh) | 图像显示装置和图像显示方法、图像输出装置和图像输出方法与图像显示*** | |
JP6642430B2 (ja) | 情報処理装置及び情報処理方法、並びに画像表示システム | |
CN105164576A (zh) | 对适配于佩戴者的头戴式电光设备进行控制的方法 | |
JP5110182B2 (ja) | 映像表示装置 | |
JP5148016B2 (ja) | 立体映像提供装置及びその方法 | |
KR20190110461A (ko) | 근시 발생 및/또는 근시 진행에 대한 근거리 시야의 영향을 감소시키기 위한 시스템을 갖는 디바이스 | |
CN106293561B (zh) | 显示控制方法和装置、显示设备 | |
KR102237238B1 (ko) | 융합기능 개선을 위한 시력훈련장치 | |
WO2019150880A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5990939B2 (ja) | 立体視訓練支援装置、立体視訓練支援システム、画像処理装置、画像処理方法、及びプログラム | |
CN106708249B (zh) | 交互方法、交互装置及用户设备 | |
JP6693656B2 (ja) | 瞳孔間のキャリブレーションプログラム、前記プログラムを用いたWebサーバ、及び、瞳孔間のキャリブレーション方法 | |
WO2017022302A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN203882018U (zh) | 一种3d眼镜及3d显示*** | |
JP2021124520A (ja) | 画像表示装置、画像表示用プログラム及び画像表示方法 | |
US20220350141A1 (en) | Head-mountable display apparatus and methods | |
KR20230103223A (ko) | 가상현실 콘텐츠의 시청 중 시기능 이상 감지 및 보정 방법 | |
KR101246846B1 (ko) | 3차원 영상 표시 방법 | |
KR101247501B1 (ko) | 3차원 영상 표시 장치 | |
TR202004649A2 (tr) | Mekani̇k görsel terapi̇ maki̇nesi̇ ve kullanim yöntemi̇ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20180423 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180423 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180423 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6693656 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |