JP4232166B2 - 眼鏡装着シミュレーション方法及び装置 - Google Patents
眼鏡装着シミュレーション方法及び装置 Download PDFInfo
- Publication number
- JP4232166B2 JP4232166B2 JP2006022894A JP2006022894A JP4232166B2 JP 4232166 B2 JP4232166 B2 JP 4232166B2 JP 2006022894 A JP2006022894 A JP 2006022894A JP 2006022894 A JP2006022894 A JP 2006022894A JP 4232166 B2 JP4232166 B2 JP 4232166B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- image
- face
- data
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
- Eyeglasses (AREA)
- Image Processing (AREA)
Description
同公報には眼鏡の耳当て、テンプル、ヒンジ(よろい)、フレーム、ブリッジ、鼻当てパッドなどの各パーツを多数の形状、色彩のなかから選択し、同時に使用者の眼鏡装着部の形状、寸法を測定する方法が提案されている。
ところが、このようなオーダメイドシステムでは出来上がった眼鏡の装着状態が把握できない欠点があり、例えば選択したブリッジの色彩が使用者個人に合うかどうか分からない問題がある。
しかし、このような2次元のコマ画面では使用者の装着感が十分に確認できない問題がある。
つまり、使用者(以下、「被験者」という)の画像を取得する際にその正面画像と側面画像が一致しない場合がある。
これによってレンズの中心と目の中心とがズレて矯正効果が損なわれることがある。
従って、その画像処理にはまず多数の肖像画データを取得しなければならない。その上で画像処理に時間を要し、簡単なデータ処理で高速な動きなど応答性の良い3次元画像を得ることは困難とされている。
更に、本発明は上記方法を用いて設備構成が簡単で安価な眼鏡装着シミュレーションシステムを提供することをその課題としている。
又、本発明は眼鏡フレームの各構成パーツを被験者の嗜好に応じてオーダメイドする際に眼鏡の装着状態を正確にシミュレーションすることが可能なシミュレーション方法及びシミュレーション装置の提供をその課題としている。
まず、本発明に係わるシミュレーション方法は、予め設定した撮影方向から被験者の顔正面の画像を撮影してカラー顔画像を取得するステップと、被験者の顔正面の凹凸形状を上記撮影方向から測定して3次元データを取得するステップとを備え、この両ステップで取得したデータに基づいて被験者の3次元顔画像を生成するステップを設ける。
この3次元顔画像は、顔正面の凹凸形状の3次元データに上記カラー顔画像から抽出したテキスチャ情報を合成して生成する。
一方、眼鏡の構成パーツ、レンズ、形状、色彩などを選定して眼鏡モデルを設定するステップと、このステップで設定された眼鏡モデルの眼鏡画像データ(第1の3次元眼鏡画像)を生成するステップを設ける。
3次元顔画像に対する第1の3次元眼鏡画像の3次元相対位置は、3次元顔画像から求めた鼻部の位置や3次元眼球位置を基に自動算出され、更に、必要に応じて手動操作によって微調整が加えられる。このように3次元顔画像に対する第1の3次元眼鏡画像の3次元位置関係を計算又は指示するステップを設ける。
更に、生成された立体画像データを2次元の画像表示装置に表示するために、立体画像データを見る方向を指示し、指示された方向からの立体画像データを表示するステップを設ける。
これにより、パーツの長さやパーツ同士の組み付け角度・組み付け位置等が計算されて眼鏡が設計される。
又、眼球位置に対するレンズ中心位置が指定され、レンズ形状又はフレーム形状からレンズ中心位置に対するレンズ淵の3次元形状が算出される。
こうして、第2の3次元眼鏡画像が生成されるとともに、これらの計算値に基づいて眼鏡が製作される。
次に、請求項6の発明では、被験者の顔画像を少なくとも相異なる2方向から撮影する第1の撮像カメラ手段及び第2の撮像カメラ手段と、被験者の顔正面の凹凸形状を測定するレーザスキャニング手段とを備える。
そして、上記第1の撮像カメラ手段及び第2の撮像カメラ手段の少なくとも1つから被験者のカラー顔画像を取得する手段を備える。
上記第1の撮像カメラ手段及び第2の撮像カメラ手段から被験者の3次元眼球位置を算出し、レーザスキャニング手段と第1の撮像カメラ手段又は第2のカメラ手段によって、顔正面の3次元データを取得する。
そして、顔正面の3次元データにカラー顔画像をテキスチャマッピングして、3次元顔画像を生成する手段を備える。
レーザスキャニング手段は、簡便で安価な機構で顔の凹凸形状を計測するが、眼球位置の計測には不向きであるため、眼球は第1の撮像カメラ手段及び第2の撮像カメラ手段を用いたステレオカメラ方式によって計測することを特徴とするものである。
これはパッドの3次元形状モデルと、3次元顔画像に含まれる3次元データとの位置関係から、パッド面に対しての、パッドと顔が接している点の割合が計算される。
当接状態は、この割合の値を数値で表示するか或いはパッドと顔が接している点に色、模様など付けて3次元眼鏡画像と共に合成表示する。
立体画像データを見る方向が、カラー画像や3次元データの計測方向からの場合、3次元顔画像中の眼球位置と、カラー画像中の眼球位置が同一座標に表示されるように、カラー画像の位置を移動・拡縮して背景画像として生成する。
そして、背景画像と3次元眼鏡画像とを合成して表示する。こうすることで、撮影方向の視点だけではあるが、自然なカラー顔画像と眼鏡モデルが合成表示でき、忠実な眼鏡装着シミュレーションとなる。
正面顔(第1の時刻の顔)における3次元顔画像や眼球位置に基づいて、3次元位置関係が指示され、眼鏡が設計されて3次元眼鏡画像が生成される。
第2の時刻の顔(例えば斜め顔)においても3次元顔画像、3次元眼球位置が計測される。
そこで、第1の3次元顔画像と第2の3次元顔画像とをパターンマッチングすることによって、第1の顔姿勢に対する第2の顔の姿勢(相対姿勢:3次元位置と角度)を求める手段を備える。
そして、第1の3次元顔画像と3次元眼鏡画像との3次元位置関係に、更に、上記相対姿勢を加味して、3次元眼鏡画像を回転移動して、第2の3次元顔画像に合成する手段を備える。
こうして、正面顔で設計された眼鏡を、斜め顔等異なる顔姿勢の画像に合成して表示する。
更に、3次元顔画像中の眼球位置から、予め設定された角度の視線(直線)を生成し、レンズとの交点位置を求める。
この交点位置についてもレンズ上に描画すれば、例えば近用部を視線が正しく通過しているか否かを検証確認することができる。
こうして、好ましいレンズ選定やレンズ位置を設計できる眼鏡装着シミュレーションを構成する。
そして、上記第1の撮像カメラ手段及び第2の撮像カメラ手段の少なくとも1つから被験者のカラー顔画像を取得する手段を備える。
上記第1の撮像カメラ手段及び第2の撮像カメラ手段から被験者の3次元眼球位置を算出し、レーザスキャニング手段と第1のカメラ手段又は第2のカメラ手段によって、顔正面の3次元データを取得する。
そして、顔正面の3次元データにカラー顔画像をテキスチャマッピングして、3次元顔画像を生成する手段を備える。
レーザスキャニング手段は、簡便で安価な機構で顔の凹凸形状を計測するが、眼球位置の計測には不向きであるため、眼球は第1のカメラ及び第2のカメラを用いたステレオカメラ方式によって計測することを特徴とするものである。
こうして、決定された眼鏡の装着位置に対し、3次元顔データによる鼻部位置や耳部位置、眼球位置等の情報から、最適な眼鏡の設計、例えばテンプル長、テンプルとヒンジの取り付け角度等の設計が、上記検証と同時に可能となり、被験者の拘束時間が短くかつ確実な眼鏡発注が可能となる。
そして、好みに応じた眼鏡の選定、似合うか否かの被験者の判断、等が、鏡を見ながら行う感覚で可能となり、実際の装着状態に近い状態での眼鏡装着シミュレーションが実現できる。
図1は、本発明を採用したオーダメイドシステムの構成を示し、図2は、その測定部の構成を示す説明図である。
本発明のオーダメイドシステムは、例えば眼鏡店において消費者(以下、「被験者」という)が眼鏡フレームを選択し、これに自己の処方にあったレンズを装着依頼する眼鏡注文時に、出来上がった眼鏡が自己の顔形に似合うかどうか?、フレームサイズやパッドの位置等が顔に適合するかどうか?、遠近両用レンズ等のレンズが正しく機能するかどうか?、レンズの製作可否はどうか?、などを注文時にシミュレーションする方法及び装置(以下、「システム」という)として構成する。
これは例えば、パッドの位置が鼻の位置に接するように眼鏡をかけたときにレンズやフレームが額や頬に接触してはならない。又、遠近両用レンズを注文した場合、上下方向に小さい(横長い)フレームやレンズ形状を選定すると、近用部がレンズ外になってしまう場合がある。
又、大きなレンズやフレームを選定すると、レンズが製作できなくなる可能性もある。
又、レンズやフレームと額・頬が接触しない条件下で、パッドと鼻の接触具合を判断しながらパッドの位置を設定(設計)し、テンプル部の長さや取り付け角度等を設定することが可能なシステムとして構成する。
更に、このシステムは眼鏡フレームを構成するパーツ(例えばテンプル部、耳当て部、ヒンジ部、ブリッジ、パッド、レンズ形状など)を使用者がその形状、色彩、模様などの多数のパーツから好みに合わせて選択して眼鏡フレームを注文する際に自己の顔形に合うかどうか?、をシミュレーションすることが可能なシステムとして構成する。
そこで、本発明はコンピュータ画面で被験者に似合うかどうかのシミュレーションが可能なシステムとして構成する。
又、複数の顔姿勢で取得した顔データを3次元姿勢マッチングによって、それぞれの顔姿勢を計算することで、一つの顔データとの相対位置が決定された眼鏡は、他の顔姿勢でも所定の位置に合成表示できるようにする。
本発明の特徴は、カメラ撮影した被験者の3次元顔画像とコンピュータ上で選択した眼鏡フレームと矯正レンズとの合成画像(以下、「3次元眼鏡画像」という)をコンピュータ画面上に表示することで、あらゆる角度から眼鏡の装着状態が確認できるようにすることを特徴としている。
計測部Aは3つの照明手段10,11,12と、レーザスキャニング装置13と第1撮像手段14aと第2撮像手段14b、視線誘導マーカ29とを備えている。
制御部Bは各照明手段の電源101,111,121とレーザスキャニング装置13のスキャン機構131を制御するモータドライバ132とを備えている。
又、上記第1撮像手段14aはカラーカメラで構成され、第2撮像手段14bはモノクロカメラで構成されている。この第1撮像手段14a及び第2撮像手段14bはデータ処理部Cを構成するマイクロプロセッサ(以下、「CPU」という)15で撮像制御される。
上記データ処理部Cはコンピュータ30で構成されディスプレイ31と入力装置32とマウス33を備えている。
又、データ処理部Cには眼鏡フレームを設定するパーツ情報と、眼鏡レンズを設定するレンズ情報のパーツデータベース34が接続されている。これらのデータベースは本シミュレーションシステムのための単独のデータベースとして構成するか、レンズその他のパーツ発注システムのデータベースと共用するように構成する。
視線誘導マーカ29がLEDランプで配置してあり、このLEDは被験者の目の中心、目とほぼ同じ高さに位置するように配置されている。
計測時には、眼の3次元位置計測を確かなものにするために、被験者には視線誘導マーカ29を見つめてもらう。
レーザスキャニング装置13は視線誘導マーカ29を基準に上方に配置され、被験者の目(眼球)にレーザ光が強く照射しないようにしてある。
このレーザスキャニング装置13は図示しないがレーザビームの発信器133とスキャン機構131で構成され、レーザ発信器133は例えばシリンドリカルレンズ等で水平なスリット状のライン光を発生し、このライン光はミラーを駆動モータで回転させるスキャニング機構131でライン光が上下に移動するように構成される。
このスキャニング機構を制御することによって、被験者の顔面上下方向に、例えば50〜200ラインの測距データを取得するように、被験者の顔面から反射した反射レーザ光から後述する方法で被験者の顔面の凹凸形状を測定する。
イヤーマーカ20は、左右一対の眼鏡テンプル形状の装着部本体21と、その基端部に一体形成された耳当て部22と、先端部に形成されたマーカプレート23とから構成されている。
そして、基端耳当て部22を被験者の耳裏に当接し、先端マーカプレート23を被験者の顔正面に向けて装着する。マーカプレート23の表面にはマーク24が形成してあり、テンプル形状の装着部本体の長さは予め所定長さに設定してある。
同時に、マークの傾き形状を測定すれば被験者の左右の耳の位置の違い(左右耳の上下位置)や、耳当て部のローテーション角度を測定することが出来る。
図示のものはこのマーカプレート23のマーク24を前述の第1カメラ14a及び第2カメラ14bで測距するのと同時に前述のレーザスキャニング装置13で測距する。両者の測定値が異なるときには警告を発して再測定を促す。
測距と同時に、マーカ表面に描かれた四角形の回転角を(2次元)画像処理によって検出して、耳当て部の最適ローテーション角度(左右別)を計測する。
上述の測定部の装置構成において、被験者の顔画像の撮影と顔表面の凹凸形状や眼球位置計測は以下のように測定される。本発明は被験者の顔面を正面方向で予め設定された撮影方向から撮影及び、測距することを特徴とする。
従来において、通常の3次元表示方法は頭部画像の場合、被験者の頭部を360度方向から撮影及び測距することが行われているが、本発明は被験者の頭部を顔正面方向から撮影及び測距(以下、この両者を単に「測定」という)を行う。
第1の計測は、眼鏡の設計、すなわち、フレームと顔との位置関係(パッドの接触、頬や額との接触判断)、レンズと眼の位置との関係等を設計したり検証するための「計測」である。
第1の計測では、前述のイヤーマーカを装着して行う(「マーカ装着測定」)。眼鏡の装着具合にテンプル長は重要であり、したがって、耳の位置の計測が重要だからである。よって、第1の計測では、左右の眼球位置、顔の3次元凸凹形状、イヤーマーカ位置から換算される耳の位置を計測する。
そのためには、イヤーマーカは視覚的に邪魔になるため、イヤーマーカなしでの顔の測定を行う(「素顔測定」)。第2の計測では、左右眼球位置、顔の3次元凸凹形状を計測する。
又、第2の計測は、正面顔以外に、斜めに向いた顔や、少し上向き、少し下向き等の顔姿勢で計測する。眼鏡を選定する場合に鏡の前で顔を回転させながら似合うかどうかを判断することと同様の画像を、眼鏡と顔のシミュレーション表示で行うためである。
以下の説明で、3次元座標系を、被験者の前方向にZ軸、上方方向にY軸、左右方向にX軸をとる。又、第1カメラ14aや第2カメラ14bの2次元の座標を(x,y)で表すものとする。
計測は、被験者が視点誘導マーカ29を見つめた状態で前記第2光源手段(照明)11及び第3光源手段(照明)12を照射し、第1カメラ14aと第2カメラ14bとで撮影する。
第1カメラ14aと第2カメラ14bとの画像データから被験者の眼球に映り込む前記第2光源手段11及び第3光源手段12の画像上での位置を検出し、両カメラの視差から両目の3次元位置に換算する。
このとき、第2光源手段11及び第3光源手段12は同一の輝度点で波長が異なる光源を切り換えるように構成してあるため、眼球に映る輝点は基本的には1点である。
又、「マーカ装着測定」では、イヤーマーカ20の座標値を第1カメラ14aと第2カメラ14bとの画像データ、すなわち、眼球位置を求める画像と同じ画像から求める。詳細は後述する。
次に、上記第2光源手段11及び第3光源手段12を消灯した状態で、レーザスキャニング装置13によって被験者の顔面凹凸形状を測距する。この手法の詳細は後述する。
第1光源手段10は白色で、被験者の自然な顔色を撮像することが目的である。この時の上記第1カメラ14aの撮影画像は「カラー顔画像」として顔画像データ記憶手段16に記憶する。
こうして、イヤーマーカ20を装着して正面顔の状態での「マーカ装着測定」測定と、イヤーマーカ20をはずし、正面顔、斜め顔、上向き顔等での「素顔測定」を行う。
この輝点は、被験者の眼孔と略々一致し眼球の中央に位置している。この輝点(LED像)のx−y平面の座標位置を検出して「2次元眼球位置データ」とする。
2台のカメラの仰角からステレオカメラの原理で奥行きZ座標の位置を検知する。このように本発明は被験者の眼球の中心を、眼球に映し出された第2光源手段11及び第3光源手段12の光の点を、目の中心位置と設定することを特徴とする。
原理は、広く知られた光切断法に基づくものである。図5に示すようにレーザ光(スリット光)を被験者の顔面上部から下部に移動させながら複数枚、例えば50枚の画像を取得する(レーザを上から下までスキャンする間に50枚の画像を取得する)。
例えば、レーザが鼻の位置にあると、図5に示すように、画像では、被検体(鼻)の距離に応じて、y方向に歪んだような画像が取得される。レーザが被検体上方(額等)に照射されている場合は、画像でもレーザ位置は上方にあるが、同じ画像内で更に画像上の上方にある部位は、カメラとの距離が短い部位と判断できる。
このようにして、レーザの照射角度と、レーザ輝線の画像上でのy座標が求められれば、被検体の3次元座標が計測できる。
なお、最大輝度値があらかじめ定められた値以下の場合、例えば黒髪や遠い背景でレーザが照射されない部分については、3次元データは存在しないと判断する。
このようにして、画像の画素毎に最大輝度の画像を求め、最大輝度を与えるレーザ照射角度と画素座標とから三角測距の原理で3次元座標を求める。なお、第2カメラ14bは、レーザ光の波長、眼の位置検出のための第2光源手段11及び第3光源手段12の光を透過すればいいので、モノクロカメラでよい。
又、レーザスキャニングの際、カラーカメラ(第1カメラ14a)での撮影データは用いない。
装置を組み上げた段階や、設置工事を行った段階、あるいは定期点検時に、3次元形状の既知の物体(基準物体、キャリブレーション冶具)を計測することで、キャリブレーションを行う。
キャリブレーションでは、基準物体のある点(既知のX,Y,Z)が、2台のカメラのどこの座標(x1,y1)と(x2,y2)に撮像されるかを求めることによって行う。
X=F1(x1,y1,x2,y2) 式1
Y=F2(x1,y1,x2,y2) 式2
Z=F3(x1,y1,x2,y2) 式3
すなわち、1つの3次元上の点(X,Y,Z)はカメラ1では(x1,y1)に、カメラ2では(x2,y2)の座標にそれぞれ、撮像されているものとする。
F1()、F2()、F3()は変換関数であり、キャリブレーションによって変換関数のパラメータを求める。眼球及びイヤーマーカの3次元座標は式1〜3で求められる。式1〜3に「2次元眼球位置データ」を代入することで「3次元眼球位置データ」が得られる。
X=F4(x2,y2,θ) 式4
Y=F5(x2,y2,θ) 式5
Z=F6(x2,y2,θ) 式6
1つの3次元上の点(X,Y,Z)は、レーザ照射角度θで、かつカメラ2の(x2,y2)の座標に撮像されているということである。
「レーザ角度画像」の座標(x2,y2)の値がθであるということで、「レーザ角度画像」のみから算出できる。変換式は上記同様にキャリブレーションで求める。「レーザ角度画像」から3次元に変換されたデータを「3次元顔形状データ」と呼ぶこととする。
x1=F7(X,Y,Z) 式7
y1=F8(X,Y,Z) 式8
これは、3次元物体の点(X,Y,Z)は、カメラ1では(x1,y1)の位置に撮像されることを意味する。このキャリブレーションは、下記に行われる。まず、式1〜3のキャリブレーション時に、x1、y1、x2、y2の対応づけが行われ、X、Y及びZの関係式が導かれる。
レーザスキャニングによって、式4〜6の推定がおこなわれるが、この時の(x2,y2)は式1〜3の(x2,y2)と同一であるから((X,Y,Z)が同一点なので)、(X,Y,Z)に対応づけられた(x2,y2)に、更に対応づけられた(x1,y1)を用いれば、式7〜8を解くことが可能である。
前述の被験者の眼球は、第2の照明及び第3の照明が眼球に映し出された像を第1カメラ14a及び第2カメラ14bで位置検出しているため正確な眼球中心とは異なるため補正する必要がある。
顔が装置に近づくほど(Zが大きくなると)、輻輳角が大きくなり(寄り目になり)、角膜部が中央に寄り、結果的に眼間距離が小さく計測される。その補正として、
補正量X’=X・R/(Z0−Z+R) 式9
補正後のX=X+X’
ただし、Rは眼球半径で約13mm、Z0−Zは眼球から視線誘導マーカ29までの距離である。又、X及びZは上記の説明で計測された眼球の3次元位置である。
(2) YとZの補正
本手法では、眼球表面で正反射する第2の照明及び第3の照明の位置を、角度の異なる2台のカメラで撮像して位置を求めるため、眼球表面の実際の位置よりZは内側、Yは上側に位置が求められる。第2の照明及び第3の照明の位置が被験者の目の位置より上方にあるためである。計測値は実際の角膜表面位置に対して、角膜半径を4mmとしたとき、Yが0.3mm程度大きめに、Zは2mm程度小さめに出力される。そこで、Yの補正量は−0.3mm、Zの補正量は2mm程度とする。
この耳位置測定は、前述のイヤーマーカ20を装着した状態で測定した結果からマーカプレート23に施されたマーク24の3次元座標データを求め、予め設定されているイヤーマーカの設計値から算出する。その方法について説明すると、マーク24は、その中心位置と回転を検知する指標24bと、マーカの識別指標24cが設けられている。この各マークの3次元位置を、前述の第1カメラ14a及び第2カメラ14bの撮像データでの座標と式1〜3から算出する。同時に先のレーザスキャニング装置の検出結果から算出する。両データからの算出値が大きく異なるときには再測定を警告する。
この識別指標24cとは、複数種類のイヤーパッド(耳かけ部)の形状から被験者に最もフィットする形状のものを販売店か被験者の好みによって予め選択しておき、その種類を表す指標である。したがって、左右同じ種類でないとならない。
又、画像で識別することによって、眼鏡製作時の注文書に自動的に種類を記載することができるものである。
このように算出した耳部の3次元座標と耳当て部のローテーション角度は、眼鏡のテンプルの長さや耳当て部のローテーション角度の設計に用いられる。
後述する眼鏡フレームの選定の為に被験者顔面の「ノーズディプ」の算出を行う。ノーズディップとは、鼻の中心線(左右中心=上下方向の線)のもっとも凹んだ位置であり、顔を上に向けた時の、いわゆる馬鞍点である。
この位置にブリッジをもってくると、レンズと眼の距離が短くなって好ましい眼鏡設計が可能である。先のレーザスキャニング装置13で検出した「3次元顔形状データ」からノーズディップを次の方法によって求める。
左右両眼の中央部付近の約10mm(X)×10mm(Y)の範囲において、Zの値を2次曲面近似する。近似された曲面をX方向に走査し、最も高い点の座標(X,Z)を、Y毎に求める。Y毎に求められたZの値で、最も低い点の座標を求め、ノーズディップ位置とする。
上述の被験者の顔面測定と、この測定結果から「眼の位置」、「耳の位置」、「ノーズディプ位置」が求められるが、これと前後して、好ましくは並行して図1のシステム構成において「眼鏡設計」を行う。この眼鏡設計は眼鏡フレームの選定とレンズ製作条件の設定とでそれぞれ最適値を設定する。まず眼鏡フレームは前述のパーツデータベース34から被験者の嗜好と後述するシミュレーションを繰り返しながら設計する。同時にレンズは被験者の矯正処方データを入力装置32から入力し、パーツデータベース34に記憶されているレンズ形状を後述するシミュレーションで設定する。
本装置では、(A)の場合は眼鏡設計、(B)の場合は、被験者へのフィット具合の検証、(C)の場合はパッド部の設計や検証に用いることができる。
(1)レンズ処方を入力する。被験者の検眼結果に応じて矯正処方を入力装置32から入力する。
(2)ブリッジ、ヒンジ、テンプル、レンズ等の構成パーツの形状や色を選択する。これらの構成パーツは予め3次元のサーフェスモデルとしてデータベース化しておく。同様にレンズの形状、色彩を被験者の好みに応じて選択する。レンズは2次元の形状モデルでデータベース化しておくことが簡便である。
(3)眼鏡と顔の相対位置を決定するための「基準姿勢」を決定する。「基準姿勢」パラメータは、平行移動成分(X0,Y0,Z0)と回転角度(α0,β0,γ0)からなる。 α0はX軸回りの回転角度(ピッチ角)、β0はY軸回りの回転角度(ヨー角)、γ0はZ軸回りの回転角度(ローテーション角)である。
初期値としては、両目の結ぶ直線の傾き角をβ0とγ0とし、「ノーズディップ」位置を(X0,Y0,Z0)とし、α0=0とする。これらの値は後の操作で変更可能である。「3次元顔形状データ」を「基本姿勢」によって回転平行移動させれば、正面を向いた顔の3次元データ(以下、「回転補正顔データ」)に変換される。「回転補正顔データ」の原点は「ノーズディップ」の位置である。
(4)被験者の視点位置を設定する。視点位置の前方にレンズ中心がくるようにフレーム設計する。通常の視点位置は左右眼の中心にあるが、被験者の眼鏡の使い方によっては、眼のやや下側であったり、内側に設定することもある。左右の眼の位置「3次元眼球位置データ」を上記同様回転補正した座標を基準に(そのままや下側や内側等に)設定する。
(5)ブリッジサイズ、レンズサイズとレンズの角度、レンズ距離(眼から前方への位置)を入力する。リムレスフレームでは、「回転補正顔データ」の原点の前方数mmの位置にブリッジ中心をおいて、ブリッジとレンズに角度(縦方向)を持たせてレンズ形状に基づく規定の位置で両者を接合し、レンズとヒンジにも角度を持たせてレンズ形状に基づく規定位置で接合する。
ヒンジとテンプルにも角度(縦、横)をつけて接合する。計測された耳位置に耳当てがくるように、様々な角度とテンプル長を、レンズ位置・角度と耳位置情報に基づいて自動的に算出(設計)する。なお、ブリッジの傾き角は、「回転補正顔データ」に対しては(0,0,0)である。すなわち、眼鏡位置を固定して顔の3次元データを回転平行移動して合成する。例えば(X0,Y0,Z0)の値を変化させると、顔の位置が平行移動し、相対的に眼鏡をかける位置が変化する。
(6)レンズ処方とレンズ形状(2次元)、レンズ種類(レンズメーカ)に基づいて、レンズ外周の3次元座標を計算し、コパ厚(外周の厚み)を求め、レンズ淵の表面側3次元座標と裏面3次元座標を求めて、レンズの3次元モデルとする。この時、レンズ外周は上記のブリッジやヒンジ位置との接合点に対応するが、レンズ中心は、(4)で設定した視点位置に合わせるので、同じレンズ形状であっても視点位置が異なるとレンズ淵の厚み等は変化するのでこれを算出する。
上述の手順で眼鏡に関する条件が設定され後述するシミュレーション表示に備える。以上のように眼鏡を構成する部品の3次元モデルを合成して「3次元眼鏡データ」を作成する。
(1)レンズ処方は上記同様である。
(2)枠付きフレームを好みに応じて選定する。枠付きフレームでは、ブリッジとレンズ形状に相当するフレーム部、更にパッドが一体となり、テンプルの長さのみが調整可能なものである。
(3)「ノーズディップ」位置にフレーム中心(ブリッジ中心)がくるように、フレーム全体の位置(X,Y)を決定する。Zについては後述するパッドの接触情報から決定する。枠付きフレームでは、テンプルの角度(X軸回転の角度=仰角=ピッチ角)が固定なので、レンズ角度(=フレーム角度)は、耳の位置に耳当て部がくるように全体を傾けて、3次元データを生成する。レンズ形状とフレーム形状を置き換えれば、レンズ中心の置き方、レンズ厚の計算、レンズ製作可否、累進ポイントの表示等はリムレス眼鏡の場合と同様である。
ブリッジクリアランスとは、眼鏡の中央部と顔との隙間のことで、ブリッジクリアランスが小さ過ぎると眼鏡が顔にぶつかりやすく、大き過ぎると見栄えが悪くなったり、後述するパッド位置の設計に支障をきたしたりする可能性があって好ましくない。ブリッジクリアランスは、ブリッジ部の3次元形状と「回転補正顔データ」の情報から計算できる。 ブリッジの3次元形状は、前述のパーツデータベース34から被験者の好みで選択されたブリッジの情報、すなわち、「3次元眼鏡データ」を構成する際に用いられるブリッジ部の3次元座標群である。
眼鏡を装着した際、眼鏡フレームの鼻パッド部は顔面の鼻部分に必ず接触する。例えば低すぎるパッドの眼鏡を装着するとずり落ち、逆に高すぎるパッドの眼鏡を装着すると耳当て部に応力がかかり、いずれも好ましい眼鏡とはいえない。
したがって、パッドと顔の当接状態を算出し、パッド位置や形状の良否を判断することは、眼鏡設計や眼鏡選択において重要である。パッドと鼻の接触は点ではなく面である。パッド面の3次元形状と顔の3次元形状を比較することで、「パッドの当接状態」を算出する。
本発明は、上記方法で設定した眼鏡の装着状態を被験者の「撮影画像」と「眼鏡画像」とをディスプレイ31に表示してシミュレーションする際に、撮影方向から表示する場合と、この撮影方向と異なる角度方向から表示する場合とで画像の合成方法を異ならせたことを一つの特徴とする。「カラー顔画像」は第1カメラ14aで撮影した例えば図10に示す画像データから構成されている。
又、「3次元顔形状データ」は前述の被験者顔面の凹凸形状を図11に示すようにメッシュ表現して構成する。「3次元眼鏡画像」は前述のように眼鏡フレームとして、若しくはこれを構成するパーツ毎の3次元画像データとして構成されている(図12参照)。
したがって、「3次元眼鏡画像」を「基準姿勢」パラメータに基づいた逆回転平行移動変換を行って、「3次元顔形状データ」と重ね合わせて合成3次元画像を生成し、操作者の視点角度によって透視射影変換して描画すれば、あたかも眼鏡を装着したかのようなカラー画像が表示できる。この合成3次元画像は視点角度の指定によって、自由に回転させることができるため、自由な視点から、眼鏡を装着した顔の画像を観察することができる。この画像がシミュレーション画像である。
したがって、頭髪や背景がないという意味で自然ではないシミュレーション表示となる。
そこで、撮影方向と同一方向のシミュレーション表示、すなわち、視点が視線誘導マーカ近辺にある場合、上記の「3次元顔画像」に更に「カラー顔画像」の変形画像(「背景データ」)を追加合成してシミュレーション画像を生成する。「3次元顔画像」の後方に「背景データ」を合成すれば、黒髪等のデータ欠落部では「3次元顔画像」を透過して「背景データ」が表示されるものである。
シミュレーション表示の視点が、視線誘導マーカ29の位置にある場合、その点から両目中心までの距離をZ1、「カラー顔画像」を置くための仮想平面板までの距離をZ2(=Z1+50mm程度)とする。両目のx−y座標の差にZ2/Z1を乗じた点の(x,y)が、点1や点2や点3と比例関係になるように、「カラー顔画像」を拡縮して、仮想平面板に描画し(テキスチャマッピング)「背景データ」とする。
「背景データ」は平面であるが空間上に存在するので3次元のデータを有する。なお、本手法は、視点がカメラ1から見た方向±数度の範囲でないとならない。つまり、「背景データ」を垂直に見る視点でないと、3次元画像と位置が一致しない。
「3次元顔画像」の姿勢と「3次元眼鏡画像データ」の姿勢は整合性とれており、更に、「3次元顔画像」と、後方の「背景データ」との整合性もとれているので、「3次元顔画像」を合成せず、後方の「背景データ」と「3次元眼鏡画像データ」とを直接合成表示してもよい。
この場合、「3次元顔画像」と「背景データ」の境界部の段差等が完全になくなるため、より自然な眼鏡と顔の合成画像が表示可能となる。
そして、撮影方向からの表示の場合には被験者の撮影方向顔面と眼鏡はそれぞれ3次元データから表示し、3次元データの欠落部すなわち被験者の頭部及び背景部は2次元データから画像表現することを特徴としている。尚この場合ディスプレイ31での表示は2次元表現であることは勿論である。
シミュレーションにおいては、上記の「3次元顔画像」と「3次元眼鏡画像」を合成したモデルを様々な視点方向からの画像に変換・表示して、目視にて確認する。この角度は入力装置32或いはマウス33で所定の方向(回転角度)を指定する。
この指定された角度に応じて、合成された「3次元顔画像」と「3次元眼鏡画像」とを回転させ、透視射影変換して表示する。
目視確認は次の(1)乃至(7)のような手順で行う。
(1)顔の基準姿勢は正しいか? 前述のように、顔の「基準姿勢」として、ノーズディップ位置や左右の目を水平とするような初期値を設定している。初期値ではα0(ピッチ角)=0であるが、計測時に下向き気味の場合、或いは上向き気味である場合には、α0の値を調整する必要がある。
この値は、入力装置32或いはマウス33での回転角度調整によって、「3次元顔画像」を真横から見た画像に変換し、更に、ピッチ角方向(おじぎ方向)に回転させて表示しながら、目視によって、自然と思われる姿勢を決定してα0とすれば簡便である。
(2)眼鏡の位置が顔の位置に対して正しい位置にあるか? 設計された眼鏡は、基準姿勢位置に描画される。例えば「ノーズディップ位置」が正しく求められない場合、或いは不自然な位置にある場合、合成表示された眼鏡は不自然な位置となるので、「基準姿勢」を正しい位置に微調整する。
この操作も、マウス33等で「基準姿勢」のパラメータを変更しながら、顔画像上での眼鏡位置を確認しながら決定する。
「基準姿勢」を変更しても耳の位置は一定なので、テンプル長やテンプル取り付け角度等の再設計を行い、「3次元眼鏡画像」を生成しなおす必要がある。
又、レンズ中心位置も変更になるので、レンズ淵のレンズ厚計算やレンズの3次元モデルも変更して眼鏡の合成画像を生成する。
(3)レンズ距離の設定。レンズ距離とは、眼からレンズまでの距離(Z)であるが、レンズはブリッジに接合されているので、顔とブリッジの距離を設定する。顔と眼鏡の合成画像を真横からの視点で表示させたり、斜めから、又は上方向からの視点で表示させたりして、自然なレンズ距離を入力装置32或いはマウス33を用いて設定する。この設定時に、ブリッジクリアランスが自動的に算出され、数値で確認しながら、良否の目安とすることもできる。レンズ距離によって、レンズ中心やテンプル長が変化するので、計算をし直して「3次元眼鏡画像」を生成、再表示しながら設定する。
(4)レンズ角度の設定。レンズ角度は、下向きに約8°近辺が適切であるが、場合によっては変更する必要がある。変更の際は、顔と眼鏡の合成画像を横方向からの視点で表示し、入力装置32或いはマウス33によってレンズ角度を変化させながら描画し、目視で判断する。レンズ角度を変更する場合は、眼鏡の一部の位置・姿勢を変更するので、「3次元眼鏡画像」を生成しなおす必要がある。
(5)顔との接触確認
眼鏡と顔の合成画像を、様々な視点方向からの画像に変換しながら、フレームやレンズが額や頬に接触していないか?、を目視で確認する。図16にその一例を示す。
この操作は、前述のブリッジクリアランスの算出をブリッジ部のみならずレンズ淵全体で行えば、自動計算も可能である。もし、不具合があれば、(2)や(3)や(4)に戻って再調整する。若しくは、レンズ形状フレームやレンズサイズを変更して、(2)から始める。
(6)レンズの機能の確認。レンズ中心位置の確認や、遠近両用レンズの場合は累進部位置の確認を行う。これは、レンズ計算の際に生成されたレンズ位置や累進部位置の表示モデルを「3次元眼鏡画像」や「3次元顔画像」と合成して表示し、目視で確認することで行う。このとき、眼位置から所定の角度α(下向き30°等)の線を描画し、その線が累進部を通過することを確認したり、眼と累進部位置を結ぶ直線を描画してその角度を数値表示することで、確認は更に容易となる。その表示例を図17に示す。図17では、大きな円でレンズの製作可能最大系を表し、2つの小さな丸でレンズ中心位置と、近用部位置を表している。赤い線が、目から所定の角度をもって表示された線で、ちょうど近用部位置を通っているので適切なレンズ位置にあることを表している。レンズ厚の確認もそのまま表示されるので簡便である。レンズ厚が好みに合わない場合は、レンズ種類を変更する。累進部位置を変更するには、レンズ中心位置を変更することになるため、基準姿勢の変更(2)に戻って、眼鏡と顔の位置関係を再調整する。
(7)パッド当接の確認やパッド部設計。顔に対する眼鏡の位置が決定されたら、パッド当接状態を計算して表示したり、パッド位置の自動計算を行う。図18に例を示す。
枠付きフレームの場合、パッド当接状態がよくない場合は、レンズ距離の設定(3)や基準姿勢の設定(2)に戻る。リムレスフレーム等パッド設計が可能な場合は、自動計算で設計を行うが、製作可能な範囲に入らない場合は、やはり(3)や(2)に戻る必要がある。こうして、リムレスフレームの設計や枠付きフレームの選定が行える。
そこで、本発明では、イヤーマーカを装着せずに様々な角度の顔を計測した3次元顔データ(「素顔測定」)と、「マーカ装着測定」での3次元顔データとを、パターンマッチングし、イヤーマーカなしの顔の位置姿勢パラメータを推定し、その3次元顔データに眼鏡を合成して表示することを特徴とする。
それぞれの値は、眼鏡の合成シミュレーション時に決定された「基準姿勢」から求めたもので、α1=α0、β1=β0、γ1=γ0であるが、X1、Y1及びZ1は左右の眼の中間位置である。まず、「素顔測定」の眼の位置を補正する。
正面顔においては計測時の視線方向は顔の向きと同じであるが、斜め顔の場合、横目を向いている。顔に対する眼の真の位置は、眼球の回転運動の影響だけ補正する必要がある。眼球半径をRとすると、横目の回転角はα2であるので、
補正量X’=R・sinα2 式10
補正後のX2=X2+X’
で計算できる。こうして、左右の眼の中間位置X2が補正される。
「マーカ装着測定」時の「3次元顔形状データ」を(X1,Y1,Z1,α1,β1,γ1)によって平行移動と回転操作を加えると、「回転補正顔データ」となり、真正面を向いた3次元データとなる。顔面上のある点の回転後の座標値を(XP1i,YP1i,ZP1i)とする。「素顔測定」の「3次元顔形状データ」を(X2,Y2,Z2,α2,β2,γ2)によって平行移動と回転操作を加えると、やはり「回転補正顔データ」となる。顔面上のある点の回転後の座標値を(XP2i,YP2i,ZP2i)とする。
具体的には、各パラメータを微小に変動させながら、「素顔測定」の顔中心部の座標を平行移動・回転を行い、各点で(XP2i,YP2i,ZP2i)を求める。「マーカ装着測定」時の「回転補正顔データ」上で(XP2i,YP2i)のZの値を求め、ZP1iとする。
ZP2i−ZP1iが2枚の回転補正顔データのZ差と見なされるので、顔の中心部全体で、ZP2i−ZP1iの二乗和をとると、顔姿勢の差の指標値とすることができる。 各パラメータ(X2,Y2,Z2,α2,β2,γ2)を微小に変動させながら、この指標値を計算し、最も小さな指標値を与えるパラメータを新たな(X2,Y2,Z2,α2,β2,γ2)とする。
Claims (6)
- 被験者の顔の2次元カラー顔画像データと3次元凹凸形状とを測定して、3次元顔画像を取得するステップと、
被験者の3次元眼球位置を計測するステップと、
眼鏡の構成パーツ、レンズ形状、色彩などを選定して、眼鏡の第1の3次元眼鏡画像を生成するステップと、
上記3次元顔画像及び上記3次元眼球位置に対する上記第1の3次元眼鏡画像の3次元位置関係を指示するステップと、
上記3次元位置関係に基づいて上記3次元顔画像と上記第1の3次元眼鏡画像とを合成して立体画像データを生成するステップと、
上記立体画像データを、指示されたビュ−角度から見た2次元画像に変換して画像表示するステップと、
上記3次元位置関係と上記3次元顔画像及び上記第1の3次元眼鏡画像に基づいて、眼鏡の構成パーツの長さ・取り付け角度、レンズの中心位置に対するレンズ淵形状を計算し、眼鏡の第2の3次元眼鏡画像を生成するとともに、眼鏡を製作するデータを生成するステップとを備えた眼鏡装着シミュレーション方法。 - 被験者の顔の2次元カラー顔画像データと3次元凹凸形状を測定して、3次元顔画像を取得する手段と、
被験者の3次元眼球位置を計測する手段と、
眼鏡の構成パーツ、レンズ、形状、色彩などを選定して、眼鏡の3次元眼鏡画像を生成する手段と、
上記3次元顔画像や3次元眼球位置と、上記3次元眼鏡画像との3次元位置関係を指示する手段と、
上記3次元位置関係に基づいて上記3次元顔画像と上記3次元眼鏡画像とを合成して立体画像データを生成する手段と、
上記立体画像データを、指示された方向から見た2次元画像に変換して画像表示する手段と、
眼鏡のパッド部の3次元形状と3次元顔画像とから、パッドの当接状態を自動計算し、パッドの当接状態を数値及び/又は画像表示する手段、
とを備えたことを特徴とする眼鏡装着シミュレーション装置。 - 被験者の顔の2次元カラー顔画像データと3次元凹凸形状を測定して、3次元顔画像を取得する手段と、
被験者の3次元眼球位置を計測する手段と、
眼鏡の構成パーツ、レンズ、形状、色彩などを選定して、眼鏡の3次元眼鏡画像を生成する手段と、
上記3次元顔画像及び3次元眼球位置と、上記3次元眼鏡画像との3次元位置関係を指示する手段と、
立体画像データを、指示された方向から見た2次元画像に変換して画像表示する手段とを備え、
上記3次元位置関係を指示する手段で指示された方向が略顔の撮影及び計測方向であるときは、3次元顔画像中の眼球位置とカラー顔画像データ中の眼球位置が一致するよう拡大又は縮小されたカラー顔画像データと、3次元眼鏡画像とを合成して立体画像データを生成表示することを特徴とする眼鏡装着シミュレーション装置。 - 被験者の相異なる第1の姿勢及び第2の姿勢に対する2次元カラー顔画像データと3次元凹凸形状をそれぞれ測定して、被験者の3次元顔画像を取得する手段と、
被験者の3次元眼球位置を計測する手段と、
眼鏡の構成パーツ、レンズ、形状、色彩などを選定して、眼鏡の3次元眼鏡画像を生成する手段と、
上記3次元顔画像や3次元眼球位置と、上記3次元眼鏡画像との3次元位置関係を指示する手段と、
上記3次元顔画像と上記3次元眼鏡画像とを上記3次元位置関係に基づいて合成して立体画像データを生成する手段と、
上記立体画像データを、指示された方向から見た2次元画像に変換して画像表示する手段と、
上記第1の姿勢で計測された3次元顔画像と上記第2の姿勢で計測された3次元顔画像の間の相対姿勢を算出する顔姿勢計算手段とを備え、
上記第1の3次元顔画像に対して指示された3次元眼鏡画像の3次元位置関係に、上記顔姿勢計算手段によって算出された相対顔姿勢を加えることにより第2の3次元顔画像に対する3次元眼鏡画像の3次元位置関係を計算して、第2の3次元顔画像と3次元眼鏡画像とを該3次元位置関係に基づいて合成して立体画像データを生成して表示することを特徴とする眼鏡装着シミュレーション装置。 - 被験者の顔の2次元カラー顔画像データと3次元凹凸形状を測定して、3次元顔画像を取得する手段と、
被験者の3次元眼球位置を計測する手段と、
眼鏡の構成パーツ、レンズ、形状、色彩などを選定して、眼鏡の3次元眼鏡画像を生成する手段と、
上記3次元顔画像や3次元眼球位置と、上記3次元眼鏡画像との3次元位置関係を指示する手段と、
上記3次元顔画像と上記3次元眼鏡画像とを上記3次元位置関係に基づいて合成して立体画像データを生成する手段と、
上記立体画像データを、指示された方向から見た2次元画像に変換して画像表示する手段と、
眼鏡を構成するレンズが多焦点レンズの場合、焦点部の3次元位置を表示させるためのデータを3次元眼鏡画像に加える手段と、
上記3次元眼球位置を通り、所定の角度を有する直線と、レンズとの交点位置を表示させるためのデータを3次元眼鏡画像に加える手段、
とを備えたことを特徴とする眼鏡装着シミュレーション装置。 - 被験者の顔画像を少なくとも2方向から撮影する第1及び第2の撮像カメラ手段と、
被験者の顔正面の凹凸形状を測定するレーザスキャニング手段と、
上記第1及び第2の撮像カメラ手段の少なくとも1つから被験者のカラー顔画像データを取得するカラー顔画像データ取得手段と、
上記第1及び第2の撮像カメラ手段によって撮影された画像から、被験者の3次元眼球位置を算出する手段と、
上記レーザスキャニング手段及び上記第1又は第2の撮像カメラ手段から被験者の顔正面の凹凸形状を測距して顔正面の3次元データを取得する3次元データ生成手段と、
上記顔正面の3次元データに上記カラー顔画像データをテキスチャマッピングして3次元顔画像を取得する手段と、
眼鏡の構成パーツ、レンズ、形状、色彩などを選定して、眼鏡の3次元眼鏡画像を生成する手段と、
上記3次元顔画像や3次元眼球位置と、上記3次元眼鏡画像との3次元位置関係を指示する手段と、
上記3次元顔画像と上記3次元眼鏡画像とを上記3次元位置関係に基づいて合成して立体画像データを生成する手段と、
上記立体画像データを、指示された方向から見た2次元画像に変換して画像表示する手段とを備えることを特徴とする眼鏡装着シミュレーション装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006022894A JP4232166B2 (ja) | 2006-01-31 | 2006-01-31 | 眼鏡装着シミュレーション方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006022894A JP4232166B2 (ja) | 2006-01-31 | 2006-01-31 | 眼鏡装着シミュレーション方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007206211A JP2007206211A (ja) | 2007-08-16 |
JP4232166B2 true JP4232166B2 (ja) | 2009-03-04 |
Family
ID=38485757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006022894A Active JP4232166B2 (ja) | 2006-01-31 | 2006-01-31 | 眼鏡装着シミュレーション方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4232166B2 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4492654B2 (ja) | 2007-08-29 | 2010-06-30 | オムロン株式会社 | 3次元計測方法および3次元計測装置 |
JP5137644B2 (ja) * | 2008-03-21 | 2013-02-06 | オリンパス株式会社 | 眼鏡型画像表示装置 |
JP5115751B2 (ja) * | 2009-04-07 | 2013-01-09 | 株式会社アイメトリクス・ジャパン | 眼鏡設計支援装置 |
JP5327866B2 (ja) * | 2009-09-11 | 2013-10-30 | 国立大学法人東京農工大学 | 眼鏡のフィッティングシミュレーションシステム、眼鏡のフィッティングシミュレーション方法及びプログラム |
EP2522458B1 (en) * | 2011-05-13 | 2016-07-06 | ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) | Process for determining position parameters of a manufactured surface relative to a reference surface |
US9282888B2 (en) | 2012-04-24 | 2016-03-15 | Vsp Labs, Inc. | Digital measurement system and method for optical applications |
US8899482B2 (en) * | 2012-04-24 | 2014-12-02 | Vsp Labs, Inc. | Digital measurement system with magnetic card reader and method for optical applications |
JP6099232B2 (ja) | 2013-08-22 | 2017-03-22 | ビスポーク, インコーポレイテッド | カスタム製品を創作するための方法及びシステム |
JP6626698B2 (ja) * | 2015-11-26 | 2019-12-25 | 矢崎総業株式会社 | レンダリング計算方法および表示装置 |
EP3355102A1 (de) | 2017-01-27 | 2018-08-01 | Carl Zeiss Vision International GmbH | Computerimplementiertes verfahren zur bestimmung von zentrierparametern |
EP3354190B1 (de) | 2017-01-27 | 2018-12-05 | Carl Zeiss Vision International GmbH | Computerimplementiertes verfahren zur detektion eines hornhautscheitels |
ES2753645T3 (es) | 2017-07-06 | 2020-04-13 | Zeiss Carl Vision Int Gmbh | Procedimiento, dispositivo y programa informático para la adaptación virtual de una montura de gafas |
WO2019117146A1 (ja) * | 2017-12-15 | 2019-06-20 | 株式会社シャルマン | 基準正面設定装置、計測装置、眼鏡選定装置、カルテ作成装置、計測方法、眼鏡選定方法、及びカルテ作成方法 |
JP6431591B1 (ja) * | 2017-12-15 | 2018-11-28 | 株式会社シャルマン | 三次元顔画像の基準正面の設定方法、それを用いた眼鏡の選定方法及びそれを用いたカルテの作成方法 |
JP6490861B1 (ja) * | 2018-08-17 | 2019-03-27 | 株式会社シャルマン | 三次元顔画像の基準正面の設定方法、それを用いた眼鏡の選定方法及びそれを用いたカルテの作成方法 |
JP7218241B2 (ja) * | 2019-05-16 | 2023-02-06 | 株式会社ニコン・エシロール | 画像表示装置、発注端末装置、画像表示方法、発注方法、及びプログラム |
JP7272985B2 (ja) * | 2020-03-23 | 2023-05-12 | ホヤ レンズ タイランド リミテッド | 仮想画像生成装置及び仮想画像生成方法 |
-
2006
- 2006-01-31 JP JP2006022894A patent/JP4232166B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2007206211A (ja) | 2007-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4232166B2 (ja) | 眼鏡装着シミュレーション方法及び装置 | |
US11867978B2 (en) | Method and device for determining parameters for spectacle fitting | |
US11412993B2 (en) | System and method for scanning anatomical structures and for displaying a scanning result | |
US7845797B2 (en) | Custom eyeglass manufacturing method | |
EP1714184B1 (en) | Custom eyeglass manufacturing method | |
US11307437B2 (en) | Method of designing and placing a lens within a spectacles frame | |
EP3371781B1 (en) | Systems and methods for generating and using three-dimensional images | |
JP2010259605A (ja) | 視線測定装置および視線測定プログラム | |
US10216010B2 (en) | Determining user data based on image data of a selected eyeglass frame | |
US11448903B2 (en) | Method for correcting centering parameters and/or an axial position and corresponding computer program and methods | |
JP2020079948A (ja) | 光学パラメータを決定するための装置および方法 | |
US20190073820A1 (en) | Ray Tracing System for Optical Headsets | |
US20190196221A1 (en) | System and Method of Obtaining Fit and Fabrication Measurements for Eyeglasses Using Simultaneous Localization and Mapping of Camera Images | |
JP2008232776A (ja) | 3次元形状計測装置および方法並びにプログラム | |
JP4536329B2 (ja) | アイポイントの位置決定方法及びアイポイント測定システム | |
KR20200006621A (ko) | 근거리 시력 지점을 결정하기 위한 방법, 장치 및 컴퓨터 프로그램 | |
TW201400084A (zh) | 注視線測定方法、注視線測定裝置、眼球回旋點測定方法及著目點測定裝置 | |
CN111868605B (zh) | 针对具体使用者校准能够佩戴在使用者的头部上的显示装置以用于增强显示的方法 | |
JP3969842B2 (ja) | 眼鏡装用シミュレーションにおける合成画像作成方法 | |
US20220398781A1 (en) | System and method for digital measurements of subjects | |
JP5652973B1 (ja) | 双眼ルーペの製作方法 | |
WO2021237952A1 (zh) | 一种增强现实的显示***及方法 | |
CN112752537A (zh) | 用于确定处于自然姿势的受试者的至少一个几何形态参数以确定视力矫正装备的方法 | |
JP2013097014A (ja) | 位置データ算出方法 | |
US20240176418A1 (en) | Method and system for improving perfomance of an eye tracking system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080826 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081127 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111219 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4232166 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111219 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111219 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20181219 Year of fee payment: 10 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |