JP4136061B2 - Paraxial amount processing method and processing apparatus - Google Patents

Paraxial amount processing method and processing apparatus Download PDF

Info

Publication number
JP4136061B2
JP4136061B2 JP09302098A JP9302098A JP4136061B2 JP 4136061 B2 JP4136061 B2 JP 4136061B2 JP 09302098 A JP09302098 A JP 09302098A JP 9302098 A JP9302098 A JP 9302098A JP 4136061 B2 JP4136061 B2 JP 4136061B2
Authority
JP
Japan
Prior art keywords
ray
plane
minute
light beam
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP09302098A
Other languages
Japanese (ja)
Other versions
JPH11287947A (en
Inventor
透 中村
鈴木明子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP09302098A priority Critical patent/JP4136061B2/en
Publication of JPH11287947A publication Critical patent/JPH11287947A/en
Application granted granted Critical
Publication of JP4136061B2 publication Critical patent/JP4136061B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Lenses (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、光学系の近軸計算を行うための近軸量処理方法、及び、それを用いた処理装置に関し、特に画面上の位置や物点近傍の方位により近軸量が異なる光学系に用いて好適な近軸量処理方法、及び、それを用いた近軸量処理装置に関する。
【0002】
また、本発明は、画面上の位置や物点近傍の方位により近軸量が異なる光学系の形状決定のために好適な近軸量処理方法、及び、それを用いた近軸量処理装置に関する。
【0003】
また、本発明は、光学系の近軸計算を行うための近軸量処理方法、及び、これらの近軸量を用いて光学系の形状決定を行う近軸量処理方法を記録した機械可読な記録媒体に関する。
【0004】
また、本発明は、通常の近軸量に限らず、一般的な一部の実光線収差、例えば照度等の物理量の計算方法に関する。
【0005】
さらに、本発明は、画面上の位置や物点近傍の方位により近軸量が異なる光学系に関する。
【0006】
【従来の技術】
従来より、各面の回転対称軸である光軸の周りに回転対称の屈折面又は反射面を配置してなる共軸光学系が、物体面の像を像面に結像する光学系として用いられてきた。そして、その共軸光学系の骨組みを決めるものとして共軸系の近軸理論があり、共軸光学系の設計の際に焦点距離や倍率を決めるのに用いられている。そうした近軸量を用いて共軸光学系の骨組みが決められ、収差をターゲットとした自動設計法等により共軸光学系の形状が決定されている。
【0007】
ところが、最近、HMD(head mount display)のような表示系においては、従来の共軸光学系の範疇に属さないような設計がしばしば見受けられるようになってきた。
【0008】
このような回転非対称光学系では、一般に、近軸量が方位に依存し、画面上の位置によっても近軸量が異なる。このような回転非対称な光学系の設計では、無理に回転対称系の近軸理論を当てはめたり、特開平9−5650号で提案されている、基準軸と面との交点に面の座標原点を取って近軸量を計算したりしていた。
【0009】
また、回転対称の光学系であっても、画角の広い内視鏡対物レンズや、魚眼レンズ等の、歪曲収差の大きい光学系においては、光軸近傍の情報から計算した倍率や焦点距離では、画面周辺の結像状態を表すには不十分な場合があった。
【0010】
【発明が解決しよとする課題】
従来のような共軸光学系の計算方式で求めた近軸量では、偏心量の度合いが大きい場合には、設計の手掛かりになるような精度で近軸量を求めることができなかった。また、基準軸に沿って座標原点をとる方法では、面の表現方法が複雑になったり、座標軸の決め方に制限が必要になる。
【0011】
また、何れの方法でも、歪曲収差の大きい広画角の光学系でも軸上の情報だけで画面全体の結像状態を表現しなければならず、情報が不足気味であった。
【0012】
本発明は従来技術のこのような問題点に鑑みてなされたものであり、その目的は、座標軸の取り方に依存しないで、非対称光学系の近軸量を計算する手段を得ることである。
【0013】
また、別の目的は、歪曲収差の大きい広画角の光学系の画面周辺の結像の様子を表現することができる近軸量を計算する手段を得ることである。
【0014】
【課題を解決するための手段】
以上述べた問題点を解決するために、本発明の近軸量処理方法は、任意の曲面から構成される光学系において、物体面から像面に至る任意の基準光線を設定し、該基準光線上に基準点を考え、該基準点から射出し、該基準光線と前記曲面の交わる点近傍での、前記基準光線の近傍を伝播する微小光束の広がりを求め、前記広がりを少なくとも1面又は全系にわたって計算することにより、該基準光線の近傍での近軸量を計算する手法を用いる。
【0015】
ここで言う光束の広がりとは、最初、ある形、ある太さを持っていた光束(光線の集まり)が、光学系を伝播して行くうちに、どのような太さ、形になるかということを言う。
【0016】
もう少し具体的なことを考えると、最初は、光束の断面形状がある半径の円であったとき、光学系を伝播して行くうちに、断面形状が楕円形になって行く。そのときの楕円の長軸、短軸の長さ、軸の傾き方向を光束の広がり情報と考える。
【0017】
もし、最初の光束の断面形状が正方形であれば、光学系を伝播して行くうちに光束の断面形状は平行四辺形になって行くと考えられる。この平行四辺形の各辺の長さ、及び、辺の方向が光束の広がり情報である。
【0018】
別の言い方をすれば、光学系を通過する光線上に基準点を考え、この基準点を含まない基準面を考える。基準面上に基準光線近傍の微小な閉曲線を考える。基準点を出てこの閉曲線の周及び内部を通る光線の集合からなる光束を考え、この光束が光学系全体を通過した場合を考える。この光束が光学系を伝播して行くと、各面での光束の断面が、広くなったり、狭くなったり、形が変わったり、回転したりする。この、光束の断面積や立体角、形の変化が光束の広がり情報である。この広がり情報を、計算したい面まで追跡して必要な情報を得る。基準点は、物点から像点に至る実際の光線上、及び、各空間における光線の延長上のどこにあってもよい。同様に、基準面も、実際の光線、及び、その延長上で基準点以外のどこにあってもよい。全系のローカル近軸量を考えるときには、基準点としては、光線が絞り面を横切る点、又は、物体面又は像面と光線との交点をとるのが望ましい。
【0019】
ローカル近軸量とは、次のようなものである。
上記光束の広がりを求めるときに基準面上で考えた閉曲線上に一点を考える。基準点から出てこの一点に至る光線を微小光線と呼ぶことにする。基準面と基準光線との交点から基準面と微小光線との交点までの変位ベクトルをdx0 で表し、ローカル近軸量を計算したい面での微小光線の変位をdxI で表す。基準面の前側又は後側空間での基準光線の方向を表す単位ベクトルをA0 、同じ空間での微小光線の方向を表す単位ベクトルをA0 +dA0 、ローカル近軸量を計算したい空間での基準光線の方向を表す単位ベクトルをAI 、同じ空間での微小光線の方向を表す単位ベクトルをAI +dAI としたとき、dx0 及び/又はdA0 と、dxI 及び/又はdAI とを用いて計算できる量をローカル近軸量と定義する。考えられるローカル近軸量としては、結像位置、結像方位、焦線方位、倍率、焦点距離、瞳位置、主点位置、節点位置、照度等がある。
【0020】
次に、具体的な処理方法を説明する。
(A−1) 任意の曲面から構成される光学系において、物体面から像面に至る任意の基準光線を設定し、該基準光線上に基準点を考え、該基準点から射出し、該基準光線と前記曲面の交わる点近傍での、前記基準光線の近傍を伝播する微小光束の広がりを求め、前記広がりを少なくとも1面又は全系にわたって計算するようにしたことを特徴とする近軸量処理方法。
【0021】
(A−2) 前記物体面又は像面あるいは両方は、平面に限らず任意の曲面であってもよく、また、前記光学系は、均質媒質に限らず、分布屈折率型媒質を含む場合もあり、前記任意の曲面は、単なる反射面や屈折面だけでなく、高屈折率法や位相関数法で光線追跡できる回折面を含む面であってもよいことを特徴とする(A−1)記載の近軸量処理方法。
【0022】
(A−3) 前記広がりから、以下に述べるローカル近軸量を計算することを特徴とする(A−2)記載の近軸量処理方法。
ローカル近軸量とは、近軸的でない実際の基準光線を追跡し、その光線の近傍の情報から、結像位置、結像方位、焦線方位、倍率、焦点距離、瞳位置、主点位置、節点位置、非点収差、像面湾曲、照度等の情報を計算したものである。一般的には、ローカル近軸量は、画角や、物体高等の画面上の位置や、基準光線の周りの方位によって異なる値をとる。場合によっては、一つの物点から射出する複数の基準光線を考えて、それぞれの基準光線に関するローカル近軸量を計算することもできる。
【0023】
(A−4) 前記基準光線を少なくとも二つ設定し、前記ローカル近軸量を計算する(A−3)記載の近軸量処理方法。
【0024】
(A−5) 前記少なくとも二つの基準光線は、一つは像中心付近を通り他の一つは像周辺付近を通る光線である(A−4)記載の近軸量処理方法。
像中心付近としては、画面全体の重心を中心とする面積が画面全体の10%程度の円内に含まれる領域の物点をとることが望ましい。像周辺付近としては、画面周辺を中心とする面積が画面全体の5%程度の半円内に含まれる領域の物点をとることが望ましい。
【0025】
(A−6) (A−1)記載の計算を前記基準光線の近傍の光線を少なくとも1本追跡することにより行うことを特徴とする近軸量処理方法。
【0026】
(A−7) (A−1)記載の計算を前記基準光線の近傍の光線を少なくとも2本追跡することにより行うことを特徴とする近軸量処理方法。
【0027】
(A−8) (A−1)記載の計算を前記基準光線の近傍の光線を少なくとも3本追跡することにより行うことを特徴とする近軸量処理方法。
【0028】
(A−9) (A−1)記載の計算を面の形状を表す関数の2階微分の値、又は、面から射出する光線の方向を表すベクトルの1階微分の値、又は/及び、面の法線の方向を表すベクトルの1階微分の値を用いた光束密度追跡の手法により行うことを特徴とする近軸量処理方法。
【0029】
(A−10) (A−1)記載の計算を面の形状を表す関数の2階差分により求めた値、又は、面から射出する光線の方向を表すベクトルの1階差分の値、又は/及び、面の法線の方向を表すベクトルの1階差分の値を用いた光束密度追跡の手法により行うことを特徴とする近軸量処理方法。
【0030】
(A−11) (A−6)から(A−8)の何れか1項記載の計算方法と(A−9)又は(A−10)記載の計算方法とを適宜選択可能にした近軸量処理方法。
【0031】
(A−12) 前記光束の広がりを求める場合の光束の基準となる基準光線上の基準点が、光学系の物体面又は像面以外の、仮想的な面を含む任意の面を横切る点であることを特徴とする(A−6)から(A−10)の何れか1項記載の近軸量処理方法。
【0032】
(A−13) 前記仮想的な面を含む任意の面は、光学系の内部又は外部にある、絞り面又は瞳面であることを特徴とする(A−12)記載の近軸量処理方法。
【0033】
(A−14) (A−12)の近軸量処理方法により計算した、基準光線と微小に離れた光線(以下、微小瞳光線と呼ぶ。)に関する以下の量から、ローカル焦点距離、ローカル倍率、ローカル瞳の角倍率等のローカル近軸量を求めることを特徴とする近軸量処理方法。
【0034】
物体面上での微小瞳光線の変位をdx0 で表し、像面での微小瞳光線の変位をdxI で表す。物空間での基準光線の方向を表す単位ベクトルをA0 、物空間での微小瞳光線の方向を表す単位ベクトルをA0 +dA0 、像空間での基準光線の方向を表す単位ベクトルをAI 、像空間での微小瞳光線の方向を表す単位ベクトルをAI +dAI 、物空間の屈折率をN0 、像空間の屈折率をNI とする。ただし、|V|はベクトルVの大きさを表す。
【0035】
(図1参照)
ローカル焦点距離=|dxI |/|dA0 | ・・・(3)
ローカル倍率=|dxI |/|dx0 | ・・・(2)
ローカル瞳の角倍率=(NI |dAI |)/(N0 |dA0 |)・・・(4)
(A−15) 前記光束の広がりを求める場合の光束の基準となる基準光線上の基準点が、像面上の一点であることを特徴とする(A−6)から(A−10)の何れか1項記載の近軸量処理方法。
【0036】
(A−16) 前記光束の広がりを求める場合の光束の基準となる基準光線上の基準点が、物体面上の一点であることを特徴とする(A−6)から(A−10)の何れか1項記載の近軸量処理方法。
【0037】
(A−17) (A−15)又は(A−16)記載の近軸量処理方法により計算した物点又は像点で、基準光線に一致して、瞳面で、基準光線から微小に離れている光線(以下、微小物体光線と呼ぶ。)に関する以下の量から、照度、焦線方位、結像位置、ローカル角倍率等のローカル近軸量を求めることを特徴とする近軸量処理方法。
【0038】
物空間での微小物体光線の方向を表す単位ベクトルをA0 +dB0 、像空間での微小物体光線の方向を表す単位ベクトルをAI +dBI とする。
【0039】
(図4参照)
ローカル角倍率=(NI |dBI |)/(N0 |dB0 |)・・・(1)
(A−18) (A−13)又は(A−15)又は(A−16)記載の近軸量処理方法の計算によりローカル瞳倍率、瞳の位置等の瞳に関する近軸量を求めることを特徴とする近軸量処理方法。
【0040】
(A−19) 任意の曲面から構成される光学系のレンズデータを入力するステップと、
物点位置を指定するステップと、
物体面から像面に至る任意の基準光線を設定するステップと、
基準面を指定するステップと、
指定した物点位置と基準面から設定された基準光線の追跡初期値を計算するステップと、
前記基準光線の光線追跡により各面での光束の広がり情報を求めるステップと、
基準面での微小変位量dx0 を与えるパラメータを求めるステップと、
求めた微小変位量dx0 を与えるパラメータから物体側の微小光線の傾き変化量dB0 及び像側の微小光線の傾き変化量dBI を求めるステップと、
ローカル角倍率=(NI |dBI |)/(N0 |dB0 |)・・・(1)
の関係からローカル角倍率を計算するステップと、
を備えたことを特徴とする近軸量処理方法。
【0041】
(A−20) 任意の曲面から構成される光学系のレンズデータを入力するステップと、
物点位置を指定するステップと、
物体面から像面に至る任意の基準光線を設定するステップと、
基準面を指定するステップと、
指定した物点位置と基準面から設定された基準光線とその近傍の1本あるいは2本の微小光線の追跡初期値を計算するステップと、
前記基準光線と前記微小光線の光線追跡により各面での光束の広がり情報を求めるステップと、
基準面での微小変位量dx0 を与えるパラメータを求めるステップと、
求めた微小変位量dx0 を与えるパラメータから物体側の微小光線の傾き変化量dB0 及び像側の微小光線の傾き変化量dBI を求めるステップと、
ローカル角倍率=(NI |dBI |)/(N0 |dB0 |)・・・(1)
の関係からローカル角倍率を計算するステップと、
を備えたことを特徴とする近軸量処理方法。
【0042】
(A−21) 任意の曲面から構成される光学系のレンズデータを入力するステップと、
物点位置を指定するステップと、
物体面から像面に至る任意の基準光線を設定するステップと、
基準面を指定するステップと、
指定した物点位置と基準面から設定された基準光線の追跡初期値を計算するステップと、
前記基準光線の光線追跡により各面での光束の広がり情報を求めるステップと、
求めた光束の広がり情報から、次の数式1の分子が0となるような像距離Li を求めるステップと、
求めた像距離Li から焦線の位置と方位、又は、結像点の位置を計算するステップと、
を備えたことを特徴とする近軸量処理方法。
【0043】

Figure 0004136061
ここで、ui ,vi は第i面のパラメータ、
i+1 ,vi+1 は第i+1面のパラメータ、
i は基準光線の第i面での交点座標を表すベクトル、
i+1 は基準光線の第i+1面での交点座標を表すベクトル、
i はxi からxi+1 までの距離、
i 0 =Ai ・{(∂xi /∂ui )×(∂xi /∂vi )}、
i 1 =Ai ・{(∂xi /∂ui )×(∂Ai /∂vi )+(∂Ai /∂ui )×(∂xi /∂vi )}、
i 2 =Ai ・{(∂Ai /∂ui )×(∂Ai /∂vi )}
である。
【0044】
(A−22) 任意の曲面から構成される光学系のレンズデータを入力するステップと、
物点位置を指定するステップと、
物体面から像面に至る任意の基準光線を設定するステップと、
基準面を指定するステップと、
指定した物点位置と基準面から設定された基準光線とその近傍の1本あるいは2本の微小光線の追跡初期値を計算するステップと、
前記基準光線と前記微小光線の光線追跡により各面での光束の広がり情報を求めるステップと、
求めた光束の広がり情報から、次の数式1の分子が0となるような像距離Li を求めるステップと、
求めた像距離Li から焦線の位置と方位、又は、結像点の位置を計算するステップと、
を備えたことを特徴とする近軸量処理方法。
【0045】
Figure 0004136061
ここで、ui ,vi は第i面のパラメータ、
i+1 ,vi+1 は第i+1面のパラメータ、
i は基準光線の第i面での交点座標を表すベクトル、
i+1 は基準光線の第i+1面での交点座標を表すベクトル、
i はxi からxi+1 までの距離、
i 0 =Ai ・{(∂xi /∂ui )×(∂xi /∂vi )}、
i 1 =Ai ・{(∂xi /∂ui )×(∂Ai /∂vi )+(∂Ai /∂ui )×(∂xi /∂vi )}、
i 2 =Ai ・{(∂Ai /∂ui )×(∂Ai /∂vi )}
である。
【0046】
(A−23) 任意の曲面から構成される光学系のレンズデータを入力するステップと、
物点位置を指定するステップと、
物体面から像面に至る任意の基準光線を設定するステップと、
瞳位置を指定するステップと、
指定した物点位置と瞳位置から設定された基準光線の追跡初期値を計算するステップと、
前記基準光線の光線追跡により各面での光束の広がり情報を求めるステップと、
基準面での微小変位量dx0 を与えるパラメータを求めるステップと、
前記の光束の広がり情報と前記の基準面でのパラメータから次の数式2により最終面dxI での変位量を求めるステップと、
ローカル倍率=|dxI |/|dx0 | ・・・(2)
の関係からローカル倍率を計算するステップと、
を備えたことを特徴とする近軸量処理方法。
【0047】
Figure 0004136061
ここで、ui ,vi は第i面のパラメータ、
i+1 は基準光線の第i+1面での交点座標を表すベクトル、
dxi+1 は第i+1面での変位量、
du1 は第1面での変位量のu1 成分、
dv1 は第1面での変位量のv1 成分、
である。
【0048】
(A−24) 任意の曲面から構成される光学系のレンズデータを入力するステップと、
物点位置を指定するステップと、
物体面から像面に至る任意の基準光線を設定するステップと、
瞳位置を指定するステップと、
指定した物点位置と瞳位置から設定された基準光線とその近傍の1本あるいは2本の微小光線の追跡初期値を計算するステップと、
前記基準光線と前記微小光線の光線追跡により各面での光束の広がり情報を求めるステップと、
基準面での微小変位量dx0 を与えるパラメータを求めるステップと、
前記の光束の広がり情報と前記の基準面でのパラメータから次の数式2により最終面dxI での変位量を求めるステップと、
ローカル倍率=|dxI |/|dx0 | ・・・(2)
の関係からローカル倍率を計算するステップと、
を備えたことを特徴とする近軸量処理方法。
【0049】
Figure 0004136061
ここで、ui ,vi は第i面のパラメータ、
i+1 は基準光線の第i+1面での交点座標を表すベクトル、
dxi+1 は第i+1面での変位量、
du1 は第1面での変位量のu1 成分、
dv1 は第1面での変位量のv1 成分、
である。
【0050】
(A−25) 任意の曲面から構成される光学系のレンズデータを入力するステップと、
物点位置を指定するステップと、
物体面から像面に至る任意の基準光線を設定するステップと、
瞳位置を指定するステップと、
指定した物点位置と瞳位置から設定された基準光線の追跡初期値を計算するステップと、
前記基準光線の光線追跡により各面での光束の広がり情報を求めるステップと、
基準面での微小変位量dx0 を与えるパラメータを求めるステップと、
求めた微小変位量dx0 を与えるパラメータから物体側の微小光線の傾き変化量dA0 及び/又は像側の微小光線の傾き変化量dAI を求めるステップと、
前記の光束の広がり情報と前記の基準面でのパラメータから次の数式2により最終面dxI での変位量を求めるステップと、
ローカル焦点距離=|dxI |/|dA0 | ・・・(3)
ローカル瞳の角倍率=(NI |dAI |)/(N0 |dA0 |)・・・(4)
ただし、N0 は物空間の屈折率、NI は像空間の屈折率、
の関係からローカル焦点距離又はローカル瞳の角倍率を計算するステップと、
を備えたことを特徴とする近軸量処理方法。
【0051】
Figure 0004136061
ここで、ui ,vi は第i面のパラメータ、
i+1 は基準光線の第i+1面での交点座標を表すベクトル、
dxi+1 は第i+1面での変位量、
du1 は第1面での変位量のu1 成分、
dv1 は第1面での変位量のv1 成分、
である。
【0052】
(A−26) 任意の曲面から構成される光学系のレンズデータを入力するステップと、
物点位置を指定するステップと、
物体面から像面に至る任意の基準光線を設定するステップと、
瞳位置を指定するステップと、
指定した物点位置と瞳位置から設定された基準光線とその近傍の1本あるいは2本の微小光線の追跡初期値を計算するステップと、
前記基準光線と前記微小光線の光線追跡により各面での光束の広がり情報を求めるステップと、
基準面での微小変位量dx0 を与えるパラメータを求めるステップと、
求めた微小変位量dx0 を与えるパラメータから物体側の微小光線の傾き変化量dA0 及び/又は像側の微小光線の傾き変化量dAI を求めるステップと、
前記の光束の広がり情報と前記の基準面でのパラメータから次の数式2により最終面dxI での変位量を求めるステップと、
ローカル焦点距離=|dxI |/|dA0 | ・・・(3)
ローカル瞳の角倍率=(NI |dAI |)/(N0 |dA0 |)・・・(4)
ただし、N0 は物空間の屈折率、NI は像空間の屈折率、
の関係からローカル焦点距離又はローカル瞳の角倍率を計算するステップと、
を備えたことを特徴とする近軸量処理方法。
【0053】
Figure 0004136061
ここで、ui ,vi は第i面のパラメータ、
i+1 は基準光線の第i+1面での交点座標を表すベクトル、
dxi+1 は第i+1面での変位量、
du1 は第1面での変位量のu1 成分、
dv1 は第1面での変位量のv1 成分、
である。
【0054】
(A−27) 前記近軸量処理方法で計算した結果を表示又はプリントアウト又はファイルに出力することを特徴とする(A−1)から(A−26)の何れか1項記載の近軸量処理方法。
【0055】
また、本発明の記録媒体は、
(B−1) (A−1)から(A−27)の何れか1項記載の近軸量処理方法を機械可読な形で記録したことを特徴とする記録媒体
本発明の処理装置は、
(C−1) (A−1)から(A−27)の何れか1項記載の近軸量処理方法を用いていることを特徴とする近軸量処理装置。
【0056】
本発明のレンズ設計方法は、
(D−1) (A−1)から(A−27)の何れか1項記載の近軸量処理方法により求めたローカル焦点距離、ローカル倍率、ローカル角倍率、ローカル瞳倍率等のローカル近軸量を用いて自動設計をすることを特徴とするレンズ設計方法。
【0057】
(D−2) (A−1)から(A−27)の何れか1項記載の近軸量処理方法により求めたローカル焦点距離、ローカル倍率、ローカル角倍率、ローカル瞳倍率等のローカル近軸量と、従来から用いている近軸量、実光線収差との両方を同時に用いて自動設計することを特徴とするレンズ設計方法。
【0058】
本発明のレンズ設計装置は、
(E−1) (D−1)又は(D−2)記載のレンズ設計方法により自動設計、及び、ローカル近軸量を用いて光学系の性能評価を行うことを特徴とするレンズ設計装置。
【0059】
以下、本発明の光学系又は光学装置について説明する。
(F−1) (E−1)記載の記載のレンズ設計装置で設計した光学系又は光学装置。
【0060】
(F−2) (F−1)記載の光学系又は光学装置は像面距離が大きいことを特徴とする光学系又は光学装置。
【0061】
(F−3) (F−1)記載の光学系又は光学装置は物体中心を射出し、絞り中心を通り、像中心に至る光線を第1基準光線とし、楕円率を楕円の短軸の値(長さ)を長軸の値(長さ)で割った値として定義するとき、方位によって定まる像面でのローカル近軸量の楕円率が楕円率>0.5なる条件を満足することを特徴とする光学系又は光学装置。
【0062】
(F−4) 前記ローカル近軸量は、ローカル倍率であることを特徴とする(F−3)記載の光学系又は光学装置。
【0063】
(F−5) 像面全域において、前記条件を満足することを特徴とする(F−3)又は(F−4)記載の光学系又は光学装置。
【0064】
(F−6) (F−1)記載の光学系は回転対称面のみで構成されていることを特徴とする光学系又は光学装置。
【0065】
(F−7) (F−1)記載の光学系又は光学装置は回転非対称面のみで構成されていることを特徴とする光学系又は光学装置。
【0066】
(F−8) (F−1)記載の光学系又は光学装置は面対称面を1面のみ有する回転非対称面を有することを特徴とする光学系又は光学装置。
【0067】
(F−9) (F−1)記載の光学系又は光学装置はズーム光学系であることを特徴とする光学系又は光学装置。
【0068】
【発明の実施の形態】
本発明の実施例を説明する前に、まず、本発明の原理を説明する。
前記の問題点を解決するために、本発明においては、任意の曲面から構成される光学系において、物体面から像面に至る任意の基準光線を設定し、その基準光線と前記曲面の交わる点での光束の広がりを求め、その広がりを少なくとも1面又は全系にわたって計算することにより、その基準光線の近傍での近軸量を計算する手法を用いる。
【0069】
ここで言う光束の広がりとは、最初、ある形、ある太さを持っていた光束(光線の集まり)が、光学系を伝播して行くうちに、どのような太さ、形になるかということを言う。もう少し具体的なことを考えると、最初は、光束の断面形状がある半径の円であったとき、光学系を伝播して行くうちに、断面形状が、楕円形になって行く。そのときの楕円の長軸、短軸の長さ、軸の傾き方向を光束の広がり情報と考える。
【0070】
また、最初の光束の断面形状が正方形であれば、光学系を伝播して行くうちに光束の断面形状は平行四辺形になっていくと考えられる。この平行四辺形の各辺の長さ、及び、辺の方向が光束の広がり情報である。
【0071】
別の言い方をすれば、光学系を通過する光線上に基準点を考え、この基準点を含まない基準面を考える。基準面上に基準光線近傍の微小な閉曲線を考える。基準点を出て、この閉曲線の周及び内部を通る光線の集合からなる光束を考え、この光束が光学系全体を通過した場合を考える。この光束が光学系を伝播して行くと、各面での光束の断面が、広くなったり、狭くなったり、形が変わったり、回転したりする。この光束の断面積や、立体角、形の変化が光束の広がり情報である。この広がり情報を、計算したい面まで追跡して必要な情報を得る。
【0072】
基準点は、物点から像点に至る実際の光線上、及び、各空間における光線の延長上のどこにあってもよい。同様に、基準面も、実際の光線、及び、その延長上で基準点以外のどこにあってもよい。全系のローカル近軸量を考えるときには、基準点としては、光線が絞り面を横切る点、又は、物体面又は像面と光線との交点をとるのが望ましい。
【0073】
ここで、ローカル近軸量とは、次のようなものである。
上記光束の広がりを求めるときに基準面上で考えた閉曲線上に一点を考える。基準点から出てこの一点に至る光線を微小光線と呼ぶことににする。基準面と基準光線との交点から基準面と微小光線との交点までの変位ベクトルをdx0 で表し、ローカル近軸量を計算したい面での微小光線の変位をdxI で表す。基準面の前側又は後側空間での基準光線の方向を表す単位ベクトルをA0 、同じ空間での微小光線の方向を表す単位ベクトルをA0 +dA0 (図1の場合。図4の場合は、A0 +dB0 )、ローカル近軸量を計算したい空間での基準光線の方向を表す単位ベクトルをAI 、同じ空間での微小光線の方向を表す単位ベクトルをAI +dAI (図1の場合。図4の場合は、AI +dBI )としたとき、dx0 及び/又はdA0 (dB0 )と、dxI 及び/又はdAI (dBI )とを用いて計算できる量をローカル近軸量と定義する。
【0074】
考えられるローカル近軸量としては、結像位置、結像方位、焦線方位、倍率、焦点距離、瞳位置、主点位置、節点位置、非点収差、像面湾曲、照度等がある。
【0075】
光束の広がりを追跡する方法、ここで言うローカル近軸量の定義について考える。まず、最初に、光束の広がりを追跡する方法について考える。基準光線と微小に離れたところを通過する1本又は複数の光線を考えるが、これらの光線は、基準光線上に定めた基準点から射出するものを考える。この基準点は、像面でも、絞り面でも、その他の仮想的な面を含む任意の面でよいが、例として、物体面をとって説明する。
【0076】
この基準点が、物体面である場合の模式図を図4に、絞り面(第1面)である場合の模式図を図1に示す。
【0077】
図1、図4において、物点から基準光線と、これから微小に離れた光線を2本追跡する。この2本の光線をU微小光線と、V微小光線と称することにする。基準光線が、第i面で、座標Xi の点を通過したとする。また、U微小光線が第i面を通過する座標をXi +dxuiとし、V微小光線が第i面を通過する座標をXi +dxviする。
【0078】
この基準光線、U微小光線、V微小光線の3本の光線によって決まる光束の広がりの断面積を二つのベクトルの外積、dSi ≡|dxui×dxvi|で表すことができる。ここで、||は、ベクトルの大きさを表す。
【0079】
第i面で与えられた光束の広がりの断面積dSi と、第i+1面で与えられた光束の広がりの断面積dSi+1 との比を求める方法が、文献1:「D.G.Burkhard,D.L.Shealy;J.Opt.Soc.Amer.,vol.63,No3.,(1973),p.299」に、光束密度追跡法として書かれている。この方法を用いて、各面毎の光束の広がりの断面積を追跡する方法を説明する。
【0080】
(光束密度追跡法)
第i面のパラメータ(座標)をui ,vi 、第i+1面のパラメータ(座標)をui+1 ,vi+1 とするとき、基準光線の各面での交点座標は、xi =xi (ui ,vi ),xi+1 =xi+1 (ui+1 ,vi+1 )と表せる。
【0081】
また、xi からxi+1 に向かう光線方向の単位ベクトルAi をAi =Ai (ui ,vi )と表わす。記法は文献1とは多少異なるが、文献1に従って、
第i+1面での光線の広がりの断面積dSi+1 を書けば、
dSi+1 =|(∂xi+1 /∂ui+1 )×(∂xi+1 /∂vi+1 )|dui+1 dvi+1
となる。
【0082】
さらに、文献1に従って、
Figure 0004136061
となる。
【0083】
ここで、Li はxi からxi+1 までの距離であり、
i 0 =Ai ・(∂xi /∂ui )×(∂xi /∂vi
i 1 =Ai ・{(∂xi /∂ui )×(∂Ai /∂vi )+(∂Ai /∂ui )×(∂xi /∂vi )}
i 2 =Ai ・{(∂Ai /∂ui )×(∂Ai /∂vi )}
である。
【0084】
∂Ai /∂ui ,∂Ai /∂vi 等は、光線方向を面の座標で微分したものであり、文献2:「D.G.Shealy,D.G.Burkhard;Opt.Acta.,vol.22,No6.,(1975),p.485」に計算方法が示されれいる。
【0085】
この量は面の法線を微分した量を用いて計算できるので、∂Ai /∂ui 等は、面形状を表す関数をパラメータで2回微分した量と考えてよい。
【0086】
文献1では、dSi とdSi+1 との比を面毎に考えているが、数式1を用いれば、第i+1面での光線の広がりを、
Figure 0004136061
のように、第1面のパラメータの微小量du1 ,dv1 を与えることによって計算できる。
【0087】
さらに、
dui+1 =(∂ui+1 /∂ui )・dui +(∂vi+1 /∂vi )・dvi
等を用いて第i+1面での微小変位量を、
Figure 0004136061
のように、第1面の微小変位量を用いて表せる。
【0088】
数式2の第1項と第2項をdxui+1,dxvi+1と表せば(先に定義したdxui,dxviに対応する。)、第i+1面での光線の広がりが、
dSi+1 =|dxui+1×dxvi+1
と表せる。ここで、dxui+1,dxvi+1は、
Figure 0004136061
である。
【0089】
以上で、物点から出た光線が第1面でのパラメータの変位(du1 ,dv1 )の点を通ったとき、第i+1面でどの点を通るかを求める準備が整った。
【0090】
物体空間でのパラメータdu1 ,dv1 によって、任意の空間又は面上での微小光線の振る舞いが記述できる。
【0091】
第i面でのU微小光線、V微小光線の変位量dxui,dxviも、パラメータdu1 ,dv1 によって記述できるので、任意の面での光束の広がりを知ることができる。また、この面から射出する光線の傾き変化量dAui,dAviも、パラメータdu1 ,dv1 によって記述できる。これらの量から、結像点、又は、焦線位置を計算する方法が文献2に示されている。この結像面に仮想的な面を考え、ここでdxui又はdxviを計算すると、焦線の方位を計算することができる。焦線の位置、方位も、ここで考えているローカル近軸量の一つである。
【0092】
図4に、物体面上の点(物点)を出て、像面に至る基準光線と一つの微小光線(微小物体光線と呼ぶ。)の様子を示す。物体空間における微小物体光線の振る舞いを物体空間における光線方向単位ベクトルA0 の変位量dB0 で表した様子を図5に示す。このように物点から円錐状に射出した微小物体光線が像面と交差する様子を図6に示す。一般には、微小物体光線が像面と交差する軌跡は図6に示すような楕円形の形状になるが、光束の断面積がゼロとなる特別な場合には、直線状になったり、一点になったりする。このような、光束の断面の断面積を追跡することにより、結像の様子を知ることができる。
【0093】
また、微小物体光線が基準光線となす角度を光線方向ベクトルA0 ,AI の変位量dB0 ,dBI で表せば、ローカル角倍率が、
ローカル角倍率=(NI |dBI |)/(N0 |dB0 |)・・・(1)
と計算できる。ただし、N0 は物空間の屈折率、NI は像空間の屈折率である。
【0094】
ここで、ローカル角倍率を物空間、像空間の屈折率を掛けて定義しているが、理論の構成方法によっては、ローカル角倍率を屈折率を掛けない式で定義してもよい。他のローカル近軸量の定義でも、屈折率の取り扱いは、必要に応じて考えればよい。
【0095】
次に、図1に示すように、基準光線と微小光線とが瞳面で交わる場合を考える。このような微小光線を微小瞳光線と呼ぶが、物体面での変位のパラメータdx0 =dx0 (du0 ,dv0 )で物体面での微小瞳光線の振る舞いを示した図を図2に示す。同じ光線の像面での振る舞いを図3に示す。物体面での微小瞳光線の変位量dx0 と、像面での微小瞳光線の変位量dxI でローカル倍率を表せば、
ローカル倍率=|dxI |/|dx0 | ・・・(2)
となる。
【0096】
図2、図3に示すように、物体面と微小瞳光線との交点の軌跡が円形であっても、一般には、像面での交点の軌跡は楕円形になるので、ローカル倍率は、方位角φ依存性を持つ。ローカル倍率の方位角依存性の模式図を図7に示す。図7には二種の光学系について模式的に示してある。
【0097】
今までに示した光束密度追跡法を用いれば、物体面での変位のパラメータdu0 ,dv0 により、像面での微小瞳光線の振る舞いが、解析的に表現できるが、このように、何らかのパラメータで微小瞳光線の振る舞いを解析的に表現できれば、ローカル倍率の極大値、極小値、極値をとる方位を、そのパラメータを用いて解析的に表現できる。本発明で定義しているローカル近軸量のうち、焦点距離、倍率等、方位角依存性を持つ量は、何らかのパラメータで微小瞳光線の振る舞いを解析的に表現できれば、ローカル近軸量の極大値、極小値、極値をとる方位を、そのパラメータを用いて解析的に表現できる。
【0098】
次に、物体が無限遠にあるときの微小瞳光線を考える。このときは、物体面での微小瞳光線の変位量dx0 ではなく、物空間における光線方向ベクトルA0 の変化量dA0 を考えれば、ローカル焦点距離が、
ローカル焦点距離=|dxI |/|dA0 | ・・・(3)
で定義できる。
【0099】
一般に、像点に非点収差があるように、瞳位置にも非点収差があるが、このような場合には、実際の絞りの中心で基準光線と交わるような微小瞳光線を考えればよい。
【0100】
次に、微小瞳光線でのローカル瞳の角倍率は、
ローカル瞳の角倍率=(NI |dAI |)/(N0 |dA0 |)・・・(4)
で定義できる。
【0101】
以上のローカル角倍率、ローカル倍率、ローカル焦点距離、ローカル瞳の角倍率は何れも、共軸光学系の場合に、共軸光学系の近軸量である角倍率、横倍率、焦点距離、瞳の角倍率に一致する。
【0102】
以上で、物体面の像が像面上にできる場合のローカル近軸量を考えてきたが、瞳の結像、主点や、節点の結像関係を考えるときには、必要に応じて、物体面や像面を、瞳面や、主平面等に置き換えて考えればよい。
【0103】
光束密度追跡法において、1階微分、2階微分の値の代わりに差分値を用いてもよい。
【0104】
また、光学系の媒質が均質媒質ではなく、屈折率分布型の媒質である場合は、文献3:「D.G.Burkhard;Apll.Opt.Vol.19,No.21,(1980),pp.3682-3713」に示されている計算手法を応用して光束の広がりを計算することができる。
【0105】
光束の広がりは、また、以下の方法によっても求めることができる。
基準光線とこの基準光線から微小に離れた任意方位の1本の光線とを追跡することにより、ある一つの方位の光束の広がりを求めることができる。また、基準光線とその周りの光束の広がりとに方位依存性がない特別な場合には、基準光線と1本の微小光線とを追跡するだけで、全方位の光束の広がりを求めることができる。
【0106】
一般に、光束の広がりには方位依存性がある。基準光線及び2本の微小光線と、これらが横切る任意の基準となる面を考える。基準光線と基準面との交点と、2本の微小光線と基準面との交点とをそれぞれ結ぶ二つのベクトルがなす角が直角になるように微小光線を通す。このとき、任意の微小光線はこれら二つのベクトルの線形結合で表わすことができる。基準光線と、2本の微小光線の追跡により、この二つのベクトルの任意の面での大きさと向きを求めることができる。また、その面での光束の広がりはこれらの二つのベクトルで表わすことができる。したがって、基準光線と上記の条件を満たす2本の微小光線の追跡により、任意の面での光束の広がりを求めることができる。
【0107】
基準光線と、任意の3本の微小光線を追跡したときに、任意の面での光束の広がりを求めることができる。これらの光線と任意の面との交点4点の中、3点以上が一直線上に並ぶことがないように微小光線を選んだ場合に、基準光線と任意の面との交点を中心とし、3本の微小光線とこの面との3つの交点を通る楕円はただ一つ決定できる。したがって、任意の面での光束の広がりを求めることができる。
【0108】
ここで、前記(A−11)について説明しておく。これは、非点収差や像面湾曲等、従来の手法でも、ここで提案した光束の広がり情報からでも計算できる収差を計算する場合に、両方の計算手法を切り換えて計算できる手段である。光学系が回転対称な場合等、従来の手法でも容易に計算できる場合には、従来の手法を用い、偏心光学系等は光束密度の手法で計算するように、設計者が選択できるようなシステムが使いやすい。
【0109】
図8に上記の近軸量処理方法を実施する処理装置の第1実施例のブロック図を示す。本装置は、キーボード等の入力装置3、磁気ディスク等の記憶装置4、表示装置2、プリンター6等、及び、それらを統括処理しかつ処理を行う演算処理装置1よりなる。この他に、外部とデータや処理方法等をやり取りするためのLAN7に接続されており、フロッピーディスクや光磁気ディスク等の外部媒体5への入出力機構も備えている。
【0110】
この装置で、図9に示す処理を行う。
Step1で、記憶装置4から計算用のデータを演算装置1に読み込む。
Step2で、演算装置1で光束の広がり情報の計算を行う。この結果を一時的に記憶装置4に保存しておく。
Step3で、記憶装置4に保存した光束の広がり情報から、演算装置1でローカル近軸量を計算し、出力する。出力は、記憶装置4や外部媒体5に保存してもよいし、プリンター6、表示装置2に表示してもよい。また、LAN7を経由して他のコンピュータに計算結果を転送してもよい。
【0111】
それぞれのStepをもう少し詳しく見て行く。
まず、Step1に相当する計算用データの読み込みを図10又は図11により説明する。図10は微小瞳光線追跡用の入力であり、図11は微小物体光線追跡用の入力である。
入力は、記憶装置4にあるファイルから読み込むものとして説明するが、場合によっては、入力装置3から入力してもよい。
【0112】
Step4又はStep9は、いわゆるレンズデータの読み込みで、記憶装置4に保存されている光学系のデータの読み込みを行う。光学系のデータとしては、面形状のパラメータ(曲率半径、非球面、自由曲面等の関数で表されている面形状の場合には、その係数)、面間隔のデータ、屈折率のデータ(分布屈折率媒質の場合には、各点での屈折率を決定できる係数等を含む)、偏心がある場合にはそのデータ、各面の有効径等のデータである。必要に応じて、像面や、物体面の形状の情報も読み込む。
【0113】
Step5又はStep10では、物点位置の指定を行う。物点位置の指定は、物体高、物体側画角、像高、像側画角等で指定できる。
Step6又はStep11では、基準光線の指定を行う。基準光線の指定は、物点から出る光線の方向余弦等で指定できる。
【0114】
Step7は、瞳位置の指定を行う。物空間内の一点を指定すればよいが、絞りが光学系内部にある場合には、物空間内の瞳位置に非点収差がある場合があるので、この場合には、光学系内部の点を指定したり、物空間の瞳位置を焦線の位置と方位として指定して、光線追跡上で工夫すればよい。
【0115】
Step12は、微小物体光線を定義するための基準面の指定である。基準面としては、物点又は像点を含まない任意の曲面を指定することができるが、第1面を指定したり、入射瞳面を指定するのがよい。
Step8又はStep13では、以上のように入力したデータを記憶装置4に一時的に保存しておく。
以上が、図9のStep1に相当する部分の処理の詳細な説明である。
【0116】
次に、図9のStep2に相当する部分の処理の詳細な説明を行う。
光束密度追跡を用いて光束の広がり情報を求める手順を図12に、微小光線として2本の実光線を追跡して任意の方位の光束の広がり情報を求める手順を図13に、微小光線として1本の実光線を追跡して特定の方位の光束の広がり情報を求める手順を図14に示す。
【0117】
まず、図12について説明する。Step14では、Step8又はStep13で保存した入力データを読み込む。
Step15では、Step5、Step6、Step7、又は、Step10、Step11、Step12で読み込んだ物点位置近傍の情報から微小光線の追跡初期値を計算する。
【0118】
Step16からStep20は、いわゆる光線追跡の部分で、同じ計算を面数分繰り返す。
Step16では、次の面のとの交点位置を計算する。
Step17では、屈折の法則を利用して、射出光線の方向を計算する。
Step18は、光束の広がりを計算するStepで、面の交点位置xi と、射出光線方向Ai とを面のパラメータui ,vi で微分した量を計算する。さらに、前の面との関係を用いて、基準面での微小量のパラメータui ,vi で微分した量を求める。面がパラメータui ,vi の関数でうまく表されていないときには、微分ではなく、差分を用いて計算してもよい。
【0119】
なお、ここでは、面の交点位置xi と、射出光線方向Ai とを各面のパラメータui ,vi で微分した量だけを計算しておき、基準面での微小量のパラメータui ,vi で微分した量は、後でまとめて計算してもよい。
Step19は、Step16、Step17、Step18で計算した値を一時的に記憶装置4に保存しておく処理である。
【0120】
Step20で、計算すべき面がまだ残っているか否を調べ、計算する最終面まで計算が終わっていなければ、Step16から繰り返す。
Step21は、最終面結果の保存で、Step19で保存した以外の情報を保存したければ、ここで保存する。後の計算で途中面の情報を使わないならば、Step19での保存は必要なく、このStep21で保存するだけで十分である。
【0121】
次に、図13について説明する。図13は、微小光線として2本の実光線を追跡して任意の方位の光束の広がり情報を求める場合である。
Step37では、Step8又はStep13で保存した入力データを読み込む。
Step38からStep40は、いわゆる光線追跡の部分で、同じ計算を面数分繰り返す。ここでは、基準光線の追跡を行っている。
【0122】
Step38では、次の面との交点位置を計算し、屈折の法則を利用して、射出光線の方向を計算する。
Step39は、Step38で計算した値を一時的に記憶装置4に保存しておく処理である。
Step40で、計算すべき面がまだ残っているかどうかを調べ、計算する最終面までの終わっていなければ、Step38から繰り返す。
【0123】
次に、微小光線を追跡する。ここでは、微小光線として、方位角が0°と90°の場合を追跡するとする。
Step41で、最初の方位角0°を設定する。
Step42では、Step5、Step6、Step7、又は、Step10、Step11、Step12で読み込んだ物点位置近傍の情報から微小光線の追跡初期値を計算する。
【0124】
Step43からStep45が微小光線の光線追跡の部分で、同じ計算を面数分繰り返す。
【0125】
Step43では、次の面との交点位置を計算し、屈折の法則を利用して、射出光線の方向を計算する。
Step44は、Step43で計算した値を一時的に記憶装置4に保存しておく処理である。
【0126】
Step45で、計算すべき面がまだ残っているかどうかを調べ、計算する最終面まで計算が終わっていなければ、Step43から繰り返す。
Step46で、追跡すべき微小光線がまだ残っているかどうかを調べ、微小光線が残っていれば、Step48に進む。ここで、次に計算が必要な方位(90°)を設定し、Step42から繰り返す。
【0127】
Step47では、追跡した3本の光線を結果から、光束の広がり情報を計算し、記憶装置4に保存する。計算するのは、基準面(微小物体光線の場合は設定した基準面、微小瞳光線の場合には物体面)での光線の変位dx0 で割った、像面上での光線位置の変位量dxI 、又は、像空間での光線方位の変化量dAI である。これを、0°方向と、90°方向について計算する。
【0128】
次に、図14について説明する。図14は、微小光線として1本の実光線を追跡して特定の方位の光束の広がり情報を求める手順である。
Step49では、Step8又はStep13で保存した入力データを読み込む。
Step50からStep53は、いわゆる光線追跡の部分で、同じ計算を面数分繰り返す。ここでは、基準光線の追跡を行っている。
【0129】
Step50では、次の面との交点位置を計算する。
Step51では、屈折の法則を利用して、射出光線の方向を計算する。
Step52は、Step50からStep51で計算した値を一時的に記憶装置4に保存しておく処理である。
Step53で、計算すべき面がまだ残っているかどうかを調べ、計算する最終面まで計算が終わっていなければ、Step50から繰り返す。
【0130】
次に、微小光線を追跡する。ここでは、微小光線の方位を、入力装置3又は記憶装置4から読み込むことを考える。
Step54で、微小光線の追跡方位を読み込む。
Step55では、Step5、Step6、Step7、又は、Step10、Step11、Step12で読み込んだ物点位置近傍の情報から微小光線の追跡初期値を計算する。
Step56からStep58が微小光線の光線追跡の部分で、同じ計算を面数分繰り返す。
【0131】
Step56では、次の面との交点位置を計算し、屈折の法則を利用して、射出光線の方向を計算する。
Step57は、Step56で計算した値を一時的に記憶装置4に保存しておく処理である。
Step58で、計算すべき面がまだ残っているかどうかを調べ、計算する最終面まで計算が終わっていなければ、Step56から繰り返す。
【0132】
Step59では、追跡した2本の光線の結果から、光束の広がり情報を計算し、記憶装置4に保存する。計算するのは、基準面(微小物体光線の場合は設定した基準面、微小瞳光線の場合には物体面)での光線の変位dx0 で割った、像面上での光線位置の変位量dxI 、又は、像空間での光線方位の変化量dAI である。指定方位に対するこれらの量を計算する。
最後に、図9のStep3の詳細について説明する。
図15、図16、図17の場合を示すが、図15は、任意方位の光束の広がり情報から、焦線と方向とを計算する場合、図16は、任意方位の光束の広がり情報から、ローカル倍率を計算する場合、図17は、特定方位の光束の広がり情報から、ローカル焦点距離を計算する場合を示す。
【0133】
まず、図15の説明をする。
Step23では、Step19又はStep21又はStep47で保存した光束の広がり情報を読み込む。ここで必要な広がり情報は、微小物体光線に対する広がり情報である。
【0134】
Step24では、数式1の分子が0となるような像距離Li を求める。これには、計算されている広がり情報を係数とする2次方程式を作り、解けばよい。Step25では、2次方程式の判別式を調べ、解の数により処理を分ける。
【0135】
Step26は、2実根がある場合で、二つの焦線の位置と方位とを計算する。
Step27で、計算結果を出力する。出力先は記憶装置4や外部媒体5でもよいし、プリンター6、表示装置2でもよい。また、LAN7を経由して他のコンピュータに計算結果を転送してもよい。
Step28は、重根がある場合で、結像点の位置を計算し、出力する。
Step29は、実数解がない場合で、エラーメッセージを出力する。
【0136】
次に、図16の説明を行う。
Step30では、Step19又はStep21又はStep47で保存した光束の広がり情報を読み込む。ここで必要な広がり情報は、微小瞳光線に対する広がり情報である。ここでは、ローカル近軸量を計算する方位を、入力装置3又は記憶装置4から読み込むことを考える。
Step31で、計算する方位を読み込む。
【0137】
Step32では、Step5、Step6、Step7で読み込んだ物点位置近傍の情報から、基準面での微小瞳光線を指定するパラメータdu1 ,dv1 を計算する。
【0138】
Step33では、Step30で読み込んだ光束の広がり情報と、Step32で計算した基準面でのパラメータから、像面での変位量dxI を計算する。
Step34で、定義により、指定方位のローカル近軸量を計算する。
Step35で、計算結果を出力する。出力先は、記憶装置4や外部媒体5でもよいし、プリンター6、表示装置2でもよい。また、LAN7を経由して他のコンピュータに計算を転送してもよい。
Step36では、次の方位に対する計算を行うかどうか調べ、行う場合には、Step31からの計算を繰り返す。
【0139】
最後に、図17について説明する。
Step60では、Step59で保存した光束の広がり情報を読み込む。ここで必要な広がり情報は、微小瞳光線に対する広がり情報である。
Step61で、物空間での光線傾き変化量dA0 を計算する。
Step62では、Step60で読み込んだ特定方位の光束の広がり情報から像面での微小瞳光線の変位量dxI を計算する。
【0140】
Step63では、Step61、Step62で計算した結果からローカル焦点距離を計算する。
Step64は、計算結果を出力する。出力先は、記憶装置4や外部媒体5でもよいし、プリンター6、表示装置2でもよい。また、LAN7を経由して他のコンピュータに計算結果を転送してもよい。
【0141】
次に、本発明の第2実施例である光学系について説明する。
本実施例の光学系は、次の数式3で表される形状を持つ自由曲面を有している。
【0142】
Figure 0004136061
ここで、C2 ,C3 ,C4 ・・・,C37は自由曲面の係数である。
【0143】
本実施例の構成パラメータにおいては、図18に示すように、光学系8の瞳9の中心を光学系の原点として、光軸10を物体の中心から瞳9の中心(原点)を通る光線で定義し、瞳9から光軸10に進む方向をZ軸方向、このZ軸に直交し瞳9中心を通り、光線が光学系8によって折り曲げられる面内の方向をY軸方向、Y軸、Z軸に直交し、瞳9の中心を通る方向をX軸方向とし、瞳9から光学系8に向かう方向をZ軸の正方向、光軸10から像面14の側をY軸の正方向、そしてこれらY軸、Z軸と右手系を構成する方向をX軸の正方向とする。なお、光線追跡は光学系8の瞳9側の物体側から光学系8に入射する方向としている。
【0144】
そして、偏心が与えられている面については、その面の面頂位置の光学系8の原点である瞳9の中心からのX軸方向、Y軸方向、Z軸方向の偏心量と、その面の中心軸(自由曲面については、数式3のZ軸)のX軸、Y軸、Z軸それぞれを中心とする傾き角(それぞれα、β、γ(°))とが与えられている。なお、その場合、αとβの正はそれぞれの軸の正方向に対しての反時計回りを、γの正はZ軸の正方向に対しての時計回りを意味する。その他、球面の曲率半径、面間隔、媒質の屈折率、アッベ数が慣用法に従って与えられている。
【0145】
後記する構成パラメータにおいて、データの記載されていない非球面に関する項は0である。屈折率についてはd線(波長587.56nm)に対するものを表記してある。長さの単位はmmである。
【0146】
図18に第2実施例の偏心プリズム光学系8の光軸10を含むY−Z断面図を示す。偏心プリズム光学系8は、3つの面11、12、13からなっており、その3つの面11〜13の間が屈折率が1より大きい透明媒質で埋められていて、不図示の物体から発した光線束が光軸10に沿って光学系8の瞳9をまず通過し、透過作用と反射作用を有する第1面11に入射して光学系8内に入り、その入射光線は瞳9から遠い側の反射作用のみを有する反射面である第2面12で瞳9に近づく方向に反射され、今度は第1面11で瞳9から遠ざかる方向に再び反射され、その反射光線は、透過作用のみを有する第3面13を透過して像面14に到達し、結像する。第1面11、第2面12、第3面13は前記数式3で定義される自由曲面からなる。
【0147】
以下に、上記第2実施例の構成パラメータを示す。
Figure 0004136061
Figure 0004136061
【0148】
図19に、第2実施例の、X方向像高10.5mm、Y方向像高8.0mmの光線に沿ったローカル倍率の方位角依存性を示す。ローカル倍率が極大をとる方位は85.16°、極小をとる方位は175.16°である。また、上記光線のローカル倍率の楕円率は0.9436である。
【0149】
次に、像面の各位置でのローカル近軸量を示す。極大・極小のローカル倍率、ローカル倍率の楕円率、主光線の非点収差による焦線位置、焦線の方位を以下に示す。光線位置の(x,y)はそれぞれ、水平像高、垂直像高である。焦線位置は像面のローカル座標系で表したZ座標の値、ローカル倍率の方位と焦線の方位は物体座標での値である。方位はY軸方向を0°とし、Z軸の方向に右ネジが進むように0°から180°の間で示した。
【0150】
Figure 0004136061
【0151】
Figure 0004136061
【0152】
第3実施例
次に、第3実施例について示す。第3実施例は第2実施例の光学系(図18)で、物体面の面間隔を無限大にしたものである。第3実施例における各像面位置でのローカル焦点距離を以下に示す。
【0153】
Figure 0004136061
【0154】
次に、各像面位置での主光線の非点収差による焦線位置を、像面を定義する座標系のZ座標の値で示す。
【0155】
Figure 0004136061
【0156】
ローカル焦点距離が極値をとる方位は、物体面の座標面上での方位を用いているため、互いに直交していない。像面上の方位では直交する。
【0157】
これらの実施例は、全系の焦点距離(パワー)や横倍率が、像面全域にわたって方位角依存性を持たないように、自動設計の手法により設計した例である。従来の手法では、ある条件により定められてしまう基準軸上の近軸量しか求められなかったのが、本発明を用いると、像面上に指定した複数の位置で近軸量を求めることができるので、像面全域にわたり近軸量に方位角依存性が少ない光学系を設計することができた。
【0158】
【発明の効果】
以上の説明から明らかなように、本発明の処理方法を用いれば、任意の光学系を通過する任意の光線の近傍の情報だけで、光束の広がり情報、ローカル近軸量が計算できるという効果がある。
【0159】
また、回転対称光学系においては、魚眼レンズやFθレンズ等の特殊な歪曲収差を持つ光学系で、必要な特性(動径方向の焦点距離が画角によらない、動径方向の倍率と接線方向の倍率とが互いに等しい、動径方向の倍率と接線方向の倍率との積が画角によらない等)を計算、最適化する際に、必要な特性を直接扱えるという効果がある。
【0160】
また、偏心していたり、トーリック面等の回転非対称な面を持つ回転非対称光学系の設計のより所となるローカル近軸量が計算できる。特に、像面や物体面が平面でない光学系の結像特性を容易に推定できるという効果がある。
【0161】
また、倍率、焦点距離等のローカル近軸量に方位角依存性がある場合に、ローカル近軸量が極値をとる方位、及び、そこでのローカル近軸量を容易に計算できる効果がある。
【0162】
また、偏心していたり、トーリック面等の回転非対称な面を持つ回転非対称光学系で像の回転が発生するような光学系において、像の回転角を知ることができる効果がある。
【0163】
また、非点収差が発生する光学系において、非点収差の量、焦線の方位を容易に計算できる効果がある。
【図面の簡単な説明】
【図1】基準点が絞り面である場合に本発明によりローカル近軸量を求める原理を説明するための模式図である。
【図2】物体面での微小瞳光線の振る舞いを示す図である。
【図3】像面での微小瞳光線の振る舞いを示す図である。
【図4】基準点が物体面である場合に本発明によりローカル近軸量を求める原理を説明するための模式図である。
【図5】物体空間における微小物体光線の振る舞いを物体空間における光線方向単位ベクトルの変位量で表した様子を示す図である。
【図6】物点から円錐状に射出した微小物体光線が像面と交差する様子を示す図である。
【図7】ローカル倍率の方位角依存性を示す模式図である。
【図8】本発明の近軸量処理方法を実施する処理装置の第1実施例のブロック図である。
【図9】本発明に基づいてローカル近軸量を求めるための処理フローを示す図である。
【図10】微小瞳光線追跡計算用データの読み込みのフローを示す図である。
【図11】微小物体光線追跡計算用データの読み込みのフローを示す図である。
【図12】光束密度追跡を用いて光束の広がり情報を求める手順を示す図である。
【図13】微小光線として2本の実光線を追跡して任意の方位の光束の広がり情報を求める手順を示す図である。
【図14】微小光線として1本の実光線を追跡して特定の方位の光束の広がり情報を求める手順を示す図である。
【図15】微小物体光線に対する任意方位の広がり情報から焦線の位置と方位を計算する手順を示す図である。
【図16】微小瞳光線に対する任意方位の広がり情報光束からローカル倍率を計算する手順を示す図である。
【図17】微小瞳光線に対する特定方位の広がり情報からローカル焦点距離を計算する手順を示す図である。
【図18】本発明の第2実施例の偏心プリズム光学系の断面図である。
【図19】第2実施例の偏心プリズム光学系のローカル倍率の方位角依存性を示す図である。
【符号の説明】
1…演算処理装置
2…表示装置
3…入力装置
4…記憶装置
5…外部媒体
6…プリンター
7…LAN
8…偏心プリズム光学系
9…瞳
10…光軸
11…第1面
12…第2面
13…第3面
14…像面[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a paraxial quantity processing method for performing paraxial calculation of an optical system, and a processing apparatus using the paraxial quantity processing method, and more particularly to an optical system having a paraxial quantity different depending on a position on a screen or an orientation in the vicinity of an object point. The present invention relates to a paraxial amount processing method suitable for use and a paraxial amount processing apparatus using the paraxial amount processing method.
[0002]
The present invention also relates to a paraxial amount processing method suitable for determining the shape of an optical system having a different paraxial amount depending on the position on the screen and the orientation near the object point, and a paraxial amount processing apparatus using the paraxial amount processing method. .
[0003]
The present invention also provides a machine-readable recording of a paraxial quantity processing method for performing paraxial calculation of an optical system, and a paraxial quantity processing method for determining the shape of an optical system using these paraxial quantities. The present invention relates to a recording medium.
[0004]
The present invention is not limited to the normal paraxial amount, but also relates to a method for calculating a general amount of real ray aberration, for example, a physical quantity such as illuminance.
[0005]
Furthermore, the present invention relates to an optical system in which the paraxial amount varies depending on the position on the screen and the orientation near the object point.
[0006]
[Prior art]
Conventionally, a coaxial optical system in which a rotationally symmetric refracting surface or reflecting surface is arranged around an optical axis that is a rotationally symmetric axis of each surface is used as an optical system for forming an image of an object surface on an image plane. Has been. In addition, there is a paraxial theory of the coaxial system that determines the framework of the coaxial optical system, which is used to determine the focal length and the magnification when designing the coaxial optical system. The framework of the coaxial optical system is determined using such a paraxial amount, and the shape of the coaxial optical system is determined by an automatic design method or the like targeting aberration.
[0007]
However, recently, in a display system such as an HMD (head mount display), designs that do not belong to the category of conventional coaxial optical systems have often been found.
[0008]
In such a rotationally asymmetric optical system, the paraxial amount generally depends on the direction, and the paraxial amount varies depending on the position on the screen. In the design of such a rotationally asymmetric optical system, the paraxial theory of the rotationally symmetric system is forcibly applied, or the coordinate origin of the surface is set at the intersection of the reference axis and the surface, which is proposed in JP-A-9-5650. I took the paraxial amount.
[0009]
In addition, even in a rotationally symmetric optical system, in an optical system with a large distortion angle, such as an endoscope objective lens having a wide angle of view or a fisheye lens, the magnification and focal length calculated from information near the optical axis are: In some cases, the image forming state around the screen is insufficient.
[0010]
[Problems to be solved by the invention]
With the paraxial amount obtained by the conventional calculation method of the coaxial optical system, when the degree of eccentricity is large, the paraxial amount cannot be obtained with an accuracy that can be a clue to design. In addition, in the method of taking the coordinate origin along the reference axis, the method of expressing the surface is complicated, and there is a need to limit how to determine the coordinate axis.
[0011]
In any method, even in a wide-angle optical system with a large distortion, the image formation state of the entire screen must be expressed only by on-axis information, and the information is insufficient.
[0012]
The present invention has been made in view of such problems of the prior art, and an object of the present invention is to obtain a means for calculating the paraxial amount of an asymmetric optical system without depending on the coordinate axis.
[0013]
Another object is to obtain a means for calculating a paraxial amount capable of expressing the state of image formation around the screen of an optical system having a wide field angle with large distortion.
[0014]
[Means for Solving the Problems]
In order to solve the above-described problems, the paraxial amount processing method of the present invention sets an arbitrary reference ray from the object plane to the image plane in an optical system composed of an arbitrary curved surface, and the reference light Considering a reference point on the line, the spread of the minute light beam that is emitted from the reference point and propagates in the vicinity of the reference ray near the point where the reference ray and the curved surface intersect is obtained, and the spread is at least one surface or all A method of calculating a paraxial amount in the vicinity of the reference ray by calculating over the system is used.
[0015]
The spread of the light beam mentioned here refers to the thickness and shape of the light beam (collection of rays) that initially had a certain shape and thickness, as it propagates through the optical system. Say that.
[0016]
Considering something more specific, first, when the cross-sectional shape of the light beam is a circle of a certain radius, the cross-sectional shape becomes elliptical as it propagates through the optical system. At this time, the major axis, the minor axis length, and the tilt direction of the axis are considered as the spread information of the luminous flux.
[0017]
If the cross-sectional shape of the first light beam is a square, it is considered that the cross-sectional shape of the light beam becomes a parallelogram as it propagates through the optical system. The length of each side of the parallelogram and the direction of the side are the spread information of the light flux.
[0018]
In other words, a reference point is considered on a light beam passing through the optical system, and a reference surface not including this reference point is considered. Consider a small closed curve near the reference ray on the reference plane. Let us consider a light flux that is a set of light rays that exit the reference point and pass through the circumference and inside of this closed curve, and consider the case where this light flux has passed through the entire optical system. As this light beam propagates through the optical system, the cross section of the light beam on each surface becomes wider, narrower, changes shape, or rotates. The change in the cross-sectional area, solid angle, and shape of the light flux is the spread information of the light flux. The spread information is traced to the surface to be calculated to obtain necessary information. The reference point may be anywhere on the actual ray from the object point to the image point and on the extension of the ray in each space. Similarly, the reference plane may be anywhere other than the reference point on the actual ray and its extension. When considering the local paraxial amount of the entire system, it is desirable that the reference point is a point where the light beam crosses the diaphragm surface, or an intersection point between the object plane or the image plane and the light beam.
[0019]
The local paraxial amount is as follows.
A point is considered on the closed curve considered on the reference plane when obtaining the spread of the luminous flux. A light beam coming out from the reference point and reaching this one point is called a minute light beam. The displacement vector from the intersection of the reference plane and the reference ray to the intersection of the reference plane and the minute ray is expressed as dx0The displacement of the minute ray on the surface where the local paraxial amount is to be calculated is expressed as dx.IRepresented by A unit vector representing the direction of the reference ray in the front space or the rear space of the reference plane is A0 , A unit vector representing the direction of a minute ray in the same space0+ DA0A unit vector representing the direction of the reference ray in the space where the local paraxial amount is to be calculated is AI, A unit vector representing the direction of a minute ray in the same spaceI+ DAIDx0And / or dA0And dxIAnd / or dAIA quantity that can be calculated using and is defined as a local paraxial quantity. Possible local paraxial quantities include imaging position, imaging orientation, focal line orientation, magnification, focal length, pupil position, principal point position, node position, illuminance, and the like.
[0020]
Next, a specific processing method will be described.
(A-1) In an optical system composed of an arbitrary curved surface, an arbitrary reference ray from the object plane to the image plane is set, a reference point is considered on the reference ray, and the reference point is emitted from the reference point. Paraxial amount processing characterized in that a spread of a minute light beam propagating in the vicinity of the reference light beam in the vicinity of a point where a light beam and the curved surface intersect is obtained, and the spread is calculated over at least one surface or the entire system. Method.
[0021]
(A-2) The object plane and / or image plane may be an arbitrary curved surface as well as a flat surface, and the optical system is not limited to a homogeneous medium but may include a distributed refractive index type medium. In addition, the arbitrary curved surface is not limited to a simple reflecting surface or a refracting surface, but may be a surface including a diffractive surface that can be traced by a high refractive index method or a phase function method (A-1). The paraxial amount processing method described.
[0022]
(A-3) The paraxial amount processing method according to (A-2), wherein a local paraxial amount described below is calculated from the spread.
The local paraxial amount is the actual reference ray that is not paraxial, and the image position, image orientation, focal direction, magnification, focal length, pupil position, principal point position are determined from information in the vicinity of the ray. , Information on nodal position, astigmatism, field curvature, illuminance, and the like. In general, the local paraxial amount takes different values depending on the angle of view, the position on the screen such as the object height, and the orientation around the reference ray. In some cases, a plurality of reference rays emitted from one object point can be considered, and a local paraxial amount related to each reference ray can be calculated.
[0023]
(A-4) The paraxial amount processing method according to (A-3), wherein at least two reference rays are set, and the local paraxial amount is calculated.
[0024]
(A-5) The paraxial amount processing method according to (A-4), wherein one of the at least two reference rays is a ray that passes near the center of the image and the other passes near the periphery of the image.
As the vicinity of the center of the image, it is desirable to take an object point of an area included in a circle whose area centering on the center of gravity of the entire screen is about 10% of the entire screen. As the vicinity of the image periphery, it is desirable to take an object point of a region included in a semicircle whose area around the periphery of the screen is about 5% of the entire screen.
[0025]
(A-6) A paraxial amount processing method, wherein the calculation described in (A-1) is performed by tracking at least one ray in the vicinity of the reference ray.
[0026]
(A-7) A paraxial amount processing method, wherein the calculation described in (A-1) is performed by tracing at least two rays in the vicinity of the reference ray.
[0027]
(A-8) A paraxial amount processing method, wherein the calculation described in (A-1) is performed by tracing at least three rays in the vicinity of the reference ray.
[0028]
(A-9) The value of the second derivative of the function representing the shape of the surface in the calculation described in (A-1), or the value of the first derivative of the vector representing the direction of the light beam emitted from the surface, and / or A paraxial amount processing method, which is performed by a method of tracking a light beam density using a first-order differential value of a vector representing a direction of a surface normal.
[0029]
(A-10) A value obtained by performing the calculation described in (A-1) by a second-order difference of a function representing the shape of a surface, or a value of a first-order difference of a vector representing the direction of a light ray emitted from the surface, or / And a paraxial amount processing method, which is performed by a light flux density tracking method using a first-order difference value of a vector representing the direction of the normal of the surface.
[0030]
(A-11) (A-6) to (A-8) The paraxial which enabled selection of the calculation method of any one of (A-8) and the calculation method of (A-9) or (A-10) suitably Quantity processing method.
[0031]
(A-12) A point at which a reference point on a reference light beam serving as a reference of the light beam in obtaining the spread of the light beam crosses an arbitrary surface including a virtual surface other than the object surface or the image surface of the optical system. The paraxial amount processing method according to any one of (A-6) to (A-10), wherein:
[0032]
(A-13) The paraxial amount processing method according to (A-12), wherein the arbitrary plane including the virtual plane is an aperture plane or a pupil plane inside or outside the optical system. .
[0033]
(A-14) From the following amounts relating to a light beam slightly separated from the reference light beam (hereinafter referred to as a “micro pupil light beam”) calculated by the paraxial amount processing method of (A-12), the local focal length and the local magnification are calculated. A paraxial amount processing method characterized by obtaining a local paraxial amount such as an angular magnification of a local pupil.
[0034]
The displacement of the minute pupil ray on the object plane is expressed as dx0 The displacement of the minute pupil ray on the image plane is represented by dxIRepresented by A unit vector representing the direction of the reference ray in the object space is A0A unit vector representing the direction of a minute pupil ray in the object space is A0+ DA0 , A unit vector representing the direction of the reference ray in the image space is AI, A unit vector representing the direction of a minute pupil ray in the image space is AI+ DAI, The refractive index of the object space is N0 , The refractive index of the image space is NIAnd However, | V | represents the magnitude of the vector V.
[0035]
(See Figure 1)
Local focal length = | dxI| / | DA0| (3)
Local magnification = | dxI| / | Dx0| (2)
Local pupil angle magnification = (NI| dAI|) / (N0| dA0|) ... (4)
(A-15) (A-6) to (A-10) characterized in that a reference point on a reference light beam serving as a reference of the light beam in obtaining the spread of the light beam is one point on the image plane. The paraxial amount processing method according to claim 1.
[0036]
(A-16) From (A-6) to (A-10), the reference point on the reference ray that serves as the reference of the light beam when the spread of the light beam is obtained is one point on the object plane. The paraxial amount processing method according to claim 1.
[0037]
(A-17) The object point or image point calculated by the paraxial amount processing method described in (A-15) or (A-16) is coincident with the reference ray, and slightly separated from the reference ray on the pupil plane. A paraxial quantity processing method, wherein local paraxial quantities such as illuminance, focal line azimuth, imaging position, local angular magnification, and the like are obtained from the following quantities relating to a light ray (hereinafter referred to as a minute object ray): .
[0038]
A unit vector representing the direction of a minute object ray in the object space is A0+ DB0, A unit vector representing the direction of a minute object ray in the image space is AI+ DBIAnd
[0039]
(See Figure 4)
Local angle magnification = (NI| DBI|) / (N0| DB0|) ... (1)
(A-18) The calculation of the paraxial amount processing method described in (A-13), (A-15), or (A-16) describes the determination of the paraxial amount related to the pupil such as the local pupil magnification and the pupil position. A paraxial amount processing method as a feature.
[0040]
(A-19) inputting lens data of an optical system composed of an arbitrary curved surface;
A step of specifying an object point position;
Setting an arbitrary reference ray from the object plane to the image plane;
Specifying a reference plane;
Calculating an initial tracking value of a reference ray set from a specified object point position and a reference plane;
Obtaining light flux spread information on each surface by ray tracing of the reference rays; and
Minute displacement dx on the reference plane0Obtaining a parameter that gives
The obtained minute displacement dx0The amount of change in tilt of the minute ray on the object side from the parameter that gives0And the amount of change in tilt of the minute ray on the image side dBIA step of seeking
Local angle magnification = (NI| DBI|) / (N0| DB0|) ... (1)
Calculating the local angle magnification from the relationship of
A paraxial amount processing method characterized by comprising:
[0041]
(A-20) inputting lens data of an optical system composed of an arbitrary curved surface;
A step of specifying an object point position;
Setting an arbitrary reference ray from the object plane to the image plane;
Specifying a reference plane;
Calculating a tracking initial value of a reference ray set from a designated object position and a reference plane and one or two minute rays in the vicinity thereof;
Obtaining spread information of light flux on each surface by ray tracing of the reference ray and the minute ray;
Minute displacement dx on the reference plane0Obtaining a parameter that gives
The obtained minute displacement dx0The amount of change in tilt of the minute ray on the object side from the parameter that gives0And the amount of change in tilt of the minute ray on the image side dBIA step of seeking
Local angle magnification = (NI| DBI|) / (N0| DB0|) ... (1)
Calculating the local angle magnification from the relationship of
A paraxial amount processing method characterized by comprising:
[0042]
(A-21) inputting lens data of an optical system composed of an arbitrary curved surface;
A step of specifying an object point position;
Setting an arbitrary reference ray from the object plane to the image plane;
Specifying a reference plane;
Calculating an initial tracking value of a reference ray set from a specified object point position and a reference plane;
Obtaining light flux spread information on each surface by ray tracing of the reference rays; and
From the obtained spread information of the luminous flux, the image distance L such that the numerator of the following formula 1 becomes zero.iA step of seeking
Calculated image distance LiCalculating the position and orientation of the focal line from or the position of the imaging point;
A paraxial amount processing method characterized by comprising:
[0043]
Figure 0004136061
Where ui, ViIs the i-th plane parameter,
ui + 1, Vi + 1Is the parameter of the i + 1th plane,
xiIs a vector representing the coordinates of the intersection of the reference ray on the i-th surface,
xi + 1 Is a vector representing the coordinates of the intersection of the reference ray on the i + 1th plane,
LiIs xiTo xi + 1Distance to,
Ii 0= Ai・ {(∂xi/ ∂ui) × (∂xi/ ∂vi)},
Ii 1= Ai・ {(∂xi/ ∂ui) × (∂Ai/ ∂vi) + (∂Ai/ ∂ui) × (∂xi/ ∂vi)},
Ii 2= Ai・ {(∂Ai/ ∂ui) × (∂Ai/ ∂vi)}
It is.
[0044]
(A-22) inputting lens data of an optical system composed of an arbitrary curved surface;
A step of specifying an object point position;
Setting an arbitrary reference ray from the object plane to the image plane;
Specifying a reference plane;
Calculating a tracking initial value of a reference ray set from a designated object position and a reference plane and one or two minute rays in the vicinity thereof;
Obtaining spread information of light flux on each surface by ray tracing of the reference ray and the minute ray;
From the obtained spread information of the luminous flux, the image distance L such that the numerator of the following formula 1 becomes zero.iA step of seeking
Calculated image distance LiCalculating the position and orientation of the focal line from or the position of the imaging point;
A paraxial amount processing method characterized by comprising:
[0045]
Figure 0004136061
Where ui, ViIs the i-th plane parameter,
ui + 1, Vi + 1Is the parameter of the i + 1th plane,
xiIs a vector representing the coordinates of the intersection of the reference ray on the i-th surface,
xi + 1 Is a vector representing the coordinates of the intersection of the reference ray on the i + 1th plane,
LiIs xiTo xi + 1Distance to,
Ii 0= Ai・ {(∂xi/ ∂ui) × (∂xi/ ∂vi)},
Ii 1= Ai・ {(∂xi/ ∂ui) × (∂Ai/ ∂vi) + (∂Ai/ ∂ui) × (∂xi/ ∂vi)},
Ii 2= Ai・ {(∂Ai/ ∂ui) × (∂Ai/ ∂vi)}
It is.
[0046]
(A-23) inputting lens data of an optical system composed of an arbitrary curved surface;
A step of specifying an object point position;
Setting an arbitrary reference ray from the object plane to the image plane;
Specifying the pupil position;
Calculating a tracking initial value of a reference ray set from a specified object position and pupil position;
Obtaining light flux spread information on each surface by ray tracing of the reference rays; and
Minute displacement dx on the reference plane0Obtaining a parameter that gives
From the information on the spread of the light flux and the parameters on the reference plane, the final plane dxIObtaining a displacement amount at
Local magnification = | dxI| / | Dx0| (2)
Calculating a local magnification from the relationship of
A paraxial amount processing method characterized by comprising:
[0047]
Figure 0004136061
Where ui, ViIs the i-th plane parameter,
xi + 1 Is a vector representing the coordinates of the intersection of the reference ray on the i + 1th plane,
dxi + 1 Is the displacement on the i + 1th plane,
du1Is the amount of displacement u on the first surface1component,
dv1Is the displacement v on the first surface1component,
It is.
[0048]
(A-24) inputting lens data of an optical system composed of an arbitrary curved surface;
A step of specifying an object point position;
Setting an arbitrary reference ray from the object plane to the image plane;
Specifying the pupil position;
Calculating a tracking initial value of a reference ray set from the designated object point position and pupil position and one or two minute rays in the vicinity thereof;
Obtaining spread information of light flux on each surface by ray tracing of the reference ray and the minute ray;
Minute displacement dx on the reference plane0Obtaining a parameter that gives
From the information on the spread of the light flux and the parameters on the reference plane, the final plane dxIObtaining a displacement amount at
Local magnification = | dxI| / | Dx0| (2)
Calculating a local magnification from the relationship of
A paraxial amount processing method characterized by comprising:
[0049]
Figure 0004136061
Where ui, ViIs the i-th plane parameter,
xi + 1 Is a vector representing the coordinates of the intersection of the reference ray on the i + 1th plane,
dxi + 1 Is the displacement on the i + 1th plane,
du1Is the amount of displacement u on the first surface1component,
dv1Is the displacement v on the first surface1component,
It is.
[0050]
(A-25) inputting lens data of an optical system composed of an arbitrary curved surface;
A step of specifying an object point position;
Setting an arbitrary reference ray from the object plane to the image plane;
Specifying the pupil position;
Calculating a tracking initial value of a reference ray set from a specified object position and pupil position;
Obtaining light flux spread information on each surface by ray tracing of the reference rays; and
Minute displacement dx on the reference plane0Obtaining a parameter that gives
The obtained minute displacement dx0The amount of change in the inclination of the minute ray on the object side dA0And / or inclination change amount dA of minute light rays on the image sideIA step of seeking
From the information on the spread of the light flux and the parameters on the reference plane, the final plane dxIObtaining a displacement amount at
Local focal length = | dxI| / | DA0| (3)
Local pupil angle magnification = (NI| dAI|) / (N0| dA0|) ... (4)
However, N0Is the refractive index of the object space, NIIs the refractive index of the image space,
Calculating the local focal length or the local pupil angular magnification from the relationship
A paraxial amount processing method characterized by comprising:
[0051]
Figure 0004136061
Where ui, ViIs the i-th plane parameter,
xi + 1 Is a vector representing the coordinates of the intersection of the reference ray on the i + 1th plane,
dxi + 1 Is the displacement on the i + 1th plane,
du1Is the amount of displacement u on the first surface1component,
dv1Is the displacement v on the first surface1component,
It is.
[0052]
(A-26) inputting lens data of an optical system composed of an arbitrary curved surface;
A step of specifying an object point position;
Setting an arbitrary reference ray from the object plane to the image plane;
Specifying the pupil position;
Calculating a tracking initial value of a reference ray set from the designated object point position and pupil position and one or two minute rays in the vicinity thereof;
Obtaining spread information of light flux on each surface by ray tracing of the reference ray and the minute ray;
Minute displacement dx on the reference plane0Obtaining a parameter that gives
The obtained minute displacement dx0The amount of change in the inclination of the minute ray on the object side dA0And / or inclination change amount dA of minute light rays on the image sideIA step of seeking
From the information on the spread of the light flux and the parameters on the reference plane, the final plane dxIObtaining a displacement amount at
Local focal length = | dxI| / | DA0| (3)
Local pupil angle magnification = (NI| dAI|) / (N0| dA0|) ... (4)
However, N0Is the refractive index of the object space, NIIs the refractive index of the image space,
Calculating the local focal length or the local pupil angular magnification from the relationship
A paraxial amount processing method characterized by comprising:
[0053]
Figure 0004136061
Where ui, ViIs the i-th plane parameter,
xi + 1 Is a vector representing the coordinates of the intersection of the reference ray on the i + 1th plane,
dxi + 1 Is the displacement on the i + 1th plane,
du1Is the amount of displacement u on the first surface1component,
dv1Is the displacement v on the first surface1component,
It is.
[0054]
(A-27) The paraxial axis according to any one of (A-1) to (A-26), wherein the result calculated by the paraxial amount processing method is displayed, printed out, or output to a file. Quantity processing method.
[0055]
The recording medium of the present invention is
(B-1) A recording medium on which the paraxial amount processing method according to any one of (A-1) to (A-27) is recorded in a machine-readable form.
The processing apparatus of the present invention
(C-1) A paraxial amount processing apparatus using the paraxial amount processing method according to any one of (A-1) to (A-27).
[0056]
The lens design method of the present invention includes:
(D-1) Local paraxials such as local focal length, local magnification, local angular magnification, and local pupil magnification obtained by the paraxial amount processing method according to any one of (A-1) to (A-27) A lens design method characterized by performing automatic design using a quantity.
[0057]
(D-2) Local paraxials such as local focal length, local magnification, local angle magnification, and local pupil magnification obtained by the paraxial amount processing method according to any one of (A-1) to (A-27) A lens design method characterized by automatically designing using both the amount, the paraxial amount conventionally used, and the actual ray aberration simultaneously.
[0058]
The lens design apparatus of the present invention
(E-1) A lens design apparatus characterized by performing automatic design using the lens design method described in (D-1) or (D-2) and evaluating the performance of the optical system using local paraxial quantities.
[0059]
The optical system or optical apparatus of the present invention will be described below.
(F-1) An optical system or an optical device designed by the lens design device described in (E-1).
[0060]
(F-2) The optical system or optical device according to (F-1), wherein the image plane distance is large.
[0061]
(F-3) The optical system or optical device described in (F-1) emits from the center of the object, passes through the center of the stop, and reaches the center of the image as the first reference light, and the ellipticity is the value of the minor axis of the ellipse. When (length) is defined as a value obtained by dividing the value of the major axis (length), the ellipticity of the local paraxial amount on the image plane determined by the azimuth satisfies the condition that the ellipticity> 0.5. An optical system or optical device characterized.
[0062]
(F-4) The optical system or optical apparatus according to (F-3), wherein the local paraxial amount is a local magnification.
[0063]
(F-5) The optical system or optical apparatus according to (F-3) or (F-4), wherein the above condition is satisfied in the entire image plane.
[0064]
(F-6) An optical system or an optical apparatus, wherein the optical system according to (F-1) includes only a rotationally symmetric surface.
[0065]
(F-7) An optical system or an optical apparatus according to (F-1), wherein the optical system or the optical apparatus includes only a rotationally asymmetric surface.
[0066]
(F-8) The optical system or optical apparatus according to (F-1) includes a rotationally asymmetric surface having only one plane of plane symmetry.
[0067]
(F-9) An optical system or optical apparatus according to (F-1), wherein the optical system or optical apparatus is a zoom optical system.
[0068]
DETAILED DESCRIPTION OF THE INVENTION
Before describing the embodiments of the present invention, first, the principle of the present invention will be described.
In order to solve the above problems, in the present invention, in an optical system composed of an arbitrary curved surface, an arbitrary reference ray from the object plane to the image plane is set, and the reference ray intersects the curved surface. A method of calculating a paraxial amount in the vicinity of the reference ray by calculating the spread of the light beam at, and calculating the spread over at least one surface or the entire system is used.
[0069]
The spread of the light beam mentioned here refers to the thickness and shape of the light beam (collection of rays) that initially had a certain shape and thickness, as it propagates through the optical system. Say that. Considering something more specific, first, when the cross-sectional shape of the light beam is a circle with a certain radius, the cross-sectional shape becomes an ellipse while propagating through the optical system. At this time, the major axis, the minor axis length, and the tilt direction of the axis are considered as the spread information of the luminous flux.
[0070]
If the cross-sectional shape of the first light beam is square, it is considered that the cross-sectional shape of the light beam becomes a parallelogram as it propagates through the optical system. The length of each side of the parallelogram and the direction of the side are the spread information of the light flux.
[0071]
In other words, a reference point is considered on a light beam passing through the optical system, and a reference surface not including this reference point is considered. Consider a small closed curve near the reference ray on the reference plane. Let us consider a case where a light beam is formed of a set of light rays that exit the reference point and pass through the circumference and the inside of the closed curve, and a case where this light beam passes through the entire optical system. As this light beam propagates through the optical system, the cross section of the light beam on each surface becomes wider, narrower, changes shape, or rotates. Changes in the cross-sectional area, solid angle, and shape of the light beam are the spread information of the light beam. The spread information is traced to the surface to be calculated to obtain necessary information.
[0072]
The reference point may be anywhere on the actual ray from the object point to the image point and on the extension of the ray in each space. Similarly, the reference plane may be anywhere other than the reference point on the actual ray and its extension. When considering the local paraxial amount of the entire system, it is desirable that the reference point is a point where the light beam crosses the diaphragm surface, or an intersection point between the object plane or the image plane and the light beam.
[0073]
Here, the local paraxial amount is as follows.
A point is considered on the closed curve considered on the reference plane when obtaining the spread of the luminous flux. A light beam coming out from the reference point and reaching this one point is called a minute light beam. The displacement vector from the intersection of the reference plane and the reference ray to the intersection of the reference plane and the minute ray is expressed as dx0The displacement of the minute ray on the surface where the local paraxial amount is to be calculated is expressed as dx.IRepresented by A unit vector representing the direction of the reference ray in the front space or the rear space of the reference plane is A0, A unit vector representing the direction of a minute ray in the same space0+ DA0(In the case of FIG. 1. In the case of FIG.0+ DB0), A unit vector representing the direction of the reference ray in the space where the local paraxial quantity is to be calculated is AI, A unit vector representing the direction of a minute ray in the same spaceI+ DAI(In the case of FIG. 1. In the case of FIG.I+ DBI) Dx0And / or dA0(DB0) And dxIAnd / or dAI(DBI) Is defined as the local paraxial amount.
[0074]
Possible local paraxial quantities include imaging position, imaging azimuth, focal line azimuth, magnification, focal length, pupil position, principal point position, nodal position, astigmatism, field curvature, illuminance, and the like.
[0075]
Consider the method of tracking the spread of the luminous flux, the definition of the local paraxial amount referred to here. First, let us consider a method for tracking the spread of luminous flux. Consider one or a plurality of light beams that pass a minute distance from the reference light beam, and these light beams are considered to be emitted from a reference point defined on the reference light beam. The reference point may be an image plane, an aperture plane, or any other plane including other virtual planes, but will be described by taking an object plane as an example.
[0076]
FIG. 4 shows a schematic diagram when the reference point is the object plane, and FIG. 1 shows a schematic diagram when the reference point is the diaphragm surface (first surface).
[0077]
In FIG. 1 and FIG. 4, two reference rays from an object point and two rays slightly separated from the reference point are traced. These two rays will be referred to as a U minute ray and a V minute ray. The reference ray is the i-th surface and the coordinate XiSuppose that the point is passed. In addition, the coordinate at which the U minute ray passes through the i-th surface is represented by Xi+ DxuiAnd the coordinate at which the V minute ray passes through the i-th surface is Xi+ DxviTo do.
[0078]
The cross-sectional area of the spread of the light beam determined by the three rays of the reference ray, U minute ray, and V minute ray is the outer product of two vectors, dSi≡ | dxuiXdxvi| Here, || represents the magnitude of the vector.
[0079]
Cross-sectional area dS of light flux given by the i-th surfaceiAnd the cross-sectional area dS of the spread of the light beam given by the (i + 1) th planei + 1 Is calculated as a flux density tracking method in Reference 1: “DGBurkhard, DLShealy; J.Opt.Soc.Amer., Vol.63, No3., (1973), p.299”. It is. A method of tracking the cross-sectional area of the spread of the light beam for each surface will be described using this method.
[0080]
(Flux density tracking method)
Set the parameters (coordinates) of the i-th surfacei, Vi, U + 1 parameter (coordinates)i + 1, Vi + 1, The intersection coordinates on each surface of the reference ray are xi= Xi(Ui, Vi), Xi + 1= Xi + 1(Ui + 1, Vi + 1).
[0081]
XiTo xi + 1Unit vector AiAi= Ai(Ui, Vi). The notation is slightly different from document 1, but according to document 1,
Cross-sectional area dS of the ray spread on the (i + 1) th planei + 1 If you write
dSi + 1 = | (∂xi + 1 / ∂ui + 1) × (∂xi + 1 / ∂vi + 1) | Dui + 1dvi + 1
It becomes.
[0082]
Furthermore, according to document 1,
Figure 0004136061
It becomes.
[0083]
Where LiIs xiTo xi + 1Is the distance to
Ii 0= Ai・ (∂xi/ ∂ui) × (∂xi/ ∂vi)
Ii 1= Ai・ {(∂xi/ ∂ui) × (∂Ai/ ∂vi) + (∂Ai/ ∂ui) × (∂xi/ ∂vi)}
Ii 2= Ai・ {(∂Ai/ ∂ui) × (∂Ai/ ∂vi)}
It is.
[0084]
∂Ai/ ∂ui, ∂Ai/ ∂viEtc. is obtained by differentiating the ray direction with respect to the coordinates of the surface. Reference 2: “DG Shealy, DGBurkhard; Opt. Acta., Vol. 22, No. 6. Is shown.
[0085]
Since this amount can be calculated using the amount obtained by differentiating the surface normal, ∂Ai/ ∂uiAnd the like may be considered as an amount obtained by differentiating a function representing a surface shape twice by a parameter.
[0086]
In Reference 1, dSiAnd dSi + 1For each surface, if Equation 1 is used, the spread of rays on the (i + 1) th surface is
Figure 0004136061
As shown, the minute amount du of the parameter of the first surface1, Dv1Can be calculated by giving
[0087]
further,
dui + 1 = (∂ui + 1/ ∂ui) ・ Dui+ (∂vi + 1/ ∂vi) ・ Dvi
The amount of minute displacement on the i + 1th surface using
Figure 0004136061
As described above, it can be expressed using the minute displacement amount of the first surface.
[0088]
The first and second terms of Equation 2 are expressed as dxui + 1, Dxvi + 1(Dx defined earlier)ui, DxviCorresponding to ), The spread of rays on the i + 1th plane is
dSi + 1 = | Dxui + 1Xdxvi + 1
It can be expressed. Where dxui + 1, Dxvi + 1Is
Figure 0004136061
It is.
[0089]
With the above, the light rays emitted from the object point are displaced by the parameter (du1, Dv1), We are ready to find which point on the i + 1th plane.
[0090]
Parameter du in object space1, Dv1Can describe the behavior of a minute ray in an arbitrary space or plane.
[0091]
Displacement amount dx of U minute ray and V minute ray on the i-th surfaceui, DxviParameter du1, Dv1Therefore, it is possible to know the spread of the light flux on an arbitrary surface. Further, the amount of change in inclination dA of the light beam emitted from this surfaceui, DAviParameter du1, Dv1Can be described by A method for calculating an imaging point or a focal line position from these quantities is disclosed in Document 2. Consider an imaginary plane in this imaging plane, where dxuiOr dxviCan be calculated to calculate the direction of the focal line. The position and direction of the focal line are also one of the local paraxial quantities considered here.
[0092]
FIG. 4 shows a state of a reference ray and one minute ray (referred to as a minute object ray) that come out of a point (object point) on the object plane and reach the image plane. The behavior of a minute object ray in the object space is expressed by a ray direction unit vector A in the object space.0Displacement amount dB0FIG. 5 shows the state represented by FIG. 6 shows a state in which the minute object light beam emitted from the object point in a conical shape intersects with the image plane. In general, the trajectory where the minute object beam intersects the image plane has an elliptical shape as shown in FIG. 6, but in a special case where the cross-sectional area of the light beam is zero, it becomes a straight line or a single point. It becomes. By tracking the cross-sectional area of the cross section of the light beam, it is possible to know the state of image formation.
[0093]
Further, the angle formed by the minute object beam and the reference beam is set as the beam direction vector A.0, AIDisplacement amount dB0, DBI, The local angle magnification is
Local angle magnification = (NI| DBI|) / (N0| DB0|) ... (1)
Can be calculated. However, N0Is the refractive index of the object space, NIIs the refractive index of the image space.
[0094]
Here, the local angular magnification is defined by multiplying the refractive index of the object space and the image space. However, depending on the theoretical configuration method, the local angular magnification may be defined by an expression that does not multiply the refractive index. In the definition of other local paraxial quantities, the handling of the refractive index may be considered as necessary.
[0095]
Next, as shown in FIG. 1, consider a case where a reference ray and a minute ray intersect at the pupil plane. Such a minute ray is called a minute pupil ray, and a displacement parameter dx on the object plane.0= Dx0(Du0, Dv0FIG. 2 shows the behavior of the minute pupil beam on the object plane. The behavior of the same ray on the image plane is shown in FIG. Displacement amount dx of the minute pupil beam on the object plane0And the displacement dx of the minute pupil beam on the image planeIIf you express the local magnification with
Local magnification = | dxI| / | Dx0| (2)
It becomes.
[0096]
As shown in FIG. 2 and FIG. 3, even if the locus of the intersection point between the object plane and the minute pupil ray is circular, the intersection locus on the image plane is generally an ellipse. Has angle φ dependency. FIG. 7 shows a schematic diagram of the azimuth angle dependence of the local magnification. FIG. 7 schematically shows two types of optical systems.
[0097]
If the beam density tracking method shown so far is used, the displacement parameter du on the object plane0, Dv0Thus, the behavior of the minute pupil beam on the image plane can be expressed analytically, but if the behavior of the minute pupil beam can be expressed analytically with some parameters in this way, the local magnification local maximum, minimum, and extreme values can be expressed. The azimuth | direction which takes can be expressed analytically using the parameter. Among local paraxial quantities defined in the present invention, the quantity having azimuth angle dependency, such as focal length and magnification, is the maximum of local paraxial quantities if the behavior of a minute pupil beam can be expressed analytically by some parameter. Values, local minimum values, and azimuths of extreme values can be expressed analytically using the parameters.
[0098]
Next, consider the minute pupil rays when the object is at infinity. At this time, the displacement dx of the minute pupil beam on the object plane0Rather, the ray direction vector A in the object space0Change dA0Given the local focal length,
Local focal length = | dxI| / | DA0| (3)
Can be defined.
[0099]
In general, there is astigmatism at the pupil position as there is astigmatism at the image point, but in such a case, a minute pupil ray that intersects the reference ray at the center of the actual stop can be considered. .
[0100]
Next, the angular magnification of the local pupil with a minute pupil ray is
Local pupil angle magnification = (NI| dAI|) / (N0| dA0|) ... (4)
Can be defined.
[0101]
The above local angular magnification, local magnification, local focal length, and local pupil angular magnification are all in the case of a coaxial optical system, the angular magnification, the lateral magnification, the focal length, and the pupil, which are paraxial amounts of the coaxial optical system. It matches the angular magnification of.
[0102]
In the above, we have considered the local paraxial amount when the image of the object plane can be formed on the image plane, but when considering the imaging relationship of the pupil, the principal point, and the nodal point, if necessary, the object plane The image plane may be replaced with a pupil plane, a main plane, or the like.
[0103]
In the light beam density tracking method, a difference value may be used instead of the value of the first-order differentiation and the second-order differentiation.
[0104]
When the optical medium is not a homogeneous medium but a refractive index distribution type medium, Reference 3: “DGBurkhard; Apll. Opt. Vol. 19, No. 21, (1980), pp. 3682- The spread of light flux can be calculated by applying the calculation method shown in “3713”.
[0105]
The spread of the luminous flux can also be obtained by the following method.
By tracing the reference light beam and one light beam having an arbitrary azimuth slightly separated from the reference light beam, the spread of the light beam in one azimuth direction can be obtained. Further, in a special case where the reference light beam and the spread of the surrounding light beam have no azimuth dependency, the spread of the light beam in all directions can be obtained by simply tracking the reference light beam and one minute light beam. .
[0106]
In general, the spread of the luminous flux has an orientation dependency. Consider a reference ray and two micro rays and any reference plane they cross. The minute ray is passed so that the angle formed by two vectors connecting the intersection of the reference ray and the reference plane and the intersection of the two minute rays and the reference plane is a right angle. At this time, an arbitrary minute ray can be expressed by a linear combination of these two vectors. By tracking the reference ray and the two minute rays, the size and orientation of these two vectors in an arbitrary plane can be obtained. Further, the spread of the light beam on the surface can be expressed by these two vectors. Therefore, the spread of the light beam on an arbitrary surface can be obtained by tracking the reference light beam and the two minute light beams that satisfy the above conditions.
[0107]
When the reference light beam and any three minute light beams are traced, the spread of the light beam on an arbitrary surface can be obtained. Of the four points of intersection between these rays and an arbitrary surface, when a minute ray is selected so that three or more points are not aligned, the center of the intersection between the reference ray and the arbitrary surface is 3 Only one ellipse passing through the three intersections of the book's microbeam and this plane can be determined. Therefore, the spread of the light flux on an arbitrary surface can be obtained.
[0108]
Here, (A-11) will be described. This is a means by which both calculation methods can be switched when calculating aberrations such as astigmatism and curvature of field, which can be calculated by the conventional method or the light flux spread information proposed here. If the optical system is rotationally symmetric, etc., and can be calculated easily even with conventional methods, the system can be selected by the designer so that the conventional method is used and the eccentric optical system is calculated using the light flux density method. Is easy to use.
[0109]
FIG. 8 shows a block diagram of a first embodiment of a processing apparatus for performing the paraxial amount processing method. This apparatus includes an input device 3 such as a keyboard, a storage device 4 such as a magnetic disk, a display device 2, a printer 6, and the like, and an arithmetic processing device 1 that performs overall processing and processing. In addition, it is connected to a LAN 7 for exchanging data, processing methods, etc. with the outside, and has an input / output mechanism for an external medium 5 such as a floppy disk or a magneto-optical disk.
[0110]
With this apparatus, the processing shown in FIG. 9 is performed.
At Step 1, calculation data is read from the storage device 4 into the arithmetic device 1.
In Step 2, the calculation device 1 calculates the spread information of the light flux. This result is temporarily stored in the storage device 4.
In Step 3, the local paraxial amount is calculated by the computing device 1 from the spread information of the light beam stored in the storage device 4 and output. The output may be stored in the storage device 4 or the external medium 5 or displayed on the printer 6 or the display device 2. The calculation result may be transferred to another computer via the LAN 7.
[0111]
Let's take a closer look at each step.
First, reading of calculation data corresponding to Step 1 will be described with reference to FIG. 10 or FIG. FIG. 10 shows an input for tracking a minute pupil beam, and FIG. 11 shows an input for tracking a minute object beam.
The input is described as being read from a file in the storage device 4, but may be input from the input device 3 in some cases.
[0112]
Step 4 or Step 9 is reading of so-called lens data, and reading of optical system data stored in the storage device 4. Optical system data includes surface shape parameters (coefficients for surface shapes expressed by functions such as curvature radius, aspherical surface, and free-form surface), surface interval data, refractive index data (distribution) In the case of a refractive index medium, it includes a coefficient that can determine the refractive index at each point), and when there is eccentricity, the data, the effective diameter of each surface, and the like. If necessary, information on the shape of the image plane and the object plane is also read.
[0113]
In Step 5 or Step 10, an object point position is designated. The object point position can be specified by object height, object side field angle, image height, image side field angle, or the like.
In Step 6 or Step 11, a reference ray is designated. The designation of the reference ray can be designated by the direction cosine of the ray emitted from the object point.
[0114]
Step 7 designates the pupil position. A single point in the object space may be specified. However, when the iris is inside the optical system, there may be astigmatism at the pupil position in the object space. Or by specifying the pupil position in the object space as the position and orientation of the focal line, and devise on ray tracing.
[0115]
Step 12 is a designation of a reference plane for defining a minute object beam. An arbitrary curved surface that does not include an object point or an image point can be specified as the reference plane, but it is preferable to specify the first plane or the entrance pupil plane.
In Step 8 or Step 13, the data input as described above is temporarily stored in the storage device 4.
The above is the detailed description of the process corresponding to Step 1 in FIG.
[0116]
Next, a detailed description will be given of processing corresponding to Step 2 in FIG.
FIG. 12 shows a procedure for obtaining the spread information of the light beam using the light beam density tracking, FIG. 13 shows a procedure for obtaining the spread information of the light beam in an arbitrary direction by tracking two real light beams as the minute light rays, and 1 for the minute light beam. FIG. 14 shows a procedure for tracking the actual ray of the book to obtain the spread information of the light beam in a specific direction.
[0117]
First, FIG. 12 will be described. In Step 14, the input data saved in Step 8 or Step 13 is read.
In Step 15, the initial tracking value of the minute ray is calculated from the information in the vicinity of the object point position read in Step 5, Step 6, Step 7, or Step 10, Step 11, and Step 12.
[0118]
Steps 16 to 20 are the so-called ray tracing part and repeat the same calculation for the number of faces.
In Step 16, the position of the intersection with the next surface is calculated.
In Step 17, the direction of the emitted light is calculated using the law of refraction.
Step 18 is a step for calculating the spread of the luminous flux.iAnd exit light direction AiAnd the surface parameter ui, ViCalculate the amount differentiated by. Furthermore, a small amount of parameter u on the reference plane is used using the relationship with the previous plane.i, ViFind the amount differentiated by. The surface is the parameter ui, ViIf it is not well represented by the function of, it may be calculated using the difference instead of the differentiation.
[0119]
Here, the intersection point x of the surfaceiAnd exit light direction AiAnd the parameters u of each surfacei, ViOnly the amount differentiated in step, and the parameter u of the minute amount on the reference planei, ViThe amount differentiated by may be collectively calculated later.
Step 19 is a process for temporarily storing the values calculated in Step 16, Step 17, and Step 18 in the storage device 4.
[0120]
In Step 20, it is checked whether or not the surface to be calculated still remains. If the calculation has not been completed up to the final surface to be calculated, the processing is repeated from Step 16.
Step 21 is a storage of the final surface result. If it is desired to store information other than that stored in Step 19, it is stored here. If the intermediate surface information is not used in the later calculation, it is not necessary to save at Step 19, and it is sufficient to save at Step 21.
[0121]
Next, FIG. 13 will be described. FIG. 13 shows a case in which two real light rays are traced as minute light rays to obtain spread information of a light beam in an arbitrary direction.
In Step 37, the input data saved in Step 8 or Step 13 is read.
Step 38 to Step 40 are the so-called ray tracing part and repeat the same calculation for the number of faces. Here, the reference ray is traced.
[0122]
In Step 38, the position of the intersection with the next surface is calculated, and the direction of the exit light is calculated using the law of refraction.
Step 39 is a process for temporarily storing the value calculated in Step 38 in the storage device 4.
In Step 40, it is checked whether or not the surface to be calculated still remains, and if it is not over to the final surface to be calculated, the processing is repeated from Step 38.
[0123]
Next, the minute ray is traced. Here, it is assumed that the case where the azimuth angle is 0 ° and 90 ° is traced as a minute ray.
At Step 41, an initial azimuth angle of 0 ° is set.
In Step 42, the initial trace value of the minute ray is calculated from the information in the vicinity of the object point position read in Step 5, Step 6, Step 7, or Step 10, Step 11, and Step 12.
[0124]
Step 43 to Step 45 are ray tracing portions of minute rays, and the same calculation is repeated for the number of faces.
[0125]
In Step 43, the position of the intersection with the next surface is calculated, and the direction of the exit light is calculated using the law of refraction.
Step 44 is a process of temporarily storing the value calculated in Step 43 in the storage device 4.
[0126]
In Step 45, it is checked whether or not the surface to be calculated still remains. If the calculation has not been completed up to the final surface to be calculated, the processing is repeated from Step 43.
In Step 46, it is checked whether or not the minute light beam to be traced still remains. If the minute light beam remains, the process proceeds to Step 48. Here, the azimuth (90 °) that needs to be calculated next is set, and the process is repeated from Step 42.
[0127]
In Step 47, the spread information of the luminous flux is calculated from the tracked three rays and the result is stored in the storage device 4. The calculation is based on the displacement dx of the ray on the reference plane (the set reference plane in the case of a minute object ray and the object plane in the case of a minute pupil ray).0The amount of displacement dx of the ray position on the image plane divided byIOr the amount of change dA in the beam direction in the image spaceIIt is. This is calculated for the 0 ° direction and the 90 ° direction.
[0128]
Next, FIG. 14 will be described. FIG. 14 shows a procedure for obtaining spread information of a light beam in a specific direction by tracking one real light beam as a minute light beam.
In Step 49, the input data saved in Step 8 or Step 13 is read.
Step 50 to Step 53 are so-called ray tracing portions, and the same calculation is repeated for the number of surfaces. Here, the reference ray is traced.
[0129]
In Step 50, the position of the intersection with the next surface is calculated.
In Step 51, the direction of the emitted light is calculated using the law of refraction.
Step 52 is a process for temporarily storing the value calculated in Step 50 to Step 51 in the storage device 4.
In Step 53, it is checked whether or not the surface to be calculated still remains. If the calculation has not been completed up to the final surface to be calculated, the processing is repeated from Step 50.
[0130]
Next, the minute ray is traced. Here, it is assumed that the direction of the minute light beam is read from the input device 3 or the storage device 4.
In Step 54, the tracking direction of the minute light beam is read.
In Step 55, the initial tracking value of the minute ray is calculated from the information in the vicinity of the object point position read in Step 5, Step 6, Step 7, or Step 10, Step 11, and Step 12.
Step 56 to Step 58 are ray tracing portions of minute rays, and the same calculation is repeated for the number of faces.
[0131]
In Step 56, the position of the intersection with the next surface is calculated, and the direction of the exit light is calculated using the law of refraction.
Step 57 is a process for temporarily storing the value calculated in Step 56 in the storage device 4.
In Step 58, it is checked whether or not the surface to be calculated still remains. If the calculation has not been completed up to the final surface to be calculated, the processing is repeated from Step 56.
[0132]
In Step 59, the spread information of the light flux is calculated from the result of the two traced light rays and stored in the storage device 4. The calculation is based on the displacement dx of the ray on the reference plane (the set reference plane in the case of a minute object ray and the object plane in the case of a minute pupil ray).0The amount of displacement dx of the ray position on the image plane divided byIOr the amount of change dA in the beam direction in the image spaceIIt is. Calculate these quantities for the specified orientation.
Finally, details of Step 3 in FIG. 9 will be described.
15, 16, and 17 are shown. In FIG. 15, when the focal line and the direction are calculated from the spread information of the light beam in an arbitrary direction, FIG. 16 is obtained from the spread information of the light beam in an arbitrary direction. When calculating the local magnification, FIG. 17 shows a case where the local focal length is calculated from the spread information of the light beam in a specific direction.
[0133]
First, FIG. 15 will be described.
In Step 23, the spread information of the light beam stored in Step 19, Step 21, or Step 47 is read. Here, the necessary spread information is spread information for a minute object beam.
[0134]
In Step 24, the image distance L such that the numerator of Formula 1 is zero.iAsk for. For this purpose, a quadratic equation whose coefficient is the calculated spread information may be generated and solved. In Step 25, the discriminant of the quadratic equation is examined, and the process is divided according to the number of solutions.
[0135]
Step 26 calculates the position and orientation of two focal lines when there are two real roots.
At Step 27, the calculation result is output. The output destination may be the storage device 4 or the external medium 5, or the printer 6 or the display device 2. The calculation result may be transferred to another computer via the LAN 7.
Step 28 calculates and outputs the position of the imaging point when there are multiple roots.
Step 29 outputs an error message when there is no real number solution.
[0136]
Next, FIG. 16 will be described.
In Step 30, the spread information of the light beam stored in Step 19, Step 21 or Step 47 is read. Here, the necessary spread information is spread information for a minute pupil beam. Here, it is assumed that the orientation for calculating the local paraxial amount is read from the input device 3 or the storage device 4.
At Step 31, the direction to be calculated is read.
[0137]
In Step 32, a parameter du for designating a minute pupil ray on the reference plane from information in the vicinity of the object point position read in Step 5, Step 6, and Step 7.1, Dv1Calculate
[0138]
In Step 33, the displacement dx on the image plane is calculated from the spread information of the light beam read in Step 30 and the parameters on the reference plane calculated in Step 32.ICalculate
In Step 34, the local paraxial amount in the designated orientation is calculated according to the definition.
In Step 35, the calculation result is output. The output destination may be the storage device 4 or the external medium 5, or the printer 6 or the display device 2. Further, the calculation may be transferred to another computer via the LAN 7.
In Step 36, it is checked whether or not the calculation for the next orientation is performed. If so, the calculation from Step 31 is repeated.
[0139]
Finally, FIG. 17 will be described.
In Step 60, the spread information of the light beam stored in Step 59 is read. Here, the necessary spread information is spread information for a minute pupil beam.
In Step 61, the amount of change in light beam inclination dA in the object space0Calculate
In Step 62, the displacement dx of the minute pupil ray on the image plane is determined from the spread information of the light beam in the specific direction read in Step 60.ICalculate
[0140]
In Step 63, the local focal length is calculated from the results calculated in Step 61 and Step 62.
Step 64 outputs the calculation result. The output destination may be the storage device 4 or the external medium 5, or the printer 6 or the display device 2. The calculation result may be transferred to another computer via the LAN 7.
[0141]
Next, an optical system that is a second embodiment of the present invention will be described.
The optical system of the present embodiment has a free-form surface having a shape represented by the following mathematical formula 3.
[0142]
Figure 0004136061
Where C2, CThree, CFour..., C37Is the coefficient of the free-form surface.
[0143]
In the configuration parameters of the present embodiment, as shown in FIG. 18, the center of the pupil 9 of the optical system 8 is the origin of the optical system, and the optical axis 10 is a light ray passing through the center (origin) of the pupil 9 from the center of the object. The direction from the pupil 9 to the optical axis 10 is defined as the Z-axis direction, the direction perpendicular to the Z-axis and passing through the center of the pupil 9 and the light beam is bent by the optical system 8 is defined as the Y-axis direction, the Y-axis, The direction perpendicular to the axis and passing through the center of the pupil 9 is the X-axis direction, the direction from the pupil 9 toward the optical system 8 is the positive direction of the Z axis, the optical axis 10 to the image plane 14 side is the positive direction of the Y axis, The direction constituting the Y-axis, Z-axis and the right-hand system is defined as the positive direction of the X-axis. The ray tracing is performed in a direction in which the light enters the optical system 8 from the object side on the pupil 9 side of the optical system 8.
[0144]
For the surface to which the eccentricity is given, the amount of eccentricity in the X-axis direction, the Y-axis direction and the Z-axis direction from the center of the pupil 9 which is the origin of the optical system 8 at the surface top position of the surface, and the surface Are tilt angles (α, β, γ (°), respectively) about the X axis, the Y axis, and the Z axis of the center axis (Z axis of Formula 3 for a free-form surface). In this case, positive α and β means counterclockwise rotation with respect to the positive direction of each axis, and positive γ means clockwise rotation with respect to the positive direction of the Z axis. In addition, the radius of curvature of the spherical surface, the surface interval, the refractive index of the medium, and the Abbe number are given in accordance with conventional methods.
[0145]
In the configuration parameters to be described later, the term relating to the aspherical surface for which no data is described is zero. The refractive index is shown for the d-line (wavelength 587.56 nm). The unit of length is mm.
[0146]
FIG. 18 is a YZ sectional view including the optical axis 10 of the decentered prism optical system 8 of the second embodiment. The decentered prism optical system 8 includes three surfaces 11, 12, and 13, and the space between the three surfaces 11 to 13 is filled with a transparent medium having a refractive index greater than 1, and is emitted from an object (not shown). The light beam that has passed through first passes through the pupil 9 of the optical system 8 along the optical axis 10, enters the first surface 11 having a transmission function and a reflection function, and enters the optical system 8. Reflected in the direction approaching the pupil 9 by the second surface 12, which is a reflective surface having only a reflection action on the far side, and then reflected again in the direction away from the pupil 9 by the first surface 11, and the reflected light beam is transmitted. The light passes through the third surface 13 having only the light and reaches the image surface 14 to form an image. The first surface 11, the second surface 12, and the third surface 13 are free-form surfaces defined by Equation 3 above.
[0147]
The configuration parameters of the second embodiment are shown below.
Figure 0004136061
Figure 0004136061
[0148]
FIG. 19 shows the azimuth angle dependence of the local magnification along a light beam having an X-direction image height of 10.5 mm and a Y-direction image height of 8.0 mm in the second embodiment. The direction in which the local magnification takes the maximum is 85.16 °, and the direction in which the local magnification takes the minimum is 175.16 °. The ellipticity of the local magnification of the light beam is 0.9436.
[0149]
Next, the local paraxial amount at each position on the image plane is shown. The local magnification of local maximum and local minimum, the ellipticity of local magnification, the focal line position by the astigmatism of the principal ray, and the focal line direction are shown below. The light beam position (x, y) is a horizontal image height and a vertical image height, respectively. The focal line position is the value of the Z coordinate expressed in the local coordinate system of the image plane, and the direction of the local magnification and the direction of the focal line are values in the object coordinates. The azimuth is shown between 0 ° and 180 ° so that the Y-axis direction is 0 ° and the right screw advances in the Z-axis direction.
[0150]
Figure 0004136061
[0151]
Figure 0004136061
[0152]
Third embodiment
Next, a third embodiment will be described. The third embodiment is an optical system (FIG. 18) of the second embodiment, in which the distance between the object surfaces is infinite. The local focal length at each image plane position in the third embodiment is shown below.
[0153]
Figure 0004136061
[0154]
Next, the focal line position due to the astigmatism of the chief ray at each image plane position is indicated by the value of the Z coordinate in the coordinate system defining the image plane.
[0155]
Figure 0004136061
[0156]
The azimuths at which the local focal length has an extreme value are not orthogonal to each other because the azimuth on the coordinate plane of the object plane is used. The directions on the image plane are orthogonal.
[0157]
These embodiments are examples designed by an automatic design method so that the focal length (power) and lateral magnification of the entire system have no azimuth dependency over the entire image plane. In the conventional method, only the paraxial amount on the reference axis that is determined by a certain condition can be obtained. However, by using the present invention, the paraxial amount can be obtained at a plurality of positions designated on the image plane. As a result, it was possible to design an optical system in which the paraxial amount has little azimuth dependency over the entire image plane.
[0158]
【The invention's effect】
As is clear from the above description, the use of the processing method of the present invention has an effect that the spread information of the light flux and the local paraxial amount can be calculated only by information in the vicinity of an arbitrary ray passing through an arbitrary optical system. is there.
[0159]
In addition, the rotationally symmetric optical system is an optical system having special distortion aberration such as a fish-eye lens or an Fθ lens, and has the necessary characteristics (the radial focal length does not depend on the angle of view, the radial magnification and the tangential direction). Are equal to each other, the product of the radial magnification factor and the tangential magnification factor does not depend on the angle of view), and the like, the necessary characteristics can be directly handled.
[0160]
In addition, it is possible to calculate the local paraxial amount that is the basis of the design of a rotationally asymmetric optical system having a decentered or rotationally asymmetric surface such as a toric surface. In particular, there is an effect that it is possible to easily estimate the imaging characteristics of an optical system whose image plane and object plane are not flat.
[0161]
In addition, when the local paraxial amount such as magnification and focal length has azimuth angle dependence, there is an effect that the local paraxial amount takes an extreme value and the local paraxial amount there can be easily calculated.
[0162]
Further, there is an effect that the rotation angle of the image can be known in an optical system in which image rotation occurs in a rotationally asymmetric optical system that is decentered or has a rotationally asymmetric surface such as a toric surface.
[0163]
Further, in an optical system in which astigmatism occurs, there is an effect that the amount of astigmatism and the direction of the focal line can be easily calculated.
[Brief description of the drawings]
FIG. 1 is a schematic diagram for explaining the principle of obtaining a local paraxial amount according to the present invention when a reference point is a diaphragm surface.
FIG. 2 is a diagram illustrating the behavior of a minute pupil beam on an object plane.
FIG. 3 is a diagram illustrating the behavior of a minute pupil beam on an image plane.
FIG. 4 is a schematic diagram for explaining the principle of obtaining a local paraxial amount according to the present invention when the reference point is an object plane.
FIG. 5 is a diagram illustrating a state in which a behavior of a minute object light beam in an object space is expressed by a displacement amount of a light beam direction unit vector in the object space.
FIG. 6 is a diagram illustrating a state in which a minute object beam emitted conically from an object point intersects an image plane.
FIG. 7 is a schematic diagram showing the azimuth angle dependence of local magnification.
FIG. 8 is a block diagram of a first embodiment of a processing apparatus for carrying out the paraxial amount processing method of the present invention.
FIG. 9 is a diagram showing a processing flow for obtaining a local paraxial amount based on the present invention;
FIG. 10 is a diagram showing a flow of reading data for trace light ray trace calculation.
FIG. 11 is a diagram showing a flow of reading data for trace tracking of minute object rays.
FIG. 12 is a diagram illustrating a procedure for obtaining light flux spread information using light flux density tracking;
FIG. 13 is a diagram showing a procedure for obtaining spread information of a light beam in an arbitrary direction by tracking two real light beams as minute light beams.
FIG. 14 is a diagram showing a procedure for obtaining spread information of a light beam in a specific direction by tracking one real light beam as a minute light beam.
FIG. 15 is a diagram showing a procedure for calculating the position and azimuth of a focal line from spread information of an arbitrary azimuth with respect to a minute object beam.
FIG. 16 is a diagram showing a procedure for calculating a local magnification from a spread information light beam in an arbitrary direction with respect to a minute pupil ray.
FIG. 17 is a diagram showing a procedure for calculating a local focal length from spread information of a specific direction with respect to a minute pupil ray.
FIG. 18 is a sectional view of a decentered prism optical system according to a second embodiment of the present invention.
FIG. 19 is a diagram illustrating the azimuth angle dependence of the local magnification of the decentered prism optical system according to the second embodiment.
[Explanation of symbols]
1. Arithmetic processing device
2 ... Display device
3 ... Input device
4. Storage device
5 ... External media
6 ... Printer
7 ... LAN
8 ... Decentered prism optical system
9 ... Hitomi
10: Optical axis
11 ... first side
12 ... the second side
13 ... Third surface
14 Image plane

Claims (4)

任意の曲面から構成される光学系において、物体面から像面に至る任意の基準光線を設定し、該基準光線上に基準点を考え、該基準点から射出し、該基準光線と前記曲面の交わる点近傍での、前記基準光線の近傍を伝播する微小光束の広がりを求め、前記広がりを少なくとも1面又は全系にわたって計算するようにしたことを特徴とする光学量処理方法。In an optical system composed of an arbitrary curved surface, an arbitrary reference ray from the object plane to the image plane is set, a reference point is considered on the reference ray, and is emitted from the reference point. An optical quantity processing method characterized in that a spread of a minute light beam propagating in the vicinity of the reference light beam in the vicinity of an intersecting point is obtained, and the spread is calculated over at least one surface or the entire system. 任意の曲面から構成される光学系において、物体面から像面に至る任意の基準光線を設定し、該基準光線上に基準点を考え、該基準点から射出し、該基準光線と前記曲面の交わる点近傍での、前記基準光線の近傍を伝播する微小光束の広がりを求め、前記広がりを少なくとも1面又は全系にわたって計算するようにしたことを特徴とする近軸量処理方法。In an optical system composed of an arbitrary curved surface, an arbitrary reference ray from the object plane to the image plane is set, a reference point is considered on the reference ray, and is emitted from the reference point. A paraxial quantity processing method characterized in that a spread of a minute light beam propagating in the vicinity of the reference light beam in the vicinity of an intersecting point is obtained, and the spread is calculated over at least one surface or the entire system. 請求項2記載の近軸量処理方法を機械可読な形で記録したことを特徴とする記録媒体3. A recording medium on which the paraxial amount processing method according to claim 2 is recorded in a machine-readable form. 請求項2記載の近軸量処理方法を用いていることを特徴とする近軸量処理装置。A paraxial amount processing apparatus using the paraxial amount processing method according to claim 2.
JP09302098A 1998-04-06 1998-04-06 Paraxial amount processing method and processing apparatus Expired - Fee Related JP4136061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09302098A JP4136061B2 (en) 1998-04-06 1998-04-06 Paraxial amount processing method and processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09302098A JP4136061B2 (en) 1998-04-06 1998-04-06 Paraxial amount processing method and processing apparatus

Publications (2)

Publication Number Publication Date
JPH11287947A JPH11287947A (en) 1999-10-19
JP4136061B2 true JP4136061B2 (en) 2008-08-20

Family

ID=14070813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09302098A Expired - Fee Related JP4136061B2 (en) 1998-04-06 1998-04-06 Paraxial amount processing method and processing apparatus

Country Status (1)

Country Link
JP (1) JP4136061B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4272785B2 (en) * 2000-01-17 2009-06-03 キヤノン株式会社 Optical processing method and optical processing apparatus using the same
JP4573938B2 (en) * 2000-02-29 2010-11-04 キヤノン株式会社 Optical processing method and optical processing apparatus using the same

Also Published As

Publication number Publication date
JPH11287947A (en) 1999-10-19

Similar Documents

Publication Publication Date Title
JP3715686B2 (en) Processing method and processing apparatus using the same
Kingslake Optical system design
JP3535710B2 (en) Optical element and optical system using the same
TWI724275B (en) Off-axial three-mirror imaging system with freeform surfaces
Sasián Introduction to aberrations in optical imaging systems
Zhang et al. Towards automatic freeform optics design: coarse and fine search of the three-mirror solution space
US10210289B2 (en) Method for designing three-dimensional freeform surface to be used in design of the reflective mirrors
US10983316B2 (en) Method of designing and manufacturing freeform surface off-axial imaging system
JP2002139666A (en) Method and device for optimizing optical system, and recording medium recording program for optimizing optical system
TWI628463B (en) An off-axial optical system with three hybrid surfaces
US4607914A (en) Optical system design techniques using holographic optical element
JPH07253748A (en) Fourier transform optical device
US11650402B2 (en) Freeform surface off-axial three-mirror imaging system
JP4136061B2 (en) Paraxial amount processing method and processing apparatus
TWI775093B (en) Method for designing freeform imaging system
JPH10104507A (en) Objective lens and recording and reproducing device
JPH10282451A (en) Oblique projection optical system
Sinclair Optical design software
Sasian et al. Characteristics and control of linear astigmatism aberration in a nonaxially symmetric optical system
Bruegge Analysis of polarization effects in optical systems
JPH07333562A (en) Eccentric optical system and manufacture thereof
AU2022200296B2 (en) Method for simulating an optical image
Poprawe et al. The Propagation of Electromagnetic Waves
Giusfredi et al. Geometrical Optics
Bociort Thin-lens approximation for radial gradient-index lenses

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080521

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080603

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees