JP6379502B2 - Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program - Google Patents

Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program Download PDF

Info

Publication number
JP6379502B2
JP6379502B2 JP2014020834A JP2014020834A JP6379502B2 JP 6379502 B2 JP6379502 B2 JP 6379502B2 JP 2014020834 A JP2014020834 A JP 2014020834A JP 2014020834 A JP2014020834 A JP 2014020834A JP 6379502 B2 JP6379502 B2 JP 6379502B2
Authority
JP
Japan
Prior art keywords
image
subject
spectacle
wearing
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014020834A
Other languages
Japanese (ja)
Other versions
JP2015148691A5 (en
JP2015148691A (en
Inventor
賀洋 尾崎
賀洋 尾崎
裕司郎 栃久保
裕司郎 栃久保
徹 有川
徹 有川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2014020834A priority Critical patent/JP6379502B2/en
Publication of JP2015148691A publication Critical patent/JP2015148691A/en
Publication of JP2015148691A5 publication Critical patent/JP2015148691A5/ja
Application granted granted Critical
Publication of JP6379502B2 publication Critical patent/JP6379502B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eyeglasses (AREA)

Description

本発明は、眼鏡を製作するために必要な眼鏡装用パラメータを測定するために、撮影画像の解析を行う眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラムに関する。   The present invention relates to a spectacle wearing image analysis apparatus, a spectacle wearing image analysis method, and a spectacle wearing image analysis program for analyzing a photographed image in order to measure spectacle wearing parameters necessary for manufacturing spectacles.

眼鏡フレームを装用した状態の被検者の顔を撮像装置によって撮影し、その画像から眼鏡を製作するために必要な眼鏡装用パラメータを算出する眼鏡装用画像解析装置が提案されている(特許文献1参照)。   There has been proposed a spectacle wearing image analysis apparatus that photographs a face of a subject wearing a spectacle frame with an imaging device and calculates spectacle wearing parameters necessary for manufacturing spectacles from the image (Patent Document 1). reference).

従来の装置では、アタッチメントやシール等が眼鏡フレームに取り付けられ、撮影された撮影画像では、それらを目印として眼鏡フレームの位置を検出し、眼鏡装用パラメータを測定していた(特許文献2参照)。また、アタッチメントやシール等を眼鏡フレームに取り付けること無く、撮影を行った場合、撮影画像より眼鏡フレームのエッジを検出することによって、眼鏡フレームを検出していた。   In the conventional apparatus, an attachment, a seal, and the like are attached to the spectacle frame, and in the captured image, the spectacle wearing parameters are detected by using them as a mark and the spectacle wearing parameters are measured (see Patent Document 2). Further, when photographing is performed without attaching an attachment or a seal to the spectacle frame, the spectacle frame is detected by detecting the edge of the spectacle frame from the photographed image.

特開2007−216049号公報JP 2007-216049 A 特表2010−503885号公報Special table 2010-503858 gazette

例えば、眼鏡を装用した状態で眼鏡装用パラメータを取得する場合、撮影する際における被検者の顔の傾き、眼鏡フレームの形状、眼鏡を被検者が装用したことによる眼鏡フレームの歪等の原因によって、取得される眼鏡装用パラメータの精度がよくない場合があった。   For example, when acquiring spectacle wearing parameters in the state of wearing spectacles, causes such as the inclination of the subject's face at the time of photographing, the shape of the spectacle frame, the distortion of the spectacle frame caused by wearing the spectacles, etc. In some cases, the accuracy of the acquired spectacle wearing parameters is not good.

本発明は、上記問題点を鑑み、好適に眼鏡装用パラメータを取得することのできる眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラムを提供することを技術課題とする。   In view of the above problems, an object of the present invention is to provide a spectacle wearing image analysis apparatus, a spectacle wearing image analysis method, and a spectacle wearing image analysis program capable of suitably acquiring spectacle wearing parameters.

(1) 本開示の第1態様に係る眼鏡装用画像解析装置は、眼鏡を装用した被検者の画像を解析し、被検者の眼鏡装用パラメータを測定するための眼鏡装用画像解析装置であって、眼鏡を装用した被検者の左右を含んだ状態の被検者の正面画像と、眼鏡を装用した被検者の左眼の側方を撮影した第1側方画像と、被検者の右眼の側方を撮影した第2側方画像と、をそれぞれ取得する画像取得手段と、前記正面画像に基づいて眼鏡フレームの左端と右端の第1位置情報を左右眼のそれぞれで取得し、前記第1側方画像と前記第2側方画像に基づいて前記眼鏡フレームの左端と右端の第2位置情報を左右眼のそれぞれで取得する位置情報取得手段と、左右眼それぞれの前記第1位置情報と、左右眼それぞれの前記第2位置情報と、に基づいて、振れ角を取得する演算手段と、を備えることを特徴とする。
(2) 本開示の第態様に係る眼鏡装用画像解析方法は、眼鏡を装用した被検者の画像を解析し、被検者の眼鏡装用パラメータを測定するための眼鏡装用画像解析方法であって、眼鏡を装用した被検者の左右を含んだ状態の被検者の正面画像と、眼鏡を装用した被検者の左眼の側方を撮影した第1側方画像と、被検者の右眼の側方を撮影した第2側方画像と、をそれぞれ取得する画像取得ステップと、前記正面画像に基づいて眼鏡フレームの左端と右端の第1位置情報を左右眼のそれぞれで取得し、前記第1側方画像と前記第2側方画像に基づいて前記眼鏡フレームの左端と右端の第2位置情報を左右眼のそれぞれで取得する位置情報取得ステップと、左右眼それぞれの前記第1位置情報と、左右眼それぞれの前記第2位置情報と、に基づいて、振れ角を取得する演算ステップと、を備えることを特徴とする。
(3) 本開示の第3態様に係る眼鏡装用画像解析プログラムは、眼鏡を装用した被検者の画像を解析し、被検者の眼鏡装用パラメータを測定するための眼鏡装用画像解析装置において実行される眼鏡装用画像解析プログラムであって、前記眼鏡装用画像解析装置のプロセッサによって実行されることで、眼鏡を装用した被検者の左右を含んだ状態の被検者の正面画像と、眼鏡を装用した被検者の左眼の側方を撮影した第1側方画像と、被検者の右眼の側方を撮影した第2側方画像と、をそれぞれ取得する画像取得ステップと、前記正面画像に基づいて眼鏡フレームの左端と右端の第1位置情報を左右眼のそれぞれで取得し、前記第1側方画像と前記第2側方画像に基づいて前記眼鏡フレームの左端と右端の第2位置情報を左右眼のそれぞれで取得する位置情報取得ステップと、左右眼それぞれの前記第1位置情報と、左右眼それぞれの前記第2位置情報と、に基づいて、振れ角を取得する演算ステップと、を前記眼鏡装用画像解析装置に実行させることを特徴とする。
(1) A spectacle wearing image analysis apparatus according to a first aspect of the present disclosure is an spectacle wearing image analysis apparatus for analyzing an image of a subject wearing spectacles and measuring a spectacle wearing parameter of the subject. A front image of the subject including the left and right eyes of the subject wearing spectacles, a first side image obtained by photographing the side of the left eye of the subject wearing spectacles, Image acquisition means for acquiring a second side image obtained by photographing the side of the right eye of the person, and first position information of the left end and the right end of the spectacle frame based on the front image for each of the left and right eyes and, a positional information acquiring means for acquiring second position information of the left and right edges of the spectacle frame on the basis of said first side image on said second side image in each of the right and left eyes, the left and right eyes the first a first position information, said second position information of the right and left eyes, based on, vibration And an arithmetic means for obtaining a tilt angle .
(2) The spectacle wearing image analysis method according to the second aspect of the present disclosure is a spectacle wearing image analysis method for analyzing an image of a subject wearing spectacles and measuring a spectacle wearing parameter of the subject. A front image of the subject including the left and right eyes of the subject wearing spectacles, a first side image obtained by photographing the side of the left eye of the subject wearing spectacles, An image acquisition step for acquiring a second side image obtained by photographing the side of the right eye of the person, and first position information for the left end and the right end of the spectacle frame based on the front image for each of the left and right eyes A position information acquisition step of acquiring second position information of the left end and the right end of the spectacle frame based on the first side image and the second side image with each of the left and right eyes; 1 position information and the second position information of each of the left and right eyes. And a calculation step for obtaining a deflection angle .
(3) The spectacle wearing image analysis program according to the third aspect of the present disclosure is executed in a spectacle wearing image analysis apparatus for analyzing an image of a subject wearing spectacles and measuring a spectacle wearing parameter of the subject. A spectacle wearing image analysis program, which is executed by the processor of the spectacle wearing image analysis device, and includes a front image of the subject including the left and right eyes of the subject wearing spectacles, and spectacles An image acquisition step for acquiring a first side image obtained by imaging the side of the left eye of the subject wearing the image and a second side image obtained by imaging the side of the subject's right eye ; First position information on the left and right ends of the spectacle frame is acquired by the left and right eyes based on the front image, and the left and right ends of the spectacle frame are acquired based on the first side image and the second side image . Second position information for each of the left and right eyes A position information acquisition step of acquiring in a first position information of each of the left and right eyes, and the second location information of the right and left eyes, based on a calculation step of obtaining a deflection angle, the spectacle wearing image analysis The apparatus is characterized by being executed.

本発明によれば、好適に眼鏡装用パラメータを取得することができる。   According to the present invention, the spectacle wearing parameters can be suitably acquired.

本実施例に係る眼鏡装用画像解析装置の外観の概略構成図である。It is a schematic block diagram of the external appearance of the spectacles wearing image analyzer which concerns on a present Example. 本実施例に係る眼鏡装用画像解析装置に収納される光学系の概略構成図である。It is a schematic block diagram of the optical system accommodated in the spectacles wearing image analyzer which concerns on a present Example. 側方撮影光学系の概略構成図を示している。1 shows a schematic configuration diagram of a side photographing optical system. 本実施例の制御系を示すブロック図である。It is a block diagram which shows the control system of a present Example. 本実施例における制御動作の流れについて説明するフローチャートである。It is a flowchart explaining the flow of control operation in a present Example. 表示部に表示される遠方視状態の被検者の正面画像及び側方画像の一例を示す図である。It is a figure which shows an example of the front image and side image of a subject of a far vision state displayed on a display part. 撮影画像の解析終了後において表示部15上に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display part 15 after completion | finish of analysis of a picked-up image. 眼鏡フレームの反り角の取得について説明する図である。。It is a figure explaining acquisition of the curvature angle of a spectacles frame. . 顔が振れている状態で撮影された撮影画像において、反り角及び振れ角を取得する場合について説明する図である。It is a figure explaining the case where a curvature angle and a shake angle are acquired in the picked-up image image | photographed in the state where the face is shaking.

以下、本実施形態を図面に基づいて説明する。図1〜図9は本実施形態に係る眼鏡装用画像解析装置の構成について説明する図である。なお、以下の説明において、被検者の左右方向をX軸方向、被検者の上下方向をY軸方向、被検者の前後方向をZ軸方向として説明する。   Hereinafter, the present embodiment will be described with reference to the drawings. 1-9 is a figure explaining the structure of the spectacles wear image-analysis apparatus based on this embodiment. In the following description, the left-right direction of the subject will be described as the X-axis direction, the up-down direction of the subject as the Y-axis direction, and the front-back direction of the subject will be described as the Z-axis direction.

<概要>
本発明の実施形態に係る眼鏡装用画像解析装置1の概要について説明する。本実施形態に関わる眼鏡装用画像解析装置1は、照明光学系110、遠用測定光学系200、近用測定光学系300、光路切換ユニット400と、側方撮影光学系500、を主に備える。
<Overview>
An outline of the spectacle wearing image analysis apparatus 1 according to the embodiment of the present invention will be described. The spectacle wearing image analysis apparatus 1 according to the present embodiment mainly includes an illumination optical system 110, a distance measurement optical system 200, a near measurement optical system 300, an optical path switching unit 400, and a side imaging optical system 500.

例えば、眼鏡装用画像解析装置1は、眼鏡を装用した被検者の画像を解析し、被検者の眼鏡装用パラメータを測定するために用いられる。   For example, the spectacle wearing image analysis apparatus 1 is used for analyzing an image of a subject wearing spectacles and measuring spectacle wearing parameters of the subject.

例えば、遠用測定光学系200、近用測定光学系300は、被検者の正面画像を撮影するために用いられる。また、側方撮影光学系500は、被検者の側方画像を撮影するために用いられる。   For example, the distance measurement optical system 200 and the near measurement optical system 300 are used to capture a front image of the subject. The side photographing optical system 500 is used for photographing a side image of the subject.

例えば、眼鏡装用画像解析装置1は、画像取得手段と、位置情報取得手段と、演算手段と、を備える。例えば、本実施形態において、画像取得手段と、位置情報取得手段と、演算手段と、は兼用される。もちろん、別途、画像取得手段と、位置情報取得手段と、演算手段と、がそれぞれ設けられる構成としてもよい。なお、本実施形態においては、制御部70が、画像取得手段、位置情報取得手段、演算手段、として用いられる。   For example, the spectacle wearing image analysis apparatus 1 includes an image acquisition unit, a position information acquisition unit, and a calculation unit. For example, in the present embodiment, the image acquisition unit, the position information acquisition unit, and the calculation unit are combined. Of course, an image acquisition unit, a position information acquisition unit, and a calculation unit may be provided separately. In the present embodiment, the control unit 70 is used as an image acquisition unit, a position information acquisition unit, and a calculation unit.

例えば、画像取得手段(制御部70)は、眼鏡を装用した被検者の左右眼の少なくとも一方の眼及び眼鏡フレームを含んだ状態の被検者の正面画像を取得する。また、制御部70は、眼鏡を装用した被検者の左右眼の内で正面画像と同一側の眼及び眼鏡フレームを少なくとも含んだ状態の被検者の側方画像と、を取得する。   For example, the image acquisition means (control unit 70) acquires a front image of the subject in a state including at least one eye of the left and right eyes of the subject wearing spectacles and a spectacle frame. In addition, the control unit 70 acquires a side image of the subject in a state including at least the eye and the spectacle frame on the same side as the front image in the left and right eyes of the subject wearing the glasses.

例えば、位置情報取得手段(制御部70)は、正面画像に基づいて眼鏡フレームの左端と右端の第1位置情報を取得し、側方画像に基づいて眼鏡フレームの左端と右端の第2位置情報を取得する。   For example, the position information acquisition means (control unit 70) acquires first position information on the left end and right end of the spectacle frame based on the front image, and second position information on the left end and right end of the spectacle frame based on the side image. To get.

例えば、制御部70は、正面画像として、眼鏡を装用した被検者の左右眼及び眼鏡フレーム含んだ状態の被検者の正面画像を取得する構成が挙げられる。この場合、例えば、制御部70は、左右眼を含んだ状態の被検者の正面画像より第1位置情報を取得する。また、例えば、制御部70は、正面画像として、眼鏡を装用した被検者の左右眼の一方の眼及び眼鏡フレームを含んだ状態の被検者の正面画像を取得する構成が挙げられる。   For example, the control unit 70 may be configured to acquire a front image of the subject including the left and right eyes of the subject wearing spectacles and a spectacle frame as the front image. In this case, for example, the control unit 70 acquires the first position information from the front image of the subject including the left and right eyes. In addition, for example, the control unit 70 may be configured to acquire a front image of the subject in a state including one eye of the left and right eyes of the subject wearing spectacles and a spectacle frame as the front image.

例えば、制御部70は、側方画像として、被検者の左眼の側方を撮影した第1側方画像と、被検者の右眼の側方を撮影した第2側方画像と、をそれぞれ取得する構成が挙げられる。この場合、制御部70は、第2位置情報として、第1側方画像と第2側方画像のそれぞれから第2位置情報を取得する。また、例えば、制御部70は、側方画像として、被検者の左右眼の一方の眼を撮影する構成が挙げられる。   For example, the control unit 70, as the side image, a first side image obtained by photographing the side of the left eye of the subject, a second side image obtained by photographing the side of the right eye of the subject, The structure which acquires each is mentioned. In this case, the control unit 70 acquires second position information from each of the first side image and the second side image as the second position information. Further, for example, the control unit 70 may be configured to capture one of the left and right eyes of the subject as the side image.

例えば、演算手段(制御部70)は、第1位置情報と、第2位置情報と、に基づいて、眼鏡装用パラメータを取得する。   For example, the computing means (control unit 70) acquires the spectacle wearing parameters based on the first position information and the second position information.

例えば、制御部70は、眼鏡フレームの左端と右端の第1位置情報及び第2位置情報として、眼鏡フレームの左端と右端の位置より取得される眼鏡フレームの幅を用いる構成が挙げられる。この場合、例えば、制御部70は、第1位置情報として、正面画像の左端と右端を取得することによって、正面画像における眼鏡フレームの左端から右端までの第1距離(眼鏡フレームの幅)を取得する。また、制御部70は、第2位置情報として、側方画像における眼鏡フレームの左端から右端までの第2距離(眼鏡フレームの幅)を取得する。制御部70は、第1距離と、第2距離と、に基づいて、眼鏡装用パラメータを取得する。また、例えば、制御部70は、眼鏡フレームの左端と右端の第1位置情報及び第2位置情報として、眼鏡フレームの左端と右端の位置より取得される眼鏡フレームの幅、眼鏡フレームの左端と右端の位置(座標位置)を用いる構成が挙げられる。   For example, the control unit 70 may be configured to use the spectacle frame width acquired from the left end and right end positions of the spectacle frame as the first position information and the second position information of the left end and right end of the spectacle frame. In this case, for example, the control unit 70 acquires the first distance (the width of the spectacle frame) from the left end to the right end of the spectacle frame in the front image by acquiring the left end and the right end of the front image as the first position information. To do. In addition, the control unit 70 acquires a second distance (a spectacle frame width) from the left end to the right end of the spectacle frame in the side image as the second position information. The control unit 70 acquires the spectacle wearing parameters based on the first distance and the second distance. Further, for example, the control unit 70 uses the first and second position information of the left and right ends of the spectacle frame as the width of the spectacle frame acquired from the positions of the left and right ends of the spectacle frame, and the left and right ends of the spectacle frame. A configuration that uses the position (coordinate position) is given.

例えば、第1位置情報と第2位置情報とに基づく、眼鏡装用パラメータの取得は、各位置情報から演算して眼鏡装用パラメータを求める構成であってもよい。また、例えば、第1位置情報と第2位置情報とに基づく、眼鏡装用パラメータの取得は、各位置情報から取得された眼鏡装用パラメータに基づいて、別途取得された眼鏡装用パラメータを補正することによって、最終的な眼鏡装用パラメータを取得する構成であってもよい。この場合、例えば、瞳孔間距離(PD)を振れ角に基づいて補正する構成が挙げられる。   For example, the acquisition of the spectacle wearing parameters based on the first position information and the second position information may be configured to calculate the spectacle wearing parameters by calculating from each position information. Further, for example, the acquisition of the spectacle wearing parameters based on the first position information and the second position information is performed by correcting the spectacle wearing parameters acquired separately based on the spectacle wearing parameters acquired from each position information. The final spectacle wearing parameter may be obtained. In this case, for example, there is a configuration in which the interpupillary distance (PD) is corrected based on the deflection angle.

例えば、眼鏡装用パラメータとは、瞳孔情報(例えば、瞳孔位置、瞳孔径等)およびフレーム情報(例えば、フレームの幅、フレーム位置等)等が挙げられる。また、例えば、眼鏡装用パラメータとは、瞳孔情報およびフレーム情報から求められるような、瞳孔間距離、アイポジション高さ(フィッティングポイント高さ)等が挙げられる。また、例えば、側方画像からフレーム部位を抽出することによって、算出される眼鏡装用パラメータ(例えば、フレーム前傾角度、眼鏡装用距離等)もありうる。本実施形態において、眼鏡装用パラメータとして、反り角又は振れ角の少なくとも一方を取得してもよい。   For example, the spectacle wearing parameters include pupil information (for example, pupil position, pupil diameter, etc.), frame information (for example, frame width, frame position, etc.), and the like. Further, for example, the spectacle wearing parameters include an interpupillary distance, an eye position height (fitting point height), and the like as determined from pupil information and frame information. Further, for example, there may be spectacle wearing parameters (for example, frame forward tilt angle, spectacle wearing distance, etc.) calculated by extracting a frame part from a side image. In the present embodiment, at least one of a warp angle or a deflection angle may be acquired as the spectacle wearing parameter.

このように、少なくとも左右の一方の眼に関する正面画像と側方画像の左端と右端を取得し、眼鏡装用パラメータを取得することによって、眼鏡装用時における眼鏡パラメータを求めることができ、実際に眼鏡が装用された状態における眼鏡装用パラメータを取得することができる。   In this way, by acquiring the left end and the right end of at least the front image and the side image related to one of the left and right eyes, and acquiring the spectacle wearing parameters, the spectacle parameters at the time of spectacle wearing can be obtained. The spectacle wearing parameters in the worn state can be acquired.

なお、本実施形態において、撮影画像を取得する構成としては、眼鏡装用画像解析装置1に備えられた各種光学系を用いて、撮影する構成が挙げられる。また、例えば、撮影画像を取得する構成としては、別途異なる装置で撮影された画像を受信する構成が挙げられる。   In the present embodiment, the configuration for acquiring a captured image includes a configuration for capturing images using various optical systems provided in the spectacle wearing image analysis apparatus 1. Further, for example, a configuration for acquiring a captured image includes a configuration for receiving an image captured by a different apparatus.

<実施例>
図1は、本実施例に係る眼鏡装用画像解析装置1の外観の概略構成図である。図2は、本実施例に係る眼鏡装用画像解析装置1に収納される光学系の概略構成図である。以下、図1及び図2を参照して、本実施例に係る眼鏡装用画像解析装置1の構成について説明する。図1に示されるように、眼鏡装用画像解析装置の装置本体3の内部には、後述する種々の測定光学系、駆動系、制御系等が備わる。装置本体3の被検者側には呈示窓6が備わる。呈示窓6は、被検者に固視標を呈示する際に、固視光束を通過させる窓である。同じく装置本体3の被検者側には顔支持ユニット5が備わる。顔支持ユニット5は、被検者の顔を支持するためのユニットである。装置本体3の検者側には操作ユニット(操作部)10が備わる。
<Example>
FIG. 1 is a schematic configuration diagram of an appearance of a spectacle wearing image analysis apparatus 1 according to the present embodiment. FIG. 2 is a schematic configuration diagram of an optical system housed in the spectacle wearing image analysis apparatus 1 according to the present embodiment. Hereinafter, the configuration of the spectacle wearing image analysis apparatus 1 according to the present embodiment will be described with reference to FIGS. 1 and 2. As shown in FIG. 1, the apparatus main body 3 of the spectacle wearing image analysis apparatus includes various measurement optical systems, a drive system, a control system, and the like, which will be described later. A presentation window 6 is provided on the subject side of the apparatus body 3. The presentation window 6 is a window through which a fixation light beam passes when presenting a fixation target to a subject. Similarly, a face support unit 5 is provided on the subject side of the apparatus body 3. The face support unit 5 is a unit for supporting the subject's face. An operation unit (operation unit) 10 is provided on the examiner side of the apparatus main body 3.

<操作ユニット>
操作ユニット10は、入力された操作指示に応じた信号を後述する制御部70に出力する。本実施例における操作ユニット10は、タッチパネル式の表示部15が用いられる。すなわち、本実施例においては、操作ユニットと表示部が兼用される。もちろん、操作ユニットと表示部が別に設けられた構成であってもよい。例えば、操作ユニット10には、マウス、ジョイスティック、キーボード等の操作手段の少なくともいずれかを用いる構成が挙げられる。例えば、表示部15は、眼鏡装用パラメータ測定装置1の本体に搭載されたディスプレイであってもよいし、本体に接続されたディスプレイであってもよい。もちろん、タッチパネル式でなくともよい。例えば、パーソナルコンピュータ(以下、「PC」という。)のディスプレイを用いてもよい。また、例えば、複数のディスプレイが併用されてもよい。表示部15には、撮影された遠方視及び近方視状態の正面画像又は側方画像を含む各種画像が表示されてもよい。
<Operation unit>
The operation unit 10 outputs a signal corresponding to the input operation instruction to the control unit 70 described later. The operation unit 10 in this embodiment uses a touch panel type display unit 15. That is, in the present embodiment, the operation unit and the display unit are combined. Of course, the operation unit and the display unit may be provided separately. For example, the operation unit 10 includes a configuration using at least one of operation means such as a mouse, a joystick, and a keyboard. For example, the display unit 15 may be a display mounted on the main body of the spectacle wearing parameter measurement device 1 or a display connected to the main body. Of course, it may not be a touch panel type. For example, a display of a personal computer (hereinafter referred to as “PC”) may be used. For example, a plurality of displays may be used in combination. The display unit 15 may display various images including a captured front image or a side image in the far vision and near vision states.

<顔支持ユニット>
顔支持ユニット5は、被検者の額を支持する。そして、顔支持ユニット5は、後述する測定光学系(例えば、遠用測定光学系200,近用測定光学系300,反射ミラー410等)と被検者との距離を一定にする。また、顔支持ユニット5は、被検者の左右方向に回転可能であり、被検者の顔の向きを調整することができる。これによって、被検者の顔の向きが左右方向のいずれかにずれている場合、被検者の顔が正面を向くように、顔支持ユニット5を回転させることができる。
<Face support unit>
The face support unit 5 supports the subject's forehead. The face support unit 5 keeps the distance between the measurement optical system (for example, the distance measurement optical system 200, the near measurement optical system 300, the reflection mirror 410, etc.) and the subject to be described later. Further, the face support unit 5 can rotate in the left-right direction of the subject, and can adjust the orientation of the subject's face. Accordingly, when the orientation of the subject's face is shifted to either the left or right direction, the face support unit 5 can be rotated such that the subject's face faces the front.

顔支持ユニット5は、当節部31、作動距離調節部40、左右回転調節部50を主に備える。当接部31は、被検者の顔に接触する部分である。作動距離調節部40は、被検者と後述の測定光学系との距離を調節するために当接部31の位置をZ軸方向に調節する。例えば、本実施例において、検者によって作動距離調節部40の調節ノブ41が操作されることによって、当接部31のZ軸方向(作動距離方向)における位置が調節される。水平回旋調節部50は、被検者の顔が正面を向くように、当接部31の左右方向の角度を調節する。例えば、本実施例において、検者によって左右回転調整部50の調節ノブ51が操作されることによって、当接部31の左右方向の位置が調節される。   The face support unit 5 mainly includes a joint portion 31, a working distance adjustment unit 40, and a left / right rotation adjustment unit 50. The abutting portion 31 is a portion that contacts the subject's face. The working distance adjustment unit 40 adjusts the position of the contact portion 31 in the Z-axis direction in order to adjust the distance between the subject and a measurement optical system described later. For example, in this embodiment, when the adjustment knob 41 of the working distance adjusting unit 40 is operated by the examiner, the position of the contact portion 31 in the Z-axis direction (working distance direction) is adjusted. The horizontal rotation adjusting unit 50 adjusts the angle in the left-right direction of the contact portion 31 so that the face of the subject faces the front. For example, in this embodiment, the position of the contact portion 31 in the left-right direction is adjusted by the operator operating the adjustment knob 51 of the left-right rotation adjustment portion 50.

なお、顔支持ユニット5は本実施形態の構成に限定されない。本実施例においては、被検者の額を支持するものとして説明したが、被検者のあごでもよいし、頬、鼻などでもよい。被検者の顔を支持する構成であればよい。また、本実施例において、顔支持ユニット5は、検者が調節ノブ41,51を操作することによって、当接部31の位置が調節される構成としたがこれに限定されない。顔支持ユニット5は、モータ等の駆動部を有し、操作ユニット10の操作等によって、電動で当接部31の位置が調整される構成としてもよい。   The face support unit 5 is not limited to the configuration of this embodiment. In the present embodiment, it has been described that the subject's forehead is supported, but it may be the subject's chin, cheek, nose, or the like. Any configuration that supports the face of the subject may be used. In the present embodiment, the face support unit 5 has a configuration in which the position of the contact portion 31 is adjusted by the examiner operating the adjustment knobs 41 and 51, but is not limited thereto. The face support unit 5 may include a drive unit such as a motor, and the position of the contact unit 31 may be adjusted electrically by operation of the operation unit 10 or the like.

<光学系>
次に、図2を参照して、本実施例に係る眼鏡装用画像解析装置1に収納される光学系について説明する。本実施例の眼鏡装用画像解析装置1は、照明光学系110、遠用測定光学系200、近用測定光学系300、光路切換ユニット400と、側方撮影光学系500、を主に備える。
<Optical system>
Next, an optical system housed in the spectacle wearing image analysis apparatus 1 according to the present embodiment will be described with reference to FIG. The spectacle wearing image analysis apparatus 1 of the present embodiment mainly includes an illumination optical system 110, a distance measurement optical system 200, a near measurement optical system 300, an optical path switching unit 400, and a side imaging optical system 500.

本実施例において、眼鏡パラメータを測定するために眼鏡を装用した被検者の画像を撮影するための撮影手段を有する測定光学系として、少なくとも、遠用測定光学系200、近用測定光学系300のいずれかが用いられる。本実施例において、遠用測定光学系200、近用測定光学系300は、被検者の正面画像を撮影するために用いられる。また、側方撮影光学系500は、被検者の側方画像を撮影するために用いられる。   In this embodiment, at least the distance measuring optical system 200 and the near measuring optical system 300 are used as measuring optical systems having imaging means for capturing an image of a subject wearing spectacles for measuring spectacle parameters. Either of these is used. In the present embodiment, the distance measuring optical system 200 and the near measuring optical system 300 are used for taking a front image of the subject. The side photographing optical system 500 is used for photographing a side image of the subject.

<照明光学系>
照明光学系110は、4つの光源110R,110L,111R,111L(図2では、110L、111Lを省略)を主に備える。照明光学系110は、光源110R,110L,111R,111Lによって、四方向から被検者の顔を照明する。もちろん、照明光学系100は上記の構成に限らない。光源の数はいくつでもよく、配置も任意でよい。照明光学系110は、光源によって被検者の顔を照明することができればよい。例えば、照明光学系110は、顔支持ユニット5の下部、呈示窓6の上部に設けられてもよい。
<Illumination optics>
The illumination optical system 110 mainly includes four light sources 110R, 110L, 111R, and 111L (110L and 111L are omitted in FIG. 2). The illumination optical system 110 illuminates the face of the subject from four directions by the light sources 110R, 110L, 111R, and 111L. Of course, the illumination optical system 100 is not limited to the above configuration. Any number of light sources may be used, and the arrangement may be arbitrary. The illumination optical system 110 only needs to illuminate the subject's face with a light source. For example, the illumination optical system 110 may be provided below the face support unit 5 and above the presentation window 6.

なお、本実施例の照明光学系110においては、赤外光源を用いる。赤外光源と、後述する赤外フィルタ等を用いることによって、外乱光(自然光など)の影響を抑えることができる。ただし、赤外光源でなくてもよく、可視光源を用いてもよい。   In the illumination optical system 110 of this embodiment, an infrared light source is used. By using an infrared light source and an infrared filter, which will be described later, the influence of disturbance light (natural light or the like) can be suppressed. However, it may not be an infrared light source, and a visible light source may be used.

<遠用測定光学系>
図2に基づいて、遠用測定光学系(以下、第1測定光学系とも言う)200について説明する。遠用測定光学系200は、眼鏡フレームに対する遠方視状態における被検眼Eの眼位置を測定するための光学系である。遠用測定光学系200は、第1の固視標投影光学系200aと第1の撮像光学系200bに分けられる。なお、遠用測定光学系200の測定光軸を光軸L1とする。
<Distant measurement optical system>
A distance measurement optical system (hereinafter also referred to as a first measurement optical system) 200 will be described with reference to FIG. The distance measurement optical system 200 is an optical system for measuring the eye position of the eye E in the distance vision state with respect to the spectacle frame. The distance measurement optical system 200 is divided into a first fixation target projection optical system 200a and a first imaging optical system 200b. The measurement optical axis of the distance measurement optical system 200 is an optical axis L1.

固視標投影光学系200aは、被検者を遠方視状態に固視させるための遠用固視標を被検眼Eに投影する。固視標投影光学系200aは、光源220、ハーフミラー230、凹面ミラー240を主に備える。光源220は、被検眼Eに投影される固視標として機能する。凹面ミラー240は、光源220から出射される固視標光束を略平行光束にして反射する。なお、本実施例においては、光源220から出射される固視標光束は、略平行光束にして反射する構成としたがこれに限定されない。光源220から出射される固視標光束は、所定の遠用呈示距離になるように反射する構成としてもよい。   The fixation target projection optical system 200a projects a distance fixation target for fixing the subject to a distance vision state on the eye E. The fixation target projection optical system 200a mainly includes a light source 220, a half mirror 230, and a concave mirror 240. The light source 220 functions as a fixation target projected onto the eye E. The concave mirror 240 reflects the fixation target light beam emitted from the light source 220 as a substantially parallel light beam. In the present embodiment, the fixation target light beam emitted from the light source 220 is reflected as a substantially parallel light beam, but is not limited thereto. The fixation target light beam emitted from the light source 220 may be reflected so as to have a predetermined distance-presenting distance.

光源220からの出射された固視標光束は、ハーフミラー230によって反射され、光軸L1と同軸とされる。ハーフミラー230によって反射された固視標光束は、凹面ミラー240によって反射される。凹面ミラー240に反射された固視標光束は、後述する反射ミラー410によって反射され、呈示窓6を通過して被検眼Eに入射する。凹面ミラー240は、固視標光束を略平行光束にするように反射する。このため、被検者から見た固視標は、被検眼Eから光源220までの実際の距離よりも遠方にあるように見える。その後、固視標光束は、後述の反射ミラー410によって反射され、呈示窓6を通過して被検眼Eに入射する。   The fixation target light beam emitted from the light source 220 is reflected by the half mirror 230 and is coaxial with the optical axis L1. The fixation target light beam reflected by the half mirror 230 is reflected by the concave mirror 240. The fixation target light beam reflected by the concave mirror 240 is reflected by a reflection mirror 410 described later, passes through the presentation window 6 and enters the eye E to be examined. The concave mirror 240 reflects the fixation target light beam so that it becomes a substantially parallel light beam. For this reason, the fixation target viewed from the subject appears to be farther than the actual distance from the subject eye E to the light source 220. Thereafter, the fixation target light flux is reflected by a reflection mirror 410 described later, passes through the presentation window 6 and enters the eye E to be examined.

撮像光学系200bは、遠方視状態における被検者の顔を正面方向(被検者の顔の正面と対向した位置)から撮影する。本実施例において、撮像光学系200bは、遠方視状態における被検者の顔を正面位置から撮影する。もちろん、撮像光学系200bは、正面方向として、斜め下方向(斜め下の位置)から撮影する構成としてもよい。なお、被検者の顔とは、被検者の顔全体でなくてもよく、少なくとも被検眼Eの周辺領域(例えば、少なくとも左右眼一方の眼及び眼鏡フレームを含む被検者の顔の正面画像であってもよい)を指す。撮像光学系200bは、撮像素子210、撮像レンズ212、絞り214、赤外フィルタ216、ハーフミラー230、凹面ミラー240を主に備える。   The imaging optical system 200b images the subject's face in the distance vision state from the front direction (a position facing the front of the subject's face). In the present embodiment, the imaging optical system 200b photographs the face of the subject in the far vision state from the front position. Of course, the imaging optical system 200b may be configured to take an image from an obliquely downward direction (an obliquely downward position) as the front direction. The subject's face does not have to be the entire subject's face, but at least the peripheral region of the subject's eye E (for example, the front of the subject's face including at least one eye and the eyeglass frame) It may be an image). The imaging optical system 200b mainly includes an imaging element 210, an imaging lens 212, an aperture 214, an infrared filter 216, a half mirror 230, and a concave mirror 240.

照明光学系110からの照明光は、被検者の顔によって反射されて、呈示窓6を通過する。呈示窓6を通過した照明光は、反射ミラー410によって反射される。反射ミラー410によって反射された反射光は、凹面ミラー240によって反射された後、ハーフミラー230を通り、赤外フィルタ216を通過する。赤外フィルタ216を通過した赤外光は、絞り214を通過し、撮像レンズ212によって収束された後、撮像素子210の上に像を結ぶ。撮像素子210は瞳と共役な位置関係にある。撮像素子210は、光を検出し、そのときの検出信号を制御部70に出力する。   Illumination light from the illumination optical system 110 is reflected by the face of the subject and passes through the presentation window 6. The illumination light that has passed through the presentation window 6 is reflected by the reflection mirror 410. The reflected light reflected by the reflecting mirror 410 is reflected by the concave mirror 240, passes through the half mirror 230, and passes through the infrared filter 216. The infrared light that has passed through the infrared filter 216 passes through the diaphragm 214, is converged by the imaging lens 212, and then forms an image on the imaging element 210. The imaging element 210 is in a positional relationship conjugate with the pupil. The image sensor 210 detects light and outputs a detection signal at that time to the control unit 70.

<近用測定光学系>
近用測定光学系(以下、第2測定光学系とも言う)300は、近方視状態における被検眼Eの眼位置を測定するための光学系である。近用測定光学系300は、第2の固視標投影光学系300aと第2の撮像光学系300bに分けられる。
<Near-measurement optical system>
A near measurement optical system (hereinafter also referred to as a second measurement optical system) 300 is an optical system for measuring the eye position of the eye E in a near vision state. The near measurement optical system 300 is divided into a second fixation target projection optical system 300a and a second imaging optical system 300b.

固視標投影光学系300aは、被検者を近方視状態に固視させるための近用固視標を斜め下方向から被検眼Eに投影する。固視標投影光学系300aは、光源320、ハーフミラー330、凸レンズ340を主に備える。光源320は、被検眼Eに投影される固視標として機能する。   The fixation target projection optical system 300a projects a near fixation target for fixing the subject to the near vision state on the eye E from an obliquely downward direction. The fixation target projection optical system 300a mainly includes a light source 320, a half mirror 330, and a convex lens 340. The light source 320 functions as a fixation target projected onto the eye E.

光源320からの出射された固視標光束は、ハーフミラー330によって反射され、光軸L2と同軸とされる。ハーフミラー330によって反射された固視標光束は、凸レンズ340を通過し、収束される。その後、固視標光束は、後述の反射ミラー410によって反射され、呈示窓6を通過して被検眼Eに入射する。   The fixation target light beam emitted from the light source 320 is reflected by the half mirror 330 and is coaxial with the optical axis L2. The fixation target light beam reflected by the half mirror 330 passes through the convex lens 340 and is converged. Thereafter, the fixation target light flux is reflected by a reflection mirror 410 described later, passes through the presentation window 6 and enters the eye E to be examined.

撮像光学系300bは、近方視状態における被検者の顔を正面方向(被検者の顔の正面と対向した位置)から撮影する。なお、本実施例において、撮像光学系300bは、近方視状態における被検者の顔を斜め下方向(斜め下の位置)から撮影している。もちろん、撮像光学系300bは、正面方向として、正面位置から撮影する構成としてもよい。撮像光学系300bは、撮像素子310、撮像レンズ312、絞り314、赤外フィルタ316、ハーフミラー330、凸レンズ340を主に備える。   The imaging optical system 300b photographs the face of the subject in the near vision state from the front direction (a position facing the front of the subject's face). In this embodiment, the imaging optical system 300b captures the subject's face in the near vision state from an obliquely downward direction (an obliquely downward position). Of course, the imaging optical system 300b may be configured to take an image from the front position as the front direction. The imaging optical system 300b mainly includes an imaging element 310, an imaging lens 312, an aperture 314, an infrared filter 316, a half mirror 330, and a convex lens 340.

被検者の顔を照明する照明光学系110からの照明光は、呈示窓6を通過し、反射ミラー410によって反射される。反射ミラー410によって反射された反射光は凸レンズを通過し、収束される。収束されたこの光束は、ハーフミラー330を通り、赤外フィルタ316を通過する。赤外フィルタ316を通過した赤外光は、絞り314を通過し、撮像レンズ312によって収束された後、撮像素子310の上に像を結ぶ。撮像素子310は、瞳と共役な位置関係にある。撮像素子310は、光を検出し、そのときの検出信号を制御部70に出力する。   Illumination light from the illumination optical system 110 that illuminates the face of the subject passes through the presentation window 6 and is reflected by the reflection mirror 410. The reflected light reflected by the reflection mirror 410 passes through the convex lens and is converged. The converged light beam passes through the half mirror 330 and passes through the infrared filter 316. The infrared light that has passed through the infrared filter 316 passes through the aperture 314, is converged by the imaging lens 312, and then forms an image on the imaging element 310. The imaging element 310 is in a positional relationship conjugate with the pupil. The image sensor 310 detects light and outputs a detection signal at that time to the control unit 70.

<光学系移動ユニット>
近用測定光学系300は、光学系移動ユニット350を備える。光学系移動ユニット350は、近用測定光学系300を移動可能に保持する。光学系移動ユニット350は、近用測定のときに、後述する反射ミラー410の角度の変更にともなって、近用測定光学系300の全体を移動させることができる。
<Optical system moving unit>
The near measurement optical system 300 includes an optical system moving unit 350. The optical system moving unit 350 holds the near measurement optical system 300 to be movable. The optical system moving unit 350 can move the entire near-field measurement optical system 300 in accordance with a change in the angle of the reflection mirror 410 described later during near-field measurement.

ところで、後述する光路切換ユニット400によって反射ミラー410の角度が変更されると、固視標投影光学系300aの光路(指標の呈示距離)、及び第2の撮像光学系300bの光路が変化してしまう。そこで、本実施形態の光学系移動ユニット350は、反射ミラー410の角度の変更にともなって、近用測定光学系300の全体を移動させる。これによって、反射ミラー410の角度が変更された場合であっても、近用視標の呈示距離が維持される。また、第2の撮像光学系300bの被検眼Eに対するフォーカス状態が維持される。   By the way, when the angle of the reflection mirror 410 is changed by the optical path switching unit 400 described later, the optical path of the fixation target projection optical system 300a (index presentation distance) and the optical path of the second imaging optical system 300b change. End up. Therefore, the optical system moving unit 350 of the present embodiment moves the entire near-field measuring optical system 300 as the angle of the reflecting mirror 410 is changed. Thereby, even when the angle of the reflection mirror 410 is changed, the presentation distance of the near visual target is maintained. In addition, the focus state of the second imaging optical system 300b with respect to the eye E is maintained.

また、光学系移動ユニット350は、呈示距離を調節するための凸レンズ340と、固視標を投影するための光源320を別々に移動させることが可能である。これによって、光学系移動ユニット350は、凸レンズ340と光源320の相対的な距離を変化させ、固視標の呈示距離を変更することができる。なお、光学系移動ユニット350は、例えば、モータや等の図示無き駆動部を用いて、駆動部を駆動させることによって、光学部材を移動させる。   The optical system moving unit 350 can separately move the convex lens 340 for adjusting the presentation distance and the light source 320 for projecting the fixation target. Accordingly, the optical system moving unit 350 can change the relative distance between the convex lens 340 and the light source 320 and change the presenting distance of the fixation target. The optical system moving unit 350 moves the optical member by driving the driving unit using a driving unit (not shown) such as a motor.

<光路切換ユニット>
図2に戻って、光路切換ユニット400について説明する。光路切換ユニットは、遠用測定用光学系200と、近用測定用光学系300の光路を切り換える。また、光路切り換えユニット400は、近用測定時における被検者の視線方向を変化させる。
<Optical path switching unit>
Returning to FIG. 2, the optical path switching unit 400 will be described. The optical path switching unit switches the optical paths of the distance measurement optical system 200 and the near measurement optical system 300. Further, the optical path switching unit 400 changes the direction of the subject's line of sight during near-field measurement.

光路切換ユニット400は、反射ミラー410、ミラー保持部420、駆動部440を主に備える。   The optical path switching unit 400 mainly includes a reflection mirror 410, a mirror holding unit 420, and a driving unit 440.

反射ミラー410は、ミラー保持部420に保持される。ミラー保持部420の上部は、装置に固定された回転シャフト425に保持される。ミラー保持部420は、回転シャフト425の回転軸を中心に回旋可能とされる。このとき、ミラー保持部420は、反射ミラー410と一体的に回旋される。反射ミラー410は、遠用測定光学系200または近用測定光学系300から出射される視標光束を被検眼Eに向けて反射させる。駆動部440は、図示無きリンク機構部によって、ミラー保持部420の裏面と連結される。駆動部440が駆動されることによって、駆動部の駆動力が図示無きリンク機構部を介して、ミラー保持部420に伝達される。ミラー保持部420は、リンク機構部から伝達された駆動力によって回転シャフト425を中心に回旋される。ミラー保持部が回旋されることによって、回転シャフト425を中心に、反射ミラー410が回旋移動をする。   The reflection mirror 410 is held by the mirror holding unit 420. The upper part of the mirror holding part 420 is held by a rotating shaft 425 fixed to the apparatus. The mirror holding part 420 can be rotated around the rotation axis of the rotation shaft 425. At this time, the mirror holding part 420 is rotated integrally with the reflection mirror 410. The reflection mirror 410 reflects the target light beam emitted from the distance measurement optical system 200 or the near measurement optical system 300 toward the eye E. The drive unit 440 is connected to the back surface of the mirror holding unit 420 by a link mechanism unit (not shown). By driving the drive unit 440, the driving force of the drive unit is transmitted to the mirror holding unit 420 via a link mechanism unit (not shown). The mirror holding part 420 is rotated around the rotation shaft 425 by the driving force transmitted from the link mechanism part. When the mirror holding portion is rotated, the reflection mirror 410 rotates around the rotation shaft 425.

反射ミラー410が回旋されることによって、視標光束の光路が変更され、被検眼Eに投影される固視標の呈示位置が変更される。固視標の呈示位置が変更されることで、被検者の視線方向が変更される。例えば、反射ミラーをA方向に回転させる(実線部から点線部へ移動される)ことによって、被検者の撮影を行うための光路が、遠用測定用光学系200の光路から近用測定用光学系300の光路へと切り換えられる。このように、光路切換ユニット400は、反射ミラー410を回旋させることで固視標の呈示位置を変化させ、被検者の視線方向を上下方向に変化させる。   By rotating the reflection mirror 410, the optical path of the target luminous flux is changed, and the presentation position of the fixation target projected on the eye E is changed. The subject's line-of-sight direction is changed by changing the presentation position of the fixation target. For example, by rotating the reflection mirror in the A direction (moved from the solid line portion to the dotted line portion), the optical path for photographing the subject is changed from the optical path of the distance measurement optical system 200 to the near measurement. The optical path of the optical system 300 is switched. In this way, the optical path switching unit 400 rotates the reflecting mirror 410 to change the fixation target presentation position, and changes the direction of the subject's line of sight in the vertical direction.

<側方撮影光学系>
図3は、側方撮影光学系500の概略構成図を示している。側方撮影光学系500は、被検者を側方から撮影することによって被検者の側方画像を取得する。図3に示されるように、側方撮影光学系500は、被検者の顔が支持される位置の左右方向に固定されている。
<Side shooting optical system>
FIG. 3 shows a schematic configuration diagram of the side photographing optical system 500. The side imaging optical system 500 acquires a side image of the subject by imaging the subject from the side. As shown in FIG. 3, the side imaging optical system 500 is fixed in the left-right direction of the position where the face of the subject is supported.

本実施例の側方撮影光学系500は、被検者の左側に配置される左方撮影光学系500Lと、被検者の右側に配置される右方撮影光学系500Rに大別される。左方撮影光学系500Lは被検者を左側方から撮影する。右方撮影光学系500Rは、被検者を右側方から撮影する。   The side imaging optical system 500 of this embodiment is roughly divided into a left imaging optical system 500L disposed on the left side of the subject and a right imaging optical system 500R disposed on the right side of the subject. The left imaging optical system 500L images the subject from the left side. The right imaging optical system 500R images the subject from the right side.

左方撮影光学系500Lは、ハーフミラー530L、赤外フィルタ540L、絞り550L、撮像レンズ560L、撮像素子570L、を主に備える。   The left photographing optical system 500L mainly includes a half mirror 530L, an infrared filter 540L, an aperture 550L, an imaging lens 560L, and an imaging element 570L.

同様に、右方撮影光学系500Rは、ハーフミラー530R、赤外フィルタ540R、絞り550R、撮像レンズ560R、撮像素子570R、を主に備える。なお、以下の説明においては、便宜上、赤外フィルタ540L,540R、絞り550L,550R、撮像レンズ560L,560R、撮像素子570L,570Rの各部材をまとめて、撮像部575L,575Rと記載する。   Similarly, the right imaging optical system 500R mainly includes a half mirror 530R, an infrared filter 540R, an aperture 550R, an imaging lens 560R, and an imaging element 570R. In the following description, for convenience, the infrared filters 540L and 540R, the diaphragms 550L and 550R, the imaging lenses 560L and 560R, and the imaging elements 570L and 570R are collectively referred to as imaging units 575L and 575R.

赤外フィルタ540L,540Rは可視光を吸収し、赤外光を通過させる。撮像素子570L,570Rには、赤外フィルタ540L,540Rを通過した赤外光が受光される。   The infrared filters 540L and 540R absorb visible light and transmit infrared light. The imaging elements 570L and 570R receive the infrared light that has passed through the infrared filters 540L and 540R.

以下、左方撮影光学系500Lを例に挙げて側方画像の撮像について説明する。照明光学系100からの照明光束は、被検者の顔と眼鏡フレームFに反射される。反射された照明光束は、左方撮影光学系500Lに入射する。その後、照明光束は、ハーフミラー530Lによって反射される。ハーフミラー530Lによって反射された反射光束は、赤外フィルタ540Lを通過する。赤外フィルタ540Lを通過した赤外光は、絞り550Lを通過した後、撮像レンズ560Lによって集光され、撮像素子570Lの撮像面上に像を結ぶ。撮像素子570Lは、検出した撮像画像を制御部70に送信する。このようにして、撮像素子570Lには、被検者の左側の側方画像が撮像される。また、左方撮影光学系500Lと同様にして、右方撮影光学系500Rによって、被検者の右側の側方画像が撮像される。   Hereinafter, imaging of a side image will be described using the left imaging optical system 500L as an example. The illumination light beam from the illumination optical system 100 is reflected by the face of the subject and the spectacle frame F. The reflected illumination light beam enters the left photographing optical system 500L. Thereafter, the illumination light beam is reflected by the half mirror 530L. The reflected light beam reflected by the half mirror 530L passes through the infrared filter 540L. The infrared light that has passed through the infrared filter 540L passes through the diaphragm 550L, and is then collected by the imaging lens 560L, and forms an image on the imaging surface of the imaging element 570L. The image sensor 570L transmits the detected captured image to the control unit 70. In this way, the left side image of the subject is captured by the image sensor 570L. Similarly to the left photographing optical system 500L, a right side image of the subject is picked up by the right photographing optical system 500R.

<制御部>
図4は本実施例の制御系を示すブロック図である。制御部70は、CPU(プロセッサ)、RAM、ROM等を備える。制御部70のCPUは、眼鏡装用画像解析装置1の制御を司る。RAMは、各種情報を一時的に記憶する。制御部70のROMには、眼鏡装用画像解析装置1の動作を制御するための各種プログラム、初期値等が記憶されている。
<Control unit>
FIG. 4 is a block diagram showing a control system of this embodiment. The control unit 70 includes a CPU (processor), a RAM, a ROM, and the like. The CPU of the control unit 70 controls the spectacle wearing image analysis apparatus 1. The RAM temporarily stores various information. The ROM of the control unit 70 stores various programs for controlling the operation of the eyeglass-wearing image analysis apparatus 1, initial values, and the like.

制御部70には、不揮発性メモリ(以下、メモリに省略する)72、操作ユニット10、光源110L,110R,111L,111R,220,320、撮像素子210,310,570L,570R、光学系移動ユニット350の駆動部、駆動部440、等が電気的に接続されている。   The control unit 70 includes a non-volatile memory (hereinafter abbreviated as “memory”) 72, an operation unit 10, light sources 110L, 110R, 111L, 111R, 220, 320, image sensors 210, 310, 570L, 570R, an optical system moving unit. 350 drive units, drive unit 440, and the like are electrically connected.

メモリ72は、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、フラッシュROM、および、眼鏡装用画像解析装置1に着脱可能に装着されるUSBメモリ等をメモリ72として使用することができる。メモリ72には、眼鏡装用画像解析装置1による遠方視画像(遠方視状態における正面画像)又は近方視画像(近方視状態における正面画像)、側方画像の撮影を制御するための撮影制御プログラム、遠方視画像又は近方視画像、側方画像を処理する画像処理プログラムが記憶されている。また、メモリ72には、撮影された遠方視画像又は近方視画像、側方画像の撮影位置の情報等、撮影に関する各種情報が記憶される。操作ユニット10には、検者による各種操作指示が入力される。   The memory 72 is a non-transitory storage medium that can retain stored contents even when power supply is interrupted. For example, a hard disk drive, a flash ROM, and a USB memory or the like that is detachably attached to the spectacle wearing image analysis apparatus 1 can be used as the memory 72. The memory 72 has a photographing control for controlling the photographing of the far vision image (front image in the far vision state) or the near vision image (front image in the near vision state) and the side image by the spectacle wearing image analysis apparatus 1. An image processing program for processing a program, a far vision image or a near vision image, and a side image is stored. Further, the memory 72 stores various types of information relating to photographing, such as information on photographing positions of far-distance or near-field images and side images. Various operation instructions by the examiner are input to the operation unit 10.

<制御動作>
以下、本実施例における制御動作について、図5を参照して、説明する。図5は、本実施例における制御動作の流れについて説明するフローチャートである。なお、本実施例においては、遠方視状態の被検者の画像を例に挙げて制御動作について説明する。もちろん、本発明は、近方視状態の被検者についても同様の制御が行われてもよい。
<Control action>
Hereinafter, the control operation in the present embodiment will be described with reference to FIG. FIG. 5 is a flowchart for explaining the flow of the control operation in this embodiment. In this embodiment, the control operation will be described by taking an image of a subject in a far vision state as an example. Of course, in the present invention, similar control may be performed for a subject in a near vision state.

<画像表示(S1)>
検者は操作ユニット10を操作し、遠用撮影モードに設定する。遠用撮影モードでは、遠方視状態の被検者の画像を撮影するために、各種光学系の制御が制御部70によって行われる。
<Image display (S1)>
The examiner operates the operation unit 10 to set the distance shooting mode. In the distance shooting mode, various optical systems are controlled by the control unit 70 in order to capture an image of the subject in the far vision state.

遠用撮影モードに設定された場合、制御部70は、駆動部440の駆動を制御することによって、光学切換ユニット400の反射ミラー410の角度θを、遠用撮影モードに対応する角度(例えば、水平面(XZ平面)方向に対して40°等)に設定する。遠用撮影モードに対応する角度に傾斜された反射ミラー410によって、光源220からの固視標光束は、被検眼Eに対して水平に投光される。   When the far shooting mode is set, the control unit 70 controls the driving of the driving unit 440 to change the angle θ of the reflection mirror 410 of the optical switching unit 400 to an angle corresponding to the far shooting mode (for example, 40 degrees with respect to the horizontal plane (XZ plane) direction). The fixation target light flux from the light source 220 is projected horizontally to the eye E by the reflection mirror 410 inclined at an angle corresponding to the distance photographing mode.

検者は、眼鏡フレームを装用するよう被検者に指示する。検者は、顔支持ユニット5の当接部31に額を当てるように被検者に指示する。次に、検者は、固視標を注視するように被検者に指示する。   The examiner instructs the subject to wear the spectacle frame. The examiner instructs the subject to put a forehead on the contact portion 31 of the face support unit 5. Next, the examiner instructs the subject to gaze at the fixation target.

被検者が固視標を注視する様子は撮像光学系200b及び側方撮像光学系500によって撮像される。制御部700は撮像光学系200b及び側方撮像光学系500からの検出信号に基づいて、被検眼E及び被検者の正面及び側方から撮影した顔の画像を表示部15に表示する(S1)。   The state in which the subject gazes at the fixation target is imaged by the imaging optical system 200b and the side imaging optical system 500. Based on the detection signals from the imaging optical system 200b and the side imaging optical system 500, the control unit 700 displays the face image captured from the front and sides of the eye E and the subject on the display unit 15 (S1). ).

<アライメント調整(S2)、画像取得(S3)>
初めに、検者は、被検者を顔支持ユニット5に位置させる。検者は、眼鏡装用画像解析装置1に対して被検者の顔が所定位置に配置されるように顔支持ユニット5の調整を行う。すなわち、検者は、アライメント調整を行う(S2)。
<Alignment adjustment (S2), image acquisition (S3)>
First, the examiner places the subject on the face support unit 5. The examiner adjusts the face support unit 5 so that the subject's face is arranged at a predetermined position with respect to the spectacle wearing image analysis apparatus 1. That is, the examiner performs alignment adjustment (S2).

例えば、本実施例においては、被検眼Eの角膜頂点を表示部15上の所定位置に表示させるように、被検者と眼鏡装用画像解析装置1の距離が調節される。なお、本実施例においては、側方撮影光学系500によって撮影された画像の中心を示すための基準線V,Hが表示部15の側方画面上に表示される(図6参照)。本実施形態では、基準線V,Hの交点と角膜頂点とが合致されたとき、アライメント位置が適正となるように設定されている。検者は、表示部15に表示された被検者の顔(被検顔)の画像を確認し、アライメントを行う。   For example, in the present embodiment, the distance between the subject and the spectacle wearing image analysis apparatus 1 is adjusted so that the corneal apex of the eye E is displayed at a predetermined position on the display unit 15. In this embodiment, reference lines V and H for indicating the center of the image photographed by the side photographing optical system 500 are displayed on the side screen of the display unit 15 (see FIG. 6). In the present embodiment, the alignment position is set to be appropriate when the intersection of the reference lines V and H and the corneal apex are matched. The examiner confirms the image of the face of the subject (examined face) displayed on the display unit 15 and performs alignment.

被検者の顔の位置調整が完了すると、検者は、表示部15に表示された図示無き撮影ボタンをタッチする。撮影ボタンがタッチされると、制御部70は、遠方視状態の被検者の画像(正面画像及び側方画像)を撮影する(S3)。以上のようにして、遠方視状態の画像が取得される。   When the position adjustment of the subject's face is completed, the examiner touches a photographing button (not shown) displayed on the display unit 15. When the photographing button is touched, the control unit 70 captures an image (a front image and a side image) of the subject in the far vision state (S3). As described above, an image in the far vision state is acquired.

<画像解析処理(S5)及び眼鏡装用パラメータ取得(S6)>
画像が取得されると、制御部70は、取得した画像の解析を行う(S5)。例えば、制御部70は、画像解析において、眼鏡のフレーム情報や被検者の瞳孔情報等を検出する。そして、制御部70は、検出結果に基づいて、眼鏡フレームに対する被検眼Eの眼鏡パラメータを算出する(詳細は後述する)。なお、本実施例においては、画像が取得されると、画像の解析が開始される構成としたがこれに限定されない。例えば、検者によって解析の開始が設定される構成としてもよい。例えば、検者は、操作ユニット10を操作し、図示無き画像解析モードを選択する。検者によって画像解析モードが選択されると、制御部70は、画像の解析を開始する。
<Image Analysis Processing (S5) and Eyeglass Wearing Parameter Acquisition (S6)>
When the image is acquired, the control unit 70 analyzes the acquired image (S5). For example, in the image analysis, the control unit 70 detects frame information of glasses, pupil information of the subject, and the like. Then, the control unit 70 calculates the eyeglass parameters of the eye E with respect to the eyeglass frame based on the detection result (details will be described later). In this embodiment, the analysis of the image is started when the image is acquired. However, the present invention is not limited to this. For example, the start of analysis may be set by the examiner. For example, the examiner operates the operation unit 10 and selects an image analysis mode not shown. When the image analysis mode is selected by the examiner, the control unit 70 starts analyzing the image.

例えば、眼鏡装用パラメータとしては、瞳孔情報(例えば、瞳孔位置、瞳孔径等)および眼鏡フレーム情報(例えば、フレームの幅、フレーム位置等)等が挙げられる。また、例えば、眼鏡装用パラメータとしては、瞳孔情報およびフレーム情報から求められるような、瞳孔間距離、アイポジション高さ(フィッティングポイント高さ)等が挙げられる。また、例えば、側方画像からフレーム部位を抽出することによって、算出される眼鏡装用パラメータ(例えば、フレーム前傾角度、眼鏡装用距離等)もありうる。   For example, the spectacle wearing parameters include pupil information (for example, pupil position, pupil diameter, etc.) and spectacle frame information (for example, frame width, frame position, etc.). Further, for example, the spectacle wearing parameters include interpupillary distance, eye position height (fitting point height), and the like as determined from pupil information and frame information. Further, for example, there may be spectacle wearing parameters (for example, frame forward tilt angle, spectacle wearing distance, etc.) calculated by extracting a frame part from a side image.

以下、本実施例における画像解析処理について、説明をする。なお、本実施例においては、遠方視状態の被検者の画像を例に挙げて、画像解析処理(S5)について説明する。もちろん、本発明は、近方視状態の被検者の画像解析についても適用可能である。また、本実施例において、眼鏡装用パラメータとして、眼鏡フレームの反り角を取得する場合を例に挙げて説明する。例えば、反り角とは、眼鏡フレームを上(Y軸方向)から観察した際に、眼鏡フレームのリムで形成される玉型と眼鏡フレームのブリッジとの成す角で示される(図8参照)。   Hereinafter, the image analysis processing in the present embodiment will be described. In the present embodiment, the image analysis process (S5) will be described by taking an image of a subject in a far vision state as an example. Of course, the present invention can also be applied to image analysis of a subject in a near vision state. Further, in the present embodiment, a case where the eyeglass frame warp angle is acquired as the spectacle wearing parameter will be described as an example. For example, the warp angle is indicated by an angle formed by a lens shape formed by a rim of the spectacle frame and a bridge of the spectacle frame when the spectacle frame is observed from above (Y-axis direction) (see FIG. 8).

図7は、撮影画像の解析終了後において表示部15上に表示される画面の一例を示す図である。図7に示されるように、例えば、制御部70は、正面画像620と、左側方画像621と、右側方画像622等の撮影画像を表示する。   FIG. 7 is a diagram illustrating an example of a screen displayed on the display unit 15 after the analysis of the captured image is completed. As illustrated in FIG. 7, for example, the control unit 70 displays captured images such as a front image 620, a left side image 621, and a right side image 622.

正面画像620は、例えば、被検者の両眼、及び眼鏡フレームの正面画像が含まれる。もちろん、正面画像620としては、左右眼の一方の眼及び眼鏡フレームが含まれた状態の正面画像であってもよい。   The front image 620 includes, for example, front images of both eyes of the subject and the spectacle frame. Of course, the front image 620 may be a front image in a state in which one of the left and right eyes and a spectacle frame are included.

左側方画像621は、側方撮像光学系500Lによって撮像された被検者の顔の左側方画像(側面画像)である。逆にいえば、左側方画像621は、被検者と対面する検者にとって右手方向から被検者を見たときの画像である。左側方画像621には、被検者の左眼、及び眼鏡フレームの左側方画像が含まれる。   The left side image 621 is a left side image (side image) of the face of the subject imaged by the side imaging optical system 500L. In other words, the left side image 621 is an image when the subject is viewed from the right hand direction for the examiner facing the subject. The left side image 621 includes the left eye of the subject and the left side image of the spectacle frame.

右側方画像622は、側方撮像光学系500Rによって撮像された被検者の顔の右側方画像(側面画像)である。逆にいえば、右側方画像622は、被検者と対面する検者の左手方向から被検者を見たときの画像である。右側方画像622には、被検者の右眼、及び眼鏡フレームの右側方画像が含まれる。   The right side image 622 is a right side image (side image) of the face of the subject imaged by the side imaging optical system 500R. In other words, the right side image 622 is an image when the subject is viewed from the left hand direction of the examiner facing the subject. The right side image 622 includes the right eye of the subject and the right side image of the spectacle frame.

本実施例において、制御部70は、表示部15に、画像解析において検出された検出結果に基づいて、撮影画像上において、眼鏡フレームの内の所定部位である眼鏡フレームの左端の位置と眼鏡フレームの右端の位置に指標を解析結果として重畳表示させる。例えば、各指標は、表示部15において、十字マーク、線表示等の種々の表示形態で表示される。   In the present embodiment, the control unit 70 causes the display unit 15 to detect the position of the left end of the spectacle frame that is a predetermined part of the spectacle frame and the spectacle frame on the captured image based on the detection result detected in the image analysis. The index is superimposed and displayed as an analysis result at the right end position of. For example, each indicator is displayed on the display unit 15 in various display forms such as a cross mark and a line display.

なお、例えば、眼鏡フレームの左端又は右端とは、眼鏡フレームとレンズの境界の内で、もっとも左方向又は右方向に位置する境界を示している。例えば、被検者の右眼側の眼鏡フレームの場合、眼鏡フレームの左端は、眼鏡フレームとレンズの境界の内で、もっとも左方向(鼻側)に位置する境界を示している。例えば、被検者の右眼側の眼鏡フレームの場合、眼鏡フレームの右端は、眼鏡フレームとレンズの境界の内で、もっとも右方向(耳側)に位置する境界を示している。また、例えば、被検者の左眼側の眼鏡フレームの場合、眼鏡フレームの左端は、眼鏡フレームとレンズの境界の内で、もっとも左方向(耳側)に位置する境界を示している。例えば、被検者の左眼側の眼鏡フレームの場合、眼鏡フレームの右端は、眼鏡フレームとレンズの境界の内で、もっとも右方向(鼻側)に位置する境界を示している。   Note that, for example, the left end or the right end of the spectacle frame indicates a boundary located in the leftmost or right direction among the boundaries between the spectacle frame and the lens. For example, in the case of the spectacle frame on the right eye side of the subject, the left end of the spectacle frame indicates the boundary located in the leftmost direction (nose side) among the boundaries between the spectacle frame and the lens. For example, in the case of the spectacle frame on the right eye side of the subject, the right end of the spectacle frame indicates the boundary located in the most right direction (ear side) among the boundary between the spectacle frame and the lens. Further, for example, in the case of the eyeglass frame on the left eye side of the subject, the left end of the eyeglass frame indicates the boundary located in the leftmost direction (ear side) among the boundary between the eyeglass frame and the lens. For example, in the case of the spectacle frame on the left eye side of the subject, the right end of the spectacle frame indicates the boundary located in the most right direction (nose side) among the boundaries between the spectacle frame and the lens.

なお、眼鏡フレームの左端と右端の位置は、眼鏡フレームとレンズの境界の位置に限定されない。例えば、眼鏡フレームの左端と右端の位置は、眼鏡フレームの外縁部(外側の部分)であってもよい。この場合、眼鏡フレームの左端又は右端とは、眼鏡フレームにおいて、もっとも左方向(左縁)又は右方向(右縁)に位置する眼鏡フレームの外縁部位置として示される。また、例えば、眼鏡フレームの左端と右端の位置は、眼鏡フレームの内縁部と外縁部の中心部分(中心位置)であってもよい。この場合、眼鏡フレームの左端又は右端とは、眼鏡フレームにおいて、もっとも左方向又は右方向に位置する眼鏡フレームの中心位置として示される。   Note that the positions of the left end and the right end of the spectacle frame are not limited to the position of the boundary between the spectacle frame and the lens. For example, the positions of the left end and the right end of the spectacle frame may be the outer edge portion (outer portion) of the spectacle frame. In this case, the left end or the right end of the spectacle frame is indicated as the position of the outer edge of the spectacle frame located in the most left direction (left edge) or right direction (right edge) in the spectacle frame. Further, for example, the positions of the left end and the right end of the spectacle frame may be center portions (center positions) of the inner edge portion and the outer edge portion of the spectacle frame. In this case, the left end or the right end of the spectacle frame is indicated as the center position of the spectacle frame that is located in the leftmost or right direction in the spectacle frame.

例えば、本実施例において、制御部70は、表示部15に表示された正面画像620において、指標T1、指標T2、指標T3,指標T4、を表示する。例えば、指標T1は、被検者の右眼における眼鏡フレームFの右端(耳側の端)を示している。例えば、指標T2は、被検者の右眼における眼鏡フレームFの左端(鼻側の端)を示している。例えば、指標T3は、被検者の左眼における眼鏡フレームFの左端(耳側の端)を示している。例えば、指標T4は、被検者の左眼における眼鏡フレームFの右端(鼻側の端)を示している。   For example, in the present embodiment, the control unit 70 displays the index T1, the index T2, the index T3, and the index T4 in the front image 620 displayed on the display unit 15. For example, the index T1 indicates the right end (ear end) of the spectacle frame F in the subject's right eye. For example, the index T2 indicates the left end (end of the nose side) of the spectacle frame F in the subject's right eye. For example, the index T3 indicates the left end (ear end) of the spectacle frame F in the subject's left eye. For example, the index T4 indicates the right end (nose side end) of the spectacle frame F in the left eye of the subject.

また、例えば、制御部70は、表示部15に表示された右側方画像622において、指標T5、指標T6、を表示する。例えば、指標T5は、被検者の右眼における眼鏡フレームFの右端(耳側の端)を示している。例えば、指標T6は、被検者の右眼における眼鏡フレームFの左端(鼻側の端)を示している。   For example, the control unit 70 displays the index T5 and the index T6 in the right side image 622 displayed on the display unit 15. For example, the index T5 indicates the right end (ear end) of the spectacle frame F in the right eye of the subject. For example, the index T6 indicates the left end (end on the nose side) of the spectacle frame F in the right eye of the subject.

また、例えば、制御部70は、表示部15に表示された左側方画像621において、指標T7、指標T8、を表示する。例えば、指標T7は、被検者の左眼における眼鏡フレームFの左端(耳側の端)を示している。例えば、指標T8は、被検者の左眼における眼鏡フレームFの右端(鼻側の端)を示している。   Further, for example, the control unit 70 displays the index T7 and the index T8 in the left side image 621 displayed on the display unit 15. For example, the index T7 indicates the left end (ear end) of the spectacle frame F in the left eye of the subject. For example, the index T8 indicates the right end (end on the nose side) of the spectacle frame F in the left eye of the subject.

なお、本実施例において、指標T1と指標T5は、同一の眼鏡フレーム位置を示している。本実施例において、指標T2と指標T6は、同一の眼鏡フレーム位置を示している。本実施例において、指標T3と指標T7は、同一の眼鏡フレーム位置を示している。本実施例において、指標T4と指標T8は、同一の眼鏡フレーム位置を示している。   In the present embodiment, the index T1 and the index T5 indicate the same spectacle frame position. In the present embodiment, the index T2 and the index T6 indicate the same spectacle frame position. In this embodiment, the index T3 and the index T7 indicate the same spectacle frame position. In the present embodiment, the index T4 and the index T8 indicate the same spectacle frame position.

また、例えば、検出結果に基づいて算出された眼鏡装用パラメータは、指標で表示される他に、その測定値が表示部15の表示画面上に表示される。例えば、表示部15に表示された測定値表示欄80には、眼鏡装用パラメータ等の測定値が表示される。   Further, for example, the spectacle wearing parameters calculated based on the detection result are displayed on the display screen of the display unit 15 in addition to being displayed as an index. For example, the measured value display field 80 displayed on the display unit 15 displays measured values such as spectacle wearing parameters.

本実施例において、最終的な指標の位置に基づいて、眼鏡装用パラメータが取得される(S6)。以下、眼鏡装用パラメータとして、眼鏡のフレーム情報の検出結果に基づいて、眼鏡フレームの反り角を取得する場合を例に挙げて説明する。   In this embodiment, the spectacle wearing parameters are acquired based on the final index position (S6). Hereinafter, the case where the curvature angle of the spectacle frame is acquired as an example of the spectacle wearing parameter based on the detection result of the spectacle frame information will be described as an example.

本実施例において、制御部70は、被検者の正面画像に基づいて眼鏡フレームの左端と右端の第1位置情報を取得する。制御部70は、被検者の側方画像に基づいて眼鏡フレームの左端と右端の第2位置情報を取得する。制御部70は、第1位置情報と、第2位置情報と、に基づいて、眼鏡装用パラメータを取得する。   In the present embodiment, the control unit 70 acquires first position information on the left end and the right end of the spectacle frame based on the front image of the subject. The control unit 70 acquires second position information on the left end and the right end of the spectacle frame based on the side image of the subject. The control unit 70 acquires the spectacle wearing parameters based on the first position information and the second position information.

例えば、制御部70は、正面画像620において、被検者の右眼における眼鏡フレーム幅W1として、X軸方向における指標T1から指標T2までの距離を取得する。また、制御部70は、正面画像620において、被検者の左眼における眼鏡フレーム幅W2として、X軸方向における指標T3から指標T4までの距離を取得する。   For example, in the front image 620, the control unit 70 acquires the distance from the index T1 to the index T2 in the X-axis direction as the spectacle frame width W1 for the right eye of the subject. In addition, in the front image 620, the control unit 70 acquires the distance from the index T3 to the index T4 in the X-axis direction as the spectacle frame width W2 for the left eye of the subject.

次いで、制御部70は、右側方画像622において、被検者の右眼における眼鏡フレーム幅W3として、Z軸方向における指標T5から指標T6までの距離を取得する。また、制御部70は、左側方画像621において、被検者の左眼における眼鏡フレーム幅W4として、Z軸方向における指標T7から指標T8までの距離を取得する。   Next, the control unit 70 acquires a distance from the index T5 to the index T6 in the Z-axis direction as the spectacle frame width W3 for the right eye of the subject in the right side image 622. In addition, the control unit 70 acquires a distance from the index T7 to the index T8 in the Z-axis direction as the spectacle frame width W4 for the left eye of the subject in the left side image 621.

図8は、眼鏡フレームの反り角の取得について説明する図である。例えば、制御部70は、眼鏡フレームの幅W1、W2、W3、W4に基づいて、眼鏡フレームFの反り角Θを取得する。なお、本実施例においては、顔支持ユニット5によって顔の位置が調整され、顔が正面を向いた状態で撮影された撮影画像に基づいて説明する。すなわち、顔の振れが生じていない状態(振れ角が0°の状態)における撮影画像に基づいて、眼鏡フレームFの反り角Θを取得する場合について説明する。   FIG. 8 is a diagram for explaining the acquisition of the curvature angle of the eyeglass frame. For example, the control unit 70 acquires the warp angle Θ of the spectacle frame F based on the spectacle frame widths W1, W2, W3, and W4. In the present embodiment, description will be given based on a photographed image obtained by adjusting the position of the face by the face support unit 5 and with the face facing the front. That is, a case will be described in which the warp angle Θ of the spectacle frame F is acquired based on a photographed image in a state where no face shake occurs (state where the shake angle is 0 °).

制御部70は、眼鏡フレームの幅W1と眼鏡フレームの幅W3に基づいて、右眼における眼鏡フレームの反り角Θ1(眼鏡フレームの幅W1と眼鏡フレームの幅W3とが成す角)を取得する。すなわち、本実施例において、眼鏡フレームFのリムで形成される玉型Pと眼鏡フレームのブリッジBとの成す角(反り角)が、眼鏡フレームの幅W1と眼鏡フレームの幅W3とが成す角で示される。例えば、制御部70は、三平方の定理(ピタゴラスの定理)を用いて、右眼における眼鏡フレームの反り角Θ1を取得する。すなわち、反り角Θ1は、以下の式によって算出される。   Based on the spectacle frame width W1 and spectacle frame width W3, the control unit 70 obtains the curvature angle Θ1 of the spectacle frame in the right eye (the angle formed by the spectacle frame width W1 and the spectacle frame width W3). In other words, in this embodiment, the angle formed by the lens P formed by the rim of the spectacle frame F and the bridge B of the spectacle frame is the angle formed by the width W1 of the spectacle frame and the width W3 of the spectacle frame. Indicated by For example, the control unit 70 acquires the warp angle Θ1 of the eyeglass frame in the right eye using the three-square theorem (Pythagorean theorem). That is, the warp angle Θ1 is calculated by the following equation.

また、制御部70は、眼鏡フレームの幅W2と眼鏡フレームの幅W4に基づいて、左眼における眼鏡フレームの反り角Θ2(眼鏡フレームの幅W2と眼鏡フレームの幅W4とが成す角)を取得する。すなわち、本実施例において、眼鏡フレームFのリムで形成される玉型Pと眼鏡フレームのブリッジBとの成す角(反り角)が、眼鏡フレームの幅W2と眼鏡フレームの幅W4とが成す角で示される。なお、反り角Θ2の取得は、上記記載の反り角Θ1と同様の式によって取得される。 Further, the control unit 70 obtains the curvature angle Θ2 of the left eyeglass frame (an angle formed by the eyeglass frame width W2 and the eyeglass frame width W4) based on the eyeglass frame width W2 and the eyeglass frame width W4. To do. That is, in this embodiment, the angle formed by the lens P formed by the rim of the spectacle frame F and the bridge B of the spectacle frame is the angle formed by the width W2 of the spectacle frame and the width W4 of the spectacle frame. Indicated by The warp angle Θ2 is acquired by the same formula as the warp angle Θ1 described above.

以上のようにして、反り角Θ1、Θ2が取得される。例えば、取得された反り角Θ1、Θ2は、レンズ周縁加工、カスタムレンズの作製等に用いられる。   As described above, the warp angles Θ1 and Θ2 are acquired. For example, the obtained warp angles Θ1 and Θ2 are used for lens peripheral edge processing, custom lens production, and the like.

なお、本実施例に開示の技術は、顔が左右方向に振れている状態(振れ角が0°でない状態)で撮影された撮影画像から眼鏡装用パラメータを取得する場合であっても、好適に眼鏡装用パラメータを取得することができる。図9は、顔が振れている状態で撮影された撮影画像において、反り角及び振れ角を取得する場合について説明する図である。また、本発明に開示の技術は、振れ角αを取得することができる。例えば、振れ角αは、顔の左右方向の移動(顔の振れ)に伴って、眼鏡フレームFが移動した角度を示している。本実施例において、振れ角αは、撮像光学系200bの光軸又は撮像光学系300bの光軸と直交する面Mに対する、眼鏡フレームFの面Cの成す角として示される。   Note that the technique disclosed in the present embodiment is preferably used even when the spectacle wearing parameters are acquired from a photographed image photographed in a state where the face is shaken in the left-right direction (a shake angle is not 0 °). The spectacle wearing parameters can be acquired. FIG. 9 is a diagram illustrating a case where a warp angle and a shake angle are acquired in a photographed image shot with a face being shaken. In addition, the technique disclosed in the present invention can acquire the deflection angle α. For example, the shake angle α indicates an angle at which the eyeglass frame F is moved with the movement of the face in the left-right direction (face shake). In this embodiment, the shake angle α is shown as an angle formed by the surface C of the spectacle frame F with respect to the surface M orthogonal to the optical axis of the imaging optical system 200b or the optical axis of the imaging optical system 300b.

以下、反り角Θ3、Θ4及び振れ角αの取得について説明する。制御部70は、上記記載と同様にして、眼鏡フレームの幅W1、眼鏡フレームの幅W2、眼鏡フレームの幅W3、眼鏡フレームの幅W4に基づいて、反り角Θ3、Θ4取得する。ここで、取得された反り角Θ3、Θ4は、振れ角が0°であった状態を前提とした反り角である。このため、振れ角が生じている場合には、実際の反り角とは異なった値が取得される。すなわち、制御部70は、振れ角αを取得して、振れ角αに基づいて、反り角Θ3、Θ4を補正することによって、実際の反り角を取得する。制御部70は、反り角Θ3、Θ4に基づいて、振れ角αを取得する。例えば、振れ角αは、以下の式によって算出される。   Hereinafter, the acquisition of the warp angles Θ3 and Θ4 and the deflection angle α will be described. In the same manner as described above, the controller 70 acquires the warp angles Θ3 and Θ4 based on the spectacle frame width W1, the spectacle frame width W2, the spectacle frame width W3, and the spectacle frame width W4. Here, the obtained warp angles Θ3 and Θ4 are warp angles on the premise that the deflection angle is 0 °. For this reason, when a deflection angle has occurred, a value different from the actual warp angle is acquired. That is, the control unit 70 acquires the deflection angle α and corrects the curvature angles Θ3 and Θ4 based on the deflection angle α, thereby obtaining the actual curvature angle. The control unit 70 acquires the deflection angle α based on the warp angles Θ3 and Θ4. For example, the deflection angle α is calculated by the following equation.

以上のようにして、振れ角αが取得される。制御部70は、振れ角αに基づいて、反り角Θ3、Θ4を補正することによって、実際の反り角Θ5、Θ6を取得する。例えば、反り角Θ5は、以下の式で算出することができる。 As described above, the deflection angle α is acquired. The control unit 70 acquires the actual warp angles Θ5 and Θ6 by correcting the warp angles Θ3 and Θ4 based on the deflection angle α. For example, the warp angle Θ5 can be calculated by the following equation.

また、例えば、反り角Θ6は、以下の式で算出することができる。 For example, the warp angle Θ6 can be calculated by the following equation.

以上のようにして、振れ角αの影響を考慮した実際の反り角Θ5、Θ6を取得することができる。なお、取得された振れ角αは、顔の傾きの影響による眼鏡装用パラメータのずれを補正に用いることができる。例えば、左右眼の瞳孔間の距離である瞳孔間距離(PD)等の補正に用いることができる。 As described above, the actual warp angles Θ5 and Θ6 in consideration of the influence of the deflection angle α can be acquired. Note that the acquired shake angle α can be used to correct a shift in spectacle wearing parameters due to the influence of the face tilt. For example, it can be used for correction of interpupillary distance (PD), which is the distance between the pupils of the left and right eyes.

このように、正面画像と側方画像における眼鏡フレームの左端及び右端の位置情報を用いることによって、好適に眼鏡装用パラメータを取得することができる。また、顔が左右方向にずれていた場合であっても、振れ角を取得することができ、振れ角を考慮した眼鏡装用パラメータを取得できる。また、眼鏡を被検者が装用したことによる眼鏡フレームの歪又は眼鏡フレームの形状等の影響によって、眼鏡フレームの反り角が左右眼で異なる場合であっても、左右の眼鏡フレームの反り角を好適に取得することができる。すなわち、本実施例に開示の技術は、眼鏡を装用した状態での反り角を好適に取得することができる。また、眼鏡フレームの形状が左右で異なるような特殊な形状(デザイン)の眼鏡フレームであっても、左右の眼鏡フレームの反り角を好適に取得することができる。以上のように、本発明に開示の技術は、容易な構成で、好適に眼鏡装用パラメータを取得することができる。   As described above, the spectacle wearing parameters can be suitably acquired by using the position information of the left end and the right end of the spectacle frame in the front image and the side image. Further, even when the face is shifted in the left-right direction, the shake angle can be acquired, and the spectacle wearing parameters can be acquired in consideration of the shake angle. In addition, even if the warp angle of the spectacle frame differs between the left and right eyes due to the distortion of the spectacle frame or the shape of the spectacle frame due to wearing of the spectacles by the subject, the warp angles of the left and right spectacle frames are different. It can acquire suitably. That is, the technique disclosed in the present embodiment can suitably acquire the warp angle in the state where the spectacles are worn. Moreover, even if the spectacle frame has a special shape (design) in which the shape of the spectacle frame is different on the left and right, the warp angles of the left and right spectacle frames can be suitably acquired. As described above, the technique disclosed in the present invention can appropriately acquire the spectacle wearing parameters with an easy configuration.

<変容例>
なお、本実施例において、左右眼の眼鏡フレームの左端及び右端の位置情報に基づいて、眼鏡装用パラメータを取得する構成を例に挙げて説明したがこれに限定されない。眼鏡を装用した被検者の左右眼の少なくとも一方の眼及び眼鏡フレームを含んだ状態の被検者の正面画像に基づいて、眼鏡フレームの左端と右端の第1位置情報を取得する。また、眼鏡を装用した被検者の左右眼の内で正面画像と同一側の眼及び眼鏡フレームを少なくとも含んだ状態の被検者の側方画像に基づいて、眼鏡フレームの左端と右端の第2位置情報を取得する。そして、第1位置情報と、第2位置情報と、に基づいて、眼鏡装用パラメータが取得される構成であればよい。
<Transformation example>
In the present embodiment, the configuration for acquiring the spectacle wearing parameters based on the position information of the left end and the right end of the left and right eyeglass frames has been described as an example, but the present invention is not limited to this. First position information on the left end and right end of the spectacle frame is acquired based on a front image of the subject including at least one of the left and right eyes of the subject wearing spectacles and the spectacle frame. Further, the left and right ends of the eyeglass frame based on the side image of the subject including at least the eye and the eyeglass frame on the same side as the front image among the left and right eyes of the subject wearing the eyeglasses. 2. Acquire position information. And what is necessary is just the structure by which a spectacles wearing parameter is acquired based on 1st position information and 2nd position information.

例えば、左右眼の内の一方の眼を正面から撮影した正面画像及び、正面画像と同一側の眼を側方から撮影した側方画像に基づいて、眼鏡フレームの左端及び右端を検出し、眼鏡装用パラメータを取得するような構成としてもよい。また、例えば、左右眼を正面から撮影した正面画像及び、左右眼の内の一方の眼を側方から撮影した側方画像に基づいて、眼鏡フレームの左端及び右端を検出し、眼鏡装用パラメータを取得するような構成としてもよい。また、例えば、左右眼の内の一方の眼を正面から撮影した正面画像及び、左右眼をそれぞれ撮影した側方画像に基づいて、眼鏡フレームの左端及び右端を検出し、眼鏡装用パラメータを取得するような構成としてもよい。   For example, the left and right ends of the spectacle frame are detected based on a front image obtained by photographing one of the left and right eyes from the front and a side image obtained by photographing the eye on the same side as the front image from the side. It is good also as a structure which acquires a wearing parameter. Further, for example, based on a front image obtained by photographing the left and right eyes from the front and a side image obtained by photographing one of the left and right eyes from the side, the left and right ends of the spectacle frame are detected, and the spectacle wearing parameters are set. It is good also as a structure which acquires. In addition, for example, the left and right ends of the spectacle frame are detected based on a front image obtained by photographing one of the left and right eyes from the front and a side image obtained by photographing the left and right eyes, respectively, and the spectacle wearing parameters are acquired. It is good also as such a structure.

なお、眼鏡装用パラメータの取得に用いられる正面画像及び側方画像は、1つの画像から、眼鏡フレーム及び被検者の眼が検出される構成に限定されない。複数の撮影画像から眼鏡フレームと被検者の眼が検出されて、眼鏡装用パラメータが取得される構成としてもよい。この場合、例えば、正面画像として、複数の正面画像(左眼正面画像、右眼正面画像等)が撮影され、左眼と右眼の眼鏡装用パラメータがそれぞれ取得される構成が挙げられる。また、例えば、眼鏡フレームを撮影した撮影画像と、被検者の眼を撮影した撮影画像と、の複数の撮影画像が取得され、眼鏡フレーム情報と、被検者の瞳孔情報と、をそれぞれ取得し、眼鏡装用パラメータを取得する構成が挙げられる。   The front image and the side image used for acquiring the spectacle wearing parameters are not limited to the configuration in which the spectacle frame and the eye of the subject are detected from one image. The eyeglass frame and the eye of the subject may be detected from a plurality of captured images, and the spectacle wearing parameters may be acquired. In this case, for example, a configuration in which a plurality of front images (a left-eye front image, a right-eye front image, etc.) are taken as the front image and the eyeglass wearing parameters for the left eye and the right eye are acquired, respectively. In addition, for example, a plurality of photographic images obtained by photographing a spectacle frame and a photographic image obtained by photographing the eye of the subject are acquired, and spectacle frame information and pupil information of the subject are acquired, respectively. And the structure which acquires a spectacles wearing parameter is mentioned.

なお、本実施例において、眼鏡装用パラメータは、画像解析によって自動で検出される構成を例に挙げて説明したがこれに限定されない。例えば、眼鏡装用パラメータにおいて、全部分の検出又は一部(例えば、眼鏡フレームの右端等)の検出を手動で行ってもよい。例えば、手動で検出される場合、検者が、撮影画像を観察しながら、操作ユニット10を操作し、撮影画像上に表示された指標を移動させて指標の位置を決定させてもよい。制御部70は、指標が移動された位置での位置情報に基づいて眼鏡装用パラメータとして取得するようにしてもよい。   In the present embodiment, the spectacle wearing parameters have been described by taking as an example a configuration that is automatically detected by image analysis, but the present invention is not limited to this. For example, in the spectacle wearing parameters, detection of all parts or part (for example, the right end of the spectacle frame) may be performed manually. For example, in the case of manual detection, the examiner may operate the operation unit 10 while observing the captured image, and move the index displayed on the captured image to determine the position of the index. The control unit 70 may acquire the spectacle wearing parameters based on the position information at the position where the index is moved.

また、例えば、眼鏡装用パラメータは、手動及び自動によって検出される構成としてもよい。例えば、手動及び自動で検出される場合、自動で撮影画像の画像解析が行われ、図7に示されるように撮影画像上に検出結果に基づいた指標が表示される。ここで、検者は、撮影画像に表示された指標を表示された位置から、操作ユニット10を操作することによって指標を移動させ、指標が移動された位置での結果を眼鏡装用パラメータとして取得する。すなわち、指標の移動に連動して、測定値表示欄80の測定値も変更される。   Further, for example, the spectacle wearing parameters may be detected manually and automatically. For example, when detected manually and automatically, an image analysis of the captured image is automatically performed, and an index based on the detection result is displayed on the captured image as shown in FIG. Here, the examiner moves the index by operating the operation unit 10 from the position where the index displayed in the photographed image is displayed, and acquires the result at the position where the index is moved as a spectacle wearing parameter. . That is, the measurement value in the measurement value display field 80 is also changed in conjunction with the movement of the index.

なお、本実施例において、眼鏡装用パラメータを示す各指標が、撮影画像に重畳表示される場合を例に挙げて説明したがこれに限定されない。眼鏡装用パラメータを示す各指標は、表示部15の表示画面上に表示される構成であればよい。   In the present embodiment, the case where each index indicating the spectacle wearing parameter is displayed superimposed on the captured image has been described as an example, but the present invention is not limited to this. Each index indicating the spectacle wearing parameter may be configured to be displayed on the display screen of the display unit 15.

なお、本実施例においては、反射ミラー410の角度を変更させることによって、固視標の呈示位置を変更する光学系を用いて撮影した画像に対して、画像解析処理を行う構成を例に挙げて説明したが、これに限定されない。本実施例の画像解析処理は、眼鏡を装用した被検者を撮影した画像に対して適用することができる。すなわち、画像を撮影するための光学系としては、本実施例の光学系に限定されず、種々の光学系を適用してもよい。   In this embodiment, a configuration in which image analysis processing is performed on an image captured using an optical system that changes the position of the fixation target by changing the angle of the reflection mirror 410 is given as an example. However, the present invention is not limited to this. The image analysis processing of the present embodiment can be applied to an image obtained by photographing a subject wearing spectacles. That is, the optical system for taking an image is not limited to the optical system of the present embodiment, and various optical systems may be applied.

なお、本実施例においては、左右側の側方画像を取得するために、側方撮影光学系500として、被検者の左側に配置される左方撮影光学系500Lと、被検者の右側に配置される右方撮影光学系500Rをそれぞれ備える構成としたがこれに限定されない。1つの撮影光学系が兼用される構成としてもよい。例えば、左右側の側方画像を取得するために、1つの側方撮影光学系が用いられている構成であってもよい。この場合、例えば、反射ミラーの駆動等によって左右の側方を撮影する構成、側方撮影光学系が移動をすることによって左右の側方を撮影する構成、等が挙げられる。また、例えば、正面画像撮影用の測定光学系を用いて、左右側の側方画像が取得される構成としてもよい。この場合、例えば、正面画像撮影用の光学系が移動されることによって、左右側の側方画像が取得される構成が挙げられる。   In this embodiment, in order to acquire the left and right side images, the side imaging optical system 500 includes a left imaging optical system 500L disposed on the left side of the subject, and the right side of the subject. However, the present invention is not limited to this. A configuration in which one photographing optical system is also used may be employed. For example, a configuration in which one side photographing optical system is used to acquire the left and right side images may be used. In this case, for example, a configuration in which the left and right sides are photographed by driving a reflecting mirror, a configuration in which the left and right sides are photographed by moving the side photographing optical system, and the like can be cited. Further, for example, a configuration may be adopted in which left and right side images are acquired using a measurement optical system for front image capturing. In this case, for example, there is a configuration in which the left and right side images are acquired by moving the optical system for photographing the front image.

なお、本実施例においては、遠用測定光学系200と近用測定光学系300が別途設けられる構成としたがこれに限定されない。少なくとも一方の光学系を用いて、遠方視状態又は近方視状態の画像が撮影される構成としてもよい。   In this embodiment, the distance measurement optical system 200 and the near measurement optical system 300 are separately provided, but the present invention is not limited to this. It is good also as a structure by which the image of a far vision state or a near vision state is image | photographed using at least one optical system.

なお、本実施例に開示の技術は、アタッチメントやシール等を眼鏡フレーム取り付け、眼鏡装用パラメータを取得する装置においても、適用することができる。例えば、アタッチメントやシール等が眼鏡フレーム取り付けられ、撮影された撮影画像において、それらの目印を検出する際に、本実施例に開示の技術を用いる。   Note that the technique disclosed in the present embodiment can also be applied to an apparatus that attaches an eyeglass frame to an attachment, a seal, or the like and acquires spectacle wearing parameters. For example, the technique disclosed in this embodiment is used when detecting a mark in a photographed image in which an attachment or a seal is attached to a spectacle frame and photographed.

なお、本実施例の眼鏡装用画像解析装置1は、複数の撮像光学系を備え、被検者の画像を撮影するものとした。しかしながら、この構成に限らない。例えば、撮像光学系を備えていなくともよい。この場合、装置外部の撮像光学系によって撮影された被検者の画像データを種々のデータ通信手段によって受信する。そして、受信した画像を基に、被検者の眼鏡装用パラメータを測定してもよい。   In addition, the spectacle wearing image analysis apparatus 1 of the present embodiment is provided with a plurality of imaging optical systems and takes an image of a subject. However, the configuration is not limited to this. For example, the imaging optical system may not be provided. In this case, the image data of the subject imaged by the imaging optical system outside the apparatus is received by various data communication means. Then, the spectacle wearing parameters of the subject may be measured based on the received image.

なお、本発明においては、本実施例に記載した装置に限定されない。例えば、上記実施例の機能を行う眼鏡装用画像解析ソフトウェア(プログラム)をネットワークや各種記憶媒体を介して、システムあるいは装置に供給する。そして、システムあるいは装置のコンピュータ(例えば、CPU等)がプログラムを読み出し、実行することも可能である。   Note that the present invention is not limited to the apparatus described in this embodiment. For example, spectacle wearing image analysis software (program) that performs the functions of the above embodiments is supplied to a system or apparatus via a network or various storage media. A computer of the system or apparatus (for example, a CPU) can also read and execute the program.

1 眼鏡装用パラメータ測定装置
5 顔支持ユニット
10 操作ユニット
15 表示部
70 制御部
72 メモリ
200 遠用測定光学系
300 近用測定光学系
400 光路切換ユニット
500 側方撮影光学系
DESCRIPTION OF SYMBOLS 1 Glasses wearing parameter measurement apparatus 5 Face support unit 10 Operation unit 15 Display part 70 Control part 72 Memory 200 Distance measurement optical system 300 Near measurement optical system 400 Optical path switching unit 500 Side imaging | photography optical system

Claims (3)

眼鏡を装用した被検者の画像を解析し、被検者の眼鏡装用パラメータを測定するための眼鏡装用画像解析装置であって、
眼鏡を装用した被検者の左右を含んだ状態の被検者の正面画像と、眼鏡を装用した被検者の左眼の側方を撮影した第1側方画像と、被検者の右眼の側方を撮影した第2側方画像と、をそれぞれ取得する画像取得手段と、
前記正面画像に基づいて眼鏡フレームの左端と右端の第1位置情報を左右眼のそれぞれで取得し、前記第1側方画像と前記第2側方画像に基づいて前記眼鏡フレームの左端と右端の第2位置情報を左右眼のそれぞれで取得する位置情報取得手段と、
左右眼それぞれの前記第1位置情報と、左右眼それぞれの前記第2位置情報と、に基づいて、振れ角を取得する演算手段と、
を備えることを特徴とする眼鏡装用画像解析装置。
A spectacle wearing image analysis device for analyzing an image of a subject wearing spectacles and measuring a spectacle wearing parameter of the subject,
A front image of the subject including the left and right eyes of the subject wearing spectacles, a first side image of the side of the left eye of the subject wearing spectacles, and the subject's Image acquisition means for acquiring a second side image obtained by photographing the side of the right eye ;
First position information on the left and right ends of the spectacle frame is acquired by the left and right eyes based on the front image, and the left and right ends of the spectacle frame are acquired based on the first side image and the second side image . Position information acquisition means for acquiring the second position information with each of the left and right eyes ;
Each of the first position information left and right eyes, and calculating means each of said second position information left and right eyes, based on the, to obtain the deflection angle,
An image analysis apparatus for spectacles wearing.
眼鏡を装用した被検者の画像を解析し、被検者の眼鏡装用パラメータを測定するための眼鏡装用画像解析方法であって、
眼鏡を装用した被検者の左右眼を含んだ状態の被検者の正面画像と、眼鏡を装用した被検者の左眼の側方を撮影した第1側方画像と、被検者の右眼の側方を撮影した第2側方画像と、をそれぞれ取得する画像取得ステップと、
前記正面画像に基づいて眼鏡フレームの左端と右端の第1位置情報を左右眼のそれぞれで取得し、前記第1側方画像と前記第2側方画像に基づいて前記眼鏡フレームの左端と右端の第2位置情報を左右眼のそれぞれで取得する位置情報取得ステップと、
左右眼それぞれの前記第1位置情報と、左右眼それぞれの前記第2位置情報と、に基づいて、振れ角を取得する演算ステップと、
を備えることを特徴とする眼鏡装用画像解析方法
A spectacle wearing image analysis method for analyzing an image of a subject wearing spectacles and measuring a spectacle wearing parameter of the subject,
A front image of the subject including the left and right eyes of the subject wearing spectacles, a first side image of the side of the left eye of the subject wearing spectacles, and the subject's An image acquisition step for acquiring a second side image obtained by photographing the side of the right eye,
First position information on the left and right ends of the spectacle frame is acquired by the left and right eyes based on the front image, and the left and right ends of the spectacle frame are acquired based on the first side image and the second side image. A position information acquisition step of acquiring the second position information with each of the left and right eyes;
A calculation step of acquiring a deflection angle based on the first position information of each of the left and right eyes and the second position information of each of the left and right eyes;
An image analysis method for wearing spectacles, comprising :
眼鏡を装用した被検者の画像を解析し、被検者の眼鏡装用パラメータを測定するための眼鏡装用画像解析装置において実行される眼鏡装用画像解析プログラムであって、
前記眼鏡装用画像解析装置のプロセッサによって実行されることで、
眼鏡を装用した被検者の左右眼を含んだ状態の被検者の正面画像と、眼鏡を装用した被検者の左眼の側方を撮影した第1側方画像と、被検者の右眼の側方を撮影した第2側方画像と、をそれぞれ取得する画像取得ステップと、
前記正面画像に基づいて眼鏡フレームの左端と右端の第1位置情報を左右眼のそれぞれで取得し、前記第1側方画像と前記第2側方画像に基づいて前記眼鏡フレームの左端と右端の第2位置情報を左右眼のそれぞれで取得する位置情報取得ステップと、
左右眼それぞれの前記第1位置情報と、左右眼それぞれの前記第2位置情報と、に基づいて、振れ角を取得する演算ステップと、
を前記眼鏡装用画像解析装置に実行させることを特徴とする眼鏡装用画像解析プログラム
A spectacle wearing image analysis program executed in a spectacle wearing image analysis device for analyzing an image of a subject wearing spectacles and measuring a spectacle wearing parameter of the subject,
By being executed by the processor of the spectacle wearing image analysis device,
A front image of the subject including the left and right eyes of the subject wearing spectacles, a first side image of the side of the left eye of the subject wearing spectacles, and the subject's An image acquisition step for acquiring a second side image obtained by photographing the side of the right eye,
First position information on the left and right ends of the spectacle frame is acquired by the left and right eyes based on the front image, and the left and right ends of the spectacle frame are acquired based on the first side image and the second side image. A position information acquisition step of acquiring the second position information with each of the left and right eyes;
A calculation step of acquiring a deflection angle based on the first position information of each of the left and right eyes and the second position information of each of the left and right eyes;
Spectacle wearing image analysis program, characterized in that to execute the spectacles wearing image analyzer.
JP2014020834A 2014-02-05 2014-02-05 Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program Active JP6379502B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014020834A JP6379502B2 (en) 2014-02-05 2014-02-05 Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014020834A JP6379502B2 (en) 2014-02-05 2014-02-05 Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program

Publications (3)

Publication Number Publication Date
JP2015148691A JP2015148691A (en) 2015-08-20
JP2015148691A5 JP2015148691A5 (en) 2017-03-09
JP6379502B2 true JP6379502B2 (en) 2018-08-29

Family

ID=53892092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014020834A Active JP6379502B2 (en) 2014-02-05 2014-02-05 Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program

Country Status (1)

Country Link
JP (1) JP6379502B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017181657A (en) * 2016-03-29 2017-10-05 株式会社ニデック Eyeglasses wearing image analyzer, eyeglasses wearing image analysis method, and eyeglasses wearing image analysis program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5013930B2 (en) * 2006-03-31 2012-08-29 Hoya株式会社 Glasses wearing parameter measuring apparatus and glasses wearing parameter measuring method
JP2011253042A (en) * 2010-06-02 2011-12-15 Seiko Epson Corp Selection method for spectacle lens and selection system for spectacle lens
JP2013097014A (en) * 2011-10-28 2013-05-20 Tokai Kogaku Kk Position data calculation method

Also Published As

Publication number Publication date
JP2015148691A (en) 2015-08-20

Similar Documents

Publication Publication Date Title
JP6515542B2 (en) Glasses-wearing image analysis apparatus, glasses-wearing image analysis method, and glasses-wearing image analysis program
US10048750B2 (en) Content projection system and content projection method
JP5013930B2 (en) Glasses wearing parameter measuring apparatus and glasses wearing parameter measuring method
JP3976925B2 (en) Eye position measuring device
WO2015046466A1 (en) Parameter measurement device for eyeglass fitting and parameter measurement program for eyeglass fitting
KR102093953B1 (en) Method for helping determine the vision parameters of a subject
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
JP2012239566A (en) Measuring apparatus for glasses, and three-dimensional measuring apparatus
JP4616303B2 (en) Eye position measuring device
JP2007093636A (en) Spectacle wearing parameter measuring instrument, spectacle lens, and spectacles
JP4536329B2 (en) Eye point position determination method and eye point measurement system
JP7221587B2 (en) ophthalmic equipment
KR20170054511A (en) Method for determining optical parameters of a test subject with measurement accuracy in order to adapt a pair of eyeglasses to the test subject, and immobile video centering system
JP6379639B2 (en) Glasses wearing parameter measurement imaging device, glasses wearing parameter measuring imaging program
JP6379502B2 (en) Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program
JP6255849B2 (en) Eyeglass device parameter measurement imaging device
JP2015066046A (en) Spectacles-wearing image analysis apparatus and spectacles-wearing image analysis program
JP2017181657A (en) Eyeglasses wearing image analyzer, eyeglasses wearing image analysis method, and eyeglasses wearing image analysis program
JP6488546B2 (en) Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program
JP2022066325A (en) Ophthalmologic apparatus
JP2015064700A (en) Spectacle wearing parameter measuring apparatus, spectacle wearing parameter measurement program and position designation method
JP6364733B2 (en) Glasses wearing parameter measuring apparatus, glasses wearing parameter measuring program
JP6277649B2 (en) Glasses wearing parameter measuring apparatus, glasses wearing parameter measuring program
JP6338042B2 (en) Glasses parameter calculation device, glasses parameter calculation program
JP6179320B2 (en) Eyeglass device parameter measurement imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180716

R150 Certificate of patent or registration of utility model

Ref document number: 6379502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250