WO2010044383A1 - 眼鏡の視野画像表示装置及び眼鏡の視野画像表示方法 - Google Patents

眼鏡の視野画像表示装置及び眼鏡の視野画像表示方法 Download PDF

Info

Publication number
WO2010044383A1
WO2010044383A1 PCT/JP2009/067693 JP2009067693W WO2010044383A1 WO 2010044383 A1 WO2010044383 A1 WO 2010044383A1 JP 2009067693 W JP2009067693 W JP 2009067693W WO 2010044383 A1 WO2010044383 A1 WO 2010044383A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
visual field
field
point
sight
Prior art date
Application number
PCT/JP2009/067693
Other languages
English (en)
French (fr)
Inventor
華 祁
郁香 田中
賢治 岳藤
Original Assignee
Hoya株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya株式会社 filed Critical Hoya株式会社
Priority to US13/124,536 priority Critical patent/US20120026183A1/en
Priority to JP2010533888A priority patent/JPWO2010044383A1/ja
Priority to EP09820561A priority patent/EP2341388A1/en
Publication of WO2010044383A1 publication Critical patent/WO2010044383A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models

Definitions

  • the present invention relates to a spectacle field-of-view image display device and a spectacle field-of-view image display method for displaying a retinal image seen through a spectacle lens by simulation.
  • a spectacle user uses a sample lens to check the appearance and selects and orders a lens and a frame.
  • the types of sample lenses that can be prepared at an eyeglass store are limited.
  • there are so many kinds of progressive-power lenses there are not always lenses suitable for spectacle users among sample lenses. Therefore, it is not clear how it will look until the ordered lens is completed and actually viewed.
  • the range of the image is changed based on the change in the direction of the face, and distortion aberration image processing is performed on the image in the range.
  • the image processing of the distortion aberration is simply performed on the image in the field of view, so the calculation is relatively simple, and the retinal image when the progressive addition lens is applied. Can be easily simulated. However, it is impossible to accurately simulate an image that is actually seen when the progressive-power lens is applied.
  • the present invention provides a field-of-view image display device for glasses that can display a retinal image by simulation corresponding to a change in the direction of the line of sight.
  • the present invention provides a method for displaying a visual field image of spectacles, which can display a retinal image close to a retinal image seen when wearing spectacles by simulation.
  • the eyeglass field-of-view image display device of the present invention is configured to display a retinal image that is visible when a progressive power lens is applied, in the direction of the eye line of sight when the progressive power lens is applied.
  • An image processing unit that creates a retina image by performing blurring and distortion processing corresponding to the passing point of the line of sight in the progressive addition lens to the data of the corresponding original image in the field of view, and the image processing unit And a display unit for displaying the created retinal image.
  • the distortion is calculated using the luminance information of the original image specified at the point in the object side field corresponding to the pixel sampled in the image side field It can be.
  • the blur can be calculated by a continuous function representing a light amount distribution in which light rays from an object spread around an image point.
  • the brightness of each pixel of the display unit is further distributed to the peripheral pixels based on the continuous function, and the brightness is added to all the pixels of the image, thereby performing a process of adding blur. It can be.
  • the direction of the line of sight can be specified by the line-of-sight tracking device and the gyro sensor.
  • the display unit may include a head mounted display, and the line-of-sight tracking device and the gyro sensor may be mounted on the head mounted display.
  • the eyeglass field-of-view image display method of the present invention is a method of displaying a retinal image that is visible when a progressive power lens is applied by simulation, and at each point of a point group arranged in a spiral shape in the field of view, The retinal image to be displayed is calculated.
  • the spiral arrangement may include at least two or more spirals. Further, the spiral arrangement may be six spirals.
  • the image processing unit corresponds to the data of the original image in the field of view corresponding to the direction of the line of sight of the eyeball, and corresponds to the passing point of the line of sight in the progressive addition lens.
  • a retinal image is created by performing a process of adding blur and distortion.
  • the eyeglass field image display device of the present invention can realize a eyeglass field image display device capable of displaying a retinal image close to the actual appearance in response to a change in the direction of the line of sight. it can.
  • a retinal image to be displayed is calculated at each point of the point group arranged in a spiral shape in the field of view.
  • a point group arranged in a spiral shape it becomes possible to arrange more point groups in the field of view than when using point groups arranged vertically and horizontally, for example.
  • By effectively using the region it is possible to calculate a retinal image that is closer to the retinal image that is actually seen. Therefore, with the eyeglass field-of-view image display method of the present invention, it is possible to display a retinal image close to the retinal image seen when wearing actual glasses by simulation.
  • FIG. 1 is a schematic configuration diagram (block diagram) of a visual field image display device (display system) for glasses according to an embodiment of the present invention. It is an example of the three-dimensional CG model used in the system of FIG. It is a flowchart which shows the process until it displays the image of the simulation in the apparatus of FIG. It is a coordinate system used in the simulation of one embodiment of the present invention. It is a figure explaining distortion of the light ray by refraction of a lens. It is a figure explaining the ray tracing for calculating
  • FIG. 1 shows a schematic configuration diagram (block diagram) of a field-of-view image display device (display system) for glasses.
  • the system shown in FIG. 1 includes an HMD (head mounted display) 11, a PC (personal computer) 15, two monitors 16 and 17, and a game pad 18 or a keyboard 19 as input devices.
  • the HMD 11 includes a head motion sensor (gyro sensor or the like) 12 and a line-of-sight motion sensor (line-of-sight tracking device or the like) 13.
  • the PC 15 includes a graphic board 21 for an image for the right eye, a graphic board 22 for an image for the left eye, and a USB 23.
  • An HMD controller 14 is connected between the HMD 11 and the PC 15. Since the graphic boards 21 and 22 are provided, the PC 15 operates as an image processing unit of the eyeglass field-of-view image display device of the present invention.
  • An object of the present invention is to allow the progressive power lens to be seen from the viewpoints of “distortion” and “blurring”. Therefore, an image processing effect of “distortion” and “blurring” is given to a three-dimensional CG (computer graphics) movie to be viewed by real-time calculation to reproduce the appearance of the progressive addition lens.
  • CG computer graphics
  • stereoscopic display is possible by preparing a right-eye image and a left-eye image.
  • the field of view to be reproduced is a 3D CG model according to the movement of the viewer's line of sight by the gyro sensor (head movement sensor 12) and the line-of-sight tracking device (line-of-sight movement sensor 13) mounted on the HMD 11.
  • the display is made to follow the field of view.
  • the “distortion filter” is a mechanism that returns the value of the output coordinate (T ′, C ′) on the image side from the B-spline ray database for each pixel of the original image.
  • the “blurring filter” is a mechanism that returns the values of the size ( ⁇ ⁇ , ⁇ ⁇ ) and density ( ⁇ ) of the blurred texture from the B-spline ray database for each pixel of the original image.
  • the output visible image takes all pixels of the original image as input, and adds (overlapping) the blurred texture image returned through the “blur filter” to the coordinate position in the output image returned through the “distortion filter”. Generated.
  • FIG. 1 An example of a three-dimensional CG model used in the system of FIG. 1 is shown in FIG.
  • five objects 31, 32, 33, 34, and 35 having shapes such as a sphere, a cylinder, a rectangular parallelepiped, and a cube are arranged.
  • the distances to the objects 31, 32, 33, 34, and 35 are various, the spherical object 31 is relatively close, and the objects 32 and 34 are relatively far away.
  • FIG. 2 along with the arrangement of the three-dimensional CG model, the line-of-sight passing points 46A and 46B on the spectacle lens 50 are also shown in the two-direction main lines of sight 43A and 43B.
  • the position of the line-of-sight passing point on the spectacle lens 50 changes depending on the position of the visual field.
  • the eyeglass user 41 looks at the object 32 and the object 33 and the visual field 44A is visible.
  • the head 42 of the eyeglass user 41 faces the visual field 44A although not shown.
  • the main line of sight 43A is directed toward the visual field center 45A of the visual visual field 44A.
  • the position of the line-of-sight passing point 46A on the spectacle lens 50 is slightly above the center.
  • the eyeglass user 41 looks at the object 34 and the object 35 and the visual field 44B is visible.
  • the head 42 of the eyeglass user 41 faces the visual field 44B although not shown.
  • the main line of sight 43B is directed to the visual field center 45B of the visual visual field 44B.
  • the position of the line-of-sight passing point 46B on the eyeglass lens 50 is larger than the line-of-sight passing point 46A.
  • Located below and near the center of the spectacle lens 50 not only the direction of the head 42 of the eyeglass user 41 changes due to the change of the visual fields 44A and 44B, but also the line of sight on the eyeglass lens 50 corresponding to the distance to the visual fields 44A and 44B.
  • the positions of the passing points 46A and 46B also change.
  • the position, orientation (orientation of the head 42), and eye-gaze direction of the eyeglass user 42 are detected by a gyro sensor (head movement sensor 12) or a gaze tracking device (gaze movement sensor 13) mounted on the HMD 11. Is detected.
  • a gyro sensor head movement sensor 12
  • a gaze tracking device gaze movement sensor 13
  • step S1 detection for the right eye is performed
  • step S2 detection for the left eye is performed.
  • step S3 as shown in FIG. 2
  • a CG virtual object three-dimensional CG model
  • step S4 using the CG walk-through function, a visual field to be cut out from the three-dimensional CG model is obtained based on the face position, orientation, and line-of-sight direction detected in steps S1 and S2.
  • step S5 an original image having no distortion or blur for the right eye is created from the visual field cut out in step S4.
  • step S6 in step S5, an original image without any distortion or blur for the left eye is created from the visual field cut out in step S4.
  • step S7 the prescription power, the addition power, and the lens type of the eyeglass user 41 are input by an input device (keyboard 19 or the like).
  • step S8 shape data and layout data of the right eye lens are created in step S8, and shape data and layout data of the left eye lens are created in step S9.
  • a right eyeball model is created in step S10, and a left eyeball model is created in step S11.
  • a three-dimensional spline interpolation coefficient for the light ray data is generated in step S12.
  • the three-dimensional spline interpolation coefficient of the ray data generated in step S12, in step S13 the three-dimensional spline interpolation for the right eye, the outgoing ray direction, the PSF parameter, the lens passing point position, and various other parameters. Find the coefficient.
  • step S14 three-dimensional spline interpolation coefficients for the left eye, the direction of the outgoing light, the PSF parameter, the lens passing point position, and various other parameters are obtained.
  • a simulation is executed in step S15 using the original image created in steps S5 and S6 and the parameters and interpolation coefficients obtained in steps S13 and S14.
  • This simulation process includes using image processing hardware.
  • step S16 an image including distortion and blur for the right eye is created.
  • step S17 an image including distortion and blur for the left eye is created. The image including distortion and blur generated in this way is displayed on the display screen of the HMD 11, the right eye monitoring monitor 16, and the left eye monitoring monitor 17.
  • an image including distortion and blur corresponding to the viewing direction is displayed on the display screen of the HMD 11.
  • FIG. 4 shows a coordinate system used for the simulation of this embodiment.
  • a three-axis orthogonal coordinate system of x-axis, y-axis, and z-axis is configured.
  • the x-axis is taken in the direction from the front to the eye.
  • the y-axis is orthogonal to the x-axis and faces upward.
  • the z-axis is the horizontal direction from right to left.
  • the direction of x-axis-y-axis-z-axis follows the right-hand rule.
  • the origin is placed at the center of rotation of the eyeball.
  • the broken line in the figure schematically shows the eyeball and its cornea.
  • an arbitrary point P (x, y, z) in space (here, x ⁇ 0, that is, in front of the eyes) is the angles ⁇ and ⁇ of light rays entering the eye and the rotation center point. It can be expressed again by the distance PO.
  • FIG. 5 shows a spectacle lens 50, an eyeball 51, and a rear vertex spherical surface 52 corresponding to the concave surface of the spectacle lens 50.
  • the incident direction at the naked eye is PO, but when viewed through the spectacle lens 50 with glasses, the incident direction to the rotation center O of the eyeball 51 changes to RO.
  • the incident direction when the naked eye is AO is AO, but when viewed through the spectacle lens 50, the incident direction of the eyeball 51 to the rotation center O changes to BO.
  • lens blur The cause of lens blur is that all rays from the object point do not converge on one point of the retina. A light amount distribution in which light from the object point spreads in a range centered on the image point is formed. This distribution is called a point spread function (PSF).
  • PSF point spread function
  • each ray can be traced using the azimuth angle of the point P and the azimuth angle of the ray starting from the point P with respect to the principal ray.
  • the density of the retinal intersection is the PSF as it is.
  • the optical path difference of the light in each divided region is further calculated, and the PSF is obtained by Fresnel integration.
  • FIG. 7A a square division shown in FIG. 7A and a helical division shown in FIG. 7B.
  • the square division shown in FIG. 7A divides an area vertically and horizontally and uses the center point of each area. In this case, it is simple and clear, but there are wasted parts at the four corners, and only about 70% of the planned number of rays can be traced.
  • the spiral division shown in FIG. 7B uses a point on a curve extending in a spiral shape from the center point of the entrance pupil. In this case, all the planned number of rays can be tracked.
  • the spiral arrangement preferably includes at least two or more spirals. By including two or more spirals, the entrance pupil can be used more efficiently than an arrangement including only one spiral. Further, FIG. 7B includes six spirals, and when such six spirals are included, the entrance pupil can be utilized most efficiently.
  • the PSF thus obtained is the light density distribution on the retina surface, but the coordinates of the incident image are the coordinates ( ⁇ , ⁇ ) in the direction viewed from the center of rotation of the eyeball. Conversion with ( ⁇ , ⁇ ) is required.
  • f is a focal distance of eyes and changes with prescription frequencies.
  • the light amount distribution at the position on the retina can be converted into the light amount distribution in the incident light direction. That is, the eyes feel that light from an object point comes not only from the object point but also from a certain range of space centered on the object point. The neighboring points affect each other, making it difficult to distinguish and appear blurry.
  • the PSF when viewed through different positions on the lens is different. Further, even when viewing through the same position on the lens, if the object distance is different, the PSF is also different. Furthermore, even when looking at the same object distance point through the same position on the lens, the PSF is different if the eye adjustment state is different.
  • the central line of sight is not necessarily directly in front.
  • the central line of sight needs to pass through the lens near portion.
  • the central line of sight hits the diagonal direction of the global coordinates.
  • a simulation is performed in a local coordinate system having the oblique direction as the x ′ axis.
  • how to determine the y ′ axis and the z ′ axis of the local coordinate system becomes a problem.
  • it is decided according to the listing law, which is one of the laws of eyeball rotation.
  • the vertical direction and the left-right direction when the central line of sight is facing directly in front change to a predetermined direction in response to the eyeball rotating and the central line of sight moving. Even when the center line of sight moves and the line of sight changes, the vertical and horizontal directions of the actual object change so as to be the vertical and horizontal directions even in the retinal image.
  • the transformation matrix of coordinate axes is expressed by the following formula (2).
  • a, b, and c are each axis component of the direction unit vector (a b c) in the global coordinates in the central line-of-sight direction.
  • the local coordinates (x ′, y ′, z ′) of an arbitrary point (x, y, z) in the global coordinates are converted by the following equation (3).
  • global coordinates (x, y, z) of an arbitrary point (x ′, y ′, z ′) of local coordinates are converted by the following equation (4).
  • the optical principle and image processing method for simulating the appearance through a spectacle lens were established as described above. However, when you start the simulation, you suffer from a huge amount of calculations.
  • the shape of the spectacle lens is not a simple spherical surface, and in particular, the progressive lens is a free-form surface.
  • For ray tracing of a complicated surface such as a spectacle lens a method of repeatedly converging is adopted. This takes at least several times longer than simple spherical ray tracing.
  • the large number of pixels in the image to be simulated has spurred an increase in the amount of ray tracing calculation.
  • Ray tracing (principal ray tracing) for finding out which pixel of the original image corresponds to all pixels of the image as a result of all simulations must be executed.
  • a number of (for example, 100) rays emanating from the corresponding object points are traced to determine the PSF, and a spot on the retina is obtained.
  • sample points of the object distance reciprocal D 1 are represented by ( ⁇ 0.2, 0.0, 0.2, 0.5, 0.8, 1.1, 1.4, 1.7, 2.0, 2.3, 2.6, 2.9, 3.2, 3.6, 4.0), and samples of the tangent ⁇ of the vertical angle are ( ⁇ 1.5, ⁇ 1.2, ⁇ 1.0, -0.8, -0.6, -0.4, -0.2, 0.0, 0.2, 0.4, 0.6, 0.8, 1.0, 1.
  • samples of tangent ⁇ of left and right angles are ( ⁇ 1.5, ⁇ 1.2, ⁇ 1.0, ⁇ 0.8, ⁇ 0.6, ⁇ 0.4, -0.2, 0.0, 0.2, 0.4, 0.6, 0.8, 1.0, 1.2, 1.5).
  • ray tracing is performed to find a true function value.
  • a method of interpolating function values for other variable values (values between sample points) using true function values at the sample points has been established. There are many interpolation methods according to the purpose, but the B-spline method is most suitable as an interpolation method when the true value at the sample point is known.
  • the number and interval of sample points are related to interpolation accuracy.
  • the interpolation accuracy is small where the sample point interval is small.
  • the interval is reduced, the number of samples for covering the entire definition area increases, and it is necessary to secure a large amount of memory in the program. Since recent PCs and OSs can be equipped with a lot of memory, the limit on the number of samples has been relaxed, and high-precision results can be obtained.
  • C is an interpolation coefficient
  • N is a basis polynomial function based on the nodes of each dimension.
  • the PSF represents the closest distance (viewing angle) at which two points can be distinguished.
  • the precise shape of the PSF function is not required, and the size of the range covered by the PSF is an important parameter. Accordingly, even if the PSF is boldly simplified, it can be said that the role played in the lens performance evaluation is not greatly affected.
  • the PSF is assumed to be a continuous function in advance and the parameters are applied using the ray tracing data, the PSF can be expressed with a small number of parameters. These parameters can be obtained by spline interpolation (three-dimensional) like the above-described distortion function.
  • the simplified function As the shape of the simplified function, a two-dimensional normal distribution is considered appropriate so that the PSF of astigmatism with a power error or any axial angle can be approximated. That is, the simplified function is as shown in (5) below. (Where ⁇ and ⁇ are shift angles from the principal rays in the y and z directions, respectively, and ⁇ ⁇ , ⁇ ⁇ and ⁇ are parameters of a normal distribution. These parameters are ⁇ ⁇ > 0 and ⁇ ⁇ > 0. , ⁇ 1 ⁇ ⁇ 1 is satisfied.) The above equation (1) holds at all points ( ⁇ , ⁇ ) on the elliptical line represented by the following equation (6). The integral within the contour ellipse is given by the following equation (7). An equiprobability ellipse in this case is shown in FIG.
  • the two-dimensional normal distribution function can represent the extent of spread ( ⁇ ⁇ , ⁇ ⁇ ), the degree of astigmatism blur (equal probability ellipse major / minor axis ratio), and the angle (major axis angle).
  • the degree of astigmatism blur equal probability ellipse major / minor axis ratio
  • the angle major axis angle
  • the intersections of many rays scattered on the ( ⁇ , ⁇ ) plane (each intersection point is each division point on the entrance pupil) can be considered as a method of calculating the statistical value of the corresponding to ⁇ ⁇ , ⁇ ⁇ , and ⁇ . That means It is.
  • N is the number of rays
  • ( ⁇ i , ⁇ i ) is the intersection coordinates.
  • the PSF distribution function at an arbitrary point (D 1 , ⁇ , ⁇ ) on the object space can be approximated by a two-dimensional normal distribution function having parameters ⁇ ⁇ , ⁇ ⁇ , and ⁇ .
  • These functions can also be obtained by spline interpolation in the same manner as the distortion information. That is, it can be obtained as follows.
  • it is effective to obtain sin ⁇ 1 ⁇ by interpolation instead of ⁇ , and obtain ⁇ by performing a sin operation on the obtained result.
  • useful parameters can be obtained by spline interpolation.
  • the lens convex surface passing point position ( yconvex , zconvex ) of the principal ray, the concave surface passing point position ( yconvave , zconveve ), and the like can be mentioned. These parameters can be calculated as follows.
  • the lens pass point position of the principal ray is useful for simulating distortion and blur distribution in the local coordinate system with the transmitted ray at the specific lens position as the central line of sight.
  • N i (x) is a basis function corresponding to the i-th node.
  • N i (x) has a non-zero value in the range between the i-th node and the i + M-th node, and the m ⁇ 1 order between adjacent nodes Expressed in polynomial form (due to locality of basis functions).
  • the three-dimensional spline interpolation is expressed by the following equation (8).
  • This equation (9) is a one-dimensional interpolation nested structure (nested structure), and the order of dimensions can be freely changed.
  • the number of multiplications required for the nj-dimensional M-order spline interpolation calculation is expressed by the following equation (10).
  • a spline coefficient database of left and right binocular distortion and blur parameters was prepared in advance, and a simulation image was generated using a high-performance personal computer and an image graphic board.
  • a real-time walkthrough was executed in the CG with an HMD equipped with a gyro, it was realized at a speed of 10 frames / second.
  • the luminance information of the original image is applied to the corresponding point object side of all the pixels in the image side field of view.
  • the luminance of each pixel is “distributed” to the peripheral pixels based on the PSF to reconstruct the luminance of all the pixels in the image.
  • the normal distribution function and parameters represented by the equation (1) are used.
  • the processing method for adding distortion and blur is not limited to the method described in the above embodiment, and other methods can be used.
  • the present invention also includes a configuration in which a method other than the method described in the above-described embodiment is used for one or both of the process of adding distortion and the process of adding blur.
  • the right-eye image and the left-eye image are respectively created to enable stereoscopic viewing.
  • the present invention also includes a configuration in which only one of the right-eye image and the left-eye image is created.
  • the present invention is not limited to the configuration for displaying images on both the HMD 11 and the monitors 16 and 17 as in the above-described embodiment.
  • only one of the display units may be provided and a retinal image may be displayed on the display unit, for example, the monitor may be omitted and displayed only on the HMD.
  • the display unit for displaying a retinal image is not limited to an HMD or a monitor.
  • the head movement sensor is not limited to the gyro sensor.
  • the visual field image display method of the present invention is not limited to the configuration in which the processing for adding distortion and blur is performed in response to the change in the direction of the line of sight as in the above-described embodiment
  • the present invention can be applied to a visual field image display device (display system) for glasses.
  • the present invention can be applied to an apparatus (system) configured to perform only one of a process for adding distortion and a process for adding blur.
  • the present invention is not limited to the above-described embodiment, and various other configurations can be taken without departing from the gist of the present invention.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Eyeglasses (AREA)

Abstract

視線の方向の変化にも対応してシミュレーションにより網膜像を表示することが可能である、眼鏡の視野画像表示装置を提供する。 累進屈折力レンズを掛けた状態での眼球の視線の方向に対応する視野内の元画像のデータに、累進屈折力レンズにおける視線の通過点に対応する、ボヤケ及び歪みを加える処理を行うことにより、網膜像を作成する画像処理部と、この画像処理部で作成した網膜像を表示する表示部とを有して、累進屈折力レンズを掛けたときに見える網膜像をシミュレーションによって表示する眼鏡の視野画像表示装置を構成する。

Description

眼鏡の視野画像表示装置及び眼鏡の視野画像表示方法
 本発明は、眼鏡レンズを通して見える網膜像を、シミュレーションによって表示する、眼鏡の視野画像表示装置及び眼鏡の視野画像表示方法に係わる。
 従来、眼鏡店においては、眼鏡使用者が、サンプルレンズを使用して見え方を確認して、レンズやフレームを選択して注文していた。
 しかし、眼鏡店において用意できるサンプルレンズの種類には限りがある。特に、累進屈折力レンズは、レンズの種類が非常に多いために、サンプルレンズの中に眼鏡使用者に適したレンズがあるとは限らない。そのため、注文したレンズが出来上がって実際に掛けて見るまでは、どのように見えるかがわからない。
 そこで、眼鏡を掛けたときに見える網膜像を、シミュレーションによって表示することにより、サンプルレンズにない種類のレンズを使用した場合の見え方を示すことが提案されている(例えば、特許文献1参照。)。
 累進屈折力レンズでは、度数の異なる遠用部と近用部とを、滑らかにつないでいるために歪曲収差が生じ、顔の方向を変化させると、揺れを感じる。眼鏡を掛けたときに見える網膜像を、シミュレーションによって表示することにより、この揺れ等を容易に示して説明することが可能になる。
 前記特許文献1に記載された構成では、顔の方向の変化に基づいて、画像の範囲を変化させて、その範囲の画像に対して歪曲収差の画像処理を行っている。
特許第3893760号明細書
 前記特許文献に記載された構成では、視野の範囲の画像に対して単純に歪曲収差の画像処理を行っているので、計算が比較的単純であり、累進屈折力レンズを掛けたときの網膜像を容易にシミュレートすることができる。
 しかしながら、実際に累進屈折力レンズを掛けたときに見える画像を、正確にシミュレートすることはできない。
 即ち、実際の累進屈折力レンズの使用方法としては、顔の向きのみにより視界を変えることは少なく、一般に累進屈折力レンズ装用者が顔の角度を変えて視野方向を変更するのは揺れやゆがみを少なくするための対応措置にすぎない。
 そして、近用と遠用との切り替えは、眼球回旋による視線移動が主である。
 従って、顔の角度によって視界(視野方向)は変更されるが、視線方向(眼球回旋の角度)によって、遠用・近用における使用を変更することが一般的である。
 前記特許文献に記載された構成では、例えば累進屈折力レンズの遠用屈折力位置に視線を固定したまま顔を下げると、近用屈折力位置を見ていると判断して、シミュレートする。
 従って、視線が遠用屈折力位置にある実際とは、異なる像の倍率及び歪曲収差となって、正確にシミュレートすることができない。
 また、近用屈折力位置に視線を固定したまま顔を上げる場合も、同様の問題が生ずる。
 横方向の倍率差は上下方向ほどではないため、前記特許文献の方法によっても、顔の横方向移動による周辺視をある程度はシミュレートすることが可能である。
 しかし、顔の上下方向移動による周辺視及び主注視部分をシミュレートすることはできない。
 上述した問題の解決のために、本発明においては、視線の方向の変化にも対応してシミュレーションにより網膜像を表示することが可能である、眼鏡の視野画像表示装置を提供するものである。また、本発明においては、実際眼鏡を掛けた場合に見える網膜像に近い網膜像をシミュレーションにより表示することが可能である、眼鏡の視野画像表示方法を提供するものである。
 本発明の眼鏡の視野画像表示装置は、累進屈折力レンズを掛けたときに見える網膜像を、シミュレーションによって表示する構成であって、累進屈折力レンズを掛けた状態での眼球の視線の方向に対応する視野内の元画像のデータに、累進屈折力レンズにおける視線の通過点に対応する、ボヤケ及び歪みを加える処理を行うことにより、網膜像を作成する画像処理部と、この画像処理部で作成した網膜像を表示する、表示部とを有するものである。
 前記本発明の眼鏡の視野画像表示装置において、像側視野内にてサンプリングした画素に対応する物体側視野内の点において特定される、元画像の輝度情報を用いて、歪みが算出される構成とすることができる。
 さらに、物体からの光線が像点を中心に広がる光量分布を表す連続関数によって、ボヤケが算出される構成とすることができる。
 また、この構成に加えて、さらに表示部の各画素の輝度が連続関数に基づいて周辺画素に分配され、画像の全画素の輝度が再計算されることにより、ボヤケを加える処理が行われる構成とすることができる。
 また、この構成に加えて、さらに像点における広がり、歪み、並びに、ボヤケの程度を表す等確率楕円を含む、下記式(1)で表わされる正規分布関数とパラメータとを使用することにより、ボヤケを加える処理が行われる構成とすることができる。
Figure JPOXMLDOC01-appb-M000002
 
(ここで、μ,νはそれぞれ主光線の座標軸方向からの偏移角であり、σμ,σν,ρは正規分布のパラメータであり、σμ>0,σν>0,-1<ρ<1を満たす。)
 また、この構成に加えて、さらに、パラメータが一次元のネスト構造により算出される構成とすることができる。
 前記本発明の眼鏡の視野画像表示装置において、視線の方向が視線追跡装置及びジャイロセンサーにより特定される構成とすることができる。
 また、この構成に加えて、表示部がヘッドマウントディスプレイを含み、視線追跡装置及びジャイロセンサーが、ヘッドマウントディスプレイに搭載されている構成とすることができる。
 本発明の眼鏡の視野画像表示方法は、累進屈折力レンズを掛けたときに見える網膜像を、シミュレーションによって表示する方法であって、視野内に螺旋状に配置された点群の各点において、表示する網膜像を計算する。
 前記本発明の眼鏡の視野画像表示装置において、螺旋状の配置が少なくとも2以上の螺旋を含む構成とすることができる。
 さらに、螺旋状の配置が6つの螺旋である構成とすることができる。
 上述の本発明の眼鏡の視野画像表示装置によれば、画像処理部において、眼球の視線の方向に対応する視野内の元画像のデータに、累進屈折力レンズにおける視線の通過点に対応する、ボヤケ及び歪みを加える処理を行うことにより、網膜像が作成される。
 これにより、顔の方向の変化だけでなく、視線の方向の変化によるレンズでの視線通過点の変化も反映させて、ボヤケや歪みを加える処理をした網膜像の画像を作成することができる。そのため、周辺視部分及び主注視部分を正確にシミュレートすることが容易である。
 従って、本発明の眼鏡の視野画像表示装置により、視線の方向の変化にも対応して、実際の見え方に近い網膜像を表示することが可能な眼鏡の視野画像表示装置を実現することができる。
 上述の本発明の眼鏡の視野画像表示方法によれば、視野内に螺旋状に配置された点群の各点において、表示する網膜像を計算する。
 螺旋状に配置された点群を使用することにより、例えば縦横に配置された点群を使用する場合と比較して、視野内により多くの点群を配置することが可能になり、視野内の領域を有効に利用して、より実際に見える網膜像に近い網膜像を計算することができる。
 従って、本発明の眼鏡の視野画像表示方法により、実際眼鏡を掛けた場合に見える網膜像に近い網膜像をシミュレーションにより表示することが可能になる。
本発明の一実施の形態の眼鏡の視野画像表示装置(表示システム)の概略構成図(ブロック図)である。 図1のシステムにおいて使用する、3次元CGモデルの一例である。 図1の装置における、シミュレーションの画像を表示するまでの過程を示すフローチャートである。 本発明の一実施の形態のシミュレーションにおいて使用する座標系である。 レンズの屈折による光線の歪みを説明する図である。 PSFを求めるための光線追跡を説明する図である。 A、B 入射瞳の分割方法を示す図である。 網膜上の結像位置と入射角との対応を示す図である。 等確率楕円を示す図である。
 以下、発明を実施するための最良の形態(以下、実施の形態とする)について説明する。
 なお、説明は以下の順序で行う。
1.本発明の実施の形態の装置・システムの構成の説明
2.動画像シミュレーションの理論及び手法の説明
2-1.シミュレーションの目的
2-2.シミュレーションに使用する座標系
2-3.レンズの歪みについての説明
2-4.レンズによるボヤケについての説明
2-5.シミュレーション像の合成
2-6.視野の中心視線を指定した場合の座標変換
2-7.光線データのスプライン補間近似
2-8.PSFの簡略化
2-9.多次元Bスプライン補間計算の高速化
2-10.まとめ
<1.本発明の実施の形態の装置・システムの構成の説明>
 本発明の一実施の形態として、眼鏡の視野画像表示装置(表示システム)の概略構成図(ブロック図)を、図1に示す。
 図1に示すシステムでは、HMD(ヘッドマウントディスプレイ)11と、PC(パーソナルコンピュータ)15と、2つのモニター16,17と、入力装置である、ゲームパッド18又はキーボード19とを備えている。
 HMD11には、頭部の動きセンサー(ジャイロセンサー等)12と、視線の動きセンサー(視線追跡装置等)13とが、搭載されている。
 PC15内には、右眼の画像用のグラフィックボード21、左眼の画像用のグラフィックボード22、USB23を備えている。また、HMD11とPC15との間には、HMDコントローラ14が接続されている。グラフィックボード21,22を備えていることにより、PC15は、本発明の眼鏡の視野画像表示装置の画像処理部として動作する。
 本発明においては、累進屈折力レンズの見え方を、「ユレ(歪み)」と「ぼやけ」の観点から体験させることを目的としている。
 そのため、視対象となる3次元CG(コンピュータグラフィックス)ムービーに、リアルタイム演算にて「歪み」と「ぼやけ」の画像処理効果を与えて、累進屈折力レンズの見え方を再現する。
 図1に示すシステムでは、右眼用画像と左眼用画像とを用意することにより、立体視表示が可能となる。
 また、再現される視野は、HMD11に搭載したジャイロセンサー(頭部の動きセンサー12)及び視線追跡装置(視線の動きセンサー13)によって、視聴者の視線の動きに応じて、3次元CGモデル内の視野を追従させる形で表示を行う。
 PC15では、「歪みフィルター」、並びに「ぼやけフィルター」としての画像処理が行われる。
 「歪みフィルター」とは、元画像の各画素に対して、Bスプライン光線データベースから、像側の出力座標(T’,C’)の値を返す機構である。
 「ぼやけフィルター」とは、元画像の各画素に対して、Bスプライン光線データベースから、ぼやけテクスチャの大きさ(σμ,σν)、及び濃度(ρ)の値を返す機構である。
 出力となる可視画像は、元画像の全ての画素を入力とし、「歪みフィルター」を通して返される出力画像での座標位置に、「ぼやけフィルター」を通して返されるぼやけテクスチャ画像を加算(重ね塗り)して生成される。
 図1のシステムにおいて使用する、3次元CGモデルの一例を、図2に示す。
 空間内に、球・円柱・直方体・立方体等の形状の5個のオブジェクト31,32,33,34,35が配置されている。眼鏡使用者41から見て、それぞれのオブジェクト31,32,33,34,35までの距離は様々であり、球形状のオブジェクト31は比較的近く、オブジェクト32やオブジェクト34は比較的遠くなっている。
 また、図2においては、3次元CGモデルの配置と共に、2方向の主視線43A,43Bにおいて、眼鏡レンズ50上の視線通過点46A,46Bを併せて示している。
 この図2を参照して、視野の位置によって眼鏡レンズ50上の視線通過点の位置が変化することを説明する。
 まず、眼鏡使用者41が、オブジェクト32及びオブジェクト33の方を見て、視覚視野44Aが見えている状態を考える。このとき、眼鏡使用者41の頭部42は図示しないが視覚視野44Aの方を向いている。そして、主視線43Aは、視覚視野44Aの視野中心45Aに向かっている。ここで、視覚視野44Aは、比較的眼鏡使用者41からの距離が比較的遠くなっているため、眼鏡レンズ50上の視線通過点46Aの位置は、中央部よりやや上にある。
 次に、眼鏡使用者41が、オブジェクト34及びオブジェクト35の方を見て、視覚視野44Bが見えている状態を考える。このとき、眼鏡使用者41の頭部42は図示しないが視覚視野44Bの方を向いている。そして、主視線43Bは、視覚視野44Bの視野中心45Bに向かっている。ここで、視覚視野44Bは、比較的眼鏡使用者41からの距離が視覚視野44Aよりも近くなっているため、眼鏡レンズ50上の視線通過点46Bの位置は、先ほどの視線通過点46Aよりも下にあり、眼鏡レンズ50の中央部付近にある。
 このように、視覚視野44A,44Bが変わることにより、眼鏡使用者41の頭部42の向きが変わるだけではなく、視覚視野44A,44Bまでの距離等に対応して、眼鏡レンズ50上の視線通過点46A,46Bの位置も変わってくる。
 このようなことから、前記特許文献1のように頭部の動きに対応させるだけで、視線通過点が固定であると、実際の見え方とは大きく異なってくることになる。
 本実施の形態では、図1に示したシステムを使用して、眼鏡レンズ50上の視線通過点46A,46Bの位置の変化にも対応するように、シミュレーションの画像を表示する。
 次に、シミュレーションの画像を表示するまでの過程を、図3のフローチャートに示す。
 以下、図3を参照して、図1のシステムにおけるシミュレーションの過程を説明する。
 まず、HMD11に搭載されたジャイロセンサー(頭部の動きセンサー12)や視線追跡装置(視線の動きセンサー13)により、眼鏡使用者42の顔の位置、向き(頭部42の向き)、視線方向を検出する。ステップS1では、右眼用の検出を行い、ステップS2では、左眼用の検出を行う。
 一方、ステップS3において、図2に示したように、CG仮想物体(3次元CGモデル)を用意する。
 次に、ステップS4において、CGウォークスルー機能を使用して、ステップS1及びステップS2によって検出した顔の位置や向きや視線方向によって、3次元CGモデルから切り取る視覚視野を求める。この視覚視野は、右眼用と左眼用とでそれぞれ異なる視野となる。
 次に、ステップS5において、ステップS4で切り取った視覚視野から、右眼用の歪み、ボヤケが全くない元画像を作成する。同様に、ステップS6において、ステップS5において、ステップS4で切り取った視覚視野から、左眼用の歪み、ボヤケが全くない元画像を作成する。
 一方、ステップS7において、入力装置(キーボード19等)により、眼鏡使用者41の処方度数、加入度、レンズ種類を入力する。
 次に、入力した内容から、ステップS8で右眼レンズの形状データ及びレイアウトデータを作成し、ステップS9で左眼レンズの形状データ及びレイアウトデータを作成する。
 また、入力した内容から、ステップS10で右眼球モデルを作成し、ステップS11で左眼球モデルを作成する。
 次に、ステップS8~S10でそれぞれ作成した、形状データ、レイアウトデータ、眼球モデルに基づいて、ステップS12において、光線データの3次元スプライン補間係数を生成する。
 次に、ステップS12で生成した光線データの3次元スプライン補間係数を用いて、ステップS13において、右眼用の、出射光線方向、PSFパラメータ、レンズ通過点位置、その他いろいろなパラメータの3次元スプライン補間係数を求める。同様に、ステップS14において、左眼用の、出射光線方向、PSFパラメータ、レンズ通過点位置、その他いろいろなパラメータの3次元スプライン補間係数を求める。
 次に、ステップS5及びステップS6で作成した元画像と、ステップS13及びステップS14で求めたパラメータや補間係数等を使用して、ステップS15において、シミュレーションを実行する。このシミュレーションの過程では、画像処理用ハードウエアを使用することも含んでいる。
 次に、ステップS16において、右眼用の、歪み及びボヤケを含む画像を作成する。同様に、ステップS17において、左眼用の、歪み及びボヤケを含む画像を作成する。
 このようにして作成した、歪み及びボヤケを含む画像は、HMD11の表示画面や、右眼監視用モニター16、左眼監視用モニター17に表示する。
 以上説明した過程によって、HMD11の表示画面において、視線方向に対応した、歪みやボヤケを含む画像が表示される。
<2.動画像シミュレーションの理論及び手法の説明>
2-1.シミュレーションの目的
 この動画像シミュレーションは、眼鏡をかけた場合にどのように感じるかを、静止画像や動画像で表現することを目的としている。
 3次元CGとHMD11、ジャイロセンサー、視線追跡装置を組み合わせて使うことにより、仮想空間の中で頭を回したり、視線を変更したりするときに見える画像を、リアルタイムで提示することが可能である。
 また、図1のシステム及び図3のフローチャートに示したように、左右の眼にそれぞれ別々の画像を提示すれば両眼立体視も可能である。
2-2.シミュレーションに使用する座標系
 本実施の形態のシミュレーションに使用する座標系を、図4に示す。
 図4に示すように、x軸、y軸、z軸の3軸の直交座標系を構成する。x軸は、正面から目に入る方向にとる。y軸は、x軸と直交し、上に向く方向とする。z軸は、右から左に向く水平方向とする。x軸-y軸-z軸の方向は、右手則に則っている。そして、原点は、眼球の回旋中心に置く。図中の破線は、眼球とその角膜とを模式的に示している。
 そして、図4に示す座標系において、空間内の任意一点P(x,y,z)(ここではx<0、つまり目の前)は、目に入る光線の角度β,γと回旋中心点までの距離POとによって、表し直すことができる。
 シミュレーション画像上の位置は、縦方向ではtanβ=y/xとなり、横方向ではtanγ=z/xとなる。物体距離は、そのまま表すのではなく、逆数で表わすことが、眼鏡の場合には都合がいい。従って、空間上任意点の位置は、下記のように表わすことができる。
Figure JPOXMLDOC01-appb-M000003
 
2-3.レンズの歪みについての説明
 レンズを通して見ると、光線が屈折されてしまう。
 つまり、裸眼では(ψ,ζ)の方向にある物体点が、眼鏡レンズを通して見ると、(ψ',ζ')に移動する。
 このことを、図5を参照して、さらに詳しく説明する。図5には、眼鏡レンズ50と、眼球51と、眼鏡レンズ50の凹面に対応する後方頂点球面52を示している。
 図5に示す任意点Pは、裸眼時の入射方向がPOであるのに対し、眼鏡をかけて眼鏡レンズ50を通して見ると、眼球51の回旋中心Oへの入射方向がROに変わる。
 同様に、図5に示す点Aは、裸眼時の入射方向がAOであるのに対し、眼鏡レンズ50を通して見ると、眼球51の回旋中心Oへの入射方向がBOに変わる。
 ここで、眼鏡をかけたときに感じる物体の位置(ψ',ζ')は裸眼の時の位置(D,ψ,ζ)の関数で表すことができる。つまり、
ψ'=ψ'(D,ψ,ζ)
ζ'=ζ'(D,ψ,ζ)
という関数で表すことができる。この関数の中身は、後述する光線追跡によって確定することができる。
2-4.レンズによるボヤケについての説明
 レンズによるボヤケの原因は、物体点からのすべての光線が網膜の一点に収束しないことである。
 物体点からの光が、像点を中心にある範囲に広がる光量分布を形成する。この分布を、点広がり関数(Point Spread Function;PSF)という。
 この関数PSFを求める方法を、図6を参照して説明する。
 PSFを求めるときには、まずその点Pを通る主光線PQOを探す。
 主光線が決まれば、入射瞳を均等に分割して(例えば400分割)、P点から各分割領域の中心と結ぶ光線を追跡し、網膜に交わる点を求める。
 図6において、P点の方位角と、P点出発の光線の主光線に対する方位角とを用いて、各光線を追跡することができる。
 入射瞳の位置は、厳密に言うと瞳孔の物体側の共役点だが、主光線の物体側の線PQの延長線上の一点O’で、PO=PO’を満たすところに設定しても差し支えない。
 幾何光学原理のPSFであれば、網膜交点の密度がそのままPSFである。
 波動光学の効果を考える場合には、さらに各分割領域の光線の光路差を計算して、フレネル積分してPSFを求める。
 次に、入射瞳の分割方法は、様々な方法が考えられる。
 主な分割方法として、図7Aに示す正方分割と、図7Bに示す螺旋分割との2種類が挙げられる。
 図7Aに示す正方分割は、縦横に領域を分割して、各領域の中心点を使用している。この場合には、単純明解だが、四隅に無駄な部分があり、予定の光線数の7割程度しか追跡できない。
 一方、図7Bに示す螺旋分割は、入射瞳の中心点から螺旋状に延びる曲線の上の点を使用している。この場合には、予定の光線数の全てを追跡できる。
 なお、螺旋状の配置は少なくとも2以上の螺旋を含むことが望ましい。2以上の螺旋を含むことにより、1つの螺旋のみを含む配置よりも、入射瞳を効率良く利用することができる。
 さらに、図7Bでは6つの螺旋を含んでおり、このように6つの螺旋を含んだ場合には、最も効率良く入射瞳を利用することができる。
 こうして求めたPSFは、網膜面上の光密度分布であるが、入射画像の座標は眼球の回旋中心から見た方向の座標(ψ,ζ)であるため、網膜上の座標と入射画像の座標(ψ,ζ)との変換が必要である。
 ここで、入射角と像高の関係を、図8に示す。PSFの有効範囲では像高が小さく、近軸計算で十分精度が得られると考える。
 つまり、ψ=y/f,ζ=z/fとなる。なお、fは目の焦点距離であり、処方度数によって変化する。
 このように、網膜上位置の光量分布は、入射光線方向の光量分布に変換することができる。つまり、物体点からの光は、物体点だけではなく物体点を中心としたある範囲の空間からも来ているように目が感じている。
 そして、近傍の点と点の間は、お互いに影響を及ぼしあって、区別がつきにくく、ぼやけるように見える。
 レンズ上異なる位置を通して見た場合のPSFは当然異なる。
 また、たとえレンズ上同じ位置を通して見ていても、物体距離が異なっていれば、PSFも異なる。
 さらにまた、レンズ上同じ位置を通して同じ物体距離の点を見ても、目の調節状態が異なるとPSFも異なる。
2-5.シミュレーション像の合成
 以上、レンズによる歪みとボヤケについて説明した。
 歪みとボヤケとを画像処理の手法で合成すると、眼鏡レンズをかけて見える画像のシミュレーションが可能である。さらに、静止画像だけではなく、動画像も可能である。
 歪みについては、像側視野内のすべての画素の対応点物体側に求めて、元画像の輝度情報を当てることで実現できる。
 ボヤケについては、各画素の輝度をそのPSFに基づいて周辺画素に“分配”して、画像全画素の輝度を再構成することによって実現できる。
 ボヤケ処理は、たたみこみ演算(Convolution)とも呼ばれる。一般的なたたみこみ演
算と異なるのは、PSFが一定でないことである。
2-6.視野の中心視線を指定した場合の座標変換
 以上のように、真正面から目に入る方向をx軸とした座標系(以下、グローバル座標系と呼ぶ)において、歪み情報(物体側視方向から像側視方向への変換)と、ボヤケ情報(特定視方向、視距離におけるPSF)とを用いれば、視野全体のシミュレーションが可能である。
 しかしながら、実際のシミュレーションは、必ずしも中心視線が真正面向きではない。
 例えば、近用部の見え方を確認したい場合は、中心視線がレンズ近用部を通っている必要がある。この場合、中心視線はグローバル座標の斜め方向に当たる。この斜め方向をx’軸とするローカル座標系において、シミュレーションを行う。
 このとき、ローカル座標系のy’軸とz’軸をいかに決めるかが問題となる。ここでは眼球回旋の法則のひとつである、リスティング法則に則って決める。リスティング法則によれば、中心視線が真正面向きのときの上下方向及び左右方向が、眼球が回旋して中心視線が移動することに対応して、ある決まった方向にそれぞれ変化する。そして、中心視線が移動して視線方向が変化したときにも、実際の物体の上下方向及び左右方向が網膜像でも上下方向及び左右方向となるように変化する。
 座標軸の変換マトリックスは、下記の式(2)になる。
Figure JPOXMLDOC01-appb-M000004
 
(ここで、a,b,cは、中心視線方向のグローバル座標における方向単位ベクトル(a b c)の各軸成分である。)
 そして、グローバル座標の任意一点(x,y,z)のローカル座標(x',y',z')は、下記の式(3)で変換される。
Figure JPOXMLDOC01-appb-M000005
 
 逆に、ローカル座標の任意一点(x',y',z')のグローバル座標(x,y,z)は、下記の式(4)で変換される。
Figure JPOXMLDOC01-appb-M000006
 
 以上のような座標変換式を用いれば、レンズ上の任意点を通過する視線方向を中心視線とする場合の歪みを、リアルにシミュレートすることが可能となる。
2-7.光線データのスプライン補間近似
 メガネレンズを通しての見え方をシミュレーションする光学的原理及び画像処理手法は、上述のようにして確立した。
 しかし、いざシミュレーションを始めると、膨大な計算量に悩まされる。眼鏡レンズの形状は単純な球面ではなく、特に累進レンズは自由曲面である。
 眼鏡レンズのような複雑な面の光線追跡には、繰り返して収束する手法を採用する。これは単純な球面の光線追跡よりも、少なくとも数倍の時間がかかる。
 また、シミュレーションする画像の画素数の多さも、光線追跡計算量の上昇に拍車をかけている。
 全てのシミュレーションの結果画像の全画素に対して、元画像のどの画素に対応しているか探すための光線追跡(主光線追跡)を実行しなければならない。その上に、PSFを確定するために対応物体点から発する多数(例えば100)の光線を追跡して、網膜上のスポットを求める。これらの光線追跡が全て非球面に対応するために、繰り返し収束手法を採用しなければならないので、途方もなく膨大な計算負担になるのである。
 現在のパーソナルコンピュータ1台の計算能力では、このような手法では、一枚の画像(動画像の一コマ)を処理するのに数日かかることになる。
 一方、レンズ形状、眼球パラメータ、レンズと眼球の位置関係が全部確定している状態では、下記の物体側の任意一点に対し、像側(ψ',ζ')は唯一に決まる。
Figure JPOXMLDOC01-appb-M000007
 
 つまり、下記の関数
ψ'=ψ'(D,ψ,ζ)
ζ'=ζ'(D,ψ,ζ)
が成立する。
 しかも、変数(D,ψ,ζ)に対し、(ψ',ζ')は連続変化することも、容易に想像できる。このような関数は、スプライン補間に適している。
 そこで、各変数の定義域内に、有限個のサンプル点を設定する。例えば、物体距離逆数Dのサンプル点を、(-0.2,0.0,0.2,0.5,0.8,1.1,1.4,1.7,2.0,2.3,2.6,2.9,3.2,3.6,4.0)の15点とし、上下角度のタンジェントψのサンプルを、(-1.5,-1.2,-1.0,-0.8,-0.6,-0.4,-0.2,0.0,0.2,0.4,0.6,0.8,1.0,1.2,1.5)の15点とし、左右角度のタンジェントζのサンプルを(-1.5,-1.2,-1.0,-0.8,-0.6,-0.4,-0.2,0.0,0.2,0.4,0.6,0.8,1.0,1.2,1.5)の15点に設定する。
 これらのサンプル点のすべての組み合わせについて、光線追跡を実行し、真の関数値を求める。
 それ以外の変数値(サンプル点とサンプル点の間の値)に対する関数値は、サンプル点における真の関数値を用いて補間する方法が確立されている。補間方法は、目的に合わせて多数あるが、サンプル点における真値が既知の場合の補間方法としては、Bスプライン法が最も適している。
 サンプル点の数や間隔は、補間精度に関係する。一般的に、サンプル点間隔の小さいところの補間精度は高い。ただし、間隔を小さくすると、定義域全部をカバーするためのサンプル数が多くなり、プログラム上メモリを多く確保する必要がある。最近のPCやOSはメモリを沢山装着できるようになったので、サンプル数の制限は緩和され、高精度の結果が得られるようになった。
 このようにして、歪み情報を表す関数
Figure JPOXMLDOC01-appb-M000008
 
を、少ない計算量のスプライン補間で得られるようになる。式中、Cは補間係数であり、Nは各次元の節点に基づいた基底多項式関数である。
2-8.PSFの簡略化
 前述したように、厳密にある物体点のPSFを取得するには、物体点から発し、入射瞳を均等分割する多数の点を通過する光線を追跡し、網膜上のスポットを求めて、さらにスポット密度分布関数を求める。
 しかし、この方法では、光線の数を増やしても精度の向上が思うほど上がらない。
 また、収差が少ない場合にはスポットが集中して、像点以外にはほとんど光線が通らないケースもあれば、度数誤差の大きい場合には、ある領域で均等分布のケースもあり、PSF関数の変化が激しい。
 一方、シミュレーションやレンズパフォーマンス評価の場合、必ずしも正確なPSFを必要としない。例えば、視力の場合、二つの点が分別できる最も近い距離(視角)を表している。この場合、PSFの関数の精密な形は必要とせず、PSFがカバーする範囲の大きさが重要なパラメータである。従って、PSFを大胆に簡略しても、レンズ性能評価に果たす役割が大きく影響されることはないと言える。
 逆に、PSFをあらかじめ連続関数に仮定して、そのパラメータを光線追跡のデータを用いて当てはめるようにすれば、少ないパラメータでPSFを表現できる。それらのパラメータを、前述の歪み関数のようにスプライン補間(三次元)で求めることができる。
 簡略関数の形状は、度数誤差やあらゆる軸角度の非点収差のPSFを近似できるように、二次元正規分布が適切と考えられる、つまり、簡略関数は、下記の(5)のようになる。
Figure JPOXMLDOC01-appb-M000009
 
(ここで、μ,νはそれぞれy、z方向の主光線からの偏移角、σμ,σν,ρは正規分布のパラメータである。これらのパラメータはσμ>0,σν>0,-1<ρ<1を満たす。)
 下記の式(6)で表される楕円の線上すべての点(μ,ν)において、前出の式(1)が成り立つ。
Figure JPOXMLDOC01-appb-M000010
 
Figure JPOXMLDOC01-appb-M000011
 
 そして、その等高線楕円内の積分は、下記の式(7)となる。
Figure JPOXMLDOC01-appb-M000012
 
 この場合の等確率楕円を、図9に示す。
 このように、二次元正規分布関数は、広がりの程度(σμ,σν)と非点ボケの程度(等確率楕円長短軸比)、角度(長軸の角度)を表すことができる。
 もちろん、PFSの光学系の状態による無限に近い変化を忠実に表すことはできないが、PSFを表現する簡略関数としては有効である。
 二次元正規分布関数のパラメータσμ,σν,ρを、光線データから求める方法を考えると、(μ,ν)平面に散布する多数の光線の交点(各交点が入射瞳上の各分割点に対応)の統計値を求めて、σμ,σν,ρに当てる方法が考えられる。つまり、
Figure JPOXMLDOC01-appb-M000013
 
である。ここで、Nは光線数で、(μ,ν)は交点座標である。
 このように、物体空間上の任意一点(D,ψ,ζ)のPSF分布関数を、パラメータσμ,σν,ρを持つ二次元正規分布関数で近似することができる。さらに、σμ,σν,ρは(D,ψ,ζ)の関数と表すことができる。つまり、
σμ=σμ(D,ψ,ζ)
σν=σν(D,ψ,ζ)
ρ=ρ(D,ψ,ζ)
 これらの関数は、歪み情報と同様にスプライン補間で求めることもできる。つまり、下記のように求めることができる。
Figure JPOXMLDOC01-appb-M000014
 
 ここで注意したいのは、スプライン補間誤差で関数値が定義域を超える可能性がある、ということである。例えば、-1<ρ<1だが、補間で求めるとρ=1.002のような結果になって、楕円が存在しない結果になることがある。この問題の解決法は、ρの代わりにsin-1ρを補間して求め、得られた結果に対してsin演算を行って、ρを求めることが有効である。
 歪みやボヤケのパラメータ以外にも、有用なパラメータをスプライン補間で求めることができる。例えば、主光線のレンズ凸面通過点位置(yconvex,zconvex)、凹面通過点位置(yconcave,zconcave)等が挙げられる。これらのパラメータは、下記のようにして、算出することが可能である。
Figure JPOXMLDOC01-appb-M000015
 
 主光線のレンズ通過点位置は、レンズ特定位置の透過光線を中心視線とするローカル座標系においての歪みやボヤケの分布のシミュレーションに役立つ。
2-9.多次元Bスプライン補間計算の高速化
 1次元スプライン補間は、
Figure JPOXMLDOC01-appb-M000016
 
で表される。ここで、iは各次元の節点番号、Cはその係数、nは標本点数である。N(x)は、i番節点に対応する基底関数であり、階数Mの場合、i番節点とi+M番節点との間の範囲でゼロでない値を持ち、隣接節点間はm-1次多項式で表される(基底関数の局部性のため)。
 言い換えると、xの定義域内の任意点aにおいては、ゼロでない値のN(x)が最多でもM個しか存在しない。
 従って、補間式は一見するとn項あるように見えるが、x=aにおいては実質M項であり、M回の掛け算とM回の足し算でF(a)が得られる。
 3次元スプライン補間は、下記式(8)で表される。
Figure JPOXMLDOC01-appb-M000017
 
ここで、i,j,kは各次元の節点番号であり、それぞれ標本点数だけ変化する。
 つまり、項の数は各次元の標本点数の積になる。しかし、上述の基底関数の局部性により、ある一点については、ゼロでない項の数は、各次元の階数の積である。
 各次元のスプライン階数が4の場合、項の数は4=64である。つまり、一回の補間演算では、足し算を64回、掛け算を64×3=192回行うことになる。
 一般的には、nj次元のM階スプライン補間演算に必要な掛け算の回数は、nj×Mnjであり、次元数が大きくなるにつれて、急激に計算負担が増える。
 ところが、上記式(8)を下記式(9)のように書き直すと、計算回数を若干減らすことができる。
Figure JPOXMLDOC01-appb-M000018
 
 この式(9)は、1次元の補間のネスト構造(入れ子構造)であり、次元の順番は自由に変えることができる。掛け算と足し算は、共に4+4×(4+4×4)=84回であり、ほぼ1/2の計算時間で済む。
 一般的には、nj次元のM階スプライン補間演算に必要な掛け算の回数は、下記式(10)で表される。
Figure JPOXMLDOC01-appb-M000019
 
2-10.まとめ
 3次元CGを利用した動画像シミュレーションの、主に技術的側面について説明した。累進レンズをかけて見えた3次元の外部世界を動画像でシミュレーションするため、計算量は膨大である。
 この膨大な計算量を、スプライン補間とPSFのパラメータ化によって削減することができ、実現可能なレベルまで達成することが可能になる。
 そして、本発明を適用しないでシミュレーションの計算を行った場合と比較して、本発明を適用した場合には、計算に要する時間を1/100~1/1000程度にまで短縮することができる。
 実際に、左右両眼の歪みやボヤケパラメータのスプライン係数データベース事前に準備して、高性能パソコンと画像グラフィックボードを用いてシミュレーション画像を生成した。
 そして、ジャイロを搭載したHMDで、CGの中でリアルタイムウォークスルーを実行したところ、10フレーム/秒の速さで実現することができた。
 上述の実施の形態では、歪みを加える処理では、像側視野内のすべての画素の対応点物体側に求めて、元画像の輝度情報を当てていた。
 また、上述の実施の形態では、ボヤケを加える処理では、各画素の輝度をそのPSFに基づいて周辺画素に“分配”して、画像全画素の輝度を再構成していた。さらにまた、式(1)で表わされる正規分布関数とパラメータを使用していた。
 本発明では、歪みやボケを加える処理の方法は、上述した実施の形態で説明した方法に限定されるものではなく、その他の方法を使用することが可能である。
 そして、本発明は、歪みを加える処理とボケを加える処理とのうち、一方又は両方に、上述した実施の形態で説明した方法以外の方法を使用する構成も含むものである。
 また、上述の実施の形態では、右眼用画像と左眼用画像とをそれぞれ作成して立体視が可能な構成としていた。
 本発明は、右眼用画像或いは左眼用画像のいずれか一方の眼用の画像のみを作成する構成も含む。
 また、本発明では、上述の実施の形態のように、HMD11とモニター16,17の両方への画像表示を行う構成に限定されるものではない。モニターを省略してHMDのみに表示する等、いずれか一方の表示部のみを設けて、その表示部に網膜像を表示する構成としてもよい。
 本発明において、網膜像を表示する表示部は、HMDやモニターに限定されない。また、頭部の動きのセンサーは、ジャイロセンサーに限定されるものではない。
 さらにまた、本発明の視野画像表示方法は、上述の実施の形態のように、視線の方向の変化に対応して歪みやボケを加える処理を行う構成に限定されるものではなく、広い範囲の眼鏡の視野画像表示装置(表示システム)に適用することが可能である。
 例えば、歪みを加える処理と、ボケを加える処理とのうち、一方の処理のみを行う構成の装置(システム)にも本発明を適用することができる。
 本発明は、上述の実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲でその他様々な構成が取り得る。
 11 HMD、15 PC、16,17 モニター、41 眼鏡装用者、42 頭部、43A,43B 主視線、44A,44B 視覚視野、46A,46B 視線通過点、50 眼鏡レンズ

Claims (11)

  1.  累進屈折力レンズを掛けたときに見える網膜像を、シミュレーションによって表示する、眼鏡の視野画像表示装置であって、
     前記累進屈折力レンズを掛けた状態での眼球の視線の方向に対応する視野内の元画像のデータに、前記累進屈折力レンズにおける前記視線の通過点に対応する、ボヤケ及び歪みを加える処理を行うことにより、前記網膜像を作成する画像処理部と、
     前記画像処理部で作成した前記網膜像を表示する、表示部とを有する
     ことを特徴とする眼鏡の視野画像表示装置。
  2.  前記歪みは、像側視野内にてサンプリングした画素に対応する物体側視野内の点において特定される、前記元画像の輝度情報を用いて算出されることを特徴とする請求項1記載の眼鏡の視野画像表示装置。
  3.  前記ボヤケは、物体からの光線が像点を中心に広がる光量分布を表す連続関数によって算出されることを特徴とする請求項1又は請求項2のいずれか1項に記載の眼鏡の視野画像表示装置。
  4.  前記表示部の各画素の輝度が前記連続関数に基づいて周辺画素に分配され、画像の全画素の輝度が再計算されることにより、前記ボヤケを加える処理が行われることを特徴とする請求項3記載の眼鏡の視野画像表示装置。
  5.  像点における広がり、歪み、並びに、ボヤケの程度を表す等確率楕円を含む、下記式(1)で表わされる正規分布関数とパラメータとを使用することにより、前記ボヤケを加える処理が行われることを特徴とする請求項4記載の眼鏡の視野画像表示装置。
    Figure JPOXMLDOC01-appb-M000001
     
    (ここで、μ,νはそれぞれ主光線の座標軸方向からの偏移角であり、σμ,σν,ρは正規分布のパラメータであり、σμ>0,σν>0,-1<ρ<1を満たす。)
  6.  前記パラメータは、一次元のネスト構造により算出されることを特徴とする請求項5記載の眼鏡の視野画像表示装置。
  7.  前記視線の方向は、視線追跡装置及びジャイロセンサーにより特定されることを特徴とする請求項1記載の眼鏡の視野画像表示装置。
  8.  前記表示部がヘッドマウントディスプレイを含み、前記視線追跡装置及び前記ジャイロセンサーが、前記ヘッドマウントディスプレイに搭載されていることを特徴とする請求項7記載の眼鏡の視野画像表示装置。
  9.  累進屈折力レンズを掛けたときに見える網膜像を、シミュレーションによって表示する、眼鏡の視野画像表示方法であって、
     視野内に螺旋状に配置された点群の各点において、表示する前記網膜像を計算する
     ことを特徴とする眼鏡の視野画像表示方法。
  10.  前記螺旋状の配置は、少なくとも2以上の螺旋を含むことを特徴とする請求項9に記載の眼鏡の視野画像表示方法。
  11.  前記螺旋状の配置は、6つの螺旋であることを特徴とする請求項10に記載の眼鏡の視野画像表示方法。
PCT/JP2009/067693 2008-10-17 2009-10-13 眼鏡の視野画像表示装置及び眼鏡の視野画像表示方法 WO2010044383A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/124,536 US20120026183A1 (en) 2008-10-17 2009-10-13 Visual field image display device for eyeglasses and method for displaying visual field image for eyeglasses
JP2010533888A JPWO2010044383A1 (ja) 2008-10-17 2009-10-13 眼鏡の視野画像表示装置及び眼鏡の視野画像表示方法
EP09820561A EP2341388A1 (en) 2008-10-17 2009-10-13 Visual field image display device for eyeglasses and method for displaying visual field image for eyeglasses

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008-269053 2008-10-17
JP2008-269054 2008-10-17
JP2008269053 2008-10-17
JP2008269054 2008-10-17

Publications (1)

Publication Number Publication Date
WO2010044383A1 true WO2010044383A1 (ja) 2010-04-22

Family

ID=42106546

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/067693 WO2010044383A1 (ja) 2008-10-17 2009-10-13 眼鏡の視野画像表示装置及び眼鏡の視野画像表示方法

Country Status (4)

Country Link
US (1) US20120026183A1 (ja)
EP (1) EP2341388A1 (ja)
JP (1) JPWO2010044383A1 (ja)
WO (1) WO2010044383A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010165045A (ja) * 2009-01-13 2010-07-29 Seiko Epson Corp シミュレーション装置、シミュレーションプログラムおよびシミュレーションプログラムを記録した記録媒体
JP2012066002A (ja) * 2010-09-27 2012-04-05 Hoya Corp 眼鏡の視野画像表示装置
WO2013027755A1 (ja) * 2011-08-24 2013-02-28 Hoya株式会社 眼鏡装用シミュレーション方法、プログラム、装置、眼鏡レンズ発注システム及び眼鏡レンズの製造方法
WO2013175923A1 (ja) 2012-05-25 2013-11-28 Hoya株式会社 シミュレーション装置
WO2014030403A1 (ja) 2012-08-20 2014-02-27 Hoya株式会社 シミュレーション装置、シミュレーションシステム、シミュレーション方法及びシミュレーションプログラム
WO2014122834A1 (ja) 2013-02-06 2014-08-14 Hoya株式会社 シミュレーションシステム、シミュレーション装置および商品説明補助方法
WO2017081915A1 (ja) * 2015-11-10 2017-05-18 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
WO2018074528A1 (ja) * 2016-10-20 2018-04-26 株式会社ニコン・エシロール 画像作成装置、画像作成方法、画像作成プログラム、眼鏡レンズの設計方法および眼鏡レンズの製造方法
WO2019138515A1 (ja) * 2018-01-11 2019-07-18 株式会社ニコン・エシロール 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10275933B2 (en) * 2013-05-24 2019-04-30 Thomson Licensing Method and apparatus for rendering object for multiple 3D displays
DE102014116665A1 (de) * 2014-09-22 2016-03-24 Carl Zeiss Ag Verfahren und Vorrichtung zur Bestimmung der Augenrefraktion
EP3006991A1 (en) * 2014-10-08 2016-04-13 Essilor International (Compagnie Generale D'optique) Method for determining a lens design of an optical lens adapted to a wearer

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000047154A (ja) * 1998-07-28 2000-02-18 Seiko Epson Corp 眼鏡の視野体験装置、眼鏡の視野体験方法及び記録媒体
JP2002045336A (ja) * 2000-05-22 2002-02-12 Hoya Corp 眼光学系のシミュレーション方法及び装置
JP2005261690A (ja) * 2004-03-19 2005-09-29 Pentax Corp 眼鏡装用シミュレーションシステム、および画像生成方法
JP3893760B2 (ja) 1998-07-28 2007-03-14 セイコーエプソン株式会社 眼鏡の視野体験装置、眼鏡の視野体験方法及び記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1158338B1 (en) * 2000-05-22 2006-03-01 Hoya Corporation Method for simulating an ocular optical system and apparatus therefor
WO2006064751A1 (ja) * 2004-12-16 2006-06-22 Matsushita Electric Industrial Co., Ltd. 複眼撮像装置
JP4609581B2 (ja) * 2008-03-26 2011-01-12 セイコーエプソン株式会社 シミュレーション装置、シミュレーションプログラムおよびシミュレーションプログラムを記録した記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000047154A (ja) * 1998-07-28 2000-02-18 Seiko Epson Corp 眼鏡の視野体験装置、眼鏡の視野体験方法及び記録媒体
JP3893760B2 (ja) 1998-07-28 2007-03-14 セイコーエプソン株式会社 眼鏡の視野体験装置、眼鏡の視野体験方法及び記録媒体
JP2002045336A (ja) * 2000-05-22 2002-02-12 Hoya Corp 眼光学系のシミュレーション方法及び装置
JP2005261690A (ja) * 2004-03-19 2005-09-29 Pentax Corp 眼鏡装用シミュレーションシステム、および画像生成方法

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010165045A (ja) * 2009-01-13 2010-07-29 Seiko Epson Corp シミュレーション装置、シミュレーションプログラムおよびシミュレーションプログラムを記録した記録媒体
JP2012066002A (ja) * 2010-09-27 2012-04-05 Hoya Corp 眼鏡の視野画像表示装置
WO2013027755A1 (ja) * 2011-08-24 2013-02-28 Hoya株式会社 眼鏡装用シミュレーション方法、プログラム、装置、眼鏡レンズ発注システム及び眼鏡レンズの製造方法
JPWO2013027755A1 (ja) * 2011-08-24 2015-03-19 Hoya株式会社 眼鏡装用シミュレーション方法、プログラム、装置、眼鏡レンズ発注システム及び眼鏡レンズの製造方法
US9629539B2 (en) 2011-08-24 2017-04-25 Hoya Corporation Eyeglasses-wearing simulation method, program, device, eyeglass lens-ordering system and eyeglass lens manufacturing method
US9967555B2 (en) 2012-05-25 2018-05-08 Hoya Corporation Simulation device
WO2013175923A1 (ja) 2012-05-25 2013-11-28 Hoya株式会社 シミュレーション装置
WO2014030403A1 (ja) 2012-08-20 2014-02-27 Hoya株式会社 シミュレーション装置、シミュレーションシステム、シミュレーション方法及びシミュレーションプログラム
WO2014122834A1 (ja) 2013-02-06 2014-08-14 Hoya株式会社 シミュレーションシステム、シミュレーション装置および商品説明補助方法
US10032297B2 (en) 2013-02-06 2018-07-24 Hoya Corporation Simulation system, simulation device, and product explanation assistance method
WO2017081915A1 (ja) * 2015-11-10 2017-05-18 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
WO2018074528A1 (ja) * 2016-10-20 2018-04-26 株式会社ニコン・エシロール 画像作成装置、画像作成方法、画像作成プログラム、眼鏡レンズの設計方法および眼鏡レンズの製造方法
JPWO2018074528A1 (ja) * 2016-10-20 2019-09-26 株式会社ニコン・エシロール 画像作成装置、画像作成方法、画像作成プログラム、眼鏡レンズの設計方法および眼鏡レンズの製造方法
US10958898B2 (en) 2016-10-20 2021-03-23 Nikon-Essilor Co., Ltd. Image creation device, method for image creation, image creation program, method for designing eyeglass lens and method for manufacturing eyeglass lens
JP7078540B2 (ja) 2016-10-20 2022-05-31 株式会社ニコン・エシロール 画像作成装置、画像作成方法、画像作成プログラム、眼鏡レンズの設計方法および眼鏡レンズの製造方法
WO2019138515A1 (ja) * 2018-01-11 2019-07-18 株式会社ニコン・エシロール 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム
CN111587397A (zh) * 2018-01-11 2020-08-25 株式会社尼康依视路 图像生成装置、眼镜片选择***、图像生成方法以及程序
JPWO2019138515A1 (ja) * 2018-01-11 2021-01-28 株式会社ニコン・エシロール 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム
CN111587397B (zh) * 2018-01-11 2022-09-06 株式会社尼康依视路 图像生成装置、眼镜片选择***、图像生成方法以及程序
JP7241702B2 (ja) 2018-01-11 2023-03-17 株式会社ニコン・エシロール 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム

Also Published As

Publication number Publication date
JPWO2010044383A1 (ja) 2012-03-15
EP2341388A1 (en) 2011-07-06
US20120026183A1 (en) 2012-02-02

Similar Documents

Publication Publication Date Title
WO2010044383A1 (ja) 眼鏡の視野画像表示装置及び眼鏡の視野画像表示方法
JP3342423B2 (ja) 眼光学系のシミュレーション装置
JP6014038B2 (ja) 眼鏡装用シミュレーション方法、プログラム、装置、眼鏡レンズ発注システム及び眼鏡レンズの製造方法
US9785306B2 (en) Apparatus and method for designing display for user interaction
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
CA2629903C (en) Ophthalmic lens simulation system and method
JP6023801B2 (ja) シミュレーション装置
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
JP5632245B2 (ja) 眼鏡の視野画像表示装置
JP6276691B2 (ja) シミュレーション装置、シミュレーションシステム、シミュレーション方法及びシミュレーションプログラム
US11860455B2 (en) Modular prescription augmented reality display
JP2009230699A (ja) シミュレーション装置、シミュレーションプログラムおよびシミュレーションプログラムを記録した記録媒体
KR100514241B1 (ko) 안경렌즈의 양안 성능 평가방법, 그 성능의 표시방법과,표시장치
JP3825654B2 (ja) 眼光学系のシミュレーション方法及び装置
CN108881892B (zh) 用于桌面式虚拟现实***的防眩晕方法、***
EP1330785A2 (en) Dynamic depth-of-field emulation based on eye-tracking
CN108471939A (zh) 一种潘弄区测量方法、装置以及可穿戴显示设备
WO2022138073A1 (ja) 画像生成装置、頭部装着表示装置、画像生成方法、及びプログラム
JP2008176522A (ja) デフォーカス画像の生成方法及び生成装置
Zhdanov et al. Adaptive vergence reconstruction method for mixed reality systems
CN115480410A (zh) 基于透镜阵列的图像处理方法及图像处理装置
JP2022050768A (ja) 要素画像群生成装置及びそのプログラム
JP2003052633A (ja) 眼光学系のシミュレーション装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09820561

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010533888

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2009820561

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13124536

Country of ref document: US