WO2024029359A1 - 眼科装置 - Google Patents

眼科装置 Download PDF

Info

Publication number
WO2024029359A1
WO2024029359A1 PCT/JP2023/026594 JP2023026594W WO2024029359A1 WO 2024029359 A1 WO2024029359 A1 WO 2024029359A1 JP 2023026594 W JP2023026594 W JP 2023026594W WO 2024029359 A1 WO2024029359 A1 WO 2024029359A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
gesture input
eye
examiner
control unit
Prior art date
Application number
PCT/JP2023/026594
Other languages
English (en)
French (fr)
Inventor
健 大宮
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Publication of WO2024029359A1 publication Critical patent/WO2024029359A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters

Definitions

  • the present disclosure relates to an ophthalmological device.
  • Patent Document 1 there has been known an ophthalmological apparatus that includes a touch panel including a detection surface capable of detecting a touch operation and acquires information about a subject's eye in response to an operation on the touch panel (see, for example, Patent Document 1).
  • the ophthalmologic apparatus described in Patent Document 1 includes a strip-shaped first operation area extending along the right edge of the detection surface of the touch panel from the upper end to the lower end of the detection surface, and a strip-shaped first operation region extending from the upper end to the lower end along the left edge of the detection surface.
  • a second operation area is provided, and the value of the optometry parameter can be changed in accordance with a drag operation to the first operation area and the second operation area.
  • the ophthalmological apparatus described in Patent Document 1 has improved operability, and the examiner operates the touch panel while checking the patient's facial expression and the condition of the patient's eye without visually checking the touch panel screen. It becomes possible to do so. Thus, it is desired to develop a technique that can more efficiently acquire information about the eye to be examined with simpler operations.
  • the present disclosure has been made in view of the above circumstances, and aims to provide an ophthalmologic apparatus that can more efficiently acquire information about the eye to be examined with a simpler operation.
  • an ophthalmologic apparatus of the present disclosure includes an information acquisition unit used to acquire information about the eye to be examined, and a touch panel display screen on which an operation screen for operating the information acquisition unit is displayed.
  • the information acquisition device includes a display unit, and a control unit that controls the information acquisition unit based on input information including a touch operation on the display screen.
  • the control unit operates in a normal input mode in which the information acquisition unit is controlled based on the input information on the operation screen, and in a normal input mode in which the information acquisition unit is controlled based on the input information by gesture input on a gesture input area provided on the display screen. and a gesture input mode for controlling the parts.
  • FIG. 1 is a perspective view showing the overall configuration of an ophthalmologic apparatus according to a first embodiment.
  • FIG. 2 is a block diagram showing the configuration of a control system of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 2 is a diagram showing a detailed configuration of a right eye measurement optical system of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 3B is a diagram schematically showing a cross-sectional view of the field lens of FIG. 3A.
  • FIG. 3B is a diagram schematically showing a cross-sectional view of the conical prism of FIG. 3A.
  • FIG. 3 is a diagram showing an example of an operation screen displayed on the display unit of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 7 is an explanatory diagram for explaining an example and a modified example of gesture input to the gesture input area of the display unit.
  • FIG. 3 is an explanatory diagram for explaining an example of gesture input to a gesture input area of a display unit.
  • FIG. 3 is an explanatory diagram for explaining an example of gesture input to a gesture input area of a display unit.
  • FIG. 7 is an explanatory diagram for explaining a modified example of gesture input to the gesture input area of the display unit.
  • FIG. 7 is an explanatory diagram for explaining a modified example of gesture input to the gesture input area of the display unit.
  • FIG. 7 is an explanatory diagram for explaining a modified example of gesture input to the gesture input area of the display unit.
  • FIG. 7 is an explanatory diagram for explaining a modified example of gesture input to the gesture input area of the display unit. It is a flowchart which shows an example of operation of the ophthalmological apparatus concerning a 1st embodiment.
  • FIG. 7 is an explanatory diagram for explaining gesture input by the examiner controller used in the ophthalmologic apparatus according to the second embodiment. It is a perspective view showing the whole composition of an ophthalmologic device concerning a 3rd embodiment.
  • FIG. 7 is an explanatory diagram for explaining an example of a subjective test operation screen displayed on the display unit of the ophthalmologic apparatus according to the third embodiment.
  • the ophthalmologic apparatus 100 of the first embodiment is a binocular open type ophthalmologic apparatus that can measure the characteristics of the subject's eyes E simultaneously with both eyes open. Note that the ophthalmological apparatus 100 of this embodiment can also perform examinations on one eye at a time by shielding one eye or turning off the fixation target. Further, the ophthalmological apparatus is not limited to a binocular open type, and the present disclosure can also be applied to an ophthalmological apparatus that measures characteristics of each eye.
  • the ophthalmological apparatus 100 of the first embodiment is an apparatus that performs arbitrary subjective tests, and can also perform objective tests.
  • the subjective test the ophthalmological apparatus 100 presents an optotype or the like to the subject at a predetermined presentation position, and obtains a test result based on the subject's response to the optotype or the like.
  • the subjective tests include subjective refraction measurements such as distance vision tests, intermediate vision tests, near vision tests, contrast tests, night vision tests, glare tests, pinhole tests, stereoscopic vision tests, and visual field tests.
  • the ophthalmological apparatus 100 irradiates the eye E with light and measures information (eye characteristics) regarding the eye E based on the detection result of the returned light.
  • This objective test includes measurement for acquiring the characteristics of the eye E to be examined and photographing for acquiring an image of the eye E to be examined. Furthermore, the objective tests used objective refraction measurement (REF measurement), corneal topography (keratometry), intraocular pressure measurement, fundus photography, and optical coherence tomography (hereinafter referred to as "OCT”). Examples include tomographic imaging (OCT imaging) and measurement using OCT.
  • OCT optical coherence tomography
  • the ophthalmologic apparatus 100 of this embodiment mainly includes a main body 10, an examiner controller 27, and a subject controller 28.
  • the main body 10 includes a base 11, an optometry table 12, a support 13, an arm 14, a drive mechanism (drive section) 15, a pair of measurement heads 16, and a forehead rest. 17, and a control section 26.
  • the ophthalmological apparatus 100 acquires information about the eye E of the patient facing the optometry table 12 with the patient's forehead placed on the forehead rest 17 provided between both measurement heads 16. do.
  • FIG. 1 or 2 the ophthalmologic apparatus 100 of this embodiment mainly includes a main body 10, an examiner controller 27, and a subject controller 28.
  • the main body 10 includes a base 11, an optometry table 12, a support 13, an arm 14, a drive mechanism (drive section) 15, a pair of measurement heads 16, and a forehead rest. 17, and a control section 26.
  • the ophthalmological apparatus 100 acquires information about the eye E of the patient facing the optometry table 12 with the patient
  • the X axis, Y axis, and Z axis are taken, and when viewed from the subject, the left and right direction is the X direction, the up and down direction (vertical direction) is the Y direction, and the X direction is The direction perpendicular to the Y direction (the depth direction of the measurement head 16) is defined as the Z direction.
  • the optometry table 12 is a desk on which the examiner controller 27 and the subject controller 28 are placed, as well as items used for optometry, and is supported by the base 11.
  • the optometry table 12 may be supported by the base 11 so that its position (height position) in the Y direction can be adjusted.
  • the support column 13 is supported by the base 11 so as to extend in the Y direction at the rear end of the optometry table 12, and is provided with an arm 14 at its tip.
  • the arm 14 suspends both measurement heads 16 on the optometry table 12 via a drive mechanism 15, and extends from the support 13 toward the front in the Z direction.
  • the arm 14 is movable in the Y direction relative to the support column 13. Note that the arm 14 may be movable in the X direction and the Z direction with respect to the support column 13.
  • a pair of measurement heads 16 are supported by being suspended by a pair of drive mechanisms 15.
  • the measurement heads 16 are provided in pairs to individually correspond to the left and right eyes E of the subject, and in the following, when individually described, they will be referred to as the left eye measurement head 16L and the right eye measurement head 16R. do.
  • the left eye measurement head 16L acquires information about the left eye E of the subject
  • the right eye measurement head 16R acquires information about the right eye E of the subject.
  • the left eye measurement head 16L and the right eye measurement head 16R are configured to be plane symmetrical with respect to a vertical plane located between them in the X direction.
  • Each measurement head 16 is provided with a mirror 18 (18L, 18R) that is a deflection member, and information of the corresponding eye E is acquired through the mirror 18 by a measurement optical system 21, which will be described later.
  • Each measurement head 16 is provided with a measurement optical system 21 (individually referred to as a right eye measurement optical system 21R and a left eye measurement optical system 21L) that acquires eye information of the eye E to be examined. .
  • a measurement optical system 21 (individually referred to as a right eye measurement optical system 21R and a left eye measurement optical system 21L) that acquires eye information of the eye E to be examined. .
  • the detailed configuration of the measurement optical system 21 will be described later.
  • Both measurement heads 16 are movably suspended by a drive mechanism 15 provided on a base suspended from the tip of the arm 14.
  • the drive mechanism 15 includes a left eye drive mechanism 15L that corresponds to the left eye measurement head 16L, and a right eye drive mechanism 15R that corresponds to the right eye measurement head 16R.
  • the left eye drive mechanism 15L includes a left eye vertical drive section 22L, a left eye horizontal drive section 23L, and a left eye X-direction rotation drive section (left eye horizontal rotation drive section) 24L. and a left eye Y-direction rotation drive unit (left eye vertical rotation drive unit) 25L.
  • the right eye drive mechanism 15R includes a right eye vertical drive section 22R, a right eye horizontal drive section 23R, a right eye X direction rotation drive section (right eye horizontal direction rotation drive section) 24R, and a right eye Y direction rotation drive section. It has a drive section (vertical rotation drive section for right eye) 25R.
  • each drive unit corresponding to the left eye measurement head 16L and the configuration of each drive unit corresponding to the right eye measurement head 16R are plane symmetrical with respect to a vertical plane located between the two in the X direction. has been done. In the following, unless mentioned individually, they may simply be referred to as the vertical drive section 22, the horizontal drive section 23, the X-direction rotation drive section 24, and the Y-direction rotation drive section 25. The same applies to other components provided symmetrically in the left and right directions.
  • the drive mechanism 15 has a configuration in which a vertical drive section 22, a horizontal drive section 23, an X-direction rotation drive section 24, and a Y-direction rotation drive section 25 are arranged in this order from the upper side.
  • the vertical drive section 22 is fixed to the base section at the tip of the arm 14, and based on the control signal from the control section 26, the vertical drive section 22 moves the horizontal drive section 23, the X-direction rotation drive section 24, and the Y-direction rotation drive section to the arm 14. 25 in the Y direction (vertical direction).
  • the horizontal drive section 23 is fixed to the vertical drive section 22, and based on the control signal from the control section 26, the horizontal drive section 23 rotates the X direction rotation drive section 24 and the Y direction rotation drive section 25 with respect to the vertical drive section 22 in the X direction and the Y direction rotation drive section 23. Move in the Z direction (horizontal direction).
  • the vertical drive section 22 and the horizontal drive section 23 are provided with an actuator that generates a driving force, such as a pulse motor, and a transmission mechanism that transmits the driving force, such as a combination of gears or a rack and pinion. It consists of
  • the horizontal drive unit 23 can be easily constructed by providing a combination of actuators and transmission mechanisms separately in the X direction and the Z direction, for example, and can easily control movement in the horizontal direction.
  • the X-direction rotation drive section 24 is connected to the horizontal drive section 23. Based on the control signal from the control unit 26, the X-direction rotation driving unit 24 moves the corresponding measuring head 16 and Y-direction rotation driving unit 25 to the horizontal driving unit 23 at the eyeball rotation point O of the corresponding eye E. (See FIG. 3) The eyeballs are rotated in the X direction (horizontal direction) about a pair of left and right vertical eyeball rotation axes that extend in the vertical direction (Y direction).
  • the Y direction rotation drive section 25 is connected to the X direction rotation drive section 24.
  • a measuring head 16 is suspended from this Y-direction rotation driving section 25 .
  • the Y-direction rotation drive unit 25 moves the corresponding measurement head 16 to the X-direction rotation drive unit 24 in a horizontal direction (
  • the eyeballs are rotated in the Y direction (vertical direction, up and down direction) about a pair of left and right horizontal eyeball rotation axes extending in the X direction.
  • the X-direction rotation drive unit 24 and the Y-direction rotation drive unit 25 may have a configuration in which, for example, a transmission mechanism that receives a driving force from an actuator moves along an arcuate guide groove. By aligning the center position of each guide groove with the pair of horizontal eyeball rotation axes and the pair of vertical eyeball rotation axes, the X-direction rotation drive unit 24 and the Y-direction rotation drive unit 25 can rotate The measurement head 16 can be rotated about the eyeball rotation axis and a pair of vertical eyeball rotation axes.
  • the X-direction rotation drive unit 24 supports the Y-direction rotation drive unit 25 and the measurement head 16 so as to be rotatable around a rotation axis provided therein, and also cooperates with the horizontal drive unit 23 to rotate the measurement head 16. It can also be configured to rotate while changing the supporting position.
  • the Y-direction rotation drive section 25 supports the measurement head 16 so as to be rotatable around a rotation axis provided therein, and also cooperates with the vertical drive section 22 to rotate the measurement head 16 while changing its supporting position. It is also possible to have a configuration in which the
  • the drive mechanism 15 can move each measurement head 16 individually or in conjunction with each other in the X direction, Y direction, and Z direction, and can also move the measurement head 16 in the vertical eyeball rotation axis and horizontal eyeball axis of the eye E to be examined. It can be rotated in the X direction and the Y direction around the rotation axis.
  • each of the drive units 22 to 25 of the drive mechanism 15 is driven to move and rotate each measurement head 16 in response to a control signal from the control unit .
  • the examiner who is the examiner, can manually drive each of the drive units 22 to 25 to move and rotate each measuring head 16.
  • the left eye X-direction rotation drive section 24L and the right eye X-direction rotation drive section 24R rotate the left eye measurement head 16L and the right eye measurement head 16R in the X direction (horizontal direction).
  • the eye E to be examined can be made to diverge (divergent movement) or converge (convergence movement).
  • the left eye Y direction rotation drive unit 25L and the right eye Y direction rotation drive unit 25R rotate the left eye measurement head 16L and the right eye measurement head 16R in the Y direction (vertical direction).
  • the line of sight of the eye E to be examined can be directed downward or returned to its original position.
  • the subject can perform divergence motion and convergence motion tests, and perform binocular viewing from a distance test at a far point distance to a near vision test at a near point distance.
  • Various characteristics of both eyes E can be measured by performing tests at various test distances.
  • the examiner controller 27 is a device used by the examiner, who is the operator, to operate the ophthalmological apparatus 100.
  • the examiner controller 27 is an information processing device including a computer having a CPU, a storage device, and the like.
  • the examiner controller 27 of the first embodiment is composed of a tablet terminal. Note that the examiner controller 27 is not limited to a tablet terminal, but can also be a smartphone or other portable information terminal, a notebook personal computer, a desktop personal computer, etc. It can also be a dedicated controller.
  • the examiner controller 27 is configured to be portable. The examiner may operate the examiner controller 27 while it is placed on the optometry table 12, or may hold it in his/her hand.
  • the examiner controller 27 includes a display section (display panel) 30 consisting of a touch panel display.
  • the display unit 30 includes a display screen 30a on which images and the like are displayed, and a touch panel type input unit 30b arranged to overlap with the display screen 30a.
  • the display unit 30 itself is an input unit, and the display screen 30a of the display unit 30 functions as an input unit 30b that accepts input operations including touch operations from the examiner.
  • the input unit 30b also functions as a detection surface that detects a touch operation by an examiner's finger, stylus, or the like.
  • the examiner controller 27 is capable of short-range communication with the control unit 26 using communication means such as short-range wireless.
  • the examiner controller 27 controls the operator's operation screen (for example, the subjective test operation screen 40 in FIG. 4) and the image sensor 159 of the measurement optical system 21, which will be described later, based on the display control signal sent from the control unit 26.
  • a predetermined screen or image, such as the anterior eye segment image E' obtained in step 1, is displayed on the display screen 30a.
  • the examiner controller 27 also accepts an operation input such as a touch operation by the examiner on the display screen 30a (input section 30b), and sends input information (control signal) corresponding to this operation input to the control section 26.
  • a touch operation performed on the display screen 30a (input section 30b) will be described.
  • a touch operation will be described as an operation performed by touching the display screen 30a (input section 30b), but it is possible to perform a touch operation at a position near the display screen 30a (a predetermined distance away from the display screen 30a) without touching the display screen 30a. ).
  • the touch operation includes, for example, a pinch-in operation, a pinch-out operation, a flick operation, a tap operation, a drag operation, a swipe operation, etc. on the display screen 30a (input unit 30b).
  • the pinch-in operation is an operation in which the examiner brings two fingers close to each other while touching the display screen 30a.
  • the pinch-out operation is an operation in which the examiner moves two fingers apart while touching the display screen 30a.
  • the flick operation is an operation in which the examiner touches the display screen 30a in a sweeping motion.
  • the tap operation is an operation in which the examiner taps the display screen 30a.
  • the drag operation is an operation in which the examiner touches the display screen 30a while dragging the touch point to another point while touching the operation surface.
  • the swipe operation is an operation in which the examiner touches the display screen 30a in a sweeping manner.
  • the input unit 30b detection unit detects a touch operation using a detection method such as a capacitance method, a resistive film method, or a surface acoustic wave method.
  • the above-mentioned touch operation may be a touch operation performed with one finger (hereinafter sometimes referred to as “single touch operation”), or a touch operation performed with multiple fingers of 2 or more and 10 or less (hereinafter referred to as “single touch operation”). , sometimes referred to as "multi-touch operation”).
  • the display screen 30a (input section 30b) has a gesture input area 30c.
  • This gesture input area 30c may be at least a part of the display screen 30a (input section 30b).
  • the gesture input area 30c may be a half area of the display screen 30a, such as the upper half, the lower half, the right half, or the left half of the display screen 30a, or may be a wider area than the half, It is more preferable to cover the entire surface of the display screen 30a.
  • the entire surface of the display screen 30a may be substantially the entire surface, but it only needs to be substantially the entire surface.
  • an icon area for displaying a predetermined icon to be visually operated is provided near the edge (at least one of the left edge, right edge, top edge, and bottom edge) of the display screen 30a, and the gesture input area 30c is located in this icon area. It may be an area other than the above. Then, the examiner can visually operate the icons in the icon area and perform gesture input by blind touching in the gesture input area 30c.
  • the display screen 30a may be divided vertically or horizontally to provide two gesture input areas 30c. Thereby, the examiner can input gestures related to the left eye test in one gesture input area 30c, and perform gesture inputs related to the right eye test in the other gesture input area 30c.
  • the ophthalmological apparatus 100 has a "normal input mode” and a "gesture input mode” as input modes for the display screen 30a (input unit 30b).
  • the control unit 26 controls the ophthalmological apparatus 100 based on input information by a touch operation on the operation screen displayed on the display screen 30a of the display unit 30 (for example, the operation screen 40 for subjective examination in FIG. 4). This mode controls each part of the .
  • the "gesture input mode” is a mode in which the control unit 26 controls each part of the ophthalmological apparatus 100 based on input information by gesture input to the gesture input area 30c.
  • the display screen 30a (input section 30b) functions as a gesture input area 30c. The procedure for switching to each input mode and the operation of the ophthalmological apparatus 100 under control of the control unit 26 in each input mode will be described later.
  • the examiner controller 27 displays an operation screen by the examiner on the display screen 30a. Furthermore, the optotype presented to the eye E by the optotype chart 143 may be displayed toward the examiner on the display screen 30a.
  • the examiner controller 27 also accepts input operations such as touch operations on icons displayed on the operation screen, pop-up screens, etc. by the examiner, and sends input information (control signals) corresponding to the input operations to the control unit 26. do.
  • the examiner controller 27 accepts an input operation by gesture input to the gesture input area 30c, and sends input information (control signal) corresponding to the input operation to the control unit 26.
  • "Gesture input” in this embodiment means the following operations (1) and (2) on the gesture input area 30c, but is not limited to this, and can also be used as either one of (1) or (2). good.
  • Directional touch operation is an operation in which the examiner moves his or her finger while touching the display screen 30a, such as pinch-in operation, pinch-out operation, flick operation, drag operation, swipe operation, etc. Can be mentioned.
  • This "directional touch operation” may be a single touch operation using one finger or a multi-touch operation using multiple fingers.
  • a “touch operation without directionality” is an operation in which the examiner briefly touches the display screen 30a without moving the finger, and includes, for example, a tap operation performed as if tapping the display screen 30a. Therefore, (2) "multi-touch operation without directionality” includes a tap operation performed using multiple fingers. Note that touch operations other than (1) and (2), that is, “single touch operations without directionality" are recognized by the control unit 26 as normal input operations in the normal input mode.
  • the subject controller 28 is a device used by the subject to respond when acquiring various eye information about the subject's eye E.
  • the subject controller 28 includes, for example, a keyboard, a mouse, a joystick, a touch pad, a touch panel, and the like.
  • the patient controller 28 is connected to the control unit 26 via a wired or wireless communication path, and controls input information (control signals) according to operations performed on the patient controller 28. 26.
  • the measurement optical system 21L for the left eye and the measurement optical system 21R for the right eye are a visual acuity test device that performs a visual acuity test while switching the optotype to be presented, and a visual acuity test device that performs a visual acuity test while switching the visual target to be presented, and a visual acuity test device that measures the appropriate corrective refractive power of the eye E while switching and arranging a corrective lens.
  • a phoropter to obtain images
  • a refractometer and wavefront sensor to measure refractive power
  • a fundus camera to take images of the fundus
  • a tomography device to take tomographic images of the retina
  • a specular microscope to take images of the corneal endothelium
  • a corneal shape to be measured.
  • a keratometer for measuring intraocular pressure, a tonometer for measuring intraocular pressure, and the like may be used alone or in combination.
  • FIG. 3A is a diagram showing the detailed configuration of the right eye measurement optical system 21R in the ophthalmologic apparatus 100 of this embodiment.
  • the mirror 18R is omitted.
  • the configuration of the left eye measurement optical system 21L is the same as the right eye measurement optical system 21R, so a description thereof will be omitted, and only the right eye measurement optical system 21R will be described below.
  • the ophthalmological apparatus 100 includes a Z alignment system 110, an XY alignment system 120, and a keratometry system as an optical system (measurement optical system 21) for testing the subject's eye E. 130, an optotype projection system 140, an anterior segment observation system 150, a reflex measurement projection system 160, and a reflex measurement light receiving system 170.
  • the anterior segment observation system 150 takes a video of the anterior segment of the eye E to be examined.
  • the imaging surface of the imaging element 159 is arranged at the pupil conjugate position Q.
  • the anterior segment illumination light source 151 irradiates the anterior segment of the eye E to be examined with illumination light (for example, infrared light).
  • illumination light for example, infrared light.
  • the light reflected by the anterior segment of the eye E to be examined passes through the objective lens 152, the dichroic mirror 153, the half mirror 154, the relay lenses 155 and 156, and the dichroic mirror 157.
  • the light transmitted through the dichroic mirror 157 is imaged by an imaging lens 158 on the imaging surface of an imaging element 159 (area sensor).
  • the image sensor 159 captures images and outputs signals at a predetermined rate.
  • the output (video signal) of the image sensor 159 is input to the control section 26 .
  • the control section 26 causes the anterior eye segment image E' based on this video signal to be displayed on the display screen 30a of the display section 30.
  • the anterior segment image E' is, for example, an infrared moving image.
  • the Z alignment system 110 projects light (infrared light) onto the eye E to perform alignment of the anterior segment observation system 150 in the optical axis direction (anterior-posterior direction, Z direction).
  • the light output from the Z alignment light source 111 is projected onto the cornea of the eye E to be examined, is reflected by the cornea, and is imaged on the sensor surface of the line sensor 113 by the imaging lens 112.
  • the position of the corneal vertex changes in the optical axis direction of the anterior segment observation system 150
  • the light projection position on the sensor surface of the line sensor 113 changes.
  • the control unit 26 determines the position of the corneal apex of the eye E based on the light projection position on the sensor surface of the line sensor 113, and based on this determines the position of the corneal vertex of the eye E, controls the drive mechanism 15 that moves the measurement optical system 21, and performs Z alignment. Execute.
  • the XY alignment system 120 sends light (infrared light) to the subject's eye E for alignment in directions (left-right direction (X direction), up-down direction (Y direction)) orthogonal to the optical axis of the anterior segment observation system 150. irradiate.
  • the XY alignment system 120 includes an XY alignment light source 121 provided in an optical path branched from the anterior eye segment observation system 150 by a half mirror 154. The light output from the XY alignment light source 121 is reflected by the half mirror 154 and projected onto the eye E through the anterior segment observation system 150. Light reflected by the cornea of the eye E to be examined is guided to the imaging device 159 through the anterior segment observation system 150.
  • the control unit 26 causes the anterior segment image E' including the bright spot image and the alignment mark to be displayed on the display screen 30a of the display unit 30.
  • an examiner such as an examiner moves the measurement optical system so as to guide a bright spot image within the alignment mark.
  • the control unit 26 controls the drive mechanism 15 that moves the measurement optical system 21 so that the displacement of the bright spot image with respect to the alignment mark is canceled.
  • the keratometry system 130 projects a ring-shaped light beam (infrared light) onto the cornea for measuring the shape of the cornea of the eye E to be examined.
  • the keratoplate 131 is placed between the objective lens 152 and the eye E to be examined.
  • a kerato ring light source (not shown) is provided on the back side of the kerato plate 131 (on the objective lens 152 side). By illuminating the keratoplate 131 with light from the keratoring light source, a ring-shaped light beam is projected onto the cornea of the eye E to be examined.
  • the reflected light from the cornea of the eye E to be examined (keratling image) is detected by the image sensor 159 together with the anterior segment image E'.
  • the control unit 26 calculates a corneal shape parameter representing the shape of the cornea by performing a known calculation based on this keratoring image.
  • the visual target projection system 140 presents various visual targets such as a fixation target and a visual target for subjective testing to the eye E to be examined.
  • the light (visible light) output from the light source 141 is made into a parallel light beam by the collimating lens 142, and is irradiated onto the optotype chart 143.
  • the optotype chart 143 includes, for example, a transmissive liquid crystal panel, and displays a pattern representing the optotype.
  • the light transmitted through the optotype chart 143 passes through relay lenses 144 and 145, is reflected by a reflecting mirror 146, passes through a dichroic mirror 168, and is reflected by a dichroic mirror 153.
  • the light reflected by the dichroic mirror 153 passes through the objective lens 152 and is projected onto the fundus Ef.
  • the light source 141, collimating lens 142, and optotype chart 143 are movable together in the optical axis direction.
  • the control unit 26 controls the optotype chart 143 by moving the light source 141, collimating lens 142, and optotype chart 143 in the optical axis direction based on the results of the objective measurement.
  • the control unit 26 causes the optotype chart 143 to display the optotype selected by the examiner or the control unit 26 . Thereby, the optotype is presented to the subject.
  • the subject responds to the visual target.
  • the control unit 26 Upon receiving the input of the response content, the control unit 26 performs further control and calculates the subjective test value. For example, in visual acuity measurement, the control unit 26 selects and presents the next optotype based on the response to the Landolt ring, etc., and determines the visual acuity value by repeating this process.
  • the reflex measurement projection system 160 and the reflex measurement light receiving system 170 are used for objective refraction measurement (reflex measurement).
  • the reflex measurement projection system 160 projects a ring-shaped light beam (infrared light) for objective measurement onto the fundus Ef.
  • the reflex measurement light receiving system 170 receives the ring-shaped light beam returning from the eye E to be examined.
  • the reflex measurement light source 161 may be an SLD (Superluminescent Diode) light source, which is a high-intensity light source whose emission diameter is equal to or less than a predetermined size.
  • the reflex measurement light source 161 is movable in the optical axis direction and is arranged at a fundus conjugate position P.
  • the ring diaphragm 165 (specifically, the transparent part) is arranged at the pupil conjugate position Q.
  • the focusing lens 174 is movable in the optical axis direction.
  • the focusing lens 174 may be a known variable focus lens whose focal position can be changed under the control of the control unit 26.
  • the imaging surface of the imaging element 159 is arranged at the fundus conjugate position P.
  • the light output from the reflex measurement light source 161 passes through the relay lens 162 and enters the conical surface of the conical prism 163.
  • the light incident on the conical surface is deflected and exits from the bottom surface of the conical prism 163.
  • the light emitted from the bottom surface of the conical prism 163 passes through a field lens 164 and then through a ring-shaped light-transmitting portion of a ring diaphragm 165 .
  • the light (ring-shaped light beam) that has passed through the transparent portion of the ring diaphragm 165 is reflected by the reflective surface of the apertured prism 166, passes through the rotary prism 167, and is reflected by the dichroic mirror 168.
  • the light reflected by the dichroic mirror 168 is reflected by the dichroic mirror 153, passes through the objective lens 152, and is projected onto the eye E to be examined.
  • the rotary prism 167 is used to average the light intensity distribution of the ring-shaped light beam to blood vessels and diseased areas of the fundus Ef and to reduce speckle noise caused by the light source.
  • the conical prism 163 be placed as close as possible to the pupil conjugate position Q.
  • FIG. 3B schematically shows a cross-sectional view of the field lens 164.
  • a ring diaphragm 165 may be attached to the lens surface of the field lens 164 on the eye E side.
  • a light-shielding film is deposited on the lens surface of the field lens 164 so that a ring-shaped light-transmitting portion is formed.
  • the reflex measurement projection system 160 may have a configuration in which the field lens 164 is omitted.
  • FIG. 3C schematically shows a cross-sectional view of the conical prism 163.
  • a ring diaphragm 165 may be attached to the bottom surface 163b of the conical prism 163, through which the light that has passed through the relay lens 162 enters the conical surface 163a.
  • a light-shielding film is deposited on the bottom surface 163b of the conical prism 163 so that a ring-shaped light-transmitting part is formed.
  • the ring diaphragm may be provided on the conical surface 163a side of the conical prism 163.
  • the ring diaphragm 165 may be a diaphragm in which a transparent portion having a shape corresponding to a predetermined measurement pattern is formed. This diaphragm may have a transparent portion formed at a position eccentric to the optical axis of the reflex measurement projection system 160. Moreover, two or more light-transmitting parts may be formed in the aperture.
  • the return light of the ring-shaped light beam projected onto the fundus Ef passes through the objective lens 152 and is reflected by the dichroic mirror 153 and the dichroic mirror 168.
  • the return light reflected by the dichroic mirror 168 passes through the rotary prism 167, passes through the hole of the apertured prism 166, passes through the relay lens 171, is reflected by the reflection mirror 172, and is then passed through the relay lens 173 and the focusing lens. Pass through 174.
  • the light that has passed through the focusing lens 174 is reflected by a reflecting mirror 175, then reflected by a dichroic mirror 157, and then imaged by an imaging lens 158 on an imaging surface of an imaging element 159.
  • the control unit 26 calculates the refractive power value of the eye E to be examined by performing a known calculation based on the output from the image sensor 159.
  • the refractive power value includes spherical power, astigmatic power, and astigmatic axis angle.
  • a diaphragm is arranged between the apertured prism 166 and the relay lens 171 to limit the diameter of the light beam on the pupil.
  • the transparent portion of this diaphragm is arranged at the pupil conjugate position Q.
  • the control unit 26 controls the reflex measurement light source 161 and the focusing lens 174 so that the fundus Ef, the reflex measurement light source 161, and the imaging surface of the image sensor 159 become optically conjugate. are moved in the optical axis direction. Further, the control unit 26 moves the optotype unit in the optical axis direction in conjunction with the movement of the reflex measurement light source 161 and the focusing lens 174.
  • the optotype unit including the light source 141, collimating lens 142, and optotype chart 143, the reflex measurement light source 161, and the focusing lens 174 may be movable in the respective optical axis directions in conjunction with each other.
  • the optotype displayed on the optotype chart 143 in the subjective test etc. is not particularly limited as long as it is used for optometry, and suitable examples include Landolt ring, Snellen optotype, E chart, etc.
  • optotypes include characters such as hiragana and katakana, pictures of animals and fingers, specific figures for binocular visual function tests such as crosses, and visual targets such as landscape paintings and photographs.
  • Various optotypes can be used, such as markers.
  • the visual target may be a still image or a moving image.
  • the optotype chart 143 includes a liquid crystal panel, so it is possible to display an optotype with a desired shape, form, and contrast at a predetermined examination distance, making it possible to perform a multifaceted and detailed eye examination.
  • the ophthalmological apparatus 100 includes two optotype charts 143 corresponding to the left and right eyes E, the optotypes that provide parallax are arranged in a manner that corresponds to a predetermined examination distance (position where the optotype is presented). This makes it possible to perform stereoscopic examinations easily and precisely with the natural visual axis orientation.
  • control unit 26 of the ophthalmologic apparatus 100 of this embodiment is provided on the base 11 of the main body 10 and centrally controls each unit of the ophthalmological apparatus 100.
  • the control section 26 includes the above-mentioned left eye measurement optical system 21L, right eye measurement optical system 21R, left eye vertical drive section 22L of the left eye drive mechanism 15L, and left eye measurement optical system 21L.
  • the control unit 26 includes an internal memory 26a, and is capable of short-range communication with the examiner controller 27 and the examinee controller 28 via communication means such as short-range wireless. Further, the control unit 26 responds to operations on the examiner controller 27 and the examinee controller 28 as appropriate by deploying a program stored in the connected storage unit 29 or built-in internal memory 26a on, for example, RAM. The operation of the ophthalmological apparatus 100 is controlled in an integrated manner.
  • the internal memory 26a is composed of a RAM, etc.
  • the storage section 29 is composed of a ROM, an EEPROM, etc.
  • control unit 26 controls each unit of the ophthalmological apparatus 100 based on operation inputs made to the display screen 30a of the display unit 30. As described above, the control unit 26 has a "normal input mode” and a “gesture input mode.”
  • FIG. 4 is a diagram showing an example of the operation screen 40 for the subjective test.
  • This operation screen 40 for subjective testing includes a correction value setting area 41 in which correction values such as sphericity (S), astigmatism power (C), astigmatism axis (A), and addition power (ADD) of the eye E to be examined are set;
  • An examination distance setting area 42 where an examination distance is set, an optotype icon 43 where an optotype is selected, an optotype display area 44 where the selected optotype is displayed, and an anterior segment image E' captured by the image sensor 159. It has an anterior segment image display area (optometry window) 45 where is displayed, various operation buttons 46, etc.
  • the correction value setting area 41 for example, a value measured by an objective test is set as an initial value.
  • a desired correction value in the correction value setting area 41 single touch operation
  • a list of correction values is displayed as a pop-up screen.
  • the examiner can change the correction value by selecting a desired correction value from the pop-up screen and performing a tap operation.
  • the control unit 26 displays the changed correction value in the correction value setting area 41 and controls the measurement optical system 21 based on the changed correction value.
  • the operation screen 40 for subjective testing also has a display area for PD values (pupillary distance), VD values (corneal vertex distance), etc., and a screen for red/green testing.
  • control unit 26 when the control unit 26 recognizes that the input information input from the examiner controller 27 is either "directional touch operation" or “non-directional multi-touch operation," the control unit 26 selects an input mode. Switch to "gesture input mode”. Then, the control unit 26 controls each unit of the ophthalmological apparatus 100 based on information input by gesture input to the gesture input area 30c provided on the display screen 30a.
  • the left diagram of FIG. 5 is an explanatory diagram for explaining an example of a gesture input for switching the eye E to be examined between the right eye and the left eye.
  • the examiner performs a gesture input (eg, swipe operation in a semicircular manner) in the gesture input area 30c of the display screen 30a.
  • a gesture input eg, swipe operation in a semicircular manner
  • the examiner can input operations such as switching the eye E to be examined and changing the setting values set in the measurement head 16, for example.
  • Such gesture input can be suitably used, for example, when testing the left eye and right eye sequentially.
  • the examiner can perform gesture input using the entire gesture input area 30c, improving operability.
  • the right diagram of FIG. 5 is an explanatory diagram for explaining a modification in which the gesture input area 30c is divided into left and right halves.
  • the examiner can change the setting value of the right eye measurement head 16R by inputting a gesture to the left area, and can change the setting value of the left eye measurement head 16L by inputting a gesture to the right area.
  • the reason for this configuration is that the anterior segment image E' of the left eye photographed by the imaging device 159 of the left eye measurement head 16L with the left and right sides of the examiner as reference points is, for example, The anterior eye image E' of the right eye, which is displayed in the anterior eye image display area 45 on the right side of This corresponds to being displayed in the anterior segment image display area 45.
  • the examiner may perform gesture input for the left eye in the left region of the gesture input region 30c, and perform gesture input for the right eye in the right region.
  • the gesture input area 30c As described above, by dividing the gesture input area 30c into left and right sides corresponding to the left eye and the right eye, it is possible to provide a pair of measurement heads 16L and 16R as in the present embodiment, so that one eye or both eyes can be simultaneously
  • the present invention can be suitably used to control the ophthalmological apparatus 100 that can be inspected. Therefore, the examiner can more appropriately perform operation input for testing with one eye or both eyes.
  • the left diagram and the center diagram of FIG. 6 are explanatory diagrams for explaining an example of gesture input for instructing to open and close the subject's eye E.
  • the examiner performs a circular swipe operation with two fingers (multi-touch) on the gesture input area 30c to block one eye E to be examined. You can input instructions for testing with one eye.
  • Can input operation instructions for cancellation can be suitably used when performing a single-eye test and a binocular test in succession, and the examiner can efficiently switch the eye E to be tested.
  • the right side of the paper in FIG. 6 is an explanatory diagram for explaining an example of gesture input for instructing initial settings.
  • the examiner can input an initial setting (reset) instruction by performing a Z-shape swipe operation on the gesture input area 30c.
  • the initial setting (reset) process includes, for example, returning the correction value changed on the subjective test operation screen 40 etc. to the correction value at the time of the objective test, returning the correction value to the correction value of glasses, etc. currently in use, Examples include returning to the previously determined correction value, returning to the default value at the time of shipment, and returning the measuring head 16 that has been moved or rotated in the XYZ directions by the drive mechanism 15 to its initial position.
  • it is not limited to these.
  • FIG. 7 is an explanatory diagram for explaining an example of gesture input for changing the spherical power (S), astigmatic power (V), and astigmatic axis (A).
  • the examiner can issue an instruction to increase the sphericity (Up) by performing a single-touch swipe operation upward or downward on the gesture input area 30c. You can input operations and input instructions to lower (Down).
  • the examiner performs a single-touch swipe operation to the right or left on the gesture input area 30c, thereby inputting an instruction to increase the astigmatism power.
  • the examiner adjusts the angle of the astigmatism axis by performing a multi-touch swipe operation with two fingers each upward or downward on the gesture input area 30c. You can input operations for raising instructions and lowering instructions.
  • the examiner can easily change the spherical power, astigmatic power, and astigmatic axis of the eye E to be examined by swiping in a predetermined direction, and can test the eye E more efficiently.
  • the control unit may increase or decrease the correction value by one unit (for example, 0.25, 0.50, etc. in the case of spherical power) each time the control unit recognizes the operation input by swiping each correction value.
  • the correction value may be increased or decreased depending on the length of the swipe operation (the length of the touch on the display screen 30a) (for example, in the case of spherical power, if it is short, it is 0.25, if it is long, it is 0.50 or 1.00, etc.). The same applies to the following modified examples.
  • FIG. 8 is an explanatory diagram for explaining a modification of gesture input for changing the spherical power, astigmatic power, and astigmatic axis.
  • the gesture input area 30c is divided into left and right halves.
  • the examiner inputs operation inputs for changing the spherical power, astigmatism power, and astigmatism axis of one eye E (for example, the right eye) in the left area, and inputs instructions for changing the spherical power, astigmatism power, and astigmatism axis of one eye E (for example, the right eye), and inputs operation inputs for the other eye E (for example, the left eye) in the right area.
  • FIGS. 9 to 11 are explanatory diagrams for explaining modified examples of gesture input for changing the spherical power, astigmatic power, and astigmatic axis.
  • Gesture input that is different from the example in FIG. 7 will be described below.
  • the operation input for changing the spherical power and astigmatic power is the same as in the example shown in FIG.
  • input an instruction to change the astigmatism axis is shown on the right side of the paper in FIG.
  • the operation input for changing the spherical power is the same as in the example shown in FIG.
  • the examiner can input an instruction to change the astigmatism axis by performing a multi-touch swipe operation with two fingers in the left or right direction.
  • the examiner By performing a swipe operation, you can input an instruction to change the spherical power.
  • the examiner performs a multi-touch swipe operation using two fingers to draw a semicircle upward or downward on the gesture input area 30c. , you can input an instruction to change the astigmatism power.
  • the examiner can instruct the astigmatism axis to change by performing a multi-touch swipe operation with three fingers in a semicircular manner upward or downward. You can perform operation input.
  • the examiner may perform large gesture input using the entire gesture input area 30c (each area when divided into left and right areas), or may perform gesture input using only a portion of the gesture input area 30c. You may also perform small gesture input using .
  • Gesture input is a directional touch operation or a non-directional multi-touch operation, so no matter which region of the gesture input area 30c the gesture input is performed, the control unit 26 determines whether it is a gesture input or a normal input. be able to operate each part by properly recognizing the Further, by enabling operational input through gesture input as shown in FIGS. 5 to 11, the examiner can operate the ophthalmologic apparatus 100 with a so-called blind touch without visually checking the display screen 30a.
  • the examiner has the examinee sit on a chair or the like, face the ophthalmologic apparatus 100, and place the examinee's forehead on the forehead rest part 17. Then, at the timing when a sensor or the like detects that the subject has placed his or her forehead on the forehead rest part 17, or at the timing when the examiner gives a photographing instruction from the operation screen, the operation shown in the flowchart of FIG. 12 is started. Ru.
  • step S1 the control unit 26 controls the anterior segment observation system 150 provided in the left and right measurement optical systems 21 to start photographing the anterior segment of the left and right eyes E to be examined.
  • the control unit 26 controls the display unit 30 of the examiner controller 27 to display left and right anterior segment images (frontal images) E' based on image signals output from the image sensor 159 of the anterior segment observation system 150. , is displayed on the display screen 30a.
  • the examiner performs an operation input to start alignment from the input section 30b of the examiner controller 27.
  • the control unit 26 which has received the input information (control signal) corresponding to this operation input, controls the visual target projection system 140 to place a fixation target (for example, a point light source) at the center position of the visual target chart 143 in step S2.
  • a fixation target for example, a point light source
  • a visual target is displayed and presented to the eye E to be examined. In this state, the examiner instructs the subject to fixate the fixation target.
  • the Z alignment system 110 aligns the measurement head 16 in the Z direction by the operation described above under the control of the control unit 26.
  • an XY alignment system 120 aligns the measurement head 16 in the X and Y directions.
  • the control unit 26 controls the left and right measurement optical systems 21 to perform the objective test based on the operator's operational input of an objective test instruction from the input unit 30b (or automatically). Let it happen.
  • the objective test include corneal shape (kerato) measurement using the keratometry system 130, eye refractive power (reflex) measurement using the reflex measurement projection system 160 and the reflex measurement light receiving system 170, and the like.
  • the control unit 26 controls the display unit 30 to perform the subjective test operations shown in FIG.
  • the screen 40 is displayed on the display screen 30a.
  • the display unit 30 displays the correction value measured in the objective test in the correction value setting area 41 of the subjective test operation screen 40, and also displays the test distance, PD value, left and right anterior segment images E', etc. indicate.
  • the examiner can tap the test distance setting area 42 on the subjective test operation screen 40 to change the test distance, or tap the optotype icon 43 to select the optotype to be presented to the eye E to be examined. .
  • the examiner taps one of the anterior eye segment images E' displayed in the anterior eye segment image display area 45 of the subjective test operation screen 40, or performs a tap operation as shown in FIG.
  • a gesture input as shown in the center figure of the paper, one eye to be examined E can be shielded.
  • the control unit 26 controls the optotype projection system 140 to display the optotype on the optotype chart 143 and display the optotype on the eye to be examined. E, and the same optotype is displayed in the optotype display area 44 of the subjective test operation screen 40 of the display screen 30a.
  • the control unit 26 drives the left and right X-direction rotation drive units 24 according to the examination distance to move the left and right measurement heads 16 in the X direction. It may also be rotated in the direction.
  • the examiner performs a subjective test by having the subject answer how the optotype looks.
  • the examiner touches the input unit 30b to appropriately change correction values such as the spherical power, astigmatic power, and the angle of the astigmatic axis.
  • the examiner can change each correction value by single-touching the corresponding area of the correction value setting area 41 on the operation screen 40 for subjective testing, or as shown in FIGS. 7 to 11. This can also be done using gesture input.
  • step S7 the control unit 26 determines whether there is a touch operation to change the correction value on the display screen 30a (input unit 30b). If there is a change touch operation (YES), the program proceeds to step S8; if there is no change touch operation (NO), the program proceeds to END and ends the process.
  • the control unit 26 determines whether the input to the display screen 30a (input unit 30b) is a gesture input.
  • the control unit 26 recognizes that the operation input is the above-mentioned directional touch operation (1) or the non-directional multi-touch operation (2), the control unit 26 determines that the operation input is a gesture input to the gesture input area 30c.
  • the control unit 26 recognizes that it is an input other than (1) and (2), that is, a single touch operation without directionality, it determines that it is a normal input to the subjective test operation screen 40.
  • step S8 When it is determined in step S8 that gesture input is required (YES), the program proceeds to step S9, and the control unit 26 switches the input mode to gesture input mode. On the other hand, when it is determined in step S8 that it is a normal input (NO), the program proceeds to step S10, and the control unit 26 switches the input mode to the normal input mode. After that, the program proceeds to step S11.
  • the control unit 26 analyzes the control signal (input information) from the display unit 30 according to the input mode and obtains the instruction content.
  • the control unit 26 changes the correction value (set value) according to the analysis result, and controls the display unit 30 to display the changed correction value on the display screen 30a.
  • This display is normally performed by changing the correction value displayed in the correction value setting area 41 of the operation screen 40 for subjective testing, but in the gesture input mode, it does not interfere with gesture input on the display screen 30a. This may be done by displaying the modified correction value in such an area (for example, one corner of the display screen 30a).
  • the items to be changed may be not only correction values such as spherical power, astigmatic power, and astigmatic axis, but also visual targets to be presented, examination distance, and the like.
  • the control unit 26 controls the measurement optical system 21 based on the changed correction value (set value). Thereby, the correction value of the subject's eye E by the measurement optical system 21 is changed, and the subject can perform a subjective test using the changed correction value.
  • the examiner determines the correction value (prescription) depending on whether the examinee's answer is correct or not, or changes the correction value by touch operation or gesture input on the operation screen 40 for the subjective test again. Tests can be repeated. Furthermore, the examiner can have the subject perform a subjective test by changing the visual target to be presented or by changing the testing distance.
  • the control unit 26 receives a control signal for an operation input to change the correction value again, the control unit 26 repeats the processing of steps S7 to S12, and receives a control signal for an operation input to change the optotype or the examination distance. If so, repeat steps S6 to S12.
  • step S7 determines whether the prescription is determined and there is no touch operation to change the correction value, etc. (determination in step S7 is NO)
  • the program proceeds to the end, and the ophthalmological apparatus 100 collects information about the eye E to be examined.
  • the operation for acquiring (inspecting) ends.
  • the ophthalmologic apparatus 100 includes the measurement optical system 21 (information acquisition section), the display section 30 having the touch panel display screen 30a, and the control section 26.
  • the control unit 26 operates in a normal input mode in which the measurement optical system 21 is controlled based on input information to the operation screen, and a gesture input mode in which the measurement optical system 21 is controlled based on input information by gesture input to the gesture input area 30c. has.
  • the examiner can operate the ophthalmological apparatus 100 by inputting operations on the normal operation screen and inputting gestures.
  • the examiner can appropriately and quickly input instructions to the ophthalmological apparatus 100 by inputting gestures, and can input operations by blind touching without visually checking the display screen 30a.
  • the examiner does not have to perform the test by alternately viewing the patient and the display screen 30a, and can check whether the patient's eye E is fixating on the optotype, is in an appropriate posture, etc. Tests can be performed while observing the condition of the person.
  • the examiner controller 27 is placed on the optometry table 51 and can be operated by blind touch, the examiner can adjust the position of the examinee's head to the correct position, open the eyelids, etc. Tests can be performed while assisting the examiner. Therefore, according to the ophthalmologic apparatus 100 of the first embodiment, the examiner can acquire information about the eye E more efficiently with a simpler operation.
  • the ophthalmologic apparatus 100 according to the second embodiment will be described below with reference to FIG. 13.
  • the ophthalmologic apparatus 100 according to the second embodiment has the same basic configuration as the ophthalmologic apparatus 100 according to the first embodiment shown in FIG. 1, except that a smartphone is used as the examiner controller 27A instead of a tablet terminal. ing. Therefore, the same configurations as in the first embodiment are given the same reference numerals as in the first embodiment, and detailed description thereof will be omitted. The same applies to subsequent embodiments.
  • the ophthalmological apparatus includes a main body 10 shown in FIG. 1, a control section 26 provided in the main body 10, an examiner controller 27A shown in FIG. It mainly includes a controller 28.
  • the examiner controller 27A of the second embodiment includes a display section (display panel) 30 made of a touch panel display, similar to the examiner controller 27 of the first embodiment.
  • the display unit 30 includes a display screen 30a and a touch panel type input unit 30b, and the entire surface of the input unit 30b serves as a gesture input area 30c.
  • the ophthalmologic apparatus 100 of the second embodiment has a "normal input mode” and a "gesture input mode” similarly to the first embodiment.
  • the examiner can perform normal input by a single touch operation with no directionality on the display screen 30a (input section 30b) of the examiner controller 27A. Furthermore, the examiner can input gestures by performing a directional touch operation and/or a non-directional multi-touch operation on the gesture input area 30c.
  • the examiner can operate the ophthalmologic apparatus 100 by inputting gestures similar to those of the first embodiment described using FIGS. 5 to 11.
  • specific gesture input is possible when performing a red/green test, an add power test using a near crosshair, a cross cylinder test, etc. These tests are repeated multiple times while changing the correction value while the examiner holds the examiner controller 27, so the examinee and examiner may feel fatigued and the test efficiency and accuracy may decrease. There is. In order to prevent this, it is desirable for the examiner to be able to operate quickly with a blind touch without visually checking the operation screen, thereby further shortening the examination time.
  • the control unit 26 allows the examiner to control the display screen of the display unit 30 of the examiner controller 27A while displaying the operation screen for a predetermined examination. It is possible to recognize that three fingers, such as the middle finger, the ring finger, and the little finger, are placed on the end of the input unit 30a (input unit 30b) (multi-long press operation). When this operation input is recognized, the control unit 26 assumes that gesture input is selected and switches the input mode to "gesture input mode.”
  • the red/green test operation screen 40A shown in FIG. 13 includes an optotype display area 44 where optotypes are displayed, an anterior segment image display area 45, various operation buttons 46, and the like.
  • the examiner can lower the spherical power by -0.25D (Down) by touching the "red” button of the operation button 46, and can lower the spherical power by touching the "green” button. can be +0.25D (Up). Furthermore, by touching the "same” button, the examiner can proceed to the next examination without changing the spherical power.
  • the examiner can switch the input mode to the "gesture input mode" by placing three fingers on the display screen 30a.
  • the finger detection position may be at the right end, the left end, or both ends of the display screen 30a, depending on the subject's dominant hand.
  • the display screen 30a (input unit 30b) functions as a gesture input area 30c.
  • the control unit 26 recognizes this operation and adjusts the spherical power by -0.25D. shall be.
  • the control unit 26 recognizes this operation and sets the spherical power to +0.25D.
  • the control unit 26 ends the red/green test without changing the spherical power.
  • the addition power test is a test in which a near crosshair is presented to the subject's eye E, the subject is asked to compare the vertical line and the horizontal line, and the subject is asked to answer which one is more clearly visible.
  • the examiner operates the operation buttons on the operation screen in response to the clearly visible line answered by the examinee.
  • the control unit 26 that receives the control signal based on this operation input adjusts the addition power. Then, the examiner repeats the operation, and the control unit 26 adjusts the addition power until the examinee can see the vertical lines and horizontal lines with the same clarity or can see the horizontal lines slightly better.
  • the examiner can direction. Further, if the examinee's answer is "I can clearly see the vertical lines,” the examiner performs a swipe operation in the vertical direction (up and down direction) on the gesture input area 30c.
  • the control unit 26 that receives the control signals based on these gesture inputs can be configured to adjust the addition power according to the direction of the swipe operation.
  • the cross cylinder test is a test for adjusting the astigmatism axis using an optotype consisting of a point group or multiple lines.
  • the examiner touch-operates the operation buttons according to how the subject sees the optotype.
  • the control unit 26, which has received the control signal based on this operation input, controls the measurement optical system 21 to change the astigmatic axis counterclockwise or to set the astigmatic power to +0.25D.
  • the control unit 26 controls the measurement optical system 21 to change the astigmatic axis clockwise or to set the astigmatic power to -0.25D.
  • the examiner places two fingers on the gesture input area 30c (the two fingers represent the astigmatism axis, and the two fingers (representing the angle of the astigmatic axis), the swipe operation can be performed counterclockwise or clockwise.
  • the control unit 26 receives the control signals based on these gesture inputs and recognizes the counterclockwise swipe operation, it controls the measurement optical system 21 to change the astigmatism axis counterclockwise or to change the astigmatism power + It can be configured to be 0.25D. Further, when the control unit 26 recognizes a clockwise swipe operation, the control unit 26 may be configured to control the measurement optical system 21 to change the astigmatism axis clockwise or to set the astigmatism power to -0.25D.
  • the examiner can perform not only a normal visual acuity test but also a red-green test, an addition power test, a cross-cylinder test, etc. by blind touch. It can be done more quickly and efficiently. Thereby, the examination time is shortened, fatigue of the examiner and the examinee is suppressed, and the examination can be performed more appropriately.
  • the above-described gesture input of the ophthalmologic apparatus 100 of the second embodiment can also be applied to the ophthalmologic apparatus 100 of the first embodiment. Since the ophthalmologic apparatus 100 of the first embodiment uses a tablet terminal as the examiner controller 27, the way the examiner holds it is somewhat different. For this reason, the ophthalmologic apparatus 100 of the first embodiment may be configured to switch to the "gesture input mode" when it recognizes a long-press operation with three fingers on the display screen 30a, or may switch to the "gesture input mode" by It may also be configured to perform when a long press operation is recognized.
  • the ophthalmological apparatus 100 of the first and second embodiments may be configured to recognize, for example, a pinch-in operation and a pinch-out operation on the gesture input area 30c as an operation input for increasing or decreasing a predetermined correction value or the like. can. Further, the ophthalmological apparatus 100 of the first and second embodiments recognizes a pinch-in operation and a pinch-out operation in the horizontal direction as an operation input for increasing or lowering the spherical power, and recognizes a pinch-in operation and a pinch-out operation in the vertical direction. For example, a configuration may be adopted in which the out operation is recognized as an operation input for increasing or decreasing the astigmatic power, but the configuration is not limited to this.
  • the ophthalmological apparatus 100 of the first and second embodiments accepts a touch operation to draw numbers, symbols, characters, etc. on the gesture input area 30c, and analyzes the trajectory of the touch operation to determine a correction value according to the obtained value.
  • an optotype, an examination distance, a PD value, a VD value, etc. may be changed.
  • the ophthalmologic apparatus 100 includes a main body 50 and an examiner controller 27, as shown in FIG.
  • the main body 50 includes an optometry table 51, a refractor head 52 that is an optometry optical system, and an optometry presentation device 53.
  • the optometry table 51 is equipped with a refractor head 52, on which various devices such as an optotype presentation device 53 and an examiner controller 27 are placed, and on which the examinee rests on his elbows in order to maintain an appropriate posture during the examination. It is a desk on which you can place your hands and arms. Further, the optometry table 51 is movable in the vertical direction (Y direction) manually or by an appropriate drive mechanism, and the refractor head 52 and the optotype presentation device are moved according to the height of the eye E from the floor. 53 height adjustments are possible.
  • the refractor head 52 is a device used to select a lens suitable for the eye E to be examined.
  • This refractor head 52 has a plurality of testing lenses (corrective lenses), and selectively arranges the testing lenses (corrective lenses) in front of the eye E to be examined.
  • the examiner can perform a refraction test and other tests while changing the test lens as appropriate.
  • the refractor head 52 includes a support mechanism 54 and a pair of optometry units 55L and 55R.
  • the pair of optometry units 55L and 55R each include a pair of optometry optical systems for the left eye (not shown) and an optometry optical system for the right eye, which are provided on the left and right sides so as to correspond to the left and right eyes E to be examined.
  • the pair of optometry units 55L and 55R are supported by a support mechanism 54 so as to be movable in the vertical direction (Y direction). Further, the pair of optometry units 55L and 55R can be rotated in the circumferential direction (around the Y axis) by the support mechanism 54, and are inserted and removed between the eye E and the optotype presentation device 53 by this rotation.
  • the pair of optometry units 55L and 55R can be slid in the left-right direction (X direction) by a known slide mechanism (not shown), and can be moved relatively toward and away from each other.
  • Optometry windows 56L, 56R are provided in front and rear of the pair of optometry units 55L, 55R, respectively.
  • optical members such as a plurality of examination lenses for the left and right eyes, polarizing filters, and shielding plates are arranged, respectively.
  • Optical members such as a plurality of inspection lenses are selectively arranged at positions facing each of the optometry windows 56L and 56R by a known drive mechanism (not shown).
  • the optotype presentation device 53 is a device that presents an optotype to the eye E to be examined.
  • the optotype presentation device 53 includes a rectangular parallelepiped-shaped housing 53a and an optotype projection system 53b built in the housing 53a.
  • a window (opening) 53c is provided on the front surface (on the subject's side) of the housing 53a for the subject to visually view the optotype image.
  • the optotype projection system 53b is an optical system that generates an optotype image for testing the visual function of the eye E to be examined.
  • the optotype projection system 53b includes, for example, an optotype display section including a display for displaying an optotype, a convex lens system that generates a virtual image of the optotype using a light beam from the optotype, and a convex lens system that generates a virtual image of the optotype using a light flux from the optotype. It includes an optical path bending mirror (not shown) that reflects the optical path and forms a virtual image of the target image at an image point position in front of the eye E to be examined. The subject can visually recognize this optotype image through the window 53c of the housing 53a.
  • the examiner controller 27 is configured from a tablet terminal and includes a display section 30 consisting of a touch panel display.
  • the display section 30 includes a display screen 30a and a touch panel type input section 30b, and the display screen 30a (input section 30b) has a gesture input area 30c.
  • the CPU of the examiner controller 27, which is a tablet terminal is used as the control unit 26, but the control unit 26 may be provided separately in the ophthalmologic apparatus 100B.
  • the control unit 26 controls each unit of the ophthalmological apparatus 100B based on operation inputs made on the display screen 30a (input unit 30b).
  • FIG. 15 is a diagram showing an example of a subjective test operation screen 40B displayed on the display unit 30 of the ophthalmological apparatus 100B of the third embodiment.
  • This operation screen 40B for subjective testing includes a correction value setting area 41 in which correction values such as sphericity (S), astigmatism power (C), astigmatism axis (A), and addition power (ADD) of the eye E to be examined are set;
  • This gesture input mode switching icon 47 is an icon for switching the input mode from "normal input mode” to "gesture input mode.” The examiner clicks on this gesture input mode switching icon 47. Then, the control unit 26 that has received the control signal based on this operation input switches the input mode to the "gesture input mode", and the display screen 30a (input unit 30b) functions as the gesture input area 30c. The examiner can input various instructions to the ophthalmological apparatus 100B by performing gesture inputs as shown in FIGS. 5 to 11 in the gesture input area 30c.
  • the ophthalmological apparatus 100B of the third embodiment has a configuration in which it does not accept gesture input when in the "normal input mode” and does not accept normal input when in the "gesture input mode", thereby preventing false detections and It suppresses erroneous operations and improves inspection accuracy.
  • control unit 26 may control the display unit 30 to keep an operation screen such as the operation screen for subjective testing 40B displayed on the display screen 30a, or may erase the operation screen. You may. Furthermore, if the control unit 26 is configured to control the display unit 30 to display the trajectory of the gesture input on the display screen 30a while erasing the operation screen, the examiner can understand the movement of his or her gesture input. You can check whether it is appropriate.
  • the control unit 26 does not allow the examiner to input an operation input of an instruction to switch the input mode. , you can recognize it more clearly and switch input modes more reliably. Therefore, the ophthalmologic apparatus 100B can further improve the detection accuracy of gesture input. Then, the examiner can appropriately input gestures using the gesture input area 30c provided on the entire surface of the display screen 30a.
  • the examiner can also use a single-touch operation without directionality for operation input for the "gesture input mode.” Furthermore, the examiner can also use directional touch operations or non-directional multi-touch operations to input operations for the "normal input mode,” expanding the variety of touch operations.
  • the ophthalmologic apparatus 100B of the third embodiment has a configuration in which it does not accept gesture input in the "normal input mode” and does not accept normal input in the "gesture input mode.”
  • the configuration may be such that normal input can be performed by operating .
  • the control unit 26 controls the display unit 30 to display the operation screen on the display screen 30a with reduced brightness (diminished), and basically allows gesture input. Then, for example, when a long-press touch operation is performed on the correction value setting area 41, the control unit 26 may be configured to display a correction value selection screen as a pop-up, assuming that a normal input has been performed.
  • the ophthalmological apparatuses 100 to 100B of the first to third embodiments described above may have a "gesture input practice mode" as an input mode.
  • This "gesture input practice mode” is an input mode for the examiner to practice gesture input or for the ophthalmological apparatus 100 itself to learn gesture input. Switching to the "gesture input practice mode” may be performed using a "practice mode switching icon” or a switch provided on the operation screen, or may be performed by inputting a predetermined gesture.
  • the examiner When the examiner practices gesture input, the examiner performs a predetermined gesture input in the gesture input area 30c. Then, the control unit 26 analyzes this gesture input, controls the display unit 30, and displays the name to be changed (for example, spherical power, astigmatic power, astigmatic axis, inspection distance, etc.) and the numerical value after the change (preferably). is a numerical value corresponding to the amount of operation at the time of gesture input), and furthermore, the locus of the operation is displayed on the display screen 30a. Therefore, the examiner can appropriately know which item the gesture is instructing to change, know the amount of change in the numerical value relative to the amount of operation, and know whether or not his or her gesture input is appropriate. .
  • the name to be changed for example, spherical power, astigmatic power, astigmatic axis, inspection distance, etc.
  • the numerical value after the change preferably. is a numerical value corresponding to the amount of operation at the time of gesture input
  • the locus of the operation is displayed
  • the examiner performs gesture input in the gesture input area 30c according to the item to be changed (correction value, optotype, examination distance, etc.).
  • the control unit 26 analyzes this gesture input and acquires the type of operation (pinch-in operation, pinch-out operation, flick operation, drag operation, swipe operation, etc.), operation direction, operation amount, etc. as gesture information.
  • the control unit 26 ranks the acquired gesture information, displays it on the display screen 30a in association with the item to be changed, and stores it in the storage unit 29 (or the storage device of the examiner controller 27).
  • the ophthalmologic apparatus 100 may be equipped with AI (artificial intelligence), and may learn the state of the examiner's gesture input using the AI.
  • the ophthalmological apparatus 100 etc. can grasp and learn the gesture input that varies depending on the examiner, the examiner's gesture input habits, etc., and can detect gesture input with more accuracy and more appropriately. Information on the eye E to be examined can be acquired more efficiently.
  • the examiner controllers 27 and 27A of the ophthalmological apparatuses 100 to 100B of the first to third embodiments may include a notification unit such as a vibrator, a light source, and a sound output unit. These may be provided in a tablet terminal, a smartphone terminal, etc., or may be provided separately.
  • the control unit 26 recognizes the gesture input, the control unit 26 indicates that the examiner has accepted the gesture input by vibrating the vibrating unit, changing the light intensity (emission state) of the display screen 30a, or outputting a voice or a buzzer sound from the sound output unit.
  • the configuration is configured to notify.
  • control unit 26 may be configured to issue a notification using the notification unit when the gesture input is not appropriate (error) or when the upper or lower limit of numerical value change has been reached and no further changes can be made.
  • control unit 26 may be configured to change the vibration frequency, light emission state, voice, or buzzer sound to notify the examiner depending on the situation. Thereby, the examiner can clearly understand whether or not the gesture input was performed appropriately, and can perform the gesture input more appropriately.
  • the ophthalmological apparatuses 100 to 100B of the first to third embodiments output (record) a log of input information input in the gesture input mode to the storage unit 29 serving as an output unit, or output (record) a log of input information input in the gesture input mode to a printer. It is also possible to have a configuration in which the information is printed (printed).
  • the examiner, etc. can check whether the test was conducted appropriately or not by visually checking the display unit 30 on which the input information stored in the storage unit 29 is displayed or by checking the printed matter. If something happens, you can appropriately understand the cause, etc. Furthermore, by referring to these, the examiner can perform the next examination more appropriately.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

より簡便な操作で、より効率的に被検眼の情報を取得することができる眼科装置を提供する。 眼科装置(100)は、被検眼の情報の取得のために用いられる情報取得部である測定光学系(21)を有する測定ヘッド(16)と、操作画面が表示されるタッチパネル式の表示画面(30a)を有する表示部(30)と、表示画面(30a)へのタッチ操作を含む入力情報に基づいて測定ヘッド(16)を制御する制御部(26)と、を備える。制御部(26)は、操作画面に対する入力情報に基づいて測定光学系(21)を制御する通常入力モードと、ジェスチャー入力領域(30c)に対するジェスチャー入力による入力情報に基づいて測定光学系(21)を制御するジェスチャー入力モードとを有する。

Description

眼科装置
 本開示は、眼科装置に関する。
 従来、タッチ操作を検知可能な検知面を含むタッチパネルを備え、タッチパネルへの操作に応じて被検眼の情報を取得する眼科装置が知られている(例えば、特許文献1参照)。この特許文献1に記載の眼科装置は、タッチパネルの検知面の右端に沿って検知面の上端から下端まで延びる帯状の第1の操作領域と、検知面の左端に沿って上端から下端まで延びる帯状の第2の操作領域とが設けられ、第1の操作領域及び第2の操作領域へのドラッグ操作に応じて、検眼パラメータの値を変更可能となっている。
 この構成により、特許文献1に記載の眼科装置は、操作性が向上し、検者はタッチパネルの画面を視認することなく、被検者の表情や被検眼の状態を確認しながら、タッチパネルを操作することが可能となる。このように、より簡便な操作で、より効率的に被検眼の情報を取得することができる技術の開発が望まれている。
特開2018-164827号公報
 本開示は、上記の事情に鑑みて為されたもので、より簡便な操作で、より効率的に被検眼の情報を取得することができる眼科装置を提供することを目的とする。
 上記目的を達成するため、本開示の眼科装置は、被検眼の情報の取得のために用いられる情報取得部と、前記情報取得部を操作する操作画面が表示されるタッチパネル式の表示画面を有する表示部と、前記表示画面へのタッチ操作を含む入力情報に基づいて前記情報取得部を制御する制御部と、を備える。前記制御部は、前記操作画面に対する前記入力情報に基づいて前記情報取得部を制御する通常入力モードと、前記表示画面に設けられたジェスチャー入力領域に対するジェスチャー入力による前記入力情報に基づいて前記情報取得部を制御するジェスチャー入力モードと、を有する。
 このように構成された眼科装置では、より簡便な操作で、より効率的に被検眼の情報を取得することが可能となる。
第1実施形態に係る眼科装置の全体構成を示す斜視図である。 第1実施形態に係る眼科装置の制御系の構成を示すブロック図である。 第1実施形態に係る眼科装置の右眼用測定光学系の詳細構成を示す図である。 図3Aのフィールドレンズの断面図を模式的に示した図である。 図3Aの円錐プリズムの断面図を模式的に示した図である。 第1実施形態に係る眼科装置の表示部に表示される操作画面の一例を示す図である。 表示部のジェスチャー入力領域に対するジェスチャー入力の一例及び変形例を説明するための説明図である。 表示部のジェスチャー入力領域に対するジェスチャー入力の一例を説明するための説明図である。 表示部のジェスチャー入力領域に対するジェスチャー入力の一例を説明するための説明図である。 表示部のジェスチャー入力領域に対するジェスチャー入力の変形例を説明するための説明図である。 表示部のジェスチャー入力領域に対するジェスチャー入力の変形例を説明するための説明図である。 表示部のジェスチャー入力領域に対するジェスチャー入力の変形例を説明するための説明図である。 表示部のジェスチャー入力領域に対するジェスチャー入力の変形例を説明するための説明図である。 第1実施形態に係る眼科装置の動作の一例を示すフローチャートである。 第2実施形態に係る眼科装置で用いる検者用コントローラによるジェスチャー入力を説明するための説明図である。 第3実施形態に係る眼科装置の全体構成を示す斜視図である。 第3実施形態に係る眼科装置の表示部に表示される自覚検査用操作画面の一例を説明するための説明図である。
(第1実施形態)
 以下、本開示の第1実施形態に係る眼科装置を説明する。まず、第1実施形態に係る眼科装置100の全体構成を、図1~図3を参照して説明する。第1実施形態の眼科装置100は、被検者が左右の両眼を開放した状態で、被検眼Eの特性測定を両眼同時に実行可能な両眼開放タイプの眼科装置である。なお、本実施形態の眼科装置100は、片眼を遮蔽したり、固視標を消灯したりすることで、片眼ずつ検査等することも可能となっている。また、眼科装置が両眼開放タイプに限定されるものではなく、片眼ずつ特性測定する眼科装置にも本開示を適用することができる。
 第1実施形態の眼科装置100は、任意の自覚検査を行う装置であり、さらに他覚検査を行うこともできる。なお、自覚検査では、眼科装置100は、被検者に所定の呈示位置で視標等を呈示し、この視標等に対する被検者の応答に基づいて検査結果を取得する。この自覚検査は、遠用検査、中用検査、近用検査、コントラスト検査、夜間検査、グレア検査、ピンホール検査、立体視検査等の自覚屈折測定や、視野検査等がある。また、他覚検査では、眼科装置100は、被検眼Eに光を照射し、その戻り光の検出結果に基づいて被検眼Eに関する情報(眼特性)を測定する。この他覚検査は、被検眼Eの特性を取得するための測定と、被検眼Eの画像を取得するための撮影とが含まれる。さらに、他覚検査は、他覚屈折測定(レフ測定)、角膜形状測定(ケラト測定)、眼圧測定、眼底撮影、光コヒーレンストモグラフィ(Optical Coherence Tomography:以下、「OCT」という)を用いた断層像撮影(OCT撮影)、OCTを用いた計測等がある。
[眼科装置の全体構成]
 本実施形態の眼科装置100は、図1又は図2に示すように、本体部10と、検者用コントローラ27と、被検者用コントローラ28とを主に備える。本体部10は、図1に示すように、基台11と、検眼用テーブル12と、支柱13と、アーム14と、駆動機構(駆動部)15と、一対の測定ヘッド16と、額当部17、制御部26とを備える。眼科装置100は、検眼用テーブル12と正対する被検者が、両測定ヘッド16の間に設けられた額当部17に額を当てた状態で、被検者の被検眼Eの情報を取得する。なお、本明細書を通じて図1に記すようにX軸、Y軸及びZ軸を取り、被検者から見て、左右方向をX方向とし、上下方向(鉛直方向)をY方向とし、X方向及びY方向と直交する方向(測定ヘッド16の奥行き方向)をZ方向とする。
 検眼用テーブル12は、検者用コントローラ27や被検者用コントローラ28を置いたり検眼に用いるものを置いたりするための机であり、基台11により支持されている。検眼用テーブル12は、Y方向での位置(高さ位置)を調節可能に基台11に支持されていてもよい。
 支柱13は、検眼用テーブル12の後端部でY方向に延びるように基台11により支持されており、先端にアーム14が設けられている。アーム14は、検眼用テーブル12上で駆動機構15を介して両測定ヘッド16を吊り下げるもので、支柱13から手前側へとZ方向に延びている。アーム14は、支柱13に対してY方向に移動可能とされている。なお、アーム14は、支柱13に対してX方向及びZ方向に移動可能とされていてもよい。アーム14の先端には、一対の駆動機構15により吊り下げられて一対の測定ヘッド16が支持されている。
 測定ヘッド16は、被検者の左右の被検眼Eに個別に対応すべく対を為して設けられ、以下では個別に述べる際には左眼用測定ヘッド16L及び右眼用測定ヘッド16Rとする。左眼用測定ヘッド16Lは、被検者の左側の被検眼Eの情報を取得し、右眼用測定ヘッド16Rは、被検者の右側の被検眼Eの情報を取得する。左眼用測定ヘッド16Lと右眼用測定ヘッド16Rとは、X方向で双方の中間に位置する鉛直面に関して面対称な構成とされている。
 各測定ヘッド16には偏向部材であるミラー18(18L,18R)が設けられ、ミラー18を通じて後述する測定光学系21により対応する被検眼Eの情報が取得される。
 各測定ヘッド16には、被検眼Eの眼情報を取得する測定光学系21(個別に述べる際には右眼用測定光学系21R及び左眼用測定光学系21Lとする)が設けられている。測定光学系21の詳細構成については後述する。
 両測定ヘッド16は、アーム14の先端から吊り下げられたベース部に設けられた駆動機構15により、移動可能に吊り下げられている。駆動機構15は、本実施形態では、左眼用測定ヘッド16Lに対応する左眼用駆動機構15Lと、右眼用測定ヘッド16Rに対応する右眼用駆動機構15Rと、を有している。図2に示すように、左眼用駆動機構15Lは、左眼用鉛直駆動部22L、左眼用水平駆動部23L、左眼用X方向回旋駆動部(左眼用水平方向回旋駆動部)24L及び左眼用Y方向回旋駆動部(左眼用鉛直方向回旋駆動部)25Lを有している。右眼用駆動機構15Rは、右眼用鉛直駆動部22R、右眼用水平駆動部23R、右眼用X方向回旋駆動部(右眼用水平方向回旋駆動部)24R及び右眼用Y方向回旋駆動部(右眼用鉛直方向回旋駆動部)25Rを有している。
 左眼用測定ヘッド16Lに対応する各駆動部の構成と、右眼用測定ヘッド16Rに対応する各駆動部の構成とは、X方向で双方の中間に位置する鉛直面に関して面対称な構成とされている。以下では、個別に述べる時を除くときは単に、鉛直駆動部22、水平駆動部23、X方向回旋駆動部24及びY方向回旋駆動部25ということがある。左右に対称に設けられる他の構成部品についても同様である。
 駆動機構15は、上方側から鉛直駆動部22、水平駆動部23、X方向回旋駆動部24、Y方向回旋駆動部25の順に配置された構成である。
 鉛直駆動部22は、アーム14の先端のベース部に固定され、制御部26からの制御信号に基づいて、アーム14に対して水平駆動部23、X方向回旋駆動部24及びY方向回旋駆動部25をY方向(鉛直方向)に移動させる。水平駆動部23は、鉛直駆動部22に固定され、制御部26からの制御信号に基づいて、鉛直駆動部22に対してX方向回旋駆動部24及びY方向回旋駆動部25を、X方向及びZ方向(水平方向)に移動させる。
 鉛直駆動部22及び水平駆動部23は、例えばパルスモータのような駆動力を発生するアクチュエータと、例えば歯車の組み合わせやラック・アンド・ピニオン等のような駆動力を伝達する伝達機構とが設けられて構成される。水平駆動部23は、例えばX方向とZ方向とで個別にアクチュエータ及び伝達機構の組み合わせを設けることで、容易に構成できるとともに水平方向の移動の制御を容易なものにできる。
 X方向回旋駆動部24は、水平駆動部23に連結されている。X方向回旋駆動部24は、制御部26からの制御信号に基づいて、水平駆動部23に対して対応する測定ヘッド16及びY方向回旋駆動部25を、対応する被検眼Eの眼球回旋点O(図3参照)を通り鉛直方向(Y方向)に延びる左右一対の鉛直眼球回旋軸を中心(回旋軸)として、X方向(水平方向)に回旋させる。
 Y方向回旋駆動部25は、X方向回旋駆動部24に連結されている。このY方向回旋駆動部25に測定ヘッド16が吊り下げられている。Y方向回旋駆動部25は、制御部26からの制御信号に基づいて、X方向回旋駆動部24に対して対応する測定ヘッド16を、対応する被検眼Eの眼球回旋点Oを通り水平方向(X方向)に延びる左右一対の水平眼球回旋軸を中心(回旋軸)として、Y方向(鉛直方向、上下方向)に回旋させる。
 X方向回旋駆動部24及びY方向回旋駆動部25は、例えば、アクチュエータからの駆動力を受けた伝達機構が円弧状の案内溝に沿って移動する構成とすることができる。各案内溝の中心位置を、一対の水平眼球回旋軸及び一対の鉛直眼球回旋軸と各々一致させることで、X方向回旋駆動部24及びY方向回旋駆動部25は、被検眼Eの一対の水平眼球回旋軸及び一対の鉛直眼球回旋軸を中心に測定ヘッド16を回旋させることができる。
 なお、X方向回旋駆動部24は、自らに設けた回旋軸線回りに回旋可能にY方向回旋駆動部25及び測定ヘッド16を支持するとともに、水平駆動部23と協働して、測定ヘッド16を支持する位置を変更しつつ回旋させる構成とすることもできる。また、Y方向回旋駆動部25は、自らに設けた回旋軸線回りに回旋可能に測定ヘッド16を支持するとともに鉛直駆動部22と協働して、測定ヘッド16を支持する位置を変更しつつ回旋させる構成とすることもできる。
 以上の構成により、駆動機構15は、各測定ヘッド16を個別に又は連動させて、X方向、Y方向及びZ方向に移動させることができるとともに、被検眼Eの鉛直眼球回旋軸、及び水平眼球回旋軸を中心にX方向及びY方向に回旋させることができる。本実施形態の眼科装置100では、制御部26からの制御信号を受けて、駆動機構15の各駆動部22~25が駆動して各測定ヘッド16を移動及び回旋させる。さらに、検者である検者が各駆動部22~25を手動で駆動させて、各測定ヘッド16を移動及び回旋させられる。
 また、左眼用X方向回旋駆動部24L及び右眼用X方向回旋駆動部24Rは、左眼用測定ヘッド16Lと右眼用測定ヘッド16RとをX方向(左右方向)に回旋させることで、被検眼Eを開散(開散運動)させたり、輻輳(輻輳運動)させたりできる。また、左眼用Y方向回旋駆動部25L及び右眼用Y方向回旋駆動部25Rは、左眼用測定ヘッド16Lと右眼用測定ヘッド16RとをY方向(上下方向)に回旋させることで、被検眼Eの視線を下方向に向けさせたり、元の位置に戻させたりできる。これにより、眼科装置100では、被検者は、開散運動及び輻輳運動のテストを行うことや、両眼視の状態で遠点距離での遠用検査から近点距離での近用検査まで様々な検査距離での検査を行って両被検眼Eの各種特性を測定することができる。
 検者用コントローラ27は、操作者である検者が眼科装置100を操作するために用いられる機器である。検者用コントローラ27は、CPU及び記憶装置等を有するコンピュータを備えた情報処理装置である。第1実施形態の検者用コントローラ27は、タブレット端末から構成される。なお、検者用コントローラ27は、タブレット端末に限定されず、スマートフォン、その他の携帯情報端末とすることもできるし、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ等とすることもできるし、眼科装置100専用のコントローラとすることもできる。
 本実施形態の眼科装置100では、検者用コントローラ27は携帯可能に構成されている。検者は、検者用コントローラ27を、検眼用テーブル12上に配置した状態で操作してもよいし、手に持って操作してもよい。
 検者用コントローラ27は、タッチパネルディスプレイからなる表示部(表示パネル)30を備えている。この表示部30は、画像等が表示される表示画面30aと、この表示画面30a上に重畳して配置されたタッチパネル式の入力部30bとを備えている。表示部30は、それ自体が、一つの入力部であり、表示部30の表示画面30aは、検者のタッチ操作を含む入力操作を受け入れる入力部30bとして機能する。入力部30bは、検者の指やスタイラスなどによるタッチ操作を検出する検知面としても機能する。
 検者用コントローラ27は、近距離無線等の通信手段により制御部26と近距離通信可能となっている。検者用コントローラ27は、制御部26から送出される表示制御信号に基づいて、検者による操作画面(例えば、図4の自覚検査用操作画面40)、後述する測定光学系21の撮像素子159で取得した前眼部像E’等、所定の画面や画像を表示画面30aに表示する。また検者用コントローラ27は、表示画面30a(入力部30b)に対する検者によるタッチ操作等の操作入力を受け入れ、この操作入力に応じた入力情報(制御信号)を制御部26に送出する。
 以下、表示画面30a(入力部30b)に対して為されるタッチ操作について説明する。以下では、タッチ操作は、表示画面30a(入力部30b)に触れることにより行われる操作として説明するが、表示画面30aに触れることなく表示画面30aの近傍(表示画面30aから所定距離で離れた位置)で行われる操作を含んでもよい。
 タッチ操作は、例えば、表示画面30a(入力部30b)に対するピンチイン操作、ピンチアウト操作、フリック操作、タップ操作、ドラッグ操作、スワイプ操作等が含まれる。ピンチイン操作は、検者が表示画面30aに触れながら2本の指を近付ける操作である。ピンチアウト操作は、検者が表示画面30aに触れながら2本の指を遠ざける操作である。フリック操作は、検者が表示画面30aを払うように触れる操作である。タップ操作は、検者が表示画面30aを叩くように触れる操作である。ドラッグ操作は、検者が操作面に触れたまま、触れた点から他の点まで引きずるように表示画面30aに触れる操作である。スワイプ操作は、検者が表示画面30aを掃くように触れる操作である。例えば、入力部30b(検知部)は、静電容量方式、抵抗膜方式、表面弾性波方式などの検知方式によって、タッチ操作を検知する。また、上述のようなタッチ操作は、1本の指で行うタッチ操作(以下、「シングルタッチ操作」ということがある。)、又は2本以上10本以下の複数の指で行うタッチ操作(以下、「マルチタッチ操作」ということがある。)を含む。
 また、表示画面30a(入力部30b)は、ジェスチャー入力領域30cを有している。このジェスチャー入力領域30cは、表示画面30a(入力部30b)の少なくとも一部であればよい。例えば、ジェスチャー入力領域30cは、表示画面30aの上半分、下半分、右半分、又は左半分とするなど、表示画面30aの半分の領域としてもよいし、半分よりも広い領域としてもよいが、表示画面30aの全面とすることがより好ましい。表示画面30aの全面は、実質的に全面であってもよいが、ほぼ全面であればよい。
 また、表示画面30aの端縁(左端、右端、上端、下端の少なくとも何れか)の近傍に、目視して操作する所定のアイコンを表示するアイコン領域を設け、ジェスチャー入力領域30cは、このアイコン領域以外の領域としてもよい。そして、検者は目視でアイコン領域のアイコンを操作し、ジェスチャー入力領域30cでブラインドタッチによってジェスチャー入力を行うことができる。この他にも、表示画面30aを上下又は左右に分割して2つのジェスチャー入力領域30cを設けてもよい。これにより、検者は、一方のジェスチャー入力領域30cで、左眼の検査に関するジェスチャー入力を行い、他方のジェスチャー入力領域30cで、右眼の検査に関するジェスチャー入力を行える。
 眼科装置100(制御部26)は、表示画面30a(入力部30b)に対する入力モードとして、「通常入力モード」と「ジェスチャー入力モード」とを有している。「通常入力モード」は、表示部30の表示画面30aに表示される操作画面(例えば、図4の自覚検査用操作画面40)に対するタッチ操作による入力情報に基づいて、制御部26が眼科装置100の各部を制御するモードである。「ジェスチャー入力モード」は、ジェスチャー入力領域30cに対するジェスチャー入力による入力情報に基づいて、制御部26が眼科装置100の各部を制御するモードである。ジェスチャー入力モードのときに、表示画面30a(入力部30b)はジェスチャー入力領域30cとしての機能を発揮する。各入力モードへの切り替え手順、各入力モードでの制御部26の制御による眼科装置100の動作については後述する。
 「通常入力モード」では、検者用コントローラ27は、検者による操作画面を表示画面30aに表示する。また、表示画面30aには、視標チャート143によって被検眼Eに呈示されている視標が、検者に向けて表示されてもよい。また、検者用コントローラ27は、検者により操作画面に表示されたアイコンやポップアップ画面等に対するタッチ操作等の入力操作を受け入れ、入力操作に応じた入力情報(制御信号)を制御部26へ送出する。
 「ジェスチャー入力モード」では、検者用コントローラ27は、ジェスチャー入力領域30cに対するジェスチャー入力による入力操作を受け入れ、入力操作に応じた入力情報(制御信号)を制御部26へ送出する。本実施形態における「ジェスチャー入力」は、ジェスチャー入力領域30cに対する以下の(1)及び(2)の操作を意味するが、これに限定されず、(1)及び(2)の何れか一方としてもよい。
 (1)方向性のあるタッチ操作
 (2)方向性のないマルチタッチ操作
 (1)の「方向性のあるタッチ操作」は、検者が表示画面30aに触れながら指を移動させる操作であり、例えば、ピンチイン操作、ピンチアウト操作、フリック操作、ドラッグ操作、スワイプ操作等が挙げられる。この「方向性のあるタッチ操作」は、1本の指によるシングルタッチ操作でもよいし、複数本の指によるマルチタッチ操作でもよい。
 これに対して「方向性のないタッチ操作」は、検者が表示画面30aに指を移動させることなく短く触れる操作であり、例えば、表示画面30aをたたくように行われるタップ操作が挙げられる。したがって、(2)の「方向性のないマルチタッチ操作」は、複数本の指を用いて行われるタップ操作が挙げられる。なお、(1)及び(2)以外のタッチ操作、つまり「方向性のないシングルタッチ操作」は、制御部26によって通常入力モードでの通常の入力操作と認識される。
 被検者用コントローラ28は、被検眼Eの各種の眼情報の取得の際に、被検者が応答するために用いられる機器である。被検者用コントローラ28は、例えばキーボード、マウス、ジョイスティック、タッチパッド、タッチパネル等を備える。被検者用コントローラ28は、制御部26と有線又は無線の通信路を介して接続されており、被検者用コントローラ28に対して為された操作に応じた入力情報(制御信号)を制御部26に送出する。
[測定光学系]
 左眼用測定光学系21L及び右眼用測定光学系21Rは、それぞれ呈示する視標を切り替えながら視力検査を行う視力検査装置、矯正レンズを切換え配置しつつ被検眼Eの適切な矯正屈折力を取得するフォロプタ、屈折力を測定するレフラクトメータや波面センサ、眼底の画像を撮影する眼底カメラ、網膜の断層画像を撮影する断層撮影装置、角膜内皮画像を撮影するスペキュラマイクロスコープ、角膜形状を測定するケラトメータ、眼圧を測定するトノメータ等が、単独又は複数組み合わされて構成されている。
 図3Aは本実施形態の眼科装置100のうち右眼用測定光学系21Rの詳細構成を示す図である。図3Aではミラー18Rは、省略している。なお、左眼用測定光学系21Lの構成は右眼用測定光学系21Rと同一であるので、その説明は省略することとし、以下では右眼用測定光学系21Rについてのみ説明する。
 図3Aに示すように、第1実施形態に係る眼科装置100は、被検眼Eの検査を行うための光学系(測定光学系21)として、Zアライメント系110、XYアライメント系120、ケラト測定系130、視標投影系140、前眼部観察系150、レフ測定投射系160、及びレフ測定受光系170を含む。
<前眼部観察系150>
 前眼部観察系150は、被検眼Eの前眼部を動画撮影する。前眼部観察系150を経由する光学系において、撮像素子159の撮像面は瞳孔共役位置Qに配置されている。前眼部照明光源151は、被検眼Eの前眼部に照明光(例えば、赤外光)を照射する。被検眼Eの前眼部により反射された光は、対物レンズ152を通過し、ダイクロイックミラー153を透過し、ハーフミラー154を透過し、リレーレンズ155及び156を通過し、ダイクロイックミラー157を透過する。ダイクロイックミラー157を透過した光は、結像レンズ158により撮像素子159(エリアセンサ)の撮像面に結像される。撮像素子159は、所定のレートで撮像及び信号出力を行う。撮像素子159の出力(映像信号)は、制御部26に入力される。制御部26は、この映像信号に基づく前眼部像E’を表示部30の表示画面30aに表示させる。前眼部像E’は、例えば赤外動画像である。
<Zアライメント系110>
 Zアライメント系110は、前眼部観察系150の光軸方向(前後方向、Z方向)におけるアライメントを行うための光(赤外光)を被検眼Eに投射する。Zアライメント光源111から出力された光は、被検眼Eの角膜に投射され、角膜により反射され、結像レンズ112によりラインセンサ113のセンサ面に結像される。角膜頂点の位置が前眼部観察系150の光軸方向に変化すると、ラインセンサ113のセンサ面における光の投射位置が変化する。制御部26は、ラインセンサ113のセンサ面における光の投射位置に基づいて被検眼Eの角膜頂点の位置を求め、これに基づき測定光学系21を移動させる駆動機構15を制御してZアライメントを実行する。
<XYアライメント系120>
 XYアライメント系120は、前眼部観察系150の光軸に直交する方向(左右方向(X方向)、上下方向(Y方向))のアライメントを行うための光(赤外光)を被検眼Eに照射する。XYアライメント系120は、ハーフミラー154により前眼部観察系150から分岐された光路に設けられたXYアライメント光源121を含む。XYアライメント光源121から出力された光は、ハーフミラー154により反射され、前眼部観察系150を通じて被検眼Eに投射される。被検眼Eの角膜による反射光は、前眼部観察系150を通じて撮像素子159に導かれる。
 この反射光に基づく像(輝点像)は前眼部像E’に含まれる。制御部26は、輝点像を含む前眼部像E’とアライメントマークとを表示部30の表示画面30aに表示させる。手動でXYアライメントを行う場合、検者等の検者は、アライメントマーク内に輝点像を誘導するように測定光学系の移動操作を行う。自動でアライメントを行う場合、制御部26は、アライメントマークに対する輝点像の変位がキャンセルされるように、測定光学系21を移動させる駆動機構15を制御する。
<ケラト測定系130>
 ケラト測定系130は、被検眼Eの角膜の形状を測定するためのリング状光束(赤外光)を角膜に投射する。ケラト板131は、対物レンズ152と被検眼Eとの間に配置されている。ケラト板131の背面側(対物レンズ152側)にはケラトリング光源(図示せず)が設けられている。ケラトリング光源からの光でケラト板131を照明することにより、被検眼Eの角膜にリング状光束が投射される。被検眼Eの角膜からの反射光(ケラトリング像)は撮像素子159により前眼部像E’とともに検出される。制御部26は、このケラトリング像を基に公知の演算を行うことで、角膜の形状を表す角膜形状パラメータを算出する。
<視標投影系140>
 視標投影系140は、固視標や自覚検査用視標等の各種視標を被検眼Eに呈示する。光源141から出力された光(可視光)は、コリメートレンズ142により平行光束とされ、視標チャート143に照射される。視標チャート143は、例えば透過型の液晶パネルを含み、視標を表すパターンを表示する。視標チャート143を透過した光は、リレーレンズ144及び145を通過し、反射ミラー146により反射され、ダイクロイックミラー168を透過し、ダイクロイックミラー153により反射される。ダイクロイックミラー153により反射された光は、対物レンズ152を通過して眼底Efに投射される。光源141、コリメートレンズ142及び視標チャート143は、一体となって光軸方向に移動可能である。
 自覚検査を行う場合、制御部26は、他覚測定の結果に基づき光源141、コリメートレンズ142及び視標チャート143を光軸方向に移動させ、視標チャート143を制御する。制御部26は、検者又は制御部26により選択された視標を視標チャート143に表示させる。それにより、当該視標が被検者に呈示される。被検者は視標に対する応答を行う。応答内容の入力を受けて、制御部26は、更なる制御や、自覚検査値の算出を行う。例えば、視力測定において、制御部26は、ランドルト環等に対する応答に基づいて、次の視標を選択して呈示し、これを繰り返し行うことで視力値を決定する。
<レフ測定投射系160、レフ測定受光系170>
 レフ測定投射系160及びレフ測定受光系170は他覚屈折測定(レフ測定)に用いられる。レフ測定投射系160は、他覚測定用のリング状光束(赤外光)を眼底Efに投射する。レフ測定受光系170は、このリング状光束の被検眼Eからの戻り光を受光する。
 レフ測定光源161は、発光径が所定のサイズ以下の高輝度光源であるSLD(Superluminescent Diode)光源であってよい。レフ測定光源161は、光軸方向に移動可能であり、眼底共役位置Pに配置される。リング絞り165(具体的には、透光部)は、瞳孔共役位置Qに配置されている。合焦レンズ174は、光軸方向に移動可能である。合焦レンズ174は、制御部26からの制御を受け、焦点位置を変更可能な公知の焦点可変レンズであってもよい。レフ測定受光系170を経由する光学系において、撮像素子159の撮像面は眼底共役位置Pに配置されている。
 レフ測定光源161から出力された光は、リレーレンズ162を通過し、円錐プリズム163の円錐面に入射する。円錐面に入射した光は偏向され、円錐プリズム163の底面から出射する。円錐プリズム163の底面から出射した光は、フィールドレンズ164を通過し、リング絞り165にリング状に形成された透光部を通過する。リング絞り165の透光部を通過した光(リング状光束)は、孔開きプリズム166の反射面により反射され、ロータリープリズム167を通過し、ダイクロイックミラー168により反射される。ダイクロイックミラー168により反射された光は、ダイクロイックミラー153により反射され、対物レンズ152を通過し、被検眼Eに投射される。ロータリープリズム167は、眼底Efの血管や疾患部位に対するリング状光束の光量分布を平均化や光源に起因するスペックルノイズの低減のために用いられる。
 円錐プリズム163は、瞳孔共役位置Qに可能な限り近い位置に配置されることが望ましい。
 図3Bに、フィールドレンズ164の断面図を模式的に示す。例えば、図3Bに示すように、フィールドレンズ164の被検眼Eの側のレンズ面にリング絞り165が貼り付けられていてもよい。この場合、例えば、フィールドレンズ164のレンズ面には、リング状の透光部が形成されるように遮光膜が蒸着される。
 また、レフ測定投射系160は、フィールドレンズ164が省略された構成を有していてもよい。
 図3Cに、円錐プリズム163の断面図を模式的に示す。例えば、図3Cに示すように、リレーレンズ162を通過した光が円錐面163aに入射する円錐プリズム163の底面163bにリング絞り165が貼り付けられていてもよい。この場合、例えば、円錐プリズム163の底面163bには、リング状の透光部が形成されるように遮光膜が蒸着される。また、リング絞りが円錐プリズム163の円錐面163aの側にあってもよい。
 リング絞り165は、所定の測定パターンに対応した形状を有する透光部が形成された絞りであってよい。この絞りには、レフ測定投射系160の光軸に対して偏心した位置に透光部が形成されていてよい。また、絞りには、2以上の透光部が形成されていてもよい。
 眼底Efに投射されたリング状光束の戻り光は、対物レンズ152を通過し、ダイクロイックミラー153及びダイクロイックミラー168により反射される。ダイクロイックミラー168により反射された戻り光は、ロータリープリズム167を通過し、孔開きプリズム166の孔部を通過し、リレーレンズ171を通過し、反射ミラー172により反射され、リレーレンズ173及び合焦レンズ174を通過する。合焦レンズ174を通過した光は、反射ミラー175により反射され、ダイクロイックミラー157により反射され、結像レンズ158により撮像素子159の撮像面に結像される。制御部26は、撮像素子159からの出力を基に公知の演算を行うことで被検眼Eの屈折力値を算出する。例えば、屈折力値は、球面度数、乱視度数及び乱視軸角度を含む。
 孔開きプリズム166とリレーレンズ171との間に、瞳孔上の光束径を制限する絞りが配置されている。この絞りの透光部は、瞳孔共役位置Qに配置される。
 制御部26は、算出された屈折力値に基づいて、眼底Efとレフ測定光源161と撮像素子159の撮像面とが光学的に共役になるように、レフ測定光源161と合焦レンズ174とをそれぞれ光軸方向に移動させる。さらに制御部26は、レフ測定光源161及び合焦レンズ174の移動に連動して視標ユニットをその光軸方向に移動させる。光源141、コリメートレンズ142及び視標チャート143を含む視標ユニットと、レフ測定光源161と、合焦レンズ174とは、連動してそれぞれの光軸方向に移動可能であってよい。
 自覚検査等で視標チャート143に表示する視標は、検眼に用いられるものであれば、特に限定されるものではなく、例えば、ランドルト環、スネレン視標、Eチャート等が好適に挙げられる。また、視標は、ひらがなやカタカナ等の文字、動物や指等の絵等からなる視標、十字視標等の両眼視機能検査用の特定の図形や風景画や風景写真等からなる視標等、様々な視標を用いることができる。また、視標は静止画であってもよいし、動画であってもよい。本実施形態では、視標チャート143は、液晶パネルを含むため、所望の形状、形態及びコントラストの視標を、所定の検査距離で表示することができ、多角的で綿密な検眼が可能となる。また、眼科装置100は、左右の被検眼Eに対応して2つの視標チャート143を備えているため、視差を与える視標を、所定の検査距離(視標の呈示位置)に対応して表示することができ、立体視検査も自然な視軸の向きで、容易かつ精密に行うことが可能となる。
[眼科装置の制御系]
 図2を参照して、本実施形態の眼科装置100の制御部26の機能構成について説明する。制御部26は、本体部10の基台11に設けられ、眼科装置100の各部を統括的に制御する。制御部26は、図2に示すように、上記した左眼用測定光学系21Lと、右眼用測定光学系21Rと、左眼用駆動機構15Lの左眼用鉛直駆動部22L、左眼用水平駆動部23L、左眼用X方向回旋駆動部24L及び左眼用Y方向回旋駆動部25Lと、右眼用駆動機構15Rの右眼用鉛直駆動部22R、右眼用水平駆動部23R、右眼用X方向回旋駆動部24R及び右眼用Y方向回旋駆動部25Rと、に加えて、検者用コントローラ27と、被検者用コントローラ28と、記憶部29と、接続されている。
 制御部26は、内部メモリ26aを備え、検者用コントローラ27や被検者用コントローラ28と近距離無線等の通信手段を介して近距離通信可能となっている。また、制御部26は、接続された記憶部29又は内蔵する内部メモリ26aに記憶したプログラムを例えばRAM上に展開することにより、適宜検者用コントローラ27や被検者用コントローラ28に対する操作に応じて、眼科装置100の動作を統括的に制御する。本実施形態では内部メモリ26aはRAM等で構成され、記憶部29は、ROMやEEPROM等で構成される。
 また、制御部26は、表示部30の表示画面30aに対して為される操作入力に基づいて、眼科装置100の各部を制御する。前述したように、制御部26は、「通常入力モード」と「ジェスチャー入力モード」とを有する。
 本実施形態の眼科装置100では、制御部26は、検者用コントローラ27から入力される入力情報が、「方向性のないシングルタッチ操作」であると認識したとき、入力モードを「通常入力モード」に切り替える。そして、制御部26は、入力情報が、表示部30の表示画面30aに表示される操作画面へのタッチ操作であるとして、この入力情報(制御信号)に基づいて眼科装置100の各部を制御する。図4は自覚検査用操作画面40の一例を示す図である。この自覚検査用操作画面40は、被検眼Eの球面度(S)、乱視度数(C)、乱視軸(A)、加入度(ADD)等の矯正値が設定される矯正値設定領域41、検査距離が設定される検査距離設定領域42、視標を選択する視標アイコン43、選択された視標が表示される視標表示領域44、撮像素子159で撮影された前眼部像E’が表示される前眼部像表示領域(検眼窓)45、各種操作ボタン46等を有する。
 矯正値設定領域41には、例えば、初期値として他覚検査によって測定された値が設定される。検者は、矯正値設定領域41の所望の矯正値をタップ操作(シングルタッチ操作)すると、矯正値の一覧表がポップアップ画面として表示される。検者は、ポップアップ画面の中から所望の矯正値を選択してタップ操作することで、当該矯正値を変更できる。制御部26は、変更された矯正値を、矯正値設定領域41に表示するとともに、変更された矯正値に基づいて測定光学系21を制御する。また、この自覚検査用操作画面40は、PD値(瞳孔間距離)、VD値(角膜頂点間距離)等の表示領域、レッド・グリーン検査用画面等も有する。
 一方、制御部26は、検者用コントローラ27から入力される入力情報が、「方向性のあるタッチ操作」及び「方向性のないマルチタッチ操作」の何れかであると認識したとき、入力モードを「ジェスチャー入力モード」に切り替える。そして、制御部26は、表示画面30aに設けられたジェスチャー入力領域30cに対するジェスチャー入力による入力情報に基づいて眼科装置100の各部を制御する。
 ジェスチャー入力の例を、図5~図11を参照して説明する。図5の紙面左図は、検査対象の被検眼Eを、右眼と左眼とに切り替えるためのジェスチャー入力の一例を説明するための説明図である。この図5の紙面左図のように、検者は、表示画面30aのジェスチャー入力領域30cに対してジェスチャー入力(例えば、半円を描くようにスワイプ操作をする)をする。これにより、検者は、例えば、検査対象の被検眼Eの切り替えや、測定ヘッド16に設定された設定値の変更の操作入力をすること等ができる。このようなジェスチャー入力は、例えば、左眼と右眼とを順番に検査するとき等に好適に用いることができる。検者はジェスチャー入力領域30c全体を用いてジェスチャー入力を行うことができ、操作性が向上する。
 図5の紙面右図は、ジェスチャー入力領域30cを、左右に二分割した変形例を説明するための説明図である。検者は、左側の領域に対するジェスチャー入力によって右眼用測定ヘッド16Rの設定値を変更し、右側の領域に対するジェスチャー入力によって左眼用測定ヘッド16Lの設定値を変更することができる。このような態様とした理由は、検者の左右を基準として、左眼用測定ヘッド16Lの撮像素子159で撮影された左眼の前眼部像E’が、例えば、自覚検査用操作画面40等の右側の前眼部像表示領域45に表示され、右眼用測定ヘッド16Rの撮像素子159で撮影された右眼の前眼部像E’が、自覚検査用操作画面40等の左側の前眼部像表示領域45に表示されることに対応したものである。なお、二分割の変形例として、検者はジェスチャー入力領域30cの左側の領域で左眼用のジェスチャー入力を行い、右側の領域で右眼用のジェスチャー入力を行うような態様としてもよい。
 以上のように、左眼及び右眼に対応して、ジェスチャー入力領域30cを左右に分割することで、本実施形態のように、一対の測定ヘッド16L,16Rを備え、片眼又は両眼同時での検査が可能な眼科装置100の制御に好適に用いることができる。よって、検者は、片眼又は両眼での検査のための操作入力を、より適切に行える。
 図6の紙面左図及び紙面中央図は、被検眼Eの遮蔽解除(Open)と遮蔽(Close)の指示のためのジェスチャー入力の一例を説明するための説明図である。図6の紙面中央図のように、検者は、ジェスチャー入力領域30cに対して2本の指(マルチタッチ)で円を描くスワイプ操作をすることで、一方の被検眼Eを遮蔽して、片眼で検査する指示の操作入力を行える。これに対して、図6の紙面左図のように、検者は、ジェスチャー入力領域30cに対して1本の指(シングルタッチ)で円を描くスワイプ操作をすることで、被検眼Eの遮蔽解除の指示の操作入力を行える。このようなジェスチャー入力は、片眼での検査と両眼での検査を続けて行う場合等に好適に用いることができ、検者は、検査対象の被検眼Eの切り替えを効率的に行える。
 図6の紙面右図は、初期設定の指示のためのジェスチャー入力の一例を説明するための説明図である。この図6の紙面右図に示すように、検者は、ジェスチャー入力領域30cに対して、Zを描くスワイプ操作をすることで、初期設定(リセット)の指示の操作入力を行える。初期設定(リセット)の処理は、例えば、自覚検査用操作画面40等で変更された矯正値を、他覚検査時の矯正値に戻すこと、現在使用中の眼鏡等の矯正値に戻すこと、先に決定した矯正値に戻すこと、又は出荷時等のデフォルト値に戻すこと、さらには駆動機構15によってXYZ方向への移動や回転がされた測定ヘッド16を初期位置に戻すこと等が挙げられるが、これらに限定されない。
 図7は、球面度数(S)、乱視度数(V)及び乱視軸(A)の変更のためのジェスチャー入力の一例を説明するための説明図である。この図7の紙面左図に示すように、検者は、ジェスチャー入力領域30cに対して、上方向又は下方向に各々シングルタッチでスワイプ操作をすることで、球面度を上げる(Up)指示の操作入力と、下げる(Down)指示の操作入力を行える。図7の紙面中央図に示すように、検者は、ジェスチャー入力領域30cに対して、右方向又は左方向に各々シングルタッチでスワイプ操作をすることで、乱視度数を上げる指示の操作入力と、下げる指示の操作入力を行える。図7の紙面右図に示すように、検者は、ジェスチャー入力領域30cに対して、上方向又は下方向に各々2本の指によるマルチタッチでスワイプ操作をすることで、乱視軸の角度を上げる指示の操作入力と下げる指示の操作入力を行える。
 検者は、所定方向へのスワイプ操作によって、被検眼Eの球面度数、乱視度数及び乱視軸の変更を容易に行うことができ、被検眼Eの検査をより効率的に行える。なお、制御部は、各矯正値のスワイプ操作による操作入力を一回認識するごとに、1単位ずつ(例えば、球面度数であれば、0.25、0.50等)矯正値を上下してもよいし、スワイプ操作の長さ(表示画面30aに触れる長さ)に応じて(例えば、球面度数であれば、短いときは0.25、長いときは0.50又は1.00等)矯正値を上下してもよい。以下の変形例でも同様である。
 図8は、球面度数、乱視度数及び乱視軸の変更のためのジェスチャー入力の変形例を説明するための説明図である。この変形例では、ジェスチャー入力領域30cを左右に二分割している。検者は、左側の領域で一方の被検眼E(例えば、右眼)の球面度数、乱視度数及び乱視軸の変更の指示の操作入力を、右側の領域で他方の被検眼E(例えば、左眼)の球面度数、乱視度数及び乱視軸の変更の指示の操作入力を行える。
 図9~図11は、球面度数、乱視度数及び乱視軸の変更のためのジェスチャー入力の変形例を説明するための説明図である。以下では、図7の例と異なるジェスチャー入力について説明する。図9に示す変形例では、球面度数及び乱視度数の変更の操作入力は、図7の例と同じである。一方、図9の紙面右図に示すように、検者は、ジェスチャー入力領域30cに対して、上方向及び下方向に半円を描くように2本指によるマルチタッチでスワイプ操作をすることで、乱視軸の変更の指示の操作入力を行える。
 図10に示す変形例では、球面度数の変更の操作入力は、図7の例と同じである。一方、図10の紙面中央図及び右図に示すように、検者はジェスチャー入力領域30cに対して、上方向又は下方向に2本の指によるマルチタッチでスワイプ操作をすることで、乱視度数の変更の指示の操作入力を行える。また、検者は左方向又は右方向に2本の指によるマルチタッチでスワイプ操作をすることで、乱視軸の変更の指示の操作入力を行える。
 図11に示す変形例では、図11の紙面左図に示すように、検者は、ジェスチャー入力領域30cに対して、上方向又は下方向に半円を描くように1本指によるシングルタッチでスワイプ操作をすることで、球面度数の変更の指示の操作入力を行える。また、図11の紙面中央図に示すように、検者は、ジェスチャー入力領域30cに対して、上方向又は下方向に半円を描くように2本の指によるマルチタッチでスワイプ操作をすることで、乱視度数の変更の指示の操作入力を行える。また、図11の紙面右図に示すように、検者は、上方向又は下方向に半円を描くように3本の指によるマルチタッチでスワイプ操作をすることで、乱視軸の変更の指示の操作入力を行える。
 図5~図11に示すジェスチャー入力をするときに、検者は、ジェスチャー入力領域30c(左右に分割したときは、各々の領域)の全体を用いて大きくジェスチャー入力を行ってもよいし、一部分を用いて小さくジェスチャー入力を行ってもよい。ジェスチャー入力は、方向性のあるタッチ操作又は方向性のないマルチタッチ操作であることから、ジェスチャー入力領域30cの何れの領域で操作が行われても、制御部26は、ジェスチャー入力か、通常入力かを適切に認識して各部を操作することができる。また、図5~図11に示すようなジェスチャー入力での操作入力が可能となることで、検者は、表示画面30aを視認することなく、いわゆるブラインドタッチで眼科装置100を操作可能となる。
(眼科装置の動作例)
 上述のような構成の第1実施形態の眼科装置100の動作の一例を、図12のフローチャートに従って説明する。図12のフローチャートでは、両眼視で他覚検査を行った後、自覚検査を行う場合の工程について説明するが、眼科装置100の動作が以下の工程に限定されることはない。なお、以下では、眼科装置100は、電源がオンとなって起動され、制御部26は検者用コントローラ27及び被検者用コントローラ28と通信可能となっているものとする。
 検査に際して、検者は、被検者を椅子等に座らせて、眼科装置100と対峙させ、額当部17に額を当てさせる。そして、被検者が額当部17に額を当てたことをセンサ等が検知したタイミングで、又は検者が操作画面から撮影指示を与えたタイミングで、図12のフローチャートに示す動作が開始される。
 まず、ステップS1で、制御部26は、左右の測定光学系21に設けられた前眼部観察系150を制御して、左右の被検眼Eの前眼部の撮影を開始させる。制御部26は、検者用コントローラ27の表示部30を制御して、前眼部観察系150の撮像素子159から出力される画像信号に基づく左右の前眼部像(正面像)E’を、表示画面30aに表示させる。
 次に、検者が検者用コントローラ27の入力部30bからアライメント開始の操作入力を行う。この操作入力に対応する入力情報(制御信号)を受信した制御部26は、ステップS2で、視標投影系140を制御して、視標チャート143の中央位置に固視標(例えば、点光源視標)を表示させ、被検眼Eに呈示する。この状態で、検者は被検者に対して固視標を固視するように指示する。
 次のステップS3では、被検者に固視標を固視させた状態で、制御部26の制御の下、前述したような動作によってZアライメント系110が測定ヘッド16のZ方向のアライメンを行い、XYアライメント系120が測定ヘッド16のX方向及びY方向のアライメントを行う。
 次のステップS4では、検者による入力部30bからの他覚検査の指示の操作入力に基づき(又は自動で)、制御部26は、左右の測定光学系21を制御して、他覚検査を行わせる。他覚検査は、例えば、ケラト測定系130による角膜形状(ケラト)測定、レフ測定投射系160及びレフ測定受光系170による眼屈折力(レフ)測定等が挙げられる。
 次のステップS5では、検者による入力部30bからの自覚検査の指示の操作入力に基づき(又は自動で)、制御部26は、表示部30を制御して、図4に示す自覚検査用操作画面40を表示画面30aに表示させる。このとき、表示部30は、他覚検査で測定した矯正値を自覚検査用操作画面40の矯正値設定領域41に表示するとともに、検査距離、PD値、左右の前眼部像E’等を表示する。検者は、自覚検査用操作画面40の検査距離設定領域42をタップ操作して検査距離を変更したり、視標アイコン43をタップ操作して被検眼Eに呈示する視標を選択したりできる。また、片眼による自覚検査を行うときには、検者は自覚検査用操作画面40の前眼部像表示領域45に表示された一方の前眼部像E’をタップ操作するか、又は図6の紙面中央図のようなジェスチャー入力を行うことで、一方の被検眼Eを遮蔽できる。
 次のステップS6では、検者による入力部30bからの視標の選択入力に基づき、制御部26は、視標投影系140を制御して、視標を視標チャート143に表示して被検眼Eに呈示し、同じ視標を、表示画面30aの自覚検査用操作画面40の視標表示領域44に表示する。このとき、被検眼Eの視軸を検査距離に応じた向きとすべく、制御部26は、検査距離に応じて左右のX方向回旋駆動部24を駆動して、左右の測定ヘッド16をX方向へ回旋させてもよい。
 被検眼Eに視標を呈示した状態で、検者は被検者に視標の見え方を回答させることで、自覚検査を行う。呈示している視標及び被検者の回答の正誤に応じて、検者は入力部30bをタッチ操作して球面度数、乱視度数、及び乱視軸の角度等の矯正値を適宜変更する。このとき、検者は、各矯正値の変更を、自覚検査用操作画面40の矯正値設定領域41の該当領域をシングルタッチ操作することで行うこともできるし、図7~図11に示すようなジェスチャー入力によって行うこともできる。
 そして、次のステップS7で、制御部26は、表示画面30a(入力部30b)に対して、矯正値の変更のタッチ操作があったか判定する。変更のタッチ操作があった場合(YES)、プログラムはステップS8へと進み、変更のタッチ操作がなかった場合(NO)、プログラムはエンドへと進んで処理を終了する。
 次のステップS8で、制御部26は、表示画面30a(入力部30b)への入力が、ジェスチャー入力か判定する。制御部26は、操作入力が前述した(1)の方向性のあるタッチ操作又は(2)の方向性のないマルチタッチ操作であると認識した場合は、ジェスチャー入力領域30cに対するジェスチャー入力と判定する。これに対して、制御部26は、(1)及び(2)以外の入力、つまり方向性のないシングルタッチ操作であると認識した場合は、自覚検査用操作画面40に対する通常入力と判定する。
 このステップS8でジェスチャー入力と判定したとき(YES)、プログラムはステップS9へと進み、制御部26は、入力モードをジェスチャー入力モードに切り替える。一方、ステップS8で通常入力と判定したとき(NO)、プログラムはステップS10へと進み、制御部26は、入力モードを通常入力モードに切り替える。その後、プログラムはステップS11へと進む。
 次のステップS11で、制御部26は、入力モードに応じて、表示部30からの制御信号(入力情報)を解析し、指示内容を取得する。次のステップS12で、制御部26は、解析結果に応じて、矯正値(設定値)を変更し、表示部30を制御して変更後の矯正値を表示画面30aに表示させる。この表示は、通常は自覚検査用操作画面40の矯正値設定領域41に表示されている矯正値を変更することで行われるが、ジェスチャー入力モードのときは、表示画面30aのジェスチャー入力を妨げないような領域(例えば、表示画面30aの片隅)に変更後の矯正値を表示することで行ってもよい。なお、変更対象の項目は、球面度数、乱視度数、乱視軸等の矯正値だけでなく、呈示する視標、検査距離等であってもよい。
 次のステップS13で、制御部26は、変更後の矯正値(設定値)に基づいて測定光学系21を制御する。これにより、測定光学系21による被検眼Eの矯正値が変更され、被検者は、変更後の矯正値での自覚検査を行える。
 そして、検者は、被検者の回答の正誤に応じて、矯正値(処方)を決定したり、再度の自覚検査用操作画面40のタッチ操作やジェスチャー入力によって、矯正値を変更して自覚検査を繰り返したりできる。また、検者は、呈示する視標を変更したり、検査距離を変更したりして、被検者に自覚検査を行わせることができる。制御部26は、再度の矯正値の変更の操作入力の制御信号を受信したときは、ステップS7~S12の処理を繰り返し、視標の変更や検査距離の変更の操作入力の制御信号を受信したときは、ステップS6~S12の処理を繰り返す。
 自覚検査が繰り返された後、処方が決定して矯正値等の変更のタッチ操作がない場合は(ステップS7の判定がNO)、プログラムはエンドへと進み、眼科装置100による被検眼Eの情報の取得(検査)のための動作が終了する。
 以上説明したように、第1実施形態に係る眼科装置100は、測定光学系21(情報取得部)と、タッチパネル式の表示画面30aを有する表示部30と、制御部26をと備える。制御部26は、操作画面に対する入力情報に基づいて測定光学系21を制御する通常入力モードと、ジェスチャー入力領域30cに対するジェスチャー入力による入力情報に基づいて測定光学系21を制御するジェスチャー入力モードと、を有する。
 したがって、検者は、通常の操作画面での操作入力と、ジェスチャー入力によって、眼科装置100を操作できる。特に、検者は、ジェスチャー入力によって、眼科装置100に対して適切かつ迅速に指示の操作入力を行え、しかも表示画面30aを視認することなく、ブラインドタッチによって操作入力を行える。この結果、検者は、被検者と表示画面30aを交互に視認して検査を行う必要がなく、被検眼Eが視標を固視しているか、適切な姿勢であるか等、被検者の状態を観察しながら検査を行える。また、検眼用テーブル51に検者用コントローラ27を置いてブラインドタッチによって操作できるため、検者は、被検者の頭部の位置を正しい位置に修正したり、瞼を開いたりして、被検者の補助をしながら検査を行える。したがって、第1実施形態の眼科装置100によれば、検者は、より簡便な操作で、より効率的に被検眼Eの情報を取得することが可能となる。
(第2実施形態)
 以下、第2実施形態に係る眼科装置100について、図13を参照しながら説明する。第2実施形態に係る眼科装置100は、検者用コントローラ27Aとして、タブレット端末に代えてスマートフォンを用いること以外は、図1に示す第1実施形態に係る眼科装置100と同様の基本構成を備えている。このため、第1実施形態と同様の構成については、第1実施形態と同様の符号を付して、詳細な説明は省略する。以降の実施形態でも同様である。
 第2実施形態に係る眼科装置は、図1に示す本体部10と、本体部10に設けられた制御部26と、図13に示す検者用コントローラ27Aと、図2に示す被検者用コントローラ28とを主に備える。第2実施形態の検者用コントローラ27Aは、第1実施形態の検者用コントローラ27と同様に、タッチパネルディスプレイからなる表示部(表示パネル)30を備える。表示部30は、表示画面30aと、タッチパネル式の入力部30bとを備え、入力部30bの全面がジェスチャー入力領域30cとなっている。
 第2実施形態の眼科装置100は、第1実施形態と同様に、「通常入力モード」と「ジェスチャー入力モード」とを有する。検者は検者用コントローラ27Aの表示画面30a(入力部30b)に対する方向性のないシングルタッチ操作によって通常入力を行える。また、検者はジェスチャー入力領域30cに対する方向性があるタッチ操作及び/又は方向性のないマルチタッチ操作によってジェスチャー入力を行える。第2実施形態の眼科装置100は、検者は、図5~図11を用いて説明した第1実施形態と同様のジェスチャー入力により、眼科装置100を操作できる。
 さらに、第2実施形態では、レッド・グリーン検査、近用十字線を用いた加入度数検査、クロスシリンダー検査等を行う場合に、特定のジェスチャー入力が可能となっている。これらの検査は、検者が検者用コントローラ27を保持した状態で、矯正値を変更しつつ複数回繰り返すため、被検者や検者が疲労を感じて検査効率や検査精度が低下することがある。これを防止するためには、検者が、操作画面を視認することなく、ブラインドタッチで迅速に操作し、検査時間をより短縮できることが望ましい。
 ところで、スマートフォンの保持者は、スマートフォンを図13に示すように片手で保持して他方の手で表示画面30aをタッチ操作する。このようなスマートフォンの使用形態を利用して、第2実施形態では、制御部26は、所定の検査用の操作画面の表示中に、検者が検者用コントローラ27Aの表示部30の表示画面30a(入力部30b)の端部に、中指、薬指及び小指等の3本の指を載せたこと(マルチの長押し操作)を認識可能とする。この操作入力を認識した場合、制御部26は、ジェスチャー入力によるが選択されたとして、入力モードを「ジェスチャー入力モード」に切り替える。
 図13に示すレッド・グリーン検査用操作画面40Aは、視標が表示される視標表示領域44、前眼部像表示領域45、各種操作ボタン46等を有する。「通常入力モード」では、検者は、操作ボタン46の「赤」ボタンをタッチ操作することで、球面度数を-0.25D(Down)でき、「緑」ボタンをタッチ操作することで、球面度数を+0.25D(Up)できる。また、検者は、「同じ」ボタンをタッチ操作することで、球面度数を変更せずに次の検査に進むことができる。
 これに対して、検者は、表示画面30aに3本の指を載せることで、入力モードを「ジェスチャー入力モード」に切り替えることができる。この指の検知位置は、被検者の利き手に応じて、表示画面30aの右端部でもよいし、左端部でもよいし、両端部でもよい。この動作により、表示画面30a(入力部30b)は、ジェスチャー入力領域30cとして機能する。そして、表示画面30aに3本の指を載せた状態で、例えば、検者が他方の手の指で上方向にスワイプ操作すると、この操作を認識した制御部26は、球面度数を-0.25Dとする。検者が指を下方向にスワイプ操作すると、この操作を認識した制御部26は、球面度数を+0.25Dとする。また、検者が3本の指を表示画面30aから離したとき、又は予め決められたジェスチャー入力をしたとき、制御部26は、球面度数を変更せずに、レッド・グリーン検査を終了する。
 また、加入度数検査は、近用十字線を被検眼Eに呈示して、縦の線と横の線を比較してもらい、どちらがはっきり見えるかを被検者に回答させる検査である。「通常入力モード」では、検者は、被検者が回答したはっきり見える線に対応して、操作画面の操作ボタンを操作する。この操作入力に基づく制御信号を受信した制御部26は、加入度数を調整する。そして、被検者が縦の線と横の線が同じ明瞭さになるか、横の線が若干よく見える状態になるまで、検者は操作を繰り返し、制御部26が加入度数を調整する。
 これに対して、「ジェスチャー入力モード」の場合は、被検者の回答が「横の線がはっきり見える」である場合は、検者はジェスチャー入力領域30cに対して、例えば、横方向(左右方向)へのスワイプ操作を行う。また、被検者の回答が「縦の線がはっきり見える」である場合は、検者はジェスチャー入力領域30cに対して、縦方向(上下方向)へのスワイプ操作を行う。これらのジェスチャー入力に基づく制御信号を受信した制御部26は、スワイプ操作の方向に応じて、加入度数を調整する構成とすることができる。
 また、クロスシリンダー検査は、点群や複数線からなる視標を用いて乱視軸を調整するための検査である。「通常入力モード」では、検者は、被検者の視標の見え方に応じて、操作ボタンをタッチ操作する。この操作入力に基づく制御信号を受信した制御部26は、測定光学系21を制御して乱視軸を反時計回りに変更するか、乱視度数を+0.25Dとする。又は、制御部26は、測定光学系21を制御して乱視軸を時計回りに変更するか、乱視度数を-0.25Dとする。
 これに対して、「ジェスチャー入力モード」の場合は、検者は、ジェスチャー入力領域30cに対して、例えば、2本の指を載せて(2本の指で乱視軸を表し、2本の指の角度で乱視軸の角度を表す)、反時計回り又は時計回りにスワイプ操作する構成とすることができる。これらのジェスチャー入力に基づく制御信号を受信した制御部26は、反時計回りのスワイプ操作を認識したとき、測定光学系21を制御して乱視軸を反時計回りに変更するか、乱視度数を+0.25Dとする構成とすることができる。また、制御部26は、時計回りのスワイプ操作を認識したとき、測定光学系21を制御して乱視軸を時計回りに変更するか、乱視度数を-0.25Dとする構成とすることができる。
 以上のように、第2実施形態の眼科装置100では、検者は通常の視力検査だけでなく、レッド・グリーン検査、加入度数検査、クロスシリンダー検査等の検査であっても、ブラインドタッチによって、より迅速かつ効率的に行うことができる。これにより、検査時間を短縮して、検者や被検者は、疲労が抑制され、より適切に検査を行える。
 また、第2実施形態の眼科装置100の上述したジェスチャー入力は、第1実施形態の眼科装置100にも適用できる。第1実施形態の眼科装置100は、検者用コントローラ27としてタブレット端末を用いているので、検者による持ち方が多少異なる。このため、第1実施形態の眼科装置100は、「ジェスチャー入力モード」への切り替えを、表示画面30aに対する3本指の長押し操作を認識したときに行う構成とすることもできるし、親指による長押し操作を認識したときに行う構成とすることもできる。
 また、第1、第2実施形態の眼科装置100は、例えば、ジェスチャー入力領域30cに対するピンチイン操作及びピンチアウト操作を、所定の矯正値等を上下するための操作入力と認識する構成とすることができる。また、第1、第2実施形態の眼科装置100は、横方向へのピンチイン操作及びピンチアウト操作を、例えば、球面度数を上下するための操作入力として認識し、縦方向へのピンチイン操作及びピンチアウト操作を、例えば、乱視度数を上下するための操作入力として認識する構成とすることもできるが、この構成に限定されない。また、第1、第2実施形態の眼科装置100は、ジェスチャー入力領域30cに対して、数字、記号、文字等を描くタッチ操作を受け入れ、その軌跡を解析して取得した数値に応じて矯正値、視標、検査距離、PD値、VD値等を変更する構成としてもよい。
(第3実施形態)
 以下、第3実施形態に係る眼科装置100Bについて、図14、図15を参照しながら説明する。第3実施形態に係る眼科装置100は、図14に示すように、本体部50と、検者用コントローラ27とを備える。本体部50は、検眼用テーブル51と、検眼光学系であるレフラクターヘッド52と、視標呈示装置53とを備える。
 検眼用テーブル51は、レフラクターヘッド52が取り付けられ、視標呈示装置53、検者用コントローラ27等の各種機器を載置したり、検査中の姿勢を適切に保つために被検者が肘や腕を載置したりする机である。また、検眼用テーブル51は、手動又は適宜の駆動機構により上下方向(Y方向)に移動可能であり、被検眼Eの床面からの高さに合わせて、レフラクターヘッド52、視標呈示装置53の高さ調整が可能となる。
 レフラクターヘッド52は、被検眼Eに合うレンズを選択するために用いられる機器である。このレフラクターヘッド52は、複数の検査用レンズ(矯正レンズ)を有し、被検眼Eの前方に検査用レンズ(矯正レンズ)を選択的に配置する。検者は、この検査用レンズを適宜交換しながら屈折検査、その他の検査を行うことができる。レフラクターヘッド52は、支持機構54と、一対の検眼ユニット55L,55Rとを備えている。
 一対の検眼ユニット55L,55Rは、左右の被検眼Eに対応するように、左右に一対設けられた図示しない左眼用の検眼光学系と、右眼用の検眼光学系と、を各々有する。一対の検眼ユニット55L,55Rは、支持機構54によって上下方向(Y方向)に移動可能に支持されている。また、一対の検眼ユニット55L,55Rは、支持機構54によって円周方向(Y軸回り)へ回転可能であり、この回転によって被検眼Eと視標呈示装置53との間に挿脱される
 また、一対の検眼ユニット55L,55Rは、図示しない公知のスライド機構によって左右方向(X方向)へスライド可能であり、互いに相対的に接近及び離反が可能である。一対の検眼ユニット55L,55Rの前方及び後方には、各々検眼窓56L,56Rが設けられている。一対の検眼ユニット55L,55R内には、左右眼用の複数の検査用レンズ、偏光フィルタ、遮蔽板等の光学部材が、それぞれ配置されている。複数の検査用レンズ等の光学部材は、各検眼窓56L,56Rに対向する位置に、図示しない公知の駆動機構によって選択的に配置される。
 視標呈示装置53は、被検眼Eに視標を呈示する装置である。視標呈示装置53は、直方体形状の筺体53aと、筺体53aに内蔵され視標投影系53bとを備えている。筺体53aの前面(被検者側)には、被検者が視標像を目視するためのウインドウ(開口部)53cが設けられている。
 視標投影系53bは、被検眼Eの視機能を検査するための視標像を生成する光学系である。視標投影系53bは、例えば、視標を表示するためのディスプレイ等からなる視標表示部と、視標からの光束により視標の虚像を生成する凸レンズ系と、凸レンズ系を通過した光束の光路を反射して被検眼Eの前方の像点位置に視標像の虚像を結像する光路折り曲げミラー(以上、図示せず)とを備える。被検者は、筺体53aのウインドウ53cを介して、この視標像を視認できる。
 検者用コントローラ27は、第1実施形態と同様に、タブレット端末から構成され、タッチパネルディスプレイからなる表示部30を備えている。この表示部30は、表示画面30aと、タッチパネル式の入力部30bとを備え、表示画面30a(入力部30b)は、ジェスチャー入力領域30cを有している。また、第3実施形態の眼科装置100Bは、タブレット端末である検者用コントローラ27のCPUを制御部26としているが、眼科装置100Bに制御部26を別個に設けてもよい。制御部26は、表示画面30a(入力部30b)に為される操作入力に基づいて、眼科装置100Bの各部を制御する。
 図15は、第3実施形態の眼科装置100Bの表示部30に表示される自覚検査用操作画面40Bの一例を示す図である。この自覚検査用操作画面40Bは、被検眼Eの球面度(S)、乱視度数(C)、乱視軸(A)、加入度(ADD)等の矯正値が設定される矯正値設定領域41、視標を選択する視標アイコン43、選択された視標が表示される視標表示領域44、撮像素子159で撮影された前眼部像E’が表示される前眼部像表示領域45、各種操作ボタン46と、切替部としてのジェスチャー入力モード切替アイコン47等を有する。
 このジェスチャー入力モード切替アイコン47は、入力モードを「通常入力モード」から「ジェスチャー入力モード」に切り替えるためのアイコンである。検者は、このジェスチャー入力モード切替アイコン47をクリック操作する。すると、この操作入力に基づく制御信号を受信した制御部26は、入力モードを「ジェスチャー入力モード」に切り替え、表示画面30a(入力部30b)がジェスチャー入力領域30cとして機能する。検者は、ジェスチャー入力領域30cに対して、図5~図11に示すようなジェスチャー入力を行うことで、眼科装置100Bに対して各種指示の操作入力を行うことができる。なお、第3実施形態の眼科装置100Bは、「通常入力モード」のときは、ジェスチャー入力を受け付けず、「ジェスチャー入力モード」のときは、通常入力を受け付けない構成とすることで、誤検知や誤操作を抑制して、検査精度等を向上可能としている。
 なお、「ジェスチャー入力モード」のときには、制御部26は、表示部30を制御して、表示画面30aに自覚検査用操作画面40B等の操作画面を表示したままとしてもよいし、操作画面を消去してもよい。さらには、制御部26は、表示部30を制御して、操作画面を消去しつつ、ジェスチャー入力の軌跡を表示画面30aに表示する構成とすれば、検者は、自身のジェスチャー入力の動作が適切かを確認できる。
 以上のような構成の第3実施形態の眼科装置100Bでは、検者によるジェスチャー入力領域30cのクリック操作の動作は増えるが、制御部26は、検者による入力モードの切り替えの指示の操作入力を、より明確に認識し、より確実に入力モードを切り替えることができる。このため、眼科装置100Bは、ジェスチャー入力の検知精度をより向上できる。そして、検者は、表示画面30aの全面に設けられたジェスチャー入力領域30cを使用して、適切にジェスチャー入力を行える。
 また、入力モードが確実に切り替わることから、検者は方向性のないシングルタッチ操作を、「ジェスチャー入力モード」のための操作入力に用いることもできる。また、検者は方向性のあるタッチ操作や方向性のないマルチタッチ操作を、「通常入力モード」のための操作入力に用いることもでき、タッチ操作のバリエーションを拡大できる。
 なお、第3実施形態の眼科装置100Bは、「通常入力モード」ではジェスチャー入力を受け付けず、「ジェスチャー入力モード」では通常入力を受け付けない構成であるが、変形例として、ジェスチャー入力の際に特定の操作によって通常入力ができる構成としてもよい。例えば、制御部26は、表示部30を制御して、表示画面30aの操作画面の輝度等を下げて(薄く)表示し、基本的にはジェスチャー入力を可能とする。そして、矯正値設定領域41上で、例えば長押しタッチ操作が行われたとき、制御部26は、通常入力が行われたとして、矯正値の選択画面をポップアップ表示等させる構成としてもよい。
 以上、本開示の眼科装置を実施形態及び変形例に基づいて説明してきたが、具体的な構成については、これらの実施形態及び変形例に限定されるものではなく、請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。
 例えば、上記第1~第3実施形態の眼科装置100~100Bは、入力モードとして「ジェスチャー入力練習モード」を有していてもよい。この「ジェスチャー入力練習モード」は、検者がジェスチャー入力の練習、又は眼科装置100等自体にジェスチャー入力を学習させるための入力モードである。この「ジェスチャー入力練習モード」への切り替えは、操作画面に設けた「練習モード切替アイコン」やスイッチによって行ってもよいし、所定のジェスチャー入力によって行ってもよい。
 検者がジェスチャー入力の練習を行う場合は、検者はジェスチャー入力領域30cに対して所定のジェスチャー入力を行う。すると、制御部26は、このジェスチャー入力を解析し、表示部30を制御して、変更対象の名称(例えば、球面度数、乱視度数、乱視軸、検査距離等)と、変更後の数値(好ましくは、ジェスチャー入力時の操作量に対応した数値)、さらには操作の軌跡を表示画面30aに表示させる。したがって、検者は、当該ジェスチャーが、何れの項目の変更指示かを適切に知ることや、操作量に対する数値の変化量を知ることや、自身のジェスチャー入力が適切か否かを知ることができる。
 また、眼科装置100等にジェスチャー入力を学習させる場合は、検者は変更対象の項目(矯正値、視標、検査距離等)に応じて、ジェスチャー入力領域30cに対してジェスチャー入力を行う。制御部26は、このジェスチャー入力を解析して、操作の種類(ピンチイン操作、ピンチアウト操作、フリック操作、ドラッグ操作、スワイプ操作等)、操作方向、操作量等をジェスチャー情報として取得する。制御部26は、取得したジェスチャー情報をランク付けして、変更対象の項目と対応づけて表示画面30aに表示し、記憶部29(又は検者用コントローラ27の記憶装置)に記憶する。眼科装置100は、AI(人工知能)を搭載し、AIによって検者のジェスチャー入力の状態を学習してもよい。これにより、眼科装置100等は、検者によってばらつきのあるジェスチャー入力や、検者のジェスチャー入力の癖等を把握して学習して、より精度よくジェスチャー入力を検知することができ、より適切かつより効率的に被検眼Eの情報を取得できる。
 また、上記第1~第3実施形態の眼科装置100~100Bの検者用コントローラ27,27Aは、振動部(バイブレータ)、光源、音出力部等の報知部を備えてもよい。これらは、タブレット端末、スマートフォン端末等が備えているものでもよいし、別個に設けられたものでもよい。制御部26は、ジェスチャー入力を認識したとき、振動部による振動、表示画面30aの光量(発光状態)の変更又は音出力部による音声やブザー音の出力によって、検者にジェスチャー入力を受け入れたことを報知する構成とする。また、ジェスチャー入力が適切でない状況のとき(エラー)、若しくは数値の変更の上限又は下限に達してこれ以上変更できない状況のとき等に、制御部26は、報知部によって報知を行う構成としてもよい。また、制御部26は、状況に応じて、振動周波数、発光状態、音声又はブザー音を変えて、検者に報知する構成としてもよい。これにより、検者は、ジェスチャー入力が適切に行えたか否かを明確に把握でき、ジェスチャー入力をより適切に行える。
 また、上記第1~第3実施形態の眼科装置100~100Bは、ジェスチャー入力モードにおいて入力された入力情報のログを、出力部としての記憶部29に出力(記録)したり、プリンタに出力(印刷)したりする構成とすることもできる。また、検者等は、記憶部29に記憶された入力情報が表示された表示部30を視認したり、印刷物を視認したりすることで、検査が適切に行われたか否か、不適切であった場合の原因等を、適切に把握できる。また、これらを参考とすることで、検者は、次回の検査をより適切に行える。
関連出願への相互参照
 本出願は、2022年8月5日に日本国特許庁に出願された特願2022-125914に基づいて優先権を主張し、その全ての開示は完全に本明細書で参照により組み込まれる。

Claims (8)

  1.  被検眼の情報の取得のために用いられる情報取得部と、
     前記情報取得部を操作する操作画面が表示されるタッチパネル式の表示画面を有する表示部と、
     前記表示画面へのタッチ操作を含む入力情報に基づいて前記情報取得部を制御する制御部と、を備え、
     前記制御部は、前記操作画面に対する前記入力情報に基づいて前記情報取得部を制御する通常入力モードと、前記表示画面に設けられたジェスチャー入力領域に対するジェスチャー入力による前記入力情報に基づいて前記情報取得部を制御するジェスチャー入力モードと、を有する
    ことを特徴とする眼科装置。
  2.  前記制御部は、前記表示画面に対して、方向性を有する入力操作があったとき、及び方向性を有さないマルチタッチの入力操作があったときの少なくとも何れかのときに、入力モードを前記ジェスチャー入力モードに切り替える
    ことを特徴とする請求項1に記載の眼科装置。
  3.  前記操作画面は、前記ジェスチャー入力モードに切り替えるための切替部を有し、前記制御部は、前記切替部への操作を認識したときに、入力モードを前記ジェスチャー入力モードに切り替える
    ことを特徴とする請求項1又は2に記載の眼科装置。
  4.  前記制御部は、ジェスチャー入力練習モードをさらに有し、当該ジェスチャー入力練習モードでは、前記表示部は、前記表示画面に前記ジェスチャー入力の軌跡を表示する
    ことを特徴とする請求項1~3の何れか一項に記載の眼科装置。
  5.  前記ジェスチャー入力に連動して、前記ジェスチャー入力が為されたことを検者に報知する報知部を備える
    ことを特徴とする請求項1~4の何れか一項に記載の眼科装置。
  6.  前記制御部は、前記ジェスチャー入力モードにおいて入力された前記入力情報を、所定の出力部に出力する
    ことを特徴とする請求項1~5の何れか一項に記載の眼科装置。
  7.  前記制御部は、予め決められたジェスチャー入力に基づいて、前記情報取得部を制御するための前記被検眼の球面度、乱視度数及び乱視軸の角度の少なくとも何れかの設定値を変更する
    ことを特徴とする請求項1~6の何れか一項に記載の眼科装置。
  8.  前記ジェスチャー入力領域は、前記表示画面の全面に設けられている
    ことを特徴とする請求項1~7の何れか一項に記載の眼科装置。
PCT/JP2023/026594 2022-08-05 2023-07-20 眼科装置 WO2024029359A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-125914 2022-08-05
JP2022125914A JP2024022372A (ja) 2022-08-05 2022-08-05 眼科装置

Publications (1)

Publication Number Publication Date
WO2024029359A1 true WO2024029359A1 (ja) 2024-02-08

Family

ID=89848894

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/026594 WO2024029359A1 (ja) 2022-08-05 2023-07-20 眼科装置

Country Status (2)

Country Link
JP (1) JP2024022372A (ja)
WO (1) WO2024029359A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012090976A (ja) * 2010-09-30 2012-05-17 Nidek Co Ltd 眼科装置
JP2015223518A (ja) * 2014-05-29 2015-12-14 株式会社トプコン 眼科装置
JP2017176545A (ja) * 2016-03-30 2017-10-05 株式会社ニデック 眼科装置、および眼科装置制御プログラム
WO2018105512A1 (ja) * 2016-12-06 2018-06-14 株式会社ニデック 観察システムおよび観察制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012090976A (ja) * 2010-09-30 2012-05-17 Nidek Co Ltd 眼科装置
JP2015223518A (ja) * 2014-05-29 2015-12-14 株式会社トプコン 眼科装置
JP2017176545A (ja) * 2016-03-30 2017-10-05 株式会社ニデック 眼科装置、および眼科装置制御プログラム
WO2018105512A1 (ja) * 2016-12-06 2018-06-14 株式会社ニデック 観察システムおよび観察制御プログラム

Also Published As

Publication number Publication date
JP2024022372A (ja) 2024-02-16

Similar Documents

Publication Publication Date Title
JP7007436B2 (ja) 眼科装置
JP7320662B2 (ja) 眼科装置
JP2019216817A (ja) 眼科装置
JP2020127588A (ja) 眼科装置
WO2015102092A1 (ja) 眼科装置
JP2023138863A (ja) 眼科装置
WO2024029359A1 (ja) 眼科装置
JP7249097B2 (ja) 眼科装置及び検眼システム
EP4342360A1 (en) Ophthalmic apparatus
US20220369921A1 (en) Ophthalmologic apparatus and measurement method using the same
WO2024070829A1 (ja) 眼科装置
JP7279498B2 (ja) 自覚式検眼装置
JP7248770B2 (ja) 眼科装置
JP2024047535A (ja) 眼科装置
JP7216562B2 (ja) 眼科装置
JP7166080B2 (ja) 眼科装置
JP7068061B2 (ja) 眼科装置
CN117752294A (zh) 眼科装置
JP2023142781A (ja) 眼科システム
JP2024044015A (ja) 眼科装置
JP2022038942A (ja) 検眼装置及び検眼装置の制御プログラム
JP2020069201A (ja) 検眼システム
JP2020138002A (ja) 眼科装置及びその作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23849914

Country of ref document: EP

Kind code of ref document: A1