WO2023013369A1 - 眼科装置 - Google Patents

眼科装置 Download PDF

Info

Publication number
WO2023013369A1
WO2023013369A1 PCT/JP2022/027425 JP2022027425W WO2023013369A1 WO 2023013369 A1 WO2023013369 A1 WO 2023013369A1 JP 2022027425 W JP2022027425 W JP 2022027425W WO 2023013369 A1 WO2023013369 A1 WO 2023013369A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical system
eye
display
image
acquisition optical
Prior art date
Application number
PCT/JP2022/027425
Other languages
English (en)
French (fr)
Inventor
拓也 大木
正司 山岡
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to CN202280051947.8A priority Critical patent/CN117794440A/zh
Priority to EP22852795.8A priority patent/EP4382035A1/en
Publication of WO2023013369A1 publication Critical patent/WO2023013369A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0075Apparatus for testing the eyes; Instruments for examining the eyes provided with adjusting devices, e.g. operated by control lever
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning

Definitions

  • the present invention relates to an ophthalmic device.
  • an ophthalmologic apparatus equipped with an acquisition optical system for acquiring eye information of an eye to be examined has been known.
  • an operator such as an examiner performs a touch operation on an observed image of an eye to be inspected displayed on a display having a touch panel function, and moves an acquisition optical system based on the touch operation (for example, Patent Document 1). reference).
  • the conventional ophthalmologic apparatus it is necessary to estimate the positional relationship between the subject's eye and the acquisition optical system based on the observed image of the subject's eye displayed on the display.
  • the operator when moving the acquisition optical system, the operator must move the acquisition optical system based on the subjective positional relationship estimated from the observed image. Therefore, if the positional relationship between the subject's eye and the acquisition optical system estimated by the operator is different from the actual positional relationship, the acquisition optical system cannot be moved to a desired position. That is, in the conventional ophthalmologic apparatus, the operator cannot objectively grasp the positional relationship between the eye to be examined and the acquisition optical system, and the operability is low when the operator controls the position and orientation of the acquisition optical system.
  • the present invention has been made with a focus on the above problem, and allows the operator to objectively grasp the positional relationship between the eye to be inspected and the acquisition optical system, thereby enabling the operator to control the position and orientation of the acquisition optical system.
  • An object of the present invention is to provide an ophthalmologic apparatus capable of improving operability.
  • an ophthalmologic apparatus of the present invention includes an acquisition optical system for acquiring eye information of an eye to be inspected, and a motorized optical system for changing at least one of the position and orientation of the acquisition optical system with respect to the eye to be inspected.
  • a changing mechanism for acquiring eye information of an eye to be inspected
  • a display that can be visually recognized by an examiner who operates the optical system changing mechanism
  • a control unit that causes the display to display positional relationship information indicating a positional relationship between the eye to be examined and the acquisition optical system.
  • the ophthalmologic apparatus of the present invention allows the operator to objectively grasp the positional relationship between the eye to be examined and the acquisition optical system, and improves operability when the operator controls the position and orientation of the acquisition optical system with respect to the eye to be examined. can be improved.
  • FIG. 1 is an overall schematic diagram showing the configuration of an ophthalmologic apparatus of Example 1.
  • FIG. 2 is a block diagram showing the control configuration of the ophthalmologic apparatus of Example 1.
  • FIG. FIG. 4 is an explanatory diagram showing a display example of the display of the ophthalmologic apparatus of Example 1; 4 is an explanatory diagram showing positional relationship information displayed on the ophthalmologic apparatus of Example 1.
  • FIG. 10 is an explanatory diagram showing a software key superimposed on the positional relationship information of the first embodiment;
  • FIG. 11 is a first explanatory diagram showing display of positional relationship information changed according to the actual orientation of the acquisition optical system;
  • FIG. 11 is a second explanatory diagram showing the display of the positional relationship information changed according to the actual position of the acquisition optical system;
  • FIG. 11 is a third explanatory diagram showing display of positional relationship information changed according to the actual position of the acquisition optical system; It is explanatory drawing which shows the modification of the luminous flux image and the optical axis image which are displayed as positional relationship information.
  • FIG. 11 is an explanatory diagram showing a display example of the display of the ophthalmologic apparatus of Example 2;
  • FIG. 11 is an explanatory diagram showing positional relationship information displayed on the ophthalmologic apparatus of Example 2;
  • FIG. 10 is an explanatory diagram showing a modification of the positional relationship information in the ophthalmologic apparatus of Example 2;
  • FIG. 10 is an explanatory diagram showing a modified example of display of the display of the ophthalmologic apparatus according to the first embodiment; It is explanatory drawing which expands and shows the display of a 3rd display area.
  • FIG. 10C is an explanatory diagram showing a modification of the display of the third display area shown in FIG. 10B;
  • Example 1 A form for implementing the ophthalmologic apparatus of the present invention will be described based on Example 1 and Example 2 shown in the drawings.
  • the left-right direction is indicated by an arrow X
  • the up-down direction is indicated by an arrow Y
  • the left-right direction and the up-down direction are perpendicular to each other.
  • An arrow Z indicates the direction of movement as the front-rear direction.
  • the left side of the examiner is the left direction
  • the right side of the examiner is the right direction.
  • the examiner's side is the front side
  • the subject's side is the rear side.
  • Example 1 The configuration of the ophthalmologic apparatus 10 of Example 1 will be described below with reference to FIGS. 1 and 2.
  • FIG. 1 The configuration of the ophthalmologic apparatus 10 of Example 1 will be described below with reference to FIGS. 1 and 2.
  • FIG. 1 The configuration of the ophthalmologic apparatus 10 of Example 1 will be described below with reference to FIGS. 1 and 2.
  • FIG. 1 The configuration of the ophthalmologic apparatus 10 of Example 1 will be described below with reference to FIGS. 1 and 2.
  • the ophthalmologic apparatus 10 of Example 1 is a fundus camera and has an acquisition optical system 20 that acquires a fundus image as eye information of the eye E to be examined.
  • the ophthalmologic apparatus 10 has a base 11, a pedestal 12, a main body 13, and a strut 14, as shown in FIG. It should be noted that the acquisition optical system 20 is accommodated in the body portion 13 .
  • the gantry 12 is installed on the base 11 and supported by the base 11 via the position changing mechanism 15 .
  • the position changing mechanism 15 is a known electric moving mechanism that moves the gantry 12 in the horizontal direction (X-axis direction), the front-rear direction (Z-axis direction), and the vertical direction (Y-axis direction). That is, the position changing mechanism 15 includes an electric moving actuator 15a such as a stepping motor that generates a driving force for moving the gantry 12, and a transmission mechanism (not shown) that transmits the driving force generated by the moving actuator 15a to the gantry 12. ) and Then, the position changing mechanism 15 moves the gantry 12 using the driving force of the moving actuator 15a.
  • the movement actuators 15a may be individually provided to move the pedestal 12 in the horizontal direction, in the front-rear direction, and in the vertical direction, or may be moved in a plurality of directions. may also be used.
  • the pedestal 12 is provided with a control lever 16, which is an operation unit 26, which will be described later.
  • the control lever 16 When the control lever 16 is operated by an examiner who is an operator, the control unit 30, which will be described later, operates the movement actuator 15a of the position changing mechanism 15 or the swinging actuator 18a of the angle changing mechanism 17, which will be described later, according to the operation. and a control command to the elevation actuator 19a.
  • An operation button 16 a is arranged at the tip of the control lever 16 .
  • the control unit 30 outputs a control command for imaging the fundus image of the eye E to be examined to the acquisition optical system 20 .
  • the body part 13 is installed on the pedestal 12 and supported by the pedestal 12 via the angle changing mechanism 17 .
  • the body section 13 accommodates the acquisition optical system 20 and the control section 30 (see FIG. 2).
  • An objective lens section 21 and an eyepiece lens section 22 are provided in the main body section 13 .
  • a still camera 23 and an imaging device 24 are detachably connected to the main body 13 .
  • the angle changing mechanism 17 is a known electric movement mechanism that rotates the main body 13 in the left-right direction and the up-down direction.
  • the angle changing mechanism 17 has a swing mechanism (swing mechanism) 18 and an elevation mechanism (tilt mechanism) 19 .
  • the oscillating mechanism 18 includes an electric oscillating actuator 18a such as a stepping motor that generates driving force for rotating the main body 13, and a transmission mechanism (not shown).
  • the swing mechanism 18 uses the driving force of the swing actuator 18a to rotate the main body 13 in the left-right direction (X-axis direction) around a preset rotation axis 18b (reference axis).
  • the rotation axis 18b is set as a straight line extending in the vertical direction (Y-axis direction) passing through a predetermined position set behind the acquisition optical system 20 in the front-rear direction (Z-axis direction).
  • the acquisition optical system 20 is aligned so that the axis of rotation 18b coincides with the center position of the pupil of the eye E to be examined. In the state shown in FIG. 1, the center position of the pupil of the subject's eye E coincides with the rotation axis 18b.
  • the elevation mechanism 19 includes an electric elevation actuator 19 a such as a stepping motor that generates a driving force for rotating the main body 13 and a transmission mechanism (not shown) that transmits the driving force generated by the elevation actuator 19 a to the main body 13 . and have The elevation mechanism 19 uses the driving force of the elevation actuator 19a to rotate the main body 13 in the vertical direction (Y-axis direction) around a preset central axis 19b (reference axis).
  • the central axis 19b is set to a straight line that passes through the position where the rotation axis 18b and the optical axis O of the acquisition optical system 20 intersect and extends in the left-right direction (X-axis direction).
  • the gantry 12 is automatically moved in the left-right direction, the front-rear direction, and the up-down direction by the position changing mechanism 15, and the main body portion installed on the gantry 12 is moved by the angle changing mechanism 17. 13 is automatically rotated horizontally and vertically. That is, the acquisition optical system 20 housed in the main body 13 is changed in the lateral direction, the longitudinal direction, and the vertical position together with the gantry 12 by the position changing mechanism 15 , and the angle changing mechanism 17 changes the position in the lateral direction together with the main body 13 . And the vertical rotation angle (orientation) is changed. Therefore, the position changing mechanism 15 and the angle changing mechanism 17 correspond to an electric optical system changing mechanism for changing the position and orientation of the acquisition optical system 20 with respect to the eye E to be examined.
  • the strut 14 stands up from the base 11 and extends vertically.
  • the post 14 is provided with a chin support portion 14a, a forehead support portion 14b, and an external fixation light 14c.
  • the chin rest part 14a and the forehead support part 14b fix the position of the subject's (patient's) face with respect to the body part 13 (acquisition optical system 20), that is, the position of the subject's eye E when acquiring the eye information of the subject's eye E. .
  • the chin support part 14a is a place where the subject rests his/her chin
  • the forehead support part 14b is a place where the subject rests his/her forehead.
  • the chin rest part 14a and the forehead support part 14b are vertically movable with respect to the base 11, respectively.
  • the external fixation lamp 14c is a light source that fixes the eye E to be examined (fixes the line of sight).
  • the subject places the chin on the chin support 14a and the forehead on the forehead support 14b, faces the main body 13, and lights the external fixation lamp 14c as appropriate.
  • the eye to be examined E is inspected, observed, photographed, and the like.
  • the acquisition optical system 20 housed in the main body 13 is an optical system for acquiring eye information (fundus image) of the eye E to be examined.
  • the acquisition optical system 20 includes an illumination optical system for illuminating the fundus oculi Ef, an imaging optical system for observing and photographing the illuminated fundus oculi Ef, an objective lens, an eyepiece lens, and the like.
  • the illumination optical system forms a ring transparent portion image of the observation illumination light on the pupil of the eye E to be inspected in order to use the fundus reflected image from the eye E to be inspected when observing the fundus.
  • the illumination optical system flashes the xenon lamp to illuminate the fundus Ef when photographing the fundus.
  • the illumination optical system can switch the exciter filter depending on whether FAG imaging or ICG imaging is selected.
  • the illumination optical system retracts the exciter filter from the optical path in the case of color photography.
  • the imaging optical system guides the reflected light from the subject's eye E illuminated by the illumination optical system to the imaging medium of the still camera 23 and the imaging device of the imaging device 24, enabling observation and imaging of the fundus oculi Ef.
  • the objective lens unit 21 is composed of an objective lens (not shown) of the acquisition optical system 20 housed in the lens barrel.
  • the objective lens unit 21 is arranged at a position facing the eye E to be examined.
  • the eyepiece unit 22 is configured by an eyepiece (not shown) of the acquisition optical system 20 housed in the lens barrel.
  • the eyepiece part 22 is a part where the examiner observes the eye E to be examined.
  • the still camera 23 captures a still image of the fundus Ef of the subject's eye E via the acquisition optical system 20 .
  • the still camera 23 may be a digital camera equipped with a CCD (Charge Coupled Device), a film camera, an instant camera, or the like, depending on the purpose of inspection.
  • the imaging device 24 captures a moving image of the fundus oculi Ef of the subject's eye E via the acquisition optical system 20 .
  • a television camera or the like is used as the imaging device 24 .
  • the still camera 23 and the imaging device 24 are of a digital imaging type, they can store image data acquired by a recording medium in the ophthalmologic apparatus 10 or an image recording device such as a computer provided outside.
  • the main body 13 is provided with a display 25 .
  • the display 25 is arranged at a position facing the examiner during acquisition of eye information.
  • the display 25 is a display device that can be visually recognized by an examiner who is an operator who operates the position changing mechanism 15 and the angle changing mechanism 17 .
  • the display 25 is composed of a liquid crystal display device having a touch panel function on a display screen 25a (see FIG. 3).
  • the operation unit 26 is used by the examiner or the subject to operate the operations and settings of the chin support 14a, the forehead support 14b, the position change mechanism 15, the angle change mechanism 17, the acquisition optical system 20, and the like.
  • the operation unit 26 outputs a predetermined operation signal according to the operation to the control unit 30 by being operated by the examiner or the like.
  • the control unit 30 outputs predetermined control commands to the chin rest 14a, the forehead support 14b, the position change mechanism 15, the angle change mechanism 17, the acquisition optical system 20 and the like based on the operation signal from the operation unit 26.
  • FIG. As a result, the operations, settings, etc. of the chin rest 14a and the like are operated.
  • the operation unit 26 is composed of the control lever 16, an operation button 16a provided at the tip of the control lever 16, software keys displayed on the display 25, and the like.
  • the software keys enable operation of various operations such as alignment of the acquisition optical system 20 , setting of various inspection conditions, and adjustment of display contents of the display 25 .
  • the operation unit 26 may also have various buttons provided around the control lever 16 and around the display 25 . Further, the operation unit 26 may be composed of an input device such as a keyboard and a mouse.
  • the control unit 30 develops a program stored in the storage unit 31 or the built-in internal memory 32 on, for example, a RAM (Random Access Memory), and according to an operation or the like on the operation unit 26, The operation of the ophthalmologic apparatus 10 is centrally controlled.
  • the internal memory 32 is composed of a RAM or the like
  • the storage unit 31 is composed of a ROM (Read Only Memory), an EEPROM (Electrically Erasable Programmable ROM), or the like.
  • the ophthalmologic apparatus 10 includes a printer that prints the measurement results in response to a measurement completion signal or an instruction from the examiner or the like, an output unit that outputs the measurement results to an external memory, a server, or the like, and an operation controller.
  • An audio output unit for notifying the situation or the like may be provided as appropriate.
  • the control unit 30 may be provided inside the base 11 or the frame 12 or the like.
  • the acquisition optical system 20 is connected to the control section 30 via a cable (not shown) inside the main body section 13 .
  • the control unit 30 controls and drives (including movement) the light source of the illumination optical system and the operation unit of the imaging optical system in the acquisition optical system 20 .
  • the control unit 30 includes a moving actuator 15a, a swinging actuator 18a, an elevation actuator 19a, a display 25, an operation unit 26 including a control lever 16 (operation buttons 16a) and software keys, and a memory.
  • the unit 31 , the gantry position sensor 33 , the swing sensor 34 , the elevation sensor 35 , and the distance sensor 36 are connected inside the main unit 13 via cables (not shown).
  • the control unit 30 outputs a predetermined control command to the movement actuator 15a, the swinging actuator 18a, the elevation actuator 19a, and the display 25 in accordance with the operation signal from the operation unit 26 to control them. . Furthermore, in the ophthalmologic apparatus 10, power is supplied from the commercial power source to the control unit 30, and the control unit 30 supplies power to the above-described connected units.
  • the gantry position sensor 33 is a sensor that detects the lateral and longitudinal positions of the gantry 12 (acquisition optical system 20) on the base 11 and the vertical position of the gantry 12 (acquisition optical system 20) relative to the base 11. be.
  • the gantry position sensor 33 outputs the detected position information of the gantry 12 to the control unit 30 .
  • the gantry position sensor 33 of the first embodiment has a fixed sensor attached to the base 11 and a moving sensor attached to the gantry 12 and moving together with the gantry 12. 12 is detected in each of the left-right direction, the front-rear direction, and the up-down direction.
  • the gantry position sensor 33 may be a contact sensor or a non-contact sensor.
  • the swing sensor 34 is a sensor that detects the horizontal rotation angle of the main body 13 (acquisition optical system 20).
  • the swing sensor 34 outputs the detected angle information of the body portion 13 to the control portion 30 .
  • the swing sensor 34 of Example 1 has a fixed sensor on the side of the base 12 that supports the main body 13 and a moving sensor on the side of the main body 13 that moves together with the main body 13. The rotation angle of the body portion 13 in the horizontal direction is detected.
  • the swing sensor 34 may be a contact sensor or a non-contact sensor.
  • the elevation sensor 35 is a sensor that detects the vertical rotation angle of the main body 13 (acquisition optical system 20).
  • the elevation sensor 35 outputs the detected angle information of the body portion 13 to the control portion 30 .
  • the elevation sensor 35 of the first embodiment has a fixed sensor on the side of the base 12 that supports the main body 13, and a moving sensor on the side of the main body 13 that moves together with the main body 13. The rotation angle of the portion 13 in the vertical direction is detected.
  • the elevation sensor 35 may be a contact sensor or a non-contact sensor.
  • the distance sensor 36 is a sensor that detects the distance from the main body 13 (acquisition optical system 20) to the subject's eye E, that is, the distance therebetween.
  • the distance sensor 36 outputs the detected distance information to the control section 30 .
  • the distance sensor 36 of Example 1 detects the linear distance from the objective lens part 21, which is the part of the main body part 13 protruding most toward the subject, to the eye E to be examined.
  • the distance sensor 36 is provided, for example, on the surface of the main body 13 facing the subject.
  • the distance sensor 36 of the first embodiment includes a light source such as an LED or an LD and a light receiving element inside, and the light emitted from the light source and reflected from a measurement target (for example, the subject's face) is received by the light receiving element.
  • the distance sensor 36 receives light, converts it to distance, and outputs it.
  • the distance sensor 36 may be, for example, a sensor using ultrasonic waves or infrared rays, a stereo camera, or a distance sensor with other configurations. However, it is not limited to the configuration of the first embodiment.
  • a first display area 27a and a second display area 27b are set on the display screen 25a of the display 25 by the control unit 30.
  • the control unit 30 displays the image F of the fundus oculi Ef of the subject's eye E acquired by the acquisition optical system 20 in the first display area 27a.
  • the control unit 30 displays the positional relationship information J indicating the positional relationship between the subject's eye E and the acquisition optical system 20 in the second display area 27b.
  • the size and arrangement of the first display area 27a and the second display area 27b can be arbitrarily set.
  • the control unit 30 may set the second display area 27b on the entire surface of the display screen 25a.
  • control unit 30 may display any image other than the image F, information, software keys, or the like in the first display area 27a. Further, the control unit 30 may display arbitrary images, information, software keys, etc. in areas other than the first display area 27a and the second display area 27b.
  • Positional relationship information J is information that objectively represents the actual position of the acquisition optical system 20 with respect to the actual position of the eye E to be examined.
  • the positional relationship information J includes the horizontal distance from the subject's eye E to the acquisition optical system 20, the front-back distance from the subject's eye E to the acquisition optical system 20, and the vertical direction from the subject's eye E to the acquisition optical system 20. , the horizontal rotation angle of the acquisition optical system 20 about the rotation axis 18b, the vertical rotation angle of the acquisition optical system 20 about the central axis 19b, and the like. calculated.
  • the control unit 30 obtains the distance information and rotation angle information necessary for calculating the positional relationship information J from the detection results of the gantry position sensor 33 , swing sensor 34 , elevation sensor 35 and distance sensor 36 . Further, the control unit 30 may obtain the positional relationship information J from the amount of movement of the movement actuator 15a, the swing actuator 18a, and the elevation actuator 19a.
  • the first graphic image 41 has a first icon 41A representing an eyeball model representing the subject's eye E and a second icon 41B representing an apparatus model representing the ophthalmologic apparatus 10 including the acquisition optical system 20 .
  • the first icon 41A and the second icon 41B are shown in isometric projection.
  • the "isometric projection method” is a method of drawing a tilted three-dimensional object so that the angles formed in the three directions of front and back, left and right, and up and down are equiangular (120 degrees). Therefore, the first graphic image 41 displayed by the isometric projection method is basically a perspective view of the subject's eye E and the ophthalmologic apparatus 10 viewed obliquely from above.
  • the first icon 41A is an eyeball model image shown in an isometric projection method that schematically shows the eye E to be examined in which the outer shell of the eye to be examined E is divided in the horizontal direction and the interior of which is hollow. displayed by In FIG. 4, the portion corresponding to the crystalline lens of the eye E to be examined is denoted by ⁇ , and the portion corresponding to the fundus oculi Ef of the eye E to be inspected is denoted by ⁇ . Also, the first icon 41A is not limited to the one shown in FIG. good.
  • the first icon 41A may be an eyeball model image that displays the outer shell of the eye E to be examined semi-transparently and schematically shows the entire internal structure or the left half or right half of the eye E to be examined. It may be an eyeball model image in which a part (for example, the upper quarter) is broken to schematically show the internal structure.
  • a part for example, the upper quarter
  • the blood vessel image of the left half of the subject's eye E is superimposed and displayed on the eyeball model, but the blood vessel image may not be displayed.
  • the second icon 41B is an isometric projection that schematically shows the ophthalmologic apparatus 10 including the acquisition optical system 20, the position change mechanism 15, the control lever 16, the swing mechanism 18 of the angle change mechanism 17, and the elevation mechanism 19. is displayed by the device model image indicated by .
  • the portion showing the acquisition optical system 20 is denoted by reference numeral 101
  • the portion showing the position changing mechanism 15 is denoted by reference numeral 102
  • the portion showing the control lever 16 is denoted by reference numeral 103
  • the portion indicating the swing mechanism 18 is denoted by reference numeral 104
  • the portion indicating the elevation mechanism 19 is denoted by reference numeral 105.
  • the device model image shown as the second icon 41B may have a shape different from that of the actual ophthalmologic device 10 or may be partially enlarged or reduced so that the examiner can easily grasp the positional relationship information J. may be modified or modified.
  • the acquisition optical system 20 is reduced and schematically shown in order to improve visibility.
  • the scale of the second icon 41B with respect to the first icon 41A may be displayed at the same scale, or may be scaled up or down at an arbitrary scale instead of the scale of the first icon 41A.
  • the second icon 41B is displayed in a reduced size with respect to the first icon 41A, and the first icon 41A imitating the subject's eye E is displayed in a relatively enlarged size. is displayed in a relatively reduced size.
  • control unit 30 superimposes an image showing the current state of opacity distribution of the lens (hereinafter referred to as "lens opacity distribution image") on the portion ⁇ corresponding to the lens of the eye E to be examined in the first icon 41A. may be displayed.
  • the opacity distribution of the lens is detected using a known device (for example, a Shack-Hartmann sensor, see Japanese Patent No. 6775337, etc.).
  • the opacification position of the lens is specified by a known specifying method (for example, a method using optical coherence tomography (OCT) scanning, see Japanese Patent Application Laid-Open No. 2019-170710).
  • OCT optical coherence tomography
  • control unit 30 may superimpose and display an image showing the current state of the retina (hereinafter referred to as a “retinal image”) on a portion ⁇ corresponding to the fundus oculi Ef of the eye E to be examined in the first icon 41A. good.
  • the retinal image is combined with the first icon 41A, which is the eyeball model image, based on a known technique (see, for example, Japanese Unexamined Patent Application Publication No. 2020-156622).
  • the lens opacification distribution image and the retinal image may be displayed (so-called lantern display or balloon display) in an arbitrary area within the second display area 27b that is not superimposed on the first icon 41A.
  • the luminous flux image ⁇ shows how light travels between the subject's eye E and the acquisition optical system 20 .
  • a fundus camera uses ring illumination in order to remove reflections from the cornea and lens of the eye E to be examined. Therefore, the luminous flux of photographing light passes through the center of the pupil of the subject's eye E, but the luminous flux of illumination light does not pass through the center of the pupil.
  • the luminous flux image ⁇ superimposed and displayed on the first graphic image 41 may represent the luminous flux of illumination light or the luminous flux of photographing light.
  • the optical axis image ⁇ indicates the direction of light output from the acquisition optical system 20 .
  • the optical axis image ⁇ can be set by the examiner, and the control unit 30 performs alignment of the ophthalmologic apparatus 10 based on the set optical axis image ⁇ . It is possible.
  • the examiner visually recognizes the first graphic image 41 displayed in the second display area 27b. At this time, when the lens opacity distribution image is superimposed on the portion ⁇ indicating the lens, the examiner can grasp the opacity distribution in the lens. Then, the examiner touches the inside of the portion ⁇ corresponding to the lens to specify the position of the optical axis O passing through the inside of the lens. Next, the examiner performs a touch operation within the portion ⁇ corresponding to the fundus oculi Ef of the eye to be examined E to specify the position of the fundus oculi Ef to be observed.
  • the examiner performs a touch operation on the retinal image. Therefore, the position to be observed can be specified while grasping the state of the retina of the fundus oculi Ef.
  • the control unit 30 specifies the touch-operated position within the portion ⁇ corresponding to the crystalline lens and the touch-operated position within the portion ⁇ corresponding to the fundus Ef of the eye E to be examined.
  • the control unit 30 displays, as the optical axis image ⁇ , a straight line connecting the touch position within the portion ⁇ corresponding to the crystalline lens and the touch position within the portion ⁇ indicating the fundus oculi Ef.
  • the examiner sets the optical axis image ⁇ .
  • the control unit 30 controls the position changing mechanism 15 and the angle changing mechanism 17 so that the optical axis O of the actual acquisition optical system 20 is set by the examiner.
  • the ophthalmic apparatus 10 is aligned by changing the position or orientation of the acquisition optics 20 to match the axial image ⁇ .
  • control unit 30 can rotate and display the first graphic image 41 around a predetermined position set in the second display area 27b.
  • the examiner may perform a touch operation on the first graphic image 41, or press a software key (not shown) displayed at an arbitrary position on the display screen 25a. Touch operation is possible.
  • the software key for rotating the first graphic image 41 may be superimposed on the first graphic image 41 and displayed.
  • the control unit 30 displays a first software key 42 and a second software key 43 in addition to the first graphic image 41 indicating the positional relationship information J in the second display area. 27b. Furthermore, the control unit 30 displays a vertical line (rotation reference axis) L1 passing through the rotation point G of the eyeball and the rotation axis 18b as the rotation center of the swing mechanism 18, superimposed on the first graphic image 41.
  • the first software key 42 is a software key that causes the control unit 30 to output a control command to the angle changing mechanism 17 when touch-operated by the examiner.
  • the control unit 30 rotates the main unit 13 (acquisition optical system 20) in the left-right direction or the up-down direction according to the touch operation on the first software key 42 .
  • the first software key 42 has a first arrow 42a, a second arrow 42b, a third arrow 42c, and a fourth arrow 42d. Also, the first software key 42 is superimposed on the first graphic image 41 and displayed. Then, when the examiner touches the first arrow 42a, the controller 30 rotates the main body 13 rightward. When the examiner touches the second arrow 42b, the controller 30 rotates the main body 13 leftward. The control unit 30 rotates the body unit 13 upward when the examiner touches the third arrow 42c. The controller 30 rotates the main body 13 downward when the examiner touches the fourth arrow 42d.
  • the second software key 43 is a software key that causes the control unit 30 to output a control command to the position changing mechanism 15 when touch-operated by the examiner.
  • the control unit 30 moves the gantry 12 (acquisition optical system 20) in any one of the front-rear direction, the left-right direction, and the up-down direction according to the touch operation on the second software key 43 .
  • the second software key 43 includes a fifth arrow 43a, a sixth arrow 43b, a seventh arrow 43c, an eighth arrow 43d, a ninth arrow 43e, and a tenth arrow. 43f and . Also, the second software key 43 is superimposed on the first graphic image 41 and displayed. Then, when the examiner touches the fifth arrow 43a, the controller 30 moves the gantry 12 rightward. The control unit 30 moves the gantry 12 leftward when the examiner touches the sixth arrow 43b. The controller 30 moves the gantry 12 forward when the examiner touches the seventh arrow 43c. The controller 30 moves the gantry 12 backward when the examiner touches the eighth arrow 43d. The controller 30 moves the gantry 12 upward when the examiner touches the ninth arrow 43e. The controller 30 moves the gantry 12 downward when the examiner touches the tenth arrow 43f.
  • touch operations on the first software key 42 and the second software key 43 are not limited to ordinary single-tap operations, but also double-tap operations, long-press operations (long taps), flick operations in a predetermined direction, and touch operations in a predetermined direction. It may be a swipe operation, a drag operation in a predetermined direction, a pinch-in operation, a pinch-out operation, or the like.
  • control unit 30 controls the position change mechanism according to the type and number of touch operations on the first software key 42 or the second software key 43 displayed on the display 25, the operation amount (tap time, drag amount, etc.), and the like. 15 and the control of the angle changing mechanism 17 are changed. That is, the moving direction and moving amount of the gantry 12 by the position changing mechanism 15 and the rotating direction and rotating angle amount of the main body 13 by the angle changing mechanism 17 depend on the number of times the examiner taps the first arrow 42a and the like, the amount of operation, and the like. set accordingly.
  • the control unit 30 when the main body 13 is rotated in the horizontal direction or the vertical direction, the control unit 30 according to the first embodiment causes the main body 13 to follow the change in the actual rotation angle of the main body 13 as shown in FIG.
  • the display of the second icon 41B of the image 41 is changed.
  • the control unit 30 causes the second icon 41B of the first graphic image 41 to be displayed following the change in the actual position of the gantry 12, as shown in FIGS. 5C and 5D. to change
  • the ophthalmologic apparatus 10 of the first embodiment can display the positional relationship between the subject's eye E and the acquisition optical system 20 in real time.
  • the vertical line (turning reference axis) L1 passing through the turning point G of the eyeball and the rotation axis 18b serving as the center of rotation of the swinging mechanism 18 are displayed superimposed on the first graphic image 41. . Therefore, the examiner can easily recognize the degree and direction of positional deviation between the subject's eye E and the acquisition optical system 20 based on the deviation between the vertical line (rotating reference axis) L1 and the rotation axis 18b.
  • control unit 30 also changes the display positions of the first software key 42 and the second software key 43 following the display change of the second icon 41B. Therefore, deterioration in operability of the first software key 42 and the second software key 43 can be suppressed.
  • the ophthalmologic apparatus 10 of Example 1 includes an acquisition optical system 20 , a position changing mechanism 15 and an angle changing mechanism 17 , a display 25 and a controller 30 .
  • the acquisition optical system 20 acquires the eye information of the eye E to be examined.
  • the position changing mechanism 15 has an electric moving actuator 15a, and uses the power of the moving actuator 15a to change the positions of the acquisition optical system 20 in the left-right direction, the front-rear direction, and the up-down direction.
  • the angle changing mechanism 17 has an electric swing actuator 18a and an elevation actuator 19a. The angle changing mechanism 17 changes the lateral rotation angle (orientation) of the acquisition optical system 20 using the power of the swing actuator 18a, and the driving force of the elevation actuator 19a to change the angle of the acquisition optical system 20.
  • the display 25 also has a display screen 25a that can be visually recognized by an examiner who is an operator who operates the position changing mechanism 15 and the angle changing mechanism 17 . Then, the control unit 30 causes the display screen 25 a of the display 25 to display the positional relationship information J indicating the positional relationship between the subject's eye E and the acquisition optical system 20 .
  • the operator can determine the positional relationship between the subject's eye E and the acquisition optical system 20 using the positional relationship information J displayed on the display 25.
  • An examiner can be made to grasp objectively. By objectively grasping the positional relationship between the subject's eye E and the acquisition optical system 20, the examiner can accurately recognize the positional relationship between the subject's eye E and the acquisition optical system 20, It is possible to improve the operability when controlling the position and rotation angle (orientation).
  • the control unit 30 includes a first icon 41A representing an eyeball model representing the eye to be examined E, and a second icon 41B representing an apparatus model representing the ophthalmologic apparatus 10 including the acquisition optical system 20. is displayed by a first graphic image 41 showing the positional relationship information J in isometric projection.
  • the ophthalmologic apparatus 10 of the first embodiment allows the examiner to grasp the positional relationship between the subject's eye E and the ophthalmologic apparatus 10 including the acquisition optical system 20 when viewed from above. Therefore, the examiner can easily recognize the outline of the positional relationship between the eye E to be examined and the acquisition optical system 20 .
  • the control unit 30 causes the display 25 to display, as the positional relationship information J, a luminous flux image ⁇ indicating the luminous flux between the subject's eye E and the acquisition optical system 20 . Therefore, the ophthalmologic apparatus 10 of the first embodiment allows the examiner to objectively grasp the state of progress of light between the subject's eye E and the acquisition optical system 20 . As a result, the examiner can objectively recognize the luminous flux between the subject's eye E and the acquisition optical system 20, and can control the position and rotation angle of the acquisition optical system 20, thereby improving the operational accuracy. can be done.
  • the control unit 30 causes the display 25 to display an optical axis image ⁇ indicating the optical axis O of the acquisition optical system 20 as the positional relationship information J. Therefore, the ophthalmologic apparatus 10 of the first embodiment allows the examiner to objectively grasp the direction of the optical axis O directed from the acquisition optical system 20 to the eye E to be examined. As a result, the examiner can objectively recognize the position where the optical axis O of the acquisition optical system 20 passes over the eye to be examined E, and then control the position and rotation angle of the acquisition optical system 20, thereby improving the operation accuracy. can be improved.
  • Example 1 both the luminous flux image ⁇ and the optical axis image ⁇ are superimposed on the first graphic image 41 and displayed. Therefore, the examiner can easily understand the state of the light flux between the eye to be examined E and the acquisition optical system 20 and the orientation of the optical axis O from the acquisition optical system 20 .
  • the ophthalmologic apparatus 10 allows the examiner to grasp the state of the light flux and the direction of the optical axis O.
  • FIG. It may be indicated by a geometric figure such as an ellipse.
  • the subject's eye E is represented by a circle 200 and the acquisition optical system 20 is represented by a square 201 .
  • the portion corresponding to the lens of the eye E to be examined is denoted by ⁇
  • the portion corresponding to the fundus Ef of the eye E to be inspected is denoted by ⁇ .
  • the display 25 has a touch panel function. Then, the control unit 30 displays the first software key 42 on the display 25, and rotates the body unit 13 (acquisition optical system 20) by the angle changing mechanism 17 when the first software key 42 is touch-operated.
  • the examiner can change the orientation of the acquisition optical system 20 by touching the first software key 42 displayed on the display 25 . Therefore, it is possible to improve the operability when changing the orientation of the acquisition optical system 20 .
  • Example 1 the first software key 42 is superimposed on the first graphic image 41 and displayed. Therefore, in the ophthalmologic apparatus 10 of the first embodiment, the examiner can easily grasp how the acquisition optical system 20 moves by touching the first software key 42 . Moreover, the display of the first graphic image 41 and the first software key 42 is changed following the actual movement of the main body 13 . In other words, the device model image (second icon 41B) displayed as the first graphic image 41 moves in the same manner as the actual main body 13 . This makes it easy to grasp the result of the touch operation of the first software key 42 .
  • control unit 30 displays the second software key 43 on the display 25 having a touch panel function, and when the second software key 43 is touch-operated, the position changing mechanism 15 is displayed. to move the pedestal 12 (acquisition optical system 20).
  • the examiner can change the position of the acquisition optical system 20 by touching the second software key 43 displayed on the display 25 . Therefore, it is possible to improve the operability when changing the position of the acquisition optical system 20 .
  • the second software key 43 is superimposed on the first graphic image 41 and displayed. Therefore, in the ophthalmologic apparatus 10 of the first embodiment, the examiner can easily grasp how the acquisition optical system 20 moves by touching the second software key 43 . Moreover, the display of the first graphic image 41 and the second software key 43 is changed following the actual movement of the main body 13 . That is, the device model image (second icon 41B) displayed as the first graphic image 41 moves in the same manner as the actual pedestal 12 . This makes it easy to grasp the result of the touch operation of the second software key 43 .
  • control unit 30 does not necessarily have to display the first software key 42 and the second software key 43 superimposed on the first graphic image 41 .
  • the first software key 42 and the second software key 43 may be independently displayed at arbitrary positions on the display screen 25a of the display 25 having a touch panel function.
  • control unit 30 may use the first graphic image 41 as the first software key 42 and the second software key 43 .
  • the control unit 30 changes the position of the pedestal 12 or changes the rotation angle of the main body 13 by the position change mechanism 15 or the angle change mechanism 17. . This makes it possible for the examiner to feel the sensation of directly moving the ophthalmologic apparatus 10 , making it easier for the examiner to grasp the movement of the acquisition optical system 20 .
  • the touch operations on the first software key 42 and the second software key 43 displayed on the display 25 are normal tap operation (single tap), double tap operation, and long press operation ( long tap), flick operation, swipe operation, drag operation, pinch-in operation, and pinch-out operation. Therefore, it is possible to assign a touch operation to the first software key 42 and the like in consideration of operability by the examiner, and improve operability.
  • control unit 30 controls the position change mechanism according to the type and number of touch operations on the first software key 42 or the second software key 43 displayed on the display 25, the operation amount (tap time, drag amount, etc.), and the like. 15 and the control of the angle changing mechanism 17 are changed. Therefore, the examiner can intuitively control the position changing mechanism 15 and the angle changing mechanism 17, and the operability can be improved.
  • the optical axis image ⁇ can be set by the examiner, and the control unit 30 aligns the acquisition optical system 20 based on the set optical axis image ⁇ . That is, the control unit 30 causes the display 25 to display the optical axis image ⁇ indicating the optical axis O from the acquisition optical system 20, and changes the position and rotation angle of the acquisition optical system 20 according to the touch operation on the optical axis image ⁇ . change.
  • the direction of the optical axis O can be set, for example, based on the opacity distribution of the lens, and the fundus oculi Ef can be observed while avoiding the part where the lens is opaque due to cataract or the like.
  • the lens opacification distribution image may be superimposed and displayed on the portion ⁇ corresponding to the lens of the eye E to be examined in the first icon 41A.
  • the examiner can set the optical axis image ⁇ by performing a touch operation on the lens opacification distribution image.
  • the control unit 30 can change at least one of the position and orientation of the acquisition optical system 20 by the position changing mechanism 15 and the angle changing mechanism 17 according to the touch operation on the lens opacification distribution image. Accordingly, the examiner can control the position and orientation of the acquisition optical system 20 so as to accurately avoid the opacified region of the crystalline lens of the eye E to acquire the fundus image.
  • a retinal image may be superimposed and displayed on the portion ⁇ corresponding to the fundus oculi Ef of the eye E to be examined in the first icon 41A.
  • the examiner can set the optical axis image ⁇ by performing a touch operation on the retinal image.
  • the control unit 30 can change at least one of the position and orientation of the acquisition optical system 20 by using the position changing mechanism 15 and the angle changing mechanism 17 according to the touch operation on the retinal image. Accordingly, the examiner can accurately observe or photograph a desired position of the fundus oculi Ef of the eye to be examined E according to the state of the retina, and can appropriately acquire desired eye information (a fundus image). .
  • the image superimposed on the first graphic image 41 and referred to when setting the optical axis image ⁇ may be an image other than the lens opacification distribution image or the retina image.
  • a transillumination image or a B-scan line image of an OCT image may be used as the image superimposed on the portion ⁇ corresponding to the lens.
  • an image of the retina captured by an infrared camera, a retinal scan image by OCT, or a retinal projection image by OCT may be used.
  • a B-scan image of an OCT image is used as the retinal image, it is possible to grasp the situation of the target image in real time.
  • the examiner may perform a touch operation on the light flux image ⁇ to arbitrarily change the orientation and position of the light flux image ⁇ .
  • the control unit 30 controls the position changing mechanism 15 and the angle changing mechanism 17 so that the actual light flux matches the light flux image ⁇ changed by the touch operation, and the position or orientation of the acquisition optical system 20 is changed. may be changed to align the ophthalmologic apparatus 10 . That is, the control unit 30 may change at least one of the position and orientation of the acquisition optical system 20 by the position changing mechanism 15 and the angle changing mechanism 17 according to the touch operation on the light flux image ⁇ .
  • the examiner can accurately specify the desired position of the eye E to be observed or photographed, and can appropriately acquire the desired eye information (fundus image).
  • the display 25 is provided in the main body 13 housing the acquisition optical system 20 . That is, the display 25 is arranged in an environment in which the examiner can directly confirm the positional relationship between the eye E to be examined and the acquisition optical system 20 . As a result, the examiner who visually recognizes the positional relationship information J displayed on the display 25 can directly compare the displayed positional relationship information J with the actual positional relationship between the subject's eye E and the acquisition optical system 20, and perform the positional relationship.
  • the changing mechanism 15 and the angle changing mechanism 17 can be operated. Therefore, more accurate operation is possible.
  • control unit 30 the moving actuator 15a of the position changing mechanism 15, the swinging actuator 18a and the elevation actuator 19a of the angle changing mechanism 17, and the display 25 are integrated into the main body. 13 are connected via a cable (not shown). Therefore, compared with the case where the control unit 30 and the like are connected via a wireless communication network such as wide area wireless communication or near field wireless communication, the transmission/reception speed of various signals is faster, and the transmission/reception of signals can be performed stably. .
  • Example 2 In the ophthalmologic apparatus 10 of Example 1, an example in which the positional relationship information J is displayed by the first graphic image 41 is shown, but it may be displayed by another display. That is, in the ophthalmologic apparatus 10 of Example 2, the positional relationship information J is displayed by the second graphic image 44 as shown in FIG.
  • the configuration of the ophthalmologic apparatus 10 according to the second embodiment is the same as that of the ophthalmologic apparatus 10 according to the first embodiment, so the description thereof will be omitted.
  • the second graphic image 44 includes a third icon 44C representing an eyeball model representing the subject's eye E, and a fourth icon 44D representing an apparatus model representing the ophthalmologic apparatus 10 including the acquisition optical system 20. It is an image shown by law.
  • the "third triangle method” is a three-dimensional object placed in the third triangle, the front view projected on the front vertical plane, the plan view projected on the upper horizontal plane, and the left vertical plane It is a drawing method drawn by a left side view, etc.
  • the third icon 44C is composed of a plan view, a right side view, and a front view of an eyeball model that schematically shows the eye E to be examined in which the outer shell of the eye to be examined E is divided in the horizontal direction and the interior of which is hollow.
  • a fourth icon 44D is a plane of an apparatus model schematically showing the ophthalmologic apparatus 10 including the acquisition optical system 20, the position changing mechanism 15, the control lever 16, the swing mechanism 18 of the angle changing mechanism 17, and the elevation mechanism 19. It consists of a figure, a right side view and a front view.
  • the portion showing the acquisition optical system 20 is denoted by reference numeral 101
  • the portion showing the position changing mechanism 15 is denoted by reference numeral 102
  • the portion showing the control lever 16 is denoted by reference numeral 103.
  • Reference numeral 104 is attached to the portion indicating the swing mechanism 18, and reference numeral 105 is attached to the portion indicating the elevation mechanism 19. As shown in FIG.
  • the positional relationship information J is displayed by the second graphic image 44 showing the third icon 44C and the fourth icon 44D in the third trigonometry. Therefore, the examiner viewing the display 25 is made to grasp in detail the distance from the acquisition optical system 20 to the eye to be examined E and the positional relationship between the eye to be examined E and the acquisition optical system 20, such as the rotation angle of the acquisition optical system 20. be able to.
  • the eyeball model representing the eye to be examined E and the device model representing the ophthalmologic device 10 are each displayed in three views, a front view, a plan view, and a side view. It is not necessary to display by three figures.
  • the third icon 44C and the fourth icon 44D of the second graphic image 44 are images showing the eyeball model and the device model using the third trigonometry, and are either a front view, a plan view, a left side view, or a right side view. It may be represented by one or more.
  • the second graphic image 44 is composed only of, for example, a third icon 44C showing a plan view of an eyeball model representing the eye to be examined E, and a fourth icon 44D showing a plan view of an apparatus model representing the ophthalmologic apparatus 10.
  • control unit 30 superimposes and displays a lens opacification distribution image on a portion corresponding to the lens in the third icon 44C, and displays a retinal image in a superimposed manner on a portion corresponding to the retina in the third icon 44C. You may Further, the control section 30 may superimpose the light flux image ⁇ or the optical axis image ⁇ on the second graphic image 44 and display the same.
  • control unit 30 displays a second graphic image 44 indicating the positional relationship information J, a first software key 42 for rotating the acquisition optical system 20 by being touch-operated, and a touch-operating image.
  • a second software key 43 for moving the acquisition optical system 20 by being pressed may be displayed in the second display area 27b.
  • the first software key 42 has a first arrow 42a, a second arrow 42b, a third arrow 42c, and a fourth arrow 42d, as in the first embodiment.
  • the second software key 43 also has a fifth arrow 43a, a sixth arrow 43b, a seventh arrow 43c, an eighth arrow 43d, a ninth arrow 43e, and a tenth arrow 43f. .
  • the control unit 30 displays a first scale image 45a and a second scale image 45b imitating a scale indicating the rotation angle of the acquisition optical system 20 with respect to the subject's eye E, as shown in FIG. You may let Here, the first scale image 45a indicates the rotation angle of the acquisition optical system 20 in the horizontal direction. Also, the second scale image 45b indicates the rotation angle of the acquisition optical system 20 in the vertical direction.
  • the first scale image 45a and the second scale image 45b are scales indicating the rotation angle about the pupil center position of the eye E to be examined. are facing each other (the optical axis O is orthogonal to the fundus oculi Ef), the angle is zero.
  • the first scale image 45a and the second scale image 45b are displayed overlapping the second graphic image 44. As shown in FIG.
  • the control unit 30 displays a first numerical image 46a and a second numerical image 46b indicating numerical values indicating the rotation angle of the acquisition optical system 20 with respect to the subject's eye E, as shown in FIG. may
  • the first numerical image 46a indicates the rotation angle of the acquisition optical system 20 in the horizontal direction.
  • the second numerical image 46b indicates the rotation angle of the acquisition optical system 20 in the vertical direction.
  • the first numerical image 46a and the second numerical image 46b are obtained when the eye to be examined E and the acquisition optical system 20 face each other (the optical axis O is perpendicular to the fundus oculi Ef). Zero degrees.
  • the examiner can grasp the rotation angle of the acquisition optical system 20 more accurately.
  • the control unit 30 when a touch operation is performed on the first scale image 45a and the second scale image 45b or the first numerical image 46a and the second numerical image 46b, the control unit 30 A control command is output to the angle changing mechanism 17 according to a touch operation on the scale image 45a. Then, the control unit 30 may rotate the body unit 13 (acquisition optical system 20 ) in the left-right direction or the up-down direction by using the angle changing mechanism 17 .
  • control unit 30 uses the first scale image 45a and the second scale image 45b, the first numerical image 46a and the second numerical image 46b as software keys to control the angle changing mechanism 17, and the main unit 13 (acquisition The optical system 20) may be rotated horizontally or vertically.
  • the angle changing mechanism 17 can be controlled by touch operation without displaying the software keys for controlling the angle changing mechanism 17 (for example, the first software key 42, the second software key 43, etc.) on the display 25. can be done. As a result, the display content of the display 25 can be prevented from becoming excessive, and the operability can be improved.
  • the software keys for controlling the angle changing mechanism 17 for example, the first software key 42, the second software key 43, etc.
  • the ophthalmic apparatus of the present invention has been described above based on the first and second embodiments, the specific configuration is not limited to these embodiments, and can be set forth in each claim. Design changes, additions, etc. are permitted as long as they do not deviate from the gist of the invention.
  • the ophthalmologic apparatus 10 of the first and second embodiments an example in which the first software key 42 and the second software key 43 are superimposed on the positional relationship information J (the first graphic image 41 and the second graphic image 44) is displayed. Indicated. However, it is not limited to this.
  • the control unit 30 sets a third display area 27c on the display screen 25a of the display 25 at a position different from the second display area 27b that displays the first graphic image 41. Then, the control unit 30 displays the control lever image 50, the first software key 42 and the second software key 43 in the third display area 27c, as shown in FIG. 10B.
  • the control lever image 50 is an image showing a control lever model schematically showing the control lever 16 by isometric projection.
  • the display of the control lever image 50 may be changed by tilting or rotating the control lever model according to the operation of the first software key 42 or the second software key 43 .
  • the first software key 42 is a software key that causes the control unit 30 to output a control command to the angle changing mechanism 17 when touch-operated by the examiner.
  • the first software key 42 has a first arrow 42a, a second arrow 42b, a third arrow 42c, and a fourth arrow 42d, as shown in FIG. 10B.
  • the second software key 43 is a software key that causes the control unit 30 to output a control command to the position changing mechanism 15 when touch-operated by the examiner. As shown in FIG. 10B, the second software key 43 includes a fifth arrow 43a, a sixth arrow 43b, a seventh arrow 43c, an eighth arrow 43d, a ninth arrow 43e, a tenth arrow 43f, have.
  • the angle can be changed by the touch operation on the display 25.
  • the changing mechanism 17 and the position changing mechanism 15 only the positional relationship information J can be displayed in the second display area 27b.
  • the display content in the second display area 27b is prevented from becoming excessive, and the positional relationship information J can be easily viewed.
  • the examiner can easily visualize the movement of the control lever 16 and intuitively understand the operation of the acquisition optical system 20. It can be done easily. This allows the examiner to more accurately recognize the positional relationship between the eye to be examined E and the acquisition optical system 20 .
  • the control lever image 50 is an image showing the control lever model by isometric projection, but it is not limited to this.
  • the control lever model may be an image showing a circular or triangular geometric figure. Note that when the control lever model is represented by a circular geometric figure, it is possible to represent the state of the ophthalmologic apparatus 10 viewed from above. On the other hand, when the control lever model is represented by a triangular geometric figure, it is possible to represent the measurement direction by, for example, the orientation of the vertex. In the example shown in FIG. 11, the position of the subject's eye E is indicated in the direction to which the apex of the most acute angle is directed.
  • control unit 30 may display a plurality of control lever images 51 and display the first software key 42 and the second software key 43 separately (see FIG. 11). Further, the control unit 30 may display only the first software key 42 and the second software key 43, which are composed of a plurality of arrows or the like, in the third display area 27c without displaying the control lever image.
  • the lens opacification distribution image and the retina image may be displayed superimposed on the first graphic image 41 .
  • an image (luminous flux image ⁇ ) showing the current state of the light flux between the subject's eye E and the acquisition optical system 20, and an image (optical axis image ⁇ ) showing the current state of the optical axis O of the acquisition optical system 20. is displayed.
  • the lens opacification image, the retina image, the luminous flux image ⁇ , and the optical axis image ⁇ are part information of the eye E to be inspected that indicates the state of a part of the eye E to be inspected.
  • an example of displaying the current rotation angle of the acquisition optical system 20 with respect to the eye E to be examined has been shown.
  • the various information displayed on the display 25 by the control unit 30 is not limited to these.
  • control unit 30 causes the display 25 to display, for example, an image showing the current state of the anterior segment of the eye to be inspected E and an image showing the current state of the posterior segment of the eye to be inspected E, as part information of the eye E to be inspected. , an image or the like showing the current state of the vitreous body of the eye E to be examined may be displayed.
  • the control unit 30 may also display the current distance from the subject's eye E to the acquisition optical system 20 .
  • control unit 30 may cause the display 25 to display not only the current state such as the opacity distribution of the lens and the retinal region, but also the target state of the site information of the eye E to be examined. That is, the control unit 30 displays the target state of the anterior segment of the eye to be examined E, the target state of the posterior segment of the eye to be examined E, and the target states of various parts of the eye to be examined E, such as the vitreous body, the crystalline lens, and the retinal region. 25 may be displayed on the display screen 25a. In addition, the control unit 30 may display the target rotation angle of the acquisition optical system 20 with respect to the subject's eye E and the target distance from the subject's eye E to the acquisition optical system 20 .
  • the control unit 30 enlarges or reduces the region information of the subject's eye E displayed on the display 25, changes the center position of the display, or the like, according to touch operations by the examiner, operations of the operation unit 26, or the like. may be displayed on the display 25 again. That is, for example, when the examiner performs a pinch-out operation on the position of the papilla of the fundus image of the eye E to be inspected, the image may be switched to an enlarged image of the papilla centered on the touched papilla position, or the examiner may When the position of the papilla of the fundus image of the eye to be examined E is pinched in, the reduced image of the fundus image centered on the touched papilla position may be displayed. Furthermore, when the examiner performs a single tap operation on the position of the papilla of the fundus image of the eye to be examined E, the fundus image may be changed and displayed centering on the position of the touched papilla.
  • control unit 30 the position changing mechanism 15, the angle changing mechanism 17, and the display 25 are connected via a cable (not shown) inside the main unit 13. rice field.
  • the control unit 30 and the position changing mechanism 15, the angle changing mechanism 17 and the display 25 may be connected via wide area wireless communication such as a mobile phone network. In this case, remote control becomes possible, and the examiner can acquire the eye information of the eye E to be examined without being near the examinee.
  • An example of a standard for wide-area wireless communication using a mobile phone network is LTE (Long Term Evolution).
  • control unit 30 and the position changing mechanism 15, and the angle changing mechanism 17 and the display 25 may be connected via short-range wireless communication.
  • short-range wireless communication although wireless communication is used, the communication speed is faster than that of wide-area wireless communication, and the occurrence of time lag in transmission and reception of various signals can be suppressed.
  • standards for short-range wireless communication include BLE (Bluetooth (registered trademark) Low Energy) communication and Wi-Fi (registered trademark). It is difficult to clearly distinguish between wide area wireless communication and short-range wireless communication. Distance wireless communication is assumed.
  • control unit 30 and the position changing mechanism 15, and the angle changing mechanism 17 and the display 25 may be connected via a management server.
  • various signals transmitted and received between the control unit 30 and the position changing mechanism 15 and between the angle changing mechanism 17 and the display 25 can be collectively managed by the management server. This also makes it possible to collectively manage a plurality of ophthalmologic apparatuses 10 .
  • the display 25 is provided in the main body 13 that accommodates the acquisition optical system 20, and the display 25 enables the examiner to directly check the positional relationship between the subject's eye E and the acquisition optical system 20. placed in a comfortable environment.
  • the display 25 and the control unit 30 are configured by a mobile information terminal, a notebook computer, or the like that can be separated from the main unit 13, and the examiner, who is the operator, directly confirms the positional relationship between the subject's eye E and the acquisition optical system 20.
  • the examiner who visually recognizes the positional relationship information J displayed on the display 25 remotely operates the position changing mechanism 15 or the angle changing mechanism 17 based on the displayed positional relationship information J, or obtains the information.
  • An instruction can be given to a subject or the like in the vicinity of the optical system 20 .
  • the position changing mechanism 15 and the angle changing mechanism 17 are operated by the examiner, but the present invention is not limited to this.
  • the subject may act as an operator and operate the position changing mechanism 15 and the angle changing mechanism 17 by performing a touch operation or the like on the display 25 by himself/herself.
  • the operation of the position changing mechanism 15 and the angle changing mechanism 17 is not limited to a touch operation on the display 25 having a touch panel function, and the position changing mechanism 15 can be operated by tilting or rotating the control lever 16 which is the operation unit 26 . etc. may be operated.
  • the positional relationship information J includes the second graphic image 44, the first scale image 45a and the second scale image 45b, the first numerical image 46a and the second numerical image 46b, is displayed.
  • at least one of these display modes indicating the positional relationship information J is displayed. etc., can be arbitrarily selected and displayed.
  • arbitrary images may be selectively switched and displayed, for example, the first graphic image 41 and the second graphic image 44 may be switched and displayed.
  • the selection and switching of the display is performed by displaying a selection menu on the display 25 and making a selection by the examiner by touch operation, or by the examiner operating the operation unit 26 such as a keyboard and making a selection. .
  • the rotation axis 18b is set to coincide with the pupil center position of the eye to be examined E by alignment, and the acquisition optical system 20 swings and raises and lowers with the pupil center position as the rotation center.
  • the acquisition optical system 20 is swung and raised with the rotational axis 18b and the central axis 19b as the center of rotation
  • the position where the rotational axis 18b and the central axis 19b coincide within the eye E to be examined. may be set as appropriate, and is not limited to the configuration of each embodiment.
  • the rotation axis 18b may be set to coincide with the rotation point or the corneal vertex of the eye E to be inspected. It can be made to perform a supine motion.
  • the ophthalmologic apparatus 10 of Example 1 has a position changing mechanism 15 and an angle changing mechanism 17 as optical system changing mechanisms, and the acquisition optical system 20 moves in the left-right direction, the front-back direction, and the up-down direction with respect to the subject's eye E, respectively.
  • a position changing mechanism 15 and an angle changing mechanism 17 as optical system changing mechanisms
  • the acquisition optical system 20 moves in the left-right direction, the front-back direction, and the up-down direction with respect to the subject's eye E, respectively.
  • An example in which it is possible to move and rotate in the left-right direction and the up-down direction is shown.
  • the ophthalmic apparatus to which the present invention is applied may be, for example, an ophthalmic apparatus having only the position changing mechanism 15 as the optical system changing mechanism, or an ophthalmic apparatus having only the angle changing mechanism 17 as the optical system changing mechanism.
  • the ophthalmologic apparatus may be such that one of the position changing mechanism 15 and the angle changing mechanism 17 is electrically operated and the other is manually driven.
  • the ophthalmologic apparatus 10 of the first embodiment is a fundus camera having the acquisition optical system 20 that acquires the fundus image as the eye information of the eye E to be examined.
  • the present invention is not limited to this, and the present invention can be applied to any ophthalmologic apparatus having an acquisition optical system movable with respect to the eye E to be examined.
  • An autokeratrefractometer or autokeratometer for measuring force (visual acuity), or a tonometer for measuring intraocular pressure of the eye to be examined E as eye information may be used.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

被検眼と取得光学系との位置関係を操作者に客観的に把握させ、操作者が取得光学系の位置や向きを制御する際の操作性を向上させることができる眼科装置を提供するため、被検眼(E)の眼情報を取得する取得光学系(20)と、被検眼(E)に対する取得光学系(20)の位置を変更する電動式の位置変更機構(15)及び向きを変更する電動式の角度変更機構(17)と、位置変更機構(15)及び角度変更機構(17)を操作する検者によって視認可能なディスプレイ(25)と、被検眼(E)と取得光学系(20)との位置関係を示す位置関係情報(J)をディスプレイ(25)に表示させる制御部(30)と、を備える。

Description

眼科装置
 本発明は、眼科装置に関するものである。
 従来から、被検眼の眼情報を取得する取得光学系を備えた眼科装置が知られている。従来の眼科装置では、タッチパネル機能を有するディスプレイに表示された被検眼の観察画像に検者等の操作者がタッチ操作し、当該タッチ操作に基づいて取得光学系を移動させる(例えば、特許文献1参照)。
特許第6815722号公報
 ところで、従来の眼科装置では、ディスプレイに表示された被検眼の観察画像に基づいて被検眼と取得光学系との位置関係を推定する必要がある。つまり、操作者は、取得光学系を移動させる際、観察画像から推定した主観的な位置関係に基づいて取得光学系を移動させなければならない。このため、操作者が推定した被検眼と取得光学系との位置関係が実際の位置関係と異なっている場合では、取得光学系を所望の位置へと移動させられない。すなわち、従来の眼科装置では、操作者は被検眼と取得光学系との位置関係を客観的に把握できず、操作者が取得光学系の位置や向きを制御する際の操作性が低いという問題がある。
 本発明は、上記問題に着目してなされたもので、操作者に被検眼と取得光学系との位置関係を客観的に把握させ、操作者が取得光学系の位置や向きを制御する際の操作性を向上させることができる眼科装置を提供することを目的とする。
 上記目的を達成するため、本発明の眼科装置は、被検眼の眼情報を取得する取得光学系と、前記被検眼に対する前記取得光学系の位置又は向きの少なくとも一方を変更する電動式の光学系変更機構と、前記光学系変更機構を操作する検者によって視認可能なディスプレイと、前記被検眼と前記取得光学系との位置関係を示す位置関係情報を前記ディスプレイに表示させる制御部と、を備えている。
 よって、本発明の眼科装置では、操作者に被検眼と取得光学系との位置関係を客観的に把握させ、操作者が被検眼に対する取得光学系の位置や向きを制御する際の操作性を向上させることができる。
実施例1の眼科装置の構成を示す全体模式図である。 実施例1の眼科装置の制御構成を示すブロック図である。 実施例1の眼科装置のディスプレイの表示例を示す説明図である。 実施例1の眼科装置にて表示される位置関係情報を示す説明図である。 実施例1の位置関係情報にソフトウェアキーを重畳表示した説明図である。 実際の取得光学系の向きに応じて位置関係情報の表示を変更した第1説明図である。 実際の取得光学系の位置に応じて位置関係情報の表示を変更した第2説明図である。 実際の取得光学系の位置に応じて位置関係情報の表示を変更した第3説明図である。 位置関係情報として表示される光束画像及び光軸画像の変形例を示す説明図である。 実施例2の眼科装置のディスプレイの表示例を示す説明図である。 実施例2の眼科装置にて表示される位置関係情報を示す説明図である。 実施例2の眼科装置における位置関係情報の変形例を示す説明図である。 実施例1の眼科装置のディスプレイの表示の変形例を示す説明図である。 第3表示領域の表示を拡大して示す説明図である。 図10Bに示す第3表示領域の表示の変形例を示す説明図である。
 本発明の眼科装置を実施するための形態を、図面に示す実施例1及び実施例2に基づいて説明する。なお、以下の説明では、被検者に対峙する方(検者側)から見て、左右方向を矢印Xで示し、上下方向(鉛直方向)を矢印Yで示し、左右方向及び上下方向と直交する方向を前後方向として矢印Zで示す。また、左右方向(X軸方向)において、検者の左側を左方向、検者の右側を右方向とする。さらに、前後方向(Z軸方向)において、検者側を前側、被検者側を後側とする。
 (実施例1)
 以下、実施例1の眼科装置10の構成を、図1及び図2を参照しつつ説明する。
 実施例1の眼科装置10は、眼底カメラであり、被検眼Eの眼情報として眼底像を取得する取得光学系20を有している。
 眼科装置10は、図1に示すように、ベース11と、架台12と、本体部13と、支柱14と、を有している。なお、取得光学系20は本体部13に収容されている。
 架台12は、ベース11の上に設置され、位置変更機構15を介してベース11に支持されている。位置変更機構15は、架台12を左右方向(X軸方向)、前後方向(Z軸方向)、上下方向(Y軸方向)へそれぞれ移動させる電動式の公知の移動機構である。すなわち、位置変更機構15は、架台12を移動させる駆動力を発生するステッピングモータ等の電動の移動用アクチュエータ15aと、移動用アクチュエータ15aが発生した駆動力を架台12に伝達する伝達機構(不図示)と、を有している。そして、位置変更機構15は、移動用アクチュエータ15aの駆動力を用いて架台12を移動させる。なお、移動用アクチュエータ15aは、架台12を左右方向へ移動させるものと、前後方向へ移動させるものと、上下方向へ移動させるものとで個別に設けてもよいし、複数の方向へ移動させるものを兼用してもよい。
 また、架台12には、後述する操作部26であるコントロールレバー16が設けられている。後述する制御部30は、操作者である検者によってコントロールレバー16が操作された際、操作に応じて、位置変更機構15の移動用アクチュエータ15a又は後述する角度変更機構17の首振り用アクチュエータ18aや俯仰用アクチュエータ19aに制御指令を出力する。コントロールレバー16の先端部には、操作ボタン16aが配置されている。制御部30は、検者によって操作ボタン16aが押されることで、被検眼Eの眼底像を撮像させる制御指令を取得光学系20に出力する。
 本体部13は、架台12の上に設置され、角度変更機構17を介して架台12に支持されている。ここで、本体部13は、取得光学系20及び制御部30(図2参照)を収容している。また、本体部13には、対物レンズ部21と接眼レンズ部22とが設けられている。さらに、本体部13には、スチルカメラ23と撮像装置24とが取り外し可能に接続されている。
 角度変更機構17は、本体部13を左右方向及び上下方向へ回転させる電動式の公知の移動機構である。角度変更機構17は、首振り機構(スイング機構)18と、俯仰機構(チルト機構)19と、を有している。
 首振り機構18は、本体部13を回転させる駆動力を発生するステッピングモータ等の電動の首振り用アクチュエータ18aと、首振り用アクチュエータ18aが発生した駆動力を本体部13に伝達する伝達機構(不図示)と、を有している。首振り機構18は、首振り用アクチュエータ18aの駆動力を用いて、予め設定された回転軸線18b(基準軸)を中心に本体部13を左右方向(X軸方向)に回転させる。ここで、回転軸線18bは、取得光学系20よりも前後方向(Z軸方向)の後側に設定された所定の位置を通り、上下方向(Y軸方向)に伸びる直線に設定されている。取得光学系20は、回転軸線18bが被検眼Eの瞳孔中心位置に一致するようにアライメントされる。図1に示す状態では、被検眼Eの瞳孔中心位置が回転軸線18bに一致している。
 俯仰機構19は、本体部13を回転させる駆動力を発生するステッピングモータ等の電動の俯仰用アクチュエータ19aと、俯仰用アクチュエータ19aが発生した駆動力を本体部13に伝達する伝達機構(不図示)と、を有している。俯仰機構19は、俯仰用アクチュエータ19aの駆動力を用いて、予め設定された中心軸線19b(基準軸)を中心に、本体部13を上下方向(Y軸方向)に回転させる。ここで、中心軸線19bは、回転軸線18bと取得光学系20の光軸Oとが交差する位置を通り、左右方向(X軸方向)に伸びる直線に設定されている。
 実施例1の眼科装置10では、位置変更機構15によって架台12が自動的に左右方向、前後方向、上下方向の各方向へ移動させられ、角度変更機構17によって架台12上に設置された本体部13が自動的に左右方向、上下方向の各方向へ回転させられる。すなわち、本体部13に収容された取得光学系20は、位置変更機構15により、架台12ごと左右方向、前後方向、上下方向の位置が変更され、角度変更機構17により、本体部13ごと左右方向及び上下方向の回転角度(向き)が変更される。そのため、位置変更機構15及び角度変更機構17は、被検眼Eに対して取得光学系20の位置及び向きを変更する電動式の光学系変更機構に相当する。
 支柱14は、ベース11から起立し、上下方向に伸びている。支柱14には、顎受部14aと額当部14bと外部固視灯14cとが設けられている。顎受部14a及び額当部14bは、被検眼Eの眼情報を取得する際、本体部13(取得光学系20)に対する被検者(患者)の顔、すなわち被検眼Eの位置を固定する。顎受部14aは、被検者が顎を載せる箇所であり、額当部14bは、被検者が額を宛がう箇所である。顎受部14a及び額当部14bは、それぞれベース11に対して上下方向に移動可能である。外部固視灯14cは、被検眼Eを固視(視線を固定)させる光源である。実施例1の眼科装置10は、被検者が顎受部14aに顎を載せると共に額当部14bに額を宛がい、本体部13に対峙した状態で外部固視灯14cを適宜点灯させ、被検眼Eの検査、観察、撮影等を行う。
 本体部13に収容された取得光学系20は、被検眼Eの眼情報(眼底像)を取得する光学系である。取得光学系20は、眼底Efを照明する照明光学系や、照明された眼底Efを観察及び撮影する撮影光学系、対物レンズ及び接眼レンズ等を有する。
 照明光学系は、眼底観察時、被検眼Eからの眼底反射像を用いるために、被検眼Eの瞳孔上に観察照明光のリング透光部像を形成する。また、照明光学系は、眼底撮影時、キセノンランプをフラッシュ発光させて、眼底Efを照明する。なお、照明光学系は、蛍光撮影の場合には、FAG撮影かICG撮影かに応じてエキサイタフィルタを切り換えることが可能である。さらに、照明光学系は、カラー撮影の場合には、エキサイタフィルタを光路上から退避させる。
 撮影光学系は、照明光学系により照明された被検眼Eからの反射光を、スチルカメラ23の撮影媒体や撮像装置24の撮像素子に導き、眼底Efの観察や撮影を可能とする。
 対物レンズ部21は、鏡筒に収容された取得光学系20の対物レンズ(不図示)によって構成されている。対物レンズ部21は、被検眼Eに対向する位置に配置される。接眼レンズ部22は、鏡筒に収容された取得光学系20の接眼レンズ(不図示)によって構成されている。接眼レンズ部22は、検者が被検眼Eの観察を行う箇所である。
 スチルカメラ23は、取得光学系20を経て被検眼Eの眼底Efの静止画像を撮影する。スチルカメラ23は、検査の目的等に応じて、CCD(Charge Coupled Device)を搭載したデジタルカメラ、フィルムカメラ、インスタントカメラ等が用いられる。撮像装置24は、取得光学系20を経て被検眼Eの眼底Efの動画像等を撮影する。撮像装置24は、テレビカメラ等が用いられる。なお、スチルカメラ23や撮像装置24は、デジタル撮像方式のものを用いた場合、眼科装置10における記録媒体や外部に設けられたコンピュータ等の画像記録装置等で取得した画像データを保存できる。
 さらに、本体部13には、ディスプレイ25が設けられている。ディスプレイ25は、眼情報の取得中に検者に対峙する位置に配置されている。ディスプレイ25は、位置変更機構15及び角度変更機構17を操作する操作者である検者によって視認可能な表示装置である。ディスプレイ25は、表示画面25a(図3参照)にタッチパネル機能を有する液晶表示装置で構成されている。
 ディスプレイ25の表示画面25aには、制御部30の制御下で、取得光学系20からの画像データに基づく被検眼Eの眼底Efの画像や、操作部26としてのソフトウェアキー等が適宜表示される。また、表示画面25aには、後述する位置関係情報Jが表示される。
 操作部26は、検者や被検者が顎受部14aや額当部14b、位置変更機構15、角度変更機構17、取得光学系20等の動作や設定等を操作するものである。操作部26は、検者等によって操作されることで、操作に応じた所定の操作信号を制御部30に出力する。制御部30は、操作部26からの操作信号に基づいて顎受部14aや額当部14b、位置変更機構15、角度変更機構17、取得光学系20等に所定の制御指令を出力する。この結果、顎受部14a等の動作や設定等が操作される。
 操作部26は、コントロールレバー16、コントロールレバー16の先端部に設けられた操作ボタン16a、ディスプレイ25に表示されたソフトウェアキー等で構成される。ソフトウェアキーは、取得光学系20のアライメント、各種検査条件の設定、及びディスプレイ25の表示内容の調整等の各種動作の操作を可能とする。なお、操作部26は、コントロールレバー16の周辺やディスプレイ25の周辺に設けられた各種のボタンを併せて有していてもよい。また操作部26は、例えばキーボード、マウス等の入力装置で構成されていてもよい。
 制御部30は、図2に示すように、記憶部31又は内蔵する内部メモリ32に記憶したプログラムを例えばRAM(Random Access Memory)上に展開することにより、操作部26に対する操作等に応じて、眼科装置10の動作を統括的に制御する。実施例1では、内部メモリ32は、RAM等で構成され、記憶部31は、ROM(Read Only Memory)やEEPROM(Electrically Erasable Programmable ROM)等で構成される。
 眼科装置10では、上記した構成の他に、測定完了信号や検者等からの指示に応じて測定結果を印字するプリンタや、測定結果を外部メモリやサーバー等に出力する出力部や、動作の状況等を報知する音声出力部が適宜設けられてもよい。なお、制御部30は、ベース11や架台12の内部等に設けられていてもよい。
 さらに、制御部30には、本体部13の内部において、図示しないケーブルを介して取得光学系20が接続されている。そして、制御部30は、取得光学系20における照明光学系の光源や撮影光学系の動作部等を制御し、駆動(移動も含む)させる。さらに、制御部30には、移動用アクチュエータ15aと、首振り用アクチュエータ18aと、俯仰用アクチュエータ19aと、ディスプレイ25と、コントロールレバー16(操作ボタン16a)及びソフトウェアキーを含む操作部26と、記憶部31と、架台位置センサ33と、首振りセンサ34と、俯仰センサ35と、距離センサ36とが、本体部13の内部において図示しないケーブルを介して接続されている。制御部30は、操作部26からの操作信号に応じて、移動用アクチュエータ15aと、首振り用アクチュエータ18aと、俯仰用アクチュエータ19aと、ディスプレイ25と、に所定の制御指令を出力して制御する。さらに、眼科装置10では、商用電源から制御部30に電力が供給され、制御部30が上記の接続された各部に電力を供給する。
 架台位置センサ33は、ベース11上における架台12(取得光学系20)の左右方向及び前後方向の位置と、ベース11に対する架台12(取得光学系20)の上下方向の位置とを検出するセンサである。架台位置センサ33は、検出した架台12の位置情報を制御部30に出力する。実施例1の架台位置センサ33は、ベース11に取り付けられた固定センサと、架台12に取り付けられて架台12と共に移動する移動センサと、を有し、両センサの間隔に基づいてベース11に対する架台12の左右方向、前後方向、上下方向の各方向の位置を検出する。なお、架台位置センサ33は、接触型のセンサでも非接触型のセンサであってもよい。
 首振りセンサ34は、本体部13(取得光学系20)の左右方向の回転角度を検出するセンサである。首振りセンサ34は、検出した本体部13の角度情報を制御部30に出力する。実施例1の首振りセンサ34は、本体部13を支持する架台12側の固定センサと、本体部13と共に移動する本体部13側の移動センサと、を有し、両センサの間隔に基づいて本体部13の左右方向の回転角度を検出する。なお、首振りセンサ34は、接触型のセンサでも非接触型のセンサであってもよい。
 俯仰センサ35は、本体部13(取得光学系20)の上下方向の回転角度を検出するセンサである。俯仰センサ35は、検出した本体部13の角度情報を制御部30に出力する。実施例1の俯仰センサ35は、本体部13を支持する架台12側の固定センサと、本体部13と共に移動する本体部13側の移動センサと、を有し、両センサの間隔に基づいて本体部13の上下方向の回転角度を検出する。なお、俯仰センサ35は、接触型のセンサでも非接触型のセンサであってもよい。
 距離センサ36は、本体部13(取得光学系20)から被検眼Eまでの距離、すなわち両者の間隔を検出するセンサである。距離センサ36は、検出した距離情報を制御部30に出力する。実施例1の距離センサ36は、本体部13において、最も被検者側に突出した箇所である対物レンズ部21から被検眼Eまでの直線距離を検出する。距離センサ36は、例えば、本体部13の被検者と対向する面に設けられている。実施例1の距離センサ36は、内部にLEDやLDなどの光源と受光素子とを備え、光源から照射された光の測定対象(例えば被検者の顔)からの反射光を受光素子にて受光し、距離に換算して出力する。なお、距離センサ36は、本体部13から被検眼Eまでの距離(間隔)を検出するものであれば、例えば、超音波や赤外線を用いたものやステレオカメラでもよく、他の構成の距離センサでもよく、実施例1の構成に限定されない。
 以下、実施例1の制御部30によって制御されるディスプレイ25の表示について説明する。
 実施例1の眼科装置10では、図3に示すように、ディスプレイ25の表示画面25aに、制御部30によって第1表示領域27aと、第2表示領域27bと、が設定される。ここで、制御部30は、第1表示領域27aに取得光学系20により取得された被検眼Eの眼底Efの画像Fを表示させる。また、制御部30は、第2表示領域27bに、被検眼Eと取得光学系20との位置関係を示す位置関係情報Jを表示させる。なお、第1表示領域27a及び第2表示領域27bの大きさや配置は任意に設定可能であり、例えば制御部30は、表示画面25aの全面に第2表示領域27bを設定してもよい。また、制御部30は、第1表示領域27aに画像F以外の任意の画像や情報、ソフトウェアキー等を表示させてもよい。また、制御部30は、第1表示領域27a及び第2表示領域27b以外の領域に、任意の画像や情報、ソフトウェアキー等を表示させてもよい。
 また「位置関係情報J」とは、実際の被検眼Eの位置に対する実際の取得光学系20の位置を客観的に表した情報である。位置関係情報Jは、被検眼Eから取得光学系20までの左右方向の距離と、被検眼Eから取得光学系20までの前後方向の距離と、被検眼Eから取得光学系20までの上下方向の距離と、回転軸線18bを中心とした取得光学系20の左右方向の回転角度と、中心軸線19bを中心とした取得光学系20の上下方向の回転角度と、等に基づき、制御部30によって演算される。なお、制御部30は、位置関係情報Jの演算に必要な距離情報や回転角度情報を、架台位置センサ33と首振りセンサ34と俯仰センサ35と距離センサ36との検出結果から求める。また、制御部30は、移動用アクチュエータ15a、首振り用アクチュエータ18a、俯仰用アクチュエータ19aの動作量から位置関係情報Jを求めてもよい。
 そして、位置関係情報Jは、実施例1では、図4に示す第1グラフィック画像41によって表示される。第1グラフィック画像41は、被検眼Eを示す眼球モデルを示した第1アイコン41Aと、取得光学系20を含む眼科装置10を示す装置モデルを示した第2アイコン41Bと、を有する。
 そして、第1アイコン41A及び第2アイコン41Bは、等角投影法によって示される。ここで、「等角投影法」は、傾斜させた立体物を、前後、左右、上下の三方向で作る角度が互いに等角(120度)になるように描く図法である。このため、等角投影法によって表示された第1グラフィック画像41は、基本的に被検眼E及び眼科装置10を斜め上方から見た斜視図になる。
 また、実施例1では、第1アイコン41Aは、被検眼Eの外殻を左右方向に分割し、内部を空洞とした被検眼Eを模式的に示す等角投影法で示された眼球モデル画像によって表示されている。なお、図4において、被検眼Eの水晶体に相当する部分に符号αを付し、被検眼Eの眼底Efに相当する部分に符号βを付す。また、第1アイコン41Aは図4に示すものに限らず、例えば、被検眼Eの任意の一部(例えば、前眼部のみ、水晶体のみ等)を模式的に示す眼球モデル画像であってもよい。また、第1アイコン41Aは、被検眼Eの外殻を半透過に表示して内部構造の全体又は左半分若しくは右半分を模式的に示す眼球モデル画像であってもよいし、被検眼Eの一部(例えば上部四分の一)を破断して内部の構造を模式的に示した眼球モデル画像であってもよい。なお、図3及び図4に示す例では、眼球モデルに被検眼Eの左半分の血管画像を重畳して表示しているが、血管画像は表示されなくてもよい。
 一方、第2アイコン41Bは、取得光学系20と位置変更機構15とコントロールレバー16と角度変更機構17の首振り機構18及び俯仰機構19とを含む眼科装置10を模式的に示す等角投影法で示された装置モデル画像によって表示されている。図4では、第2アイコン41Bにおいて、取得光学系20を示す部分に符号101を付し、位置変更機構15を示す部分に符号102を付し、コントロールレバー16を示す部分に符号103を付し、首振り機構18を示す部分に符号104を付し、俯仰機構19を示す部分に符号105を付す。また、第2アイコン41Bとして示される装置モデル画像は、検者が位置関係情報Jを把握しやすいように、実際の眼科装置10とは異なる形状にされてもよいし、部分的に拡大・縮小されたり、変形されたりしてもよい。図4に示す例では、視認性を向上させるため取得光学系20を縮小して模式的に示している。
 なお、第1アイコン41Aに対する第2アイコン41Bの縮尺は、等倍にして表示してもよいし、等倍にせず任意の倍率で拡大或いは縮小して表示してもよい。図4に示す例では、第1アイコン41Aに対して第2アイコン41Bを縮小して表示しており、被検眼Eを模した第1アイコン41Aは相対的に拡大して表示され、眼科装置10を模した第2アイコン41Bは相対的に縮小して表示されている。第1アイコン41Aに対し第2アイコン41Bが非等倍で表示されることで、検者は、位置関係情報Jを把握しやすくなる。
 さらに、制御部30は、第1アイコン41Aにおける被検眼Eの水晶体に相当する部分αに、水晶体の現在の混濁分布の状態を示す画像(以下、「水晶体混濁分布画像」という)を重畳して表示させてもよい。水晶体の混濁分布の検出は、公知の装置(例えばシャックハルトマンセンサ等、特許第6775337号公報等参照)を用いて検出される。さらに、水晶体の混濁位置は、公知の特定手法(例えば光コヒーレンストモグラフィ(OCT)スキャンを利用した手法等、特開2019-170710号公報等参照)によって特定される。
 また、制御部30は、第1アイコン41Aにおける被検眼Eの眼底Efに相当する部分βに、網膜の現在の状態を示す画像(以下、「網膜画像」という)を重畳して表示させてもよい。網膜画像は、公知の技術(例えば、特開2020-156622号公報等参照)に基づいて眼球モデル画像である第1アイコン41Aに複合される。
 なお、水晶体混濁分布画像や網膜画像は、第2表示領域27b内であって、第1アイコン41Aに重畳しない任意の領域に表示(いわゆる提灯表示、又はバルーン表示)してもよい。
 さらに、制御部30は、位置関係情報Jとして、図4に示すように、被検眼Eと取得光学系20との間の光束を示す光束画像γや、取得光学系20から被検眼Eに向けられた光軸Oを示す光軸画像δを第1グラフィック画像41に重畳して表示させる。
 なお、光束画像γは、被検眼Eと取得光学系20との間で光が進行する様子を示す。一般的に、眼底カメラでは、被検眼Eの角膜や水晶体からの反射を除去するため、リング照明を用いる。そのため、撮影光の光束は被検眼Eの瞳孔中心を通るが、照明光の光束は瞳孔中心を通過しない。第1グラフィック画像41に重畳表示される光束画像γは、照明光の光束を示すものであってもよいし、撮影光の光束を示すものであってもよい。
 また、光軸画像δは、取得光学系20から出力された光の向きを示す。実施例1の眼科装置10では、光軸画像δは、検者によって設定することが可能であり、制御部30は、設定された光軸画像δに基づいて眼科装置10のアライメントを行うことを可能としている。
 すなわち、まず、検者は、第2表示領域27bに表示された第1グラフィック画像41を視認する。このとき、水晶体を示す部分αに水晶体混濁分布画像が重畳表示されている場合、検者は水晶体内の混濁分布を把握することができる。そして、検者は、水晶体に相当する部分α内をタッチ操作し、水晶体の内部を通過する光軸Oの位置を指定する。次に、検者は、被検眼Eの眼底Efに相当する部分β内をタッチ操作し、観察したい眼底Efの位置を指定する。このとき、眼底Efに相当する部分βに網膜画像が重畳表示されている場合、検者は網膜画像に対してタッチ操作を行うことになる。そのため、眼底Efの網膜の状態を把握しながら観察したい位置を指定することができる。続いて、制御部30は、水晶体に相当する部分α内でのタッチ操作された位置と、被検眼Eの眼底Efに相当する部分β内でのタッチ操作された位置と、を特定する。そして、制御部30は、水晶体に相当する部分α内のタッチ位置と、眼底Efを示す部分β内のタッチ位置とを繋ぐ直線を光軸画像δとして表示する。この結果、検者によって光軸画像δが設定される。そして、光軸画像δが設定された後、制御部30は、位置変更機構15及び角度変更機構17を制御して、実際の取得光学系20の光軸Oが、検者によって設定された光軸画像δに一致するように取得光学系20の位置又は向きを変更し、眼科装置10のアライメントを行う。
 また、制御部30は、第1グラフィック画像41を、第2表示領域27b内に設定された所定位置を中心に回転させて表示させることが可能である。第1グラフィック画像41を回転させるには、検者は、第1グラフィック画像41をタッチ操作してもよいし、表示画面25aの任意の位置に表示されたソフトウェアキー(不図示)を検者がタッチ操作してもよい。なお、第1グラフィック画像41を回転させるためのソフトウェアキーは、第1グラフィック画像41に重畳して表示してもよい。第1グラフィック画像41を回転させることで、検者は、被検眼Eと取得光学系20との位置関係を所望の角度から視認することができる。
 また、制御部30は、図5A~図5Dに示すように、位置関係情報Jを示す第1グラフィック画像41に加え、第1ソフトウェアキー42と、第2ソフトウェアキー43と、を第2表示領域27bに表示させてもよい。さらに、制御部30は、眼球の旋回点Gを通る垂直線(旋回基準軸)L1と、首振り機構18の回転中心となる回転軸線18bとを、第1グラフィック画像41に重畳して表示させてもよい。
 第1ソフトウェアキー42は、検者によってタッチ操作されたとき、制御部30から角度変更機構17に制御指令を出力させるソフトウェアキーである。制御部30は、第1ソフトウェアキー42に対するタッチ操作に応じて、本体部13(取得光学系20)を左右方向又は上下方向に回転させる。
 図5A~図5Dに示す例では、第1ソフトウェアキー42は、第1矢印42aと、第2矢印42bと、第3矢印42cと、第4矢印42dと、を有している。また、第1ソフトウェアキー42は、第1グラフィック画像41に重畳して表示されている。そして、制御部30は、検者によって第1矢印42aがタッチ操作されたとき、本体部13を右方向へ回転させる。制御部30は、検者によって第2矢印42bがタッチ操作されたとき、本体部13を左方向へ回転させる。制御部30は、検者によって第3矢印42cがタッチ操作されたとき、本体部13を上方向へ回転させる。制御部30は、検者によって第4矢印42dがタッチ操作されたとき、本体部13を下方向へ回転させる。
 第2ソフトウェアキー43は、検者によってタッチ操作されたとき、制御部30から位置変更機構15に制御指令を出力させるソフトウェアキーである。制御部30は、第2ソフトウェアキー43に対するタッチ操作に応じて、架台12(取得光学系20)を前後方向、左右方向、上下方向のいずれかへ移動させる。
 図5A~図5Dに示す例では、第2ソフトウェアキー43は、第5矢印43aと、第6矢印43bと、第7矢印43cと、第8矢印43dと、第9矢印43eと、第10矢印43fと、を有している。また、第2ソフトウェアキー43は、第1グラフィック画像41に重畳して表示されている。そして、制御部30は、検者によって第5矢印43aがタッチ操作されたとき、架台12を右方向へ移動させる。制御部30は、検者によって第6矢印43bがタッチ操作されたとき、架台12を左方向へ移動させる。制御部30は、検者によって第7矢印43cがタッチ操作されたとき、架台12を前方向へ移動させる。制御部30は、検者によって第8矢印43dがタッチ操作されたとき、架台12を後方向へ移動させる。制御部30は、検者によって第9矢印43eがタッチ操作されたとき、架台12を上方向へ移動させる。制御部30は、検者によって第10矢印43fがタッチ操作されたとき、架台12を下方向へ移動させる。
 なお、第1ソフトウェアキー42及び第2ソフトウェアキー43に対するタッチ操作は、通常のシングルタップ操作に限らず、ダブルタップ操作、長押し操作(ロングタップ)、所定方向へのフリック操作、所定方向へのスワイプ操作、所定方向へのドラッグ操作、ピンチイン操作、ピンチアウト操作等、であってもよい。
 また、制御部30は、ディスプレイ25に表示された第1ソフトウェアキー42又は第2ソフトウェアキー43に対するタッチ操作の種類や回数、操作量(タップ時間、ドラッグ量等)等に応じて、位置変更機構15や角度変更機構17の制御を変更する。つまり、位置変更機構15による架台12の移動方向や移動量、角度変更機構17による本体部13の回転方向や回転角度量は、検者が第1矢印42a等をタップする回数や操作量等に応じて設定される。
 さらに、実施例1の制御部30は、本体部13を左右方向又は上下方向に回転させた際、図5Bに示すように、実際の本体部13の回転角度の変化に追従させて第1グラフィック画像41の第2アイコン41Bの表示を変更する。また、制御部30は、架台12の位置を変更した際、図5Cや図5Dに示すように、実際の架台12の位置の変化に追従させて第1グラフィック画像41の第2アイコン41Bの表示を変更する。これにより、実施例1の眼科装置10は、被検眼Eと取得光学系20との位置関係をリアルタイムで表示することができる。
 しかも、ここでは、眼球の旋回点Gを通る垂直線(旋回基準軸)L1と、首振り機構18の回転中心となる回転軸線18bとが、第1グラフィック画像41に重畳して表示されている。このため、検者は、垂直線(旋回基準軸)L1と回転軸線18bとのずれに基づいて、被検眼Eと取得光学系20との位置ずれの程度やずれの方向等を認識しやすい。
 また、制御部30は、図5B、図5C、図5Dに示すように、第2アイコン41Bの表示変更に追従して第1ソフトウェアキー42や第2ソフトウェアキー43の表示位置も変更する。このため、第1ソフトウェアキー42や第2ソフトウェアキー43の操作性の低下を抑えることができる。
 以下、実施例1の眼科装置10の作用を説明する。
 実施例1の眼科装置10では、取得光学系20と、位置変更機構15及び角度変更機構17と、ディスプレイ25と、制御部30と、を備えている。ここで、取得光学系20は、被検眼Eの眼情報を取得する。また、位置変更機構15は、電動の移動用アクチュエータ15aを有し、移動用アクチュエータ15aの動力を利用して取得光学系20の左右方向、前後方向、上下方向の各位置を変更する。角度変更機構17は、電動の首振り用アクチュエータ18a及び俯仰用アクチュエータ19aを有する。角度変更機構17は、首振り用アクチュエータ18aの動力を利用して取得光学系20の左右方向の回転角度(向き)を変更し、俯仰用アクチュエータ19aの駆動力を利用して取得光学系20の上下方向の回転角度(向き)を変更する。また、ディスプレイ25は、位置変更機構15及び角度変更機構17を操作する操作者である検者によって視認可能な表示画面25aを有する。そして、制御部30は、被検眼Eと取得光学系20との位置関係を示す位置関係情報Jをディスプレイ25の表示画面25aに表示させる。
 このため、実施例1の眼科装置10では、ディスプレイ25に表示された位置関係情報Jによって、被検眼Eと取得光学系20とがどのような位置関係で配置されているのかを、操作者である検者に客観的に把握させることができる。そして、検者は、被検眼Eと取得光学系20との位置関係を客観的に把握することで、被検眼Eと取得光学系20との位置関係を精度よく認識し、取得光学系20の位置や回転角度(向き)を制御する際の操作性の向上を図ることができる。
 また、実施例1の眼科装置10では、制御部30は、被検眼Eを示す眼球モデルを表す第1アイコン41Aと、取得光学系20を含む眼科装置10を示す装置モデルを表す第2アイコン41Bとを等角投影法によって示した第1グラフィック画像41によって位置関係情報Jを表示させる。
 これにより、実施例1の眼科装置10は、被検眼Eと取得光学系20を含む眼科装置10とを俯瞰して見たときの両者の位置関係を検者に把握させることができる。このため、検者は、被検眼Eと取得光学系20との位置関係の概要を容易に認識することが可能となる。
 また、実施例1の眼科装置10では、制御部30は、位置関係情報Jとして、被検眼Eと取得光学系20との間の光束を示す光束画像γをディスプレイ25に表示させる。そのため、実施例1の眼科装置10は、被検眼Eと取得光学系20との間での光の進行状況を検者に客観的に把握させることができる。これにより、検者は被検眼Eと取得光学系20との間の光束を客観的に認識した上で、取得光学系20の位置や回転角度を制御することができ、操作精度を向上させることができる。
 さらに、実施例1の眼科装置10では、制御部30は、位置関係情報Jとして、取得光学系20の光軸Oを示す光軸画像δをディスプレイ25に表示させる。そのため、実施例1の眼科装置10は、取得光学系20から被検眼Eに向けられた光軸Oの向きを検者に客観的に把握させることができる。これにより、検者は取得光学系20の光軸Oが被検眼E上を通る位置を客観的に認識した上で、取得光学系20の位置や回転角度を制御することができ、操作精度を向上させることができる。
 特に、実施例1では、光束画像γ及び光軸画像δが、いずれも第1グラフィック画像41に重畳して表示されている。このため、被検眼Eと取得光学系20との間の光束の状態や、取得光学系20からの光軸Oの向きを検者に理解させやすくできる。
 なお、光束画像γや光軸画像δは、必ずしも第1グラフィック画像41に重畳して表示されなくてもよい。つまり、眼科装置10は、光束の状況や光軸Oの向きを検者に把握させればよいので、例えば図6に示すように、被検眼Eや取得光学系20を円形や四角形、三角形、楕円等の幾何学図形によって示してもよい。図6では、被検眼Eを円200によって表し、取得光学系20を四角201によって表している。さらに、図6においても、被検眼Eの水晶体に相当する部分に符号αを付し、被検眼Eの眼底Efに相当する部分に符号βを付す。
 また、実施例1の眼科装置10では、ディスプレイ25がタッチパネル機能を有する。そして、制御部30は、第1ソフトウェアキー42をディスプレイ25に表示させ、第1ソフトウェアキー42がタッチ操作されたとき、角度変更機構17により本体部13(取得光学系20)を回転させる。
 これにより、検者は、ディスプレイ25に表示された第1ソフトウェアキー42をタッチ操作することで取得光学系20の向きを変更することができる。そのため、取得光学系20の向きを変更する際の操作性を向上させることができる。
 特に、実施例1では、第1ソフトウェアキー42が第1グラフィック画像41に重畳して表示されている。そのため、実施例1の眼科装置10では、第1ソフトウェアキー42をタッチ操作したことで取得光学系20がどのように動くのかを、検者に把握させやすくできる。しかも、第1グラフィック画像41及び第1ソフトウェアキー42は、実際の本体部13の動きに追従して表示が変更される。つまり、第1グラフィック画像41として表示された装置モデル画像(第2アイコン41B)が実際の本体部13と同様に動く。これにより、第1ソフトウェアキー42のタッチ操作の結果も把握しやすい。
 また、実施例1の眼科装置10では、制御部30が、第2ソフトウェアキー43を、タッチパネル機能を有するディスプレイ25に表示させると共に、第2ソフトウェアキー43がタッチ操作されたとき、位置変更機構15により架台12(取得光学系20)を移動させる。
 これにより、検者は、ディスプレイ25に表示された第2ソフトウェアキー43をタッチ操作することで取得光学系20の位置を変更することができる。そのため、取得光学系20の位置を変更する際の操作性を向上させることができる。
 しかも、実施例1では、第2ソフトウェアキー43が第1グラフィック画像41に重畳して表示されている。そのため、実施例1の眼科装置10では、第2ソフトウェアキー43をタッチ操作したことで取得光学系20がどのように動くのかを、検者に把握させやすくできる。しかも、第1グラフィック画像41及び第2ソフトウェアキー43は、実際の本体部13の動きに追従して表示が変更される。つまり、第1グラフィック画像41として表示された装置モデル画像(第2アイコン41B)が実際の架台12と同様に動く。これにより、第2ソフトウェアキー43のタッチ操作の結果も把握しやすい。
 なお、制御部30は、必ずしも第1ソフトウェアキー42や第2ソフトウェアキー43を第1グラフィック画像41に重畳して表示させなくてもよい。タッチパネル機能を有するディスプレイ25の表示画面25aの任意の位置に第1ソフトウェアキー42や第2ソフトウェアキー43を独立して表示するものであってもよい。
 さらに、制御部30は、第1グラフィック画像41を第1ソフトウェアキー42や第2ソフトウェアキー43として用いてもよい。この場合、制御部30は、第1グラフィック画像41がタッチ操作されたとき、位置変更機構15や角度変更機構17によって、架台12の位置を変更したり本体部13の回転角度を変更したりする。これにより、眼科装置10を直接動かす感覚を検者に感じさせることが可能となり、取得光学系20の動きをさらに把握させやすくできる。
 また、実施例1の眼科装置10では、ディスプレイ25に表示された第1ソフトウェアキー42及び第2ソフトウェアキー43に対するタッチ操作が、通常のタップ操作(シングルタップ)、ダブルタップ操作、長押し操作(ロングタップ)、フリック操作、スワイプ操作、ドラッグ操作、ピンチイン操作、ピンチアウト操作の少なくともいずれかである。このため、第1ソフトウェアキー42等に検者による操作性を考慮したタッチ操作を割り当てることができ、操作性の向上を図ることができる。
 また、制御部30は、ディスプレイ25に表示された第1ソフトウェアキー42又は第2ソフトウェアキー43に対するタッチ操作の種類や回数、操作量(タップ時間、ドラッグ量等)等に応じて、位置変更機構15や角度変更機構17の制御を変更する。このため、検者は、位置変更機構15や角度変更機構17の制御を直感的に行うことができ、操作性の向上を図ることができる。
 また、実施例1の眼科装置10では、光軸画像δを検者によって設定可能とし、制御部30は、設定された光軸画像δに基づいて取得光学系20のアライメントを行う。すなわち、制御部30は、取得光学系20から光軸Oを示す光軸画像δをディスプレイ25に表示させると共に、光軸画像δに対するタッチ操作に応じて、取得光学系20の位置や回転角度を変更する。
 これにより、光軸Oの向きを例えば水晶体の混濁分布に基づいて設定することができ、白内障等の影響によって水晶体が混濁した部分を避けて眼底Efの観察を行うことができる。
 さらに、実施例1の眼科装置10では、第1アイコン41Aにおいて被検眼Eの水晶体に相当する部分αに水晶体混濁分布画像を重畳して表示させてもよい。この場合、検者は、水晶体混濁分布画像に対してタッチ操作を行うことで光軸画像δを設定することができる。この結果、制御部30は、水晶体混濁分布画像に対するタッチ操作に応じて、位置変更機構15及び角度変更機構17により取得光学系20の位置又は向きの少なくともいずれかを変更することができる。これにより、検者は、被検眼Eの水晶体の混濁した領域を的確に避けて眼底像を取得できるように取得光学系20の位置や向きを制御することができる。
 また、実施例1の眼科装置10では、第1アイコン41Aにおいて被検眼Eの眼底Efに相当する部分βに網膜画像を重畳して表示させてもよい。この場合、検者は、網膜画像に対してタッチ操作を行うことで光軸画像δを設定することができる。この結果、制御部30は、網膜画像に対するタッチ操作に応じて、位置変更機構15及び角度変更機構17により取得光学系20の位置又は向きの少なくともいずれかを変更することができる。これにより、検者は、被検眼Eの眼底Efの所望の位置を網膜の状態に応じて的確に観察したり撮影したりでき、所望の眼情報(眼底像)を適切に取得することができる。
 なお、第1グラフィック画像41に重畳し、光軸画像δを設定する際に参照する画像は、水晶体混濁分布画像や、網膜画像以外のものであってもよい。例えば、水晶体に相当する部分αに重畳する画像として、徹照像や、OCT画像のBスキャンライン画像を用いてもよい。また、網膜に相当する部分βに重畳する画像として、赤外線カメラによる網膜の撮影画像や、OCTによる網膜スキャン画像、OCTによる網膜プロジェクション画像を用いてもよい。網膜画像としてOCT画像のBスキャン画像を用いる場合では、リアルタイムで目的画像の状況把握を行うことができる。
 さらに、実施例1の眼科装置10では、位置関係情報Jとして被検眼Eと取得光学系20との間の光束を示す光束画像γを表示する例を示した。ここで、検者が光束画像γに対してタッチ操作し、光束画像γの向きや位置を任意に変更してもよい。そして、制御部30は、タッチ操作されることで変更された光束画像γに、実際の光束が一致するように位置変更機構15及び角度変更機構17を制御し、取得光学系20の位置又は向きを変更して眼科装置10のアライメントを行ってもよい。つまり、制御部30は、光束画像γに対するタッチ操作に応じて、位置変更機構15及び角度変更機構17により取得光学系20の位置又は向きの少なくともいずれかを変更してもよい。
 この場合であっても、検者は、被検眼Eにおける観察や撮影を行いたい所望の位置を的確に指定することができ、所望の眼情報(眼底像)を適切に取得することができる。
 そして、実施例1の眼科装置10では、ディスプレイ25が取得光学系20を収容した本体部13に設けられている。すなわち、ディスプレイ25は、検者が被検眼Eと取得光学系20との位置関係を直接確認することができる環境に配置されている。これにより、ディスプレイ25に表示された位置関係情報Jを視認した検者は、表示された位置関係情報Jと、被検眼Eと取得光学系20との実際の位置関係とを直接比較しながら位置変更機構15や角度変更機構17を操作することができる。このため、より正確な操作が可能となる。
 また、実施例1の眼科装置10では、制御部30と位置変更機構15の移動用アクチュエータ15aと、角度変更機構17の首振り用アクチュエータ18aと俯仰用アクチュエータ19aと、ディスプレイ25とが、本体部13の内部において図示しないケーブルを介して接続されている。このため、広域無線通信や近距離無線通信等の無線通信ネットワークを介して制御部30等を接続する場合と比べて各種信号の送受信速度が速く、また信号の送受信を安定的に行うことができる。
(実施例2)
 実施例1の眼科装置10では、位置関係情報Jが第1グラフィック画像41によって表示された例を示したが、他の表示によって示されてもよい。すなわち、実施例2の眼科装置10では、図7に示すように、位置関係情報Jを第2グラフィック画像44によって表示する。なお、実施例2の眼科装置10の構成は、実施例1の眼科装置10と同様であるので、説明を省略する。
 そして、第2グラフィック画像44は、被検眼Eを示す眼球モデルを示した第3アイコン44Cと、取得光学系20を含む眼科装置10を示す装置モデルを示した第4アイコン44Dと、を第三角法によって示した画像である。ここで、「第三角法」は、第三角に置かれた立体物を、手前の垂直面に投影される正面図と、上の水平面に投影される平面図と、左の垂直面に投影される左側面図等によって描く図法である。
 すなわち、第3アイコン44Cは、被検眼Eの外殻を左右方向に分割し、内部を空洞とした被検眼Eを模式的に示す眼球モデルの平面図と右側面図と正面図とで構成されている。また、第4アイコン44Dは、取得光学系20と位置変更機構15とコントロールレバー16と角度変更機構17の首振り機構18及び俯仰機構19とを含む眼科装置10を模式的に示す装置モデルの平面図と右側面図と正面図とで構成されている。このため、第三角法によって表示された第2グラフィック画像44では、被検眼E及び眼科装置10を上方から見下ろした平面図や、右側から見た右側面図、検者側から見た正面図になる。なお、図7では、第4アイコン44Dにおいて、取得光学系20を示す部分に符号101を付し、位置変更機構15を示す部分に符号102を付し、コントロールレバー16を示す部分に符号103を付し、首振り機構18を示す部分に符号104を付し、俯仰機構19を示す部分に符号105を付す。
 このように、実施例2の眼科装置10では、第3アイコン44C及び第4アイコン44Dを第三角法で示した第2グラフィック画像44によって位置関係情報Jを表示する。このため、取得光学系20から被検眼Eまでの距離や、取得光学系20の回転角度といった被検眼Eと取得光学系20との位置関係を、ディスプレイ25を視認した検者に詳細に把握させることができる。
 なお、図7に示す第2グラフィック画像44では、被検眼Eを示す眼球モデル及び眼科装置10を示す装置モデルを、いずれも正面図と平面図と側面図の三図によって表示しているが、必ずしも三図によって表示する必要はない。第2グラフィック画像44の第3アイコン44C及び第4アイコン44Dは、眼球モデル及び装置モデルを第三角法で示した画像であるものの、正面図と平面図と左側面図と右側面図のいずれか一つ以上によって表示されればよい。すなわち、第2グラフィック画像44は、例えば被検眼Eを示す眼球モデルを平面図で示す第3アイコン44Cと、眼科装置10を示す装置モデルを平面図で示す第4アイコン44Dと、のみで構成してもよい。
 また、制御部30は、第3アイコン44Cにおける水晶体に相当する部分に水晶体混濁分布画像を重畳して表示させたり、第3アイコン44Cにおける網膜に相当する部分に網膜画像を重畳して表示させたりしてもよい。また、制御部30は、第2グラフィック画像44に光束画像γや光軸画像δを重畳して表示させてもよい。
 さらに、制御部30は、図8に示すように、位置関係情報Jを示す第2グラフィック画像44に加え、タッチ操作されることで取得光学系20を回転させる第1ソフトウェアキー42と、タッチ操作されることで取得光学系20を移動させる第2ソフトウェアキー43と、を第2表示領域27bに表示させてもよい。
 第1ソフトウェアキー42は、実施例1と同様に、第1矢印42aと、第2矢印42bと、第3矢印42cと、第4矢印42dと、を有している。また、第2ソフトウェアキー43は、第5矢印43aと、第6矢印43bと、第7矢印43cと、第8矢印43dと、第9矢印43eと、第10矢印43fと、を有している。
 また、制御部30は、位置関係情報Jとして、図9に示すように、被検眼Eに対する取得光学系20の回転角度を示す目盛りを模した第1目盛り画像45a及び第2目盛り画像45bを表示させてもよい。ここで、第1目盛り画像45aは、取得光学系20の左右方向の回転角度を示す。また、第2目盛り画像45bは、取得光学系20の上下方向の回転角度を示す。
 なお、第1目盛り画像45a及び第2目盛り画像45bは、図9に示す例では、被検眼Eの瞳孔中心位置を中心とする回転角度を示す目盛りであり、被検眼Eと取得光学系20とが正対した状態(光軸Oが眼底Efに直交する状態)のとき、ゼロ度とする。また、図9に示す例では、第1目盛り画像45a及び第2目盛り画像45bを第2グラフィック画像44に重複して表示している。
 さらに、制御部30は、位置関係情報Jとして、図9に示すように、被検眼Eに対する取得光学系20の回転角度を示す数値を示す第1数値画像46a及び第2数値画像46bを表示させてもよい。ここで、第1数値画像46aは、取得光学系20の左右方向の回転角度を示す。また、第2数値画像46bは、取得光学系20の上下方向の回転角度を示す。
 なお、第1数値画像46a及び第2数値画像46bは、図9に示す例では、被検眼Eと取得光学系20とが正対した状態(光軸Oが眼底Efに直交する状態)とき、ゼロ度とする。
 このように、位置関係情報Jを第1目盛り画像45a及び第2目盛り画像45bや、第1数値画像46a及び第2数値画像46bによって表示することで、取得光学系20から被検眼Eまでの距離や、取得光学系20の回転角度をさらに正確に検者に把握させることができる。
 さらに、実施例2の眼科装置10において、制御部30は、第1目盛り画像45a及び第2目盛り画像45bや第1数値画像46a及び第2数値画像46bにタッチ操作が行われた際、第1目盛り画像45aに対するタッチ操作に応じて、角度変更機構17に制御指令を出力する。そして、制御部30は、角度変更機構17によって本体部13(取得光学系20)を左右方向又は上下方向に回転させてもよい。
 つまり、制御部30は、第1目盛り画像45a及び第2目盛り画像45bや第1数値画像46a及び第2数値画像46bをソフトウェアキーとして用いて、角度変更機構17を制御し、本体部13(取得光学系20)を左右方向又は上下方向に回転させてもよい。
 これにより、角度変更機構17を制御するためのソフトウェアキー(例えば、第1ソフトウェアキー42や第2ソフトウェアキー43等)をディスプレイ25に表示させることなく、角度変更機構17をタッチ操作で制御することができる。これにより、ディスプレイ25の表示内容が過多になることを抑制し、操作性の向上を図ることができる。
 以上、本発明の及び眼科装置を実施例1及び実施例2に基づいて説明してきたが、具体的な構成については、これらの実施例に限られるものではなく、請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。
 実施例1及び実施例2の眼科装置10では、第1ソフトウェアキー42及び第2ソフトウェアキー43を位置関係情報J(第1グラフィック画像41及び第2グラフィック画像44)に重畳して表示した例を示した。しかしながら、これに限らない。
 例えば図10Aに示すように、制御部30は、ディスプレイ25の表示画面25aにおいて、第1グラフィック画像41を表示する第2表示領域27bとは異なる位置に第3表示領域27cを設定する。そして、制御部30は、図10Bに示すように、第3表示領域27cに、コントロールレバー画像50と、第1ソフトウェアキー42及び第2ソフトウェアキー43と、を表示させる。
 コントロールレバー画像50は、コントロールレバー16を模式的に示すコントロールレバーモデルを等角投影法によって示した画像である。なお、コントロールレバー画像50は、第1ソフトウェアキー42又は第2ソフトウェアキー43の操作に応じて、コントロールレバーモデルを傾けたり、回転させたり等して表示を変更してもよい。
 第1ソフトウェアキー42は、検者によってタッチ操作されたとき、制御部30から角度変更機構17に制御指令を出力させるソフトウェアキーである。第1ソフトウェアキー42は、図10Bに示すように、第1矢印42aと、第2矢印42bと、第3矢印42cと、第4矢印42dと、を有している。
 第2ソフトウェアキー43は、検者によってタッチ操作されたとき、制御部30から位置変更機構15に制御指令を出力させるソフトウェアキーである。第2ソフトウェアキー43は、図10Bに示すように、第5矢印43aと、第6矢印43bと、第7矢印43cと、第8矢印43dと、第9矢印43eと、第10矢印43fと、を有している。
 このように、位置関係情報Jを示す第2表示領域27bとは別に設定した第3表示領域27cに第1ソフトウェアキー42及び第2ソフトウェアキー43を表示させることで、ディスプレイ25に対するタッチ操作で角度変更機構17や位置変更機構15の制御を可能としつつ、第2表示領域27bには位置関係情報Jのみを表示することができる。これにより、第2表示領域27bにおける表示内容が過多になることを抑制し、位置関係情報Jを視認させやすくできる。
 また、第1ソフトウェアキー42及び第2ソフトウェアキー43をコントロールレバー画像50と共に表示させることで、検者がコントロールレバー16の動きをイメージしやすくなり、取得光学系20の動作を直感的に把握させやすくできる。これにより、被検眼Eと取得光学系20との位置関係をより正確に検者に認識させることが可能となる。
 なお、図10A、図10Bに示す例では、コントロールレバー画像50が、コントロールレバーモデルを等角投影法によって示した画像としているが、これに限らない。例えば、図11に示す第1変形例のコントロールレバー画像51のように、コントロールレバーモデルを円形や三角形の幾何学図形によって示した画像としてもよい。なお、円形の幾何学図形によってコントロールレバーモデルが示される場合には、眼科装置10を平面的に見た状態を示すことができる。一方、三角形の幾何学図形によってコントロールレバーモデルを示す場合には、例えば頂点の向きによって測定方向を示すことが可能となる。図11に示す例では、最も鋭角の頂点が向いた方が被検眼Eの位置として示されている。
 また、制御部30は、複数のコントロールレバー画像51を表示させ、第1ソフトウェアキー42と第2ソフトウェアキー43とを分散して表示させてもよい(図11参照)。さらに、制御部30は、コントロールレバー画像を表示せず、複数の矢印等から構成される第1ソフトウェアキー42や第2ソフトウェアキー43のみを第3表示領域27cに表示させてもよい。
 また、実施例1の眼科装置10では、第1グラフィック画像41に重畳して水晶体混濁分布画像及び網膜画像を表示してもよい例を示した。また、被検眼Eと取得光学系20との間の光束の現在の状態を示す画像(光束画像γ)や、取得光学系20の光軸Oの現在の状態を示す画像(光軸画像δ)を表示する例を示した。ここで、水晶体混濁画像や網膜画像、光束画像γや光軸画像δは、被検眼Eの一部の状態を示す被検眼Eの部位情報である。さらに、実施例2の眼科装置10では、被検眼Eに対する取得光学系20の現在の回転角度を表示する例を示した。しかしながら、制御部30によってディスプレイ25に表示される各種の情報はこれらに限らない。
 すなわち、制御部30は、被検眼Eの部位情報として、例えばディスプレイ25に、被検眼Eの前眼部の現在の状態を示す画像や、被検眼Eの後眼部の現在の状態を示す画像、被検眼Eの硝子体の現在の状態を示す画像等を表示させてもよい。また、制御部30は、被検眼Eから取得光学系20までの現在の距離を表示させてもよい。
 さらに、制御部30は、水晶体の混濁分布や網膜領域の等の現在の状態だけでなく、被検眼Eの部位情報の目標状態をディスプレイ25に表示させてもよい。すなわち、制御部30は、被検眼Eの前眼部の目標状態や、被検眼Eの後眼部の目標状態、被検眼Eの硝子体や水晶体、網膜領域等の各種部位の目標状態をディスプレイ25の表示画面25aに表示させてもよい。また、制御部30は、被検眼Eに対する取得光学系20の目標回転角度や、被検眼Eから取得光学系20までの目標距離を表示させてもよい。
 そして、制御部30は、検者によるタッチ操作や操作部26の操作等に応じて、ディスプレイ25に表示させた被検眼Eの部位情報を拡大或いは縮小したり、表示の中心位置を変更したりしてディスプレイ25に再度表示させてもよい。つまり、例えば、検者が被検眼Eの眼底像の乳頭の位置をピンチアウト操作したとき、タッチされた乳頭の位置を中心とした眼底像の拡大画像に切り替えて表示したり、検者が被検眼Eの眼底像の乳頭の位置をピンチイン操作したとき、タッチされた乳頭の位置を中心とした眼底像の縮小画像に切り替えて表示したりしてもよい。さらに、検者が被検眼Eの眼底像の乳頭の位置をシングルタップ操作したとき、タッチされた乳頭の位置を中心とした眼底像に変更して表示してもよい。
 このように、被検眼Eの部位情報に対する検者の操作に応じて、表示している情報の拡大率や中心位置を変更することで、検者が詳細に確認したい被検眼Eの部位や、概要を知りたい被検眼Eの部位を、必要に応じて適宜検者が所望する状態で表示することができる。
 また、実施例1の眼科装置10では、制御部30と、位置変更機構15及び角度変更機構17と、ディスプレイ25とが、本体部13の内部において図示しないケーブルを介して接続された例を示した。しかしながら、これに限らない。制御部30と位置変更機構15及び角度変更機構17とディスプレイ25とは、携帯電話網等の広域無線通信を介して接続されてもよい。この場合、遠隔操作が可能となり、検者は被検者の傍にいなくても被検眼Eの眼情報を取得することができる。なお、携帯電話網を利用した広域無線通信の規格の一例として、例えばLTE(Long  Term  Evolution)がある。
 また、制御部30と位置変更機構15及び角度変更機構17とディスプレイ25とは、近距離無線通信を介して接続されてもよい。この場合には、無線通信であるものの、広域無線通信と比較して通信速度が速く、各種信号の送受信のタイムラグの発生を抑制することができる。なお、近距離無線通信の規格の一例として、例えばBLE(Bluetooth(登録商標) Low  Enery)通信やWi-Fi(登録商標)等がある。また、広域無線通信と近距離無線通信の明確な区別は難しいが、ここでは、通信距離が100m以上(一般的に数km)のものを広域無線通信とし、通信距離が100m未満のものを近距離無線通信とする。
 さらに、制御部30と位置変更機構15及び角度変更機構17とディスプレイ25とは、管理サーバーを介して接続されていてもよい。この場合、制御部30と位置変更機構15及び角度変更機構17とディスプレイ25との間で送受信される各種の信号を管理サーバーにおいて一括して管理することが可能となる。これにより、複数の眼科装置10を一括管理することも可能となる。
 また、実施例1では、ディスプレイ25が取得光学系20を収容した本体部13に設けられ、ディスプレイ25が、検者が被検眼Eと取得光学系20との位置関係を直接確認することが可能な環境に配置されている。しかしながら、これに限らない。例えば、ディスプレイ25及び制御部30を本体部13から分離可能な携帯情報端末やノートパソコン等によって構成し、操作者である検者によって被検眼Eと取得光学系20との位置関係が直接確認することのできない環境(遠隔地)に配置してもよい。この場合では、ディスプレイ25に表示された位置関係情報Jを視認した検者は、表示された位置関係情報Jに基づいて、遠隔地から位置変更機構15や角度変更機構17を操作したり、取得光学系20の近傍にいる被検者等に指示を出したりできる。
 なお、実施例1の眼科装置10では、位置変更機構15や角度変更機構17が検者によって操作される例を示したが、これに限らない。例えば、被検者が操作者となり、自らディスプレイ25をタッチ操作等することで位置変更機構15及び角度変更機構17を操作してもよい。
 また、位置変更機構15及び角度変更機構17の操作は、タッチパネル機能を有するディスプレイ25に対するタッチ操作だけに限らず、操作部26であるコントロールレバー16を傾けたり回転させたり等して位置変更機構15等を操作してもよい。
 そして、実施例1の眼科装置10では、位置関係情報Jとして、第1グラフィック画像41と、光束画像γと、光軸画像δと、を表示する例を示した。また、実施例2の眼科装置10では、位置関係情報Jとして、第2グラフィック画像44と、第1目盛り画像45a及び第2目盛り画像45bと、第1数値画像46aと第2数値画像46bと、を表示する例を示した。ここで、これらの位置関係情報Jを示す表示態様は、少なくともいずれか一つが表示されていればよく、また、例えば第1グラフィック画像41と第1目盛り画像45a及び第2目盛り画像45bを併記する等、任意に選択して表示させることが可能である。
 また、グラフィック画像を用いて位置関係情報Jを表示する際、等角投影法や第三角法によって示されたグラフィック画像だけでなく、例えば透視投影法や斜投影法によって示されたグラフィック画像を用いてもよい。
 さらに、例えば第1グラフィック画像41と第2グラフィック画像44とを切り替えて表示する等、任意の画像を選択的に切り替えて表示させてもよい。なお、表示の選択や切り替えは、ディスプレイ25に選択メニューを表示して検者がタッチ操作で選択したり、キーボード等の操作部26を検者が操作して選択したりする等して行われる。
 また、実施例1の眼科装置10では、アライメントにより回転軸線18bが被検眼Eの瞳孔中心位置に一致される設定とされ、瞳孔中心位置を回転中心として取得光学系20の首振り動作及び俯仰動作を行う例が示されている。しかしながら、回転軸線18b及び中心軸線19bを回転中心として取得光学系20の首振り動作及び俯仰動作を行うものとされていれば、被検眼E内で回転軸線18b及び中心軸線19bが一致される位置は適宜設定すればよく、各実施例の構成に限定されない。例えば、回転軸線18bは、被検眼Eの回旋点又は角膜頂点に一致させる設定とすることが考えられ、このような構成では回旋点又は角膜頂点を回転中心として取得光学系20の首振り動作及び俯仰動作を行うものにできる。
 また、実施例1の眼科装置10は、光学系変更機構として位置変更機構15及び角度変更機構17を有し、被検眼Eに対して取得光学系20を左右方向、前後方向、上下方向へそれぞれ移動させると共に、左右方向及び上下方向へ回転させることが可能な例を示した。しかしながら、これに限らない。本発明を適用する眼科装置は、例えば、光学系変更機構として位置変更機構15のみを有する眼科装置や、光学系変更機構として角度変更機構17のみを有する眼科装置であってもよい。また、位置変更機構15と角度変更機構17のいずれか一方を電動式とし、他方を手動操作によって駆動される眼科装置であってもよい。
 また、実施例1の眼科装置10は、被検眼Eの眼情報として眼底像を取得する取得光学系20を有する眼底カメラとする例を示した。しかしながら、これに限らず、被検眼Eに対して移動可能な取得光学系を有する眼科装置であれば、本発明を適用することができ、例えば、眼情報として被検眼Eの眼球と角膜の屈折力(視力)を測定するオートケラトレフラクトメータやオートケラトメータ、眼情報として被検眼Eの眼圧を測定するトノメータ等であってもよい。
関連出願の相互参照
 本出願は、2021年8月2日に日本国特許庁に出願された特願2021-126964に基づいて優先権を主張し、その全ての開示は完全に本明細書で参照により組み込まれる。

Claims (17)

  1.  被検眼の眼情報を取得する取得光学系と、
     前記被検眼に対する前記取得光学系の位置又は向きの少なくとも一方を変更する電動式の光学系変更機構と、
     前記光学系変更機構を操作する操作者によって視認可能なディスプレイと、
     前記被検眼と前記取得光学系との位置関係を示す位置関係情報を前記ディスプレイに表示させる制御部と、
     を備えることを特徴とする眼科装置。
  2.  請求項1に記載された眼科装置において、
     前記位置関係情報は、前記被検眼を示す第1アイコンと前記取得光学系を示す第2アイコンとを等角投影法によって示した第1グラフィック画像、前記被検眼を示す第3アイコンと前記取得光学系を示す第4アイコンとを第三角法によって示した第2グラフィック画像、前記被検眼と前記取得光学系との間の光束を示す光束画像、前記取得光学系の光軸を示す光軸画像、前記被検眼から前記取得光学系までの距離又は前記被検眼に対する前記取得光学系の回転角度の少なくとも一方を示す目盛りを模した目盛り画像、前記被検眼から前記取得光学系までの距離又は前記被検眼に対する前記取得光学系の回転角度の少なくとも一方を数値で示す数値画像、の少なくともいずれかによって表示される
     ことを特徴とする眼科装置。
  3.  請求項1又は請求項2に記載された眼科装置において、
     前記ディスプレイは、タッチパネル機能を有し、
     前記光学系変更機構は、予め設定した基準軸を中心に前記取得光学系を左右方向又は上下方向の少なくともいずれかに回転させる角度変更機構を有し、
     前記制御部は、第1ソフトウェアキーを前記ディスプレイに表示させると共に、前記第1ソフトウェアキーがタッチ操作されたとき、前記角度変更機構により前記取得光学系を回転させる
     ことを特徴とする眼科装置。
  4.  請求項1又は請求項2に記載された眼科装置において、
     前記ディスプレイは、タッチパネル機能を有し、
     前記光学系変更機構は、前記被検眼に対して前記取得光学系を左右方向、前後方向、上下方向の少なくともいずれかの方向に移動させる位置変更機構を有し、
     前記制御部は、第2ソフトウェアキーを前記ディスプレイに表示させると共に、前記第2ソフトウェアキーがタッチ操作されたとき、前記位置変更機構により前記取得光学系を移動させる
     ことを特徴とする眼科装置。
  5.  請求項3に記載された眼科装置において、
     前記タッチ操作は、シングルタップ操作、ダブルタップ操作、長押し操作、フリック操作、スワイプ操作、ドラッグ操作、ピンチイン操作、ピンチアウト操作の少なくともいずれかの操作とする
     ことを特徴とする眼科装置。
  6.  請求項5に記載された眼科装置において、
     前記制御部は、前記タッチ操作の種類、回数、操作量の少なくともいずれかに応じて、前記光学系変更機構の制御を変更する
     ことを特徴とする眼科装置。
  7.  請求項1又は請求項2に記載された眼科装置において、
     前記ディスプレイは、タッチパネル機能を有し、
     前記制御部は、前記取得光学系の光軸を示す光軸画像を前記ディスプレイに表示させると共に、前記光軸画像に対するタッチ操作に応じて、前記光学系変更機構により前記取得光学系の位置又は向きの少なくともいずれかを変更する
     ことを特徴とする眼科装置。
  8.  請求項1又は請求項2に記載された眼科装置において、
     前記ディスプレイは、タッチパネル機能を有し、
     前記制御部は、前記被検眼の網膜を示す網膜画像を前記ディスプレイに表示させると共に、前記網膜画像に対するタッチ操作に応じて、前記光学系変更機構により前記取得光学系の位置又は向きの少なくともいずれかを変更する
     ことを特徴とする眼科装置。
  9.  請求項1又は請求項2に記載された眼科装置において、
     前記ディスプレイは、タッチパネル機能を有し、
     前記制御部は、前記被検眼と前記取得光学系との間の光束を示す光束画像を前記ディスプレイに表示させると共に、前記光束画像に対するタッチ操作に応じて、前記光学系変更機構により前記取得光学系の位置又は向きの少なくともいずれかを変更する
     ことを特徴とする眼科装置。
  10.  請求項1又は請求項2に記載された眼科装置において、
     前記ディスプレイは、タッチパネル機能を有し、
     前記制御部は、前記被検眼から前記取得光学系までの距離又は前記被検眼に対する前記取得光学系の回転角度の少なくとも一方を示す目盛りを模した目盛り画像を前記ディスプレイに表示させると共に、前記目盛り画像に対するタッチ操作に応じて、前記光学系変更機構により前記取得光学系の位置又は向きの少なくともいずれかを変更する
     ことを特徴とする眼科装置。
  11.  請求項1又は請求項2に記載された眼科装置において、
     前記ディスプレイは、タッチパネル機能を有し、
     前記制御部は、前記被検眼から前記取得光学系までの距離又は前記被検眼に対する前記取得光学系の回転角度の少なくとも一方を数値で示す数値画像を前記ディスプレイに表示させると共に、前記数値画像に対するタッチ操作に応じて、前記光学系変更機構により前記取得光学系の位置又は向きの少なくともいずれかを変更する
     ことを特徴とする眼科装置。
  12.  請求項1又は請求項2に記載された眼科装置において、
     前記ディスプレイは、前記操作者が前記位置関係を直接確認することが可能な環境、又は、前記操作者が前記位置関係を直接確認することが不可能な環境のいずれかの環境に設置されている
     ことを特徴とする眼科装置。
  13.  請求項1又は請求項2に記載された眼科装置において、
     前記制御部と前記光学系変更機構と前記ディスプレイとは、ケーブルを介して接続されるか、広域無線通信を介して接続されるか、近距離無線通信を介して接続されるか、又は管理サーバーを介して接続される
     ことを特徴とする眼科装置。
  14.  請求項1又は請求項2に記載された眼科装置において、
     前記制御部は、前記ディスプレイに、前記被検眼の前眼部、前記被検眼の後眼部、前記被検眼の硝子体、前記被検眼の水晶体、前記被検眼の網膜領域、の少なくともいずれかを含む前記被検眼の部位情報、前記被検眼と前記取得光学系との間の光束、前記取得光学系の光軸、前記被検眼から前記取得光学系までの距離、前記被検眼に対する前記取得光学系の向き、の少なくともいずれかの現在の状態又は目標の状態を表示させる
     ことを特徴する眼科装置。
  15.  請求項14に記載された眼科装置において、
     前記制御部は、前記ディスプレイに示された前記部位情報を拡大、縮小又は表示中心位置を変更し、前記ディスプレイに再度表示させる
     ことを特徴とする眼科装置。
  16.  請求項4に記載された眼科装置において、
     前記タッチ操作は、シングルタップ操作、ダブルタップ操作、長押し操作、フリック操作、スワイプ操作、ドラッグ操作、ピンチイン操作、ピンチアウト操作の少なくともいずれかの操作とする
     ことを特徴とする眼科装置。
  17.  請求項16に記載された眼科装置において、
     前記制御部は、前記タッチ操作の種類、回数、操作量の少なくともいずれかに応じて、前記光学系変更機構の制御を変更する
     ことを特徴とする眼科装置。
PCT/JP2022/027425 2021-08-02 2022-07-12 眼科装置 WO2023013369A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280051947.8A CN117794440A (zh) 2021-08-02 2022-07-12 眼科装置
EP22852795.8A EP4382035A1 (en) 2021-08-02 2022-07-12 Ophthalmic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-126964 2021-08-02
JP2021126964A JP2023021843A (ja) 2021-08-02 2021-08-02 眼科装置

Publications (1)

Publication Number Publication Date
WO2023013369A1 true WO2023013369A1 (ja) 2023-02-09

Family

ID=85155938

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/027425 WO2023013369A1 (ja) 2021-08-02 2022-07-12 眼科装置

Country Status (4)

Country Link
EP (1) EP4382035A1 (ja)
JP (1) JP2023021843A (ja)
CN (1) CN117794440A (ja)
WO (1) WO2023013369A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011015843A (ja) * 2009-07-09 2011-01-27 Canon Inc 眼科装置
JP2015195921A (ja) * 2014-03-31 2015-11-09 株式会社ニデック 眼科用レーザ手術装置
JP2017184789A (ja) * 2016-03-31 2017-10-12 株式会社ニデック 眼鏡処方補助装置,および,眼鏡処方補助プログラム
JP2018038518A (ja) * 2016-09-06 2018-03-15 株式会社トプコン 眼科装置
JP2019170710A (ja) 2018-03-28 2019-10-10 株式会社トプコン 眼科装置
JP2020156622A (ja) 2019-03-25 2020-10-01 株式会社トプコン 眼科装置
JP6775337B2 (ja) 2016-06-28 2020-10-28 株式会社トプコン 眼科装置
JP6815722B2 (ja) 2015-07-31 2021-01-20 株式会社ニデック 端末装置、および端末制御プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011015843A (ja) * 2009-07-09 2011-01-27 Canon Inc 眼科装置
JP2015195921A (ja) * 2014-03-31 2015-11-09 株式会社ニデック 眼科用レーザ手術装置
JP6815722B2 (ja) 2015-07-31 2021-01-20 株式会社ニデック 端末装置、および端末制御プログラム
JP2017184789A (ja) * 2016-03-31 2017-10-12 株式会社ニデック 眼鏡処方補助装置,および,眼鏡処方補助プログラム
JP6775337B2 (ja) 2016-06-28 2020-10-28 株式会社トプコン 眼科装置
JP2018038518A (ja) * 2016-09-06 2018-03-15 株式会社トプコン 眼科装置
JP2019170710A (ja) 2018-03-28 2019-10-10 株式会社トプコン 眼科装置
JP2020156622A (ja) 2019-03-25 2020-10-01 株式会社トプコン 眼科装置

Also Published As

Publication number Publication date
EP4382035A1 (en) 2024-06-12
JP2023021843A (ja) 2023-02-14
CN117794440A (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
JP5083758B2 (ja) 眼科遠隔診断システム
JP2019136569A (ja) 眼科装置
JP6671216B2 (ja) 眼科検査装置
CN111867446B (zh) 裂隙灯显微镜及眼科***
WO2023013369A1 (ja) 眼科装置
JP2020093113A (ja) 眼科検査装置
KR102169674B1 (ko) 혼합 현실 안저카메라
JP2012090976A (ja) 眼科装置
JP7042029B2 (ja) 眼科用観察装置及びその作動方法
CN111818842A (zh) 裂隙灯显微镜及眼科***
JP2022066325A (ja) 眼科装置
JP7460121B2 (ja) 注射薬液可視化装置
JP2023021844A (ja) 眼科装置
JP2021159286A (ja) 眼科装置
JP2003019117A (ja) 眼底カメラ
JP7227795B2 (ja) 眼科装置
JP6895278B2 (ja) 眼科用観察装置及びその作動方法
JP6619172B2 (ja) 眼科装置
WO2024029359A1 (ja) 眼科装置
JP7178211B2 (ja) 検眼装置
JP6098094B2 (ja) 眼科装置
JP7423912B2 (ja) 眼科装置、および眼科装置制御プログラム
JP7434729B2 (ja) 眼科装置、および眼科装置制御プログラム
WO2020250820A1 (ja) 眼科装置、および眼科装置制御プログラム
JP2018042761A (ja) 眼科検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22852795

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280051947.8

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022852795

Country of ref document: EP

Effective date: 20240304