WO2016195066A1 - 眼球の運動を検出する方法、そのプログラム、そのプログラムの記憶媒体、及び、眼球の運動を検出する装置 - Google Patents

眼球の運動を検出する方法、そのプログラム、そのプログラムの記憶媒体、及び、眼球の運動を検出する装置 Download PDF

Info

Publication number
WO2016195066A1
WO2016195066A1 PCT/JP2016/066562 JP2016066562W WO2016195066A1 WO 2016195066 A1 WO2016195066 A1 WO 2016195066A1 JP 2016066562 W JP2016066562 W JP 2016066562W WO 2016195066 A1 WO2016195066 A1 WO 2016195066A1
Authority
WO
WIPO (PCT)
Prior art keywords
blood vessel
image
eye
vessel image
detecting
Prior art date
Application number
PCT/JP2016/066562
Other languages
English (en)
French (fr)
Inventor
聖 星野
Original Assignee
聖 星野
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 聖 星野 filed Critical 聖 星野
Priority to US15/579,241 priority Critical patent/US10311583B2/en
Priority to JP2017522275A priority patent/JP6651074B2/ja
Publication of WO2016195066A1 publication Critical patent/WO2016195066A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to a method for detecting eye movement from an image obtained by imaging a predetermined area including the periphery of an eye with an imaging device (camera) arranged in the vicinity of the eye, and in particular, an iris in the eye from the eye image. And / or a method of indirectly detecting the position of the pupil or the direction of the line of sight using feature points other than the pupil.
  • a head-mounted display or a spectacle-type wearable device in which an apparatus for knowing eye movement is installed has become known.
  • Google Glass registered trademark
  • an infrared sensor detects eye-up, blinks, winks, and attachment / detachment of the device. It is known that the display can be turned on.
  • the iris part has a shading pattern (iris pattern: iris shading pattern), so the position of the iris in the eye is detected from the iris part in the eyeball image using existing techniques such as template matching. is doing.
  • the detection of the position of the iris as described above is detected from successive images of the eyeball, and for example, the respective positions are projected onto two-dimensional or three-dimensional coordinates and compared, or the difference between the respective coordinate values is detected.
  • the moving direction and moving speed of the eyeball By taking, it is possible to detect the moving direction and moving speed of the eyeball.
  • detecting the pattern of the direction and speed of movement of the eyeball, and comparing it with a known normal pattern it is possible to detect abnormalities or malfunctions. It can be used to find diseases.
  • a movement in which the eyeball rotates (eyeball movement) with the direction of the line of sight as a rotation axis is normally generated in an attempt to return to the original state when the head is tilted.
  • motion sickness or image sickness for example, non-patent document 1 standard.
  • the surface of the eyeball is a curved surface, so the distance of the optical path from the center surface and the peripheral surface of the imaging target to the lens of the camera is different, and at the same time the focus (focus on the camera) ) Is difficult to adjust, and the eyeball may become out of focus when the eye moves.
  • One solution to this problem is to use a lens with a deep focal depth so that the entire focus, including the center and periphery of the eyeball, is in focus at the same time. May be adversely affected. Therefore, as another proposal, there is one that can focus even if the eyeball moves by detecting the center of gravity of the pupil and performing focus control in accordance with the center of gravity of the pupil (for example, reference to Patent Document 1). ).
  • the inventors of the present invention have also developed an iris from the white eye of the eye in the reference state (where the sclera and conjunctiva are exposed) in order to solve the above-described problem (to be described later) when detecting the iris pattern.
  • a method for measuring the rotation of the eyeball by identifying a blood vessel of a predetermined pattern in the vicinity and detecting the outer edge of the iris from the position of the end point of the specific blood vessel (for example, Patent Document 2 standard).
  • Non-Patent Document 1 and the like has an unclear contrast of light and shade, and as the pupil diameter changes due to changes in the amount of light being seen or in the vicinity (background), the shape of the pattern or Since the position and shading change, it is necessary to keep the background light constant at the time of detection or to block the background light with goggles or the like covering the periphery of the eye.
  • Patent Document 1 discloses an example of a method for performing focusing control on the eyeball using the center of gravity of the pupil so that the eye can be focused even when the eyeball moves. Used only for focusing control. Therefore, Patent Document 1 does not disclose that the position information based on the center of gravity of the pupil as in the present invention is used for measuring the moving direction, moving amount, moving speed, and the like of the eyeball.
  • the method using the cornea reflection image (Purkinje image) of the eyeball is weak against the deviation between the head and the camera being measured, and it is necessary to firmly fix the camera to the head with a belt or the like.
  • the rotational movement of the eyeball cannot be measured.
  • a physical feature in which the upper part of the iris is partially covered with the upper eyelid such as a person whose eye width is narrow (a person with thin eyes), or the eyelashes of the upper eyelid have a strong contrast such as black
  • Physical features that are dark and long and / or thick so as to partially cover the top of the iris, etc. may not give favorable results when detecting iris patterns.
  • people in some parts of East Asia (of some ethnic groups) often have the physical characteristics as described above, and the subject having such physical characteristics is the iris. When measuring, it was necessary to open the eyes deliberately or endure blinking.
  • the present invention is long because (1) it is strong against changes in background light, (2) it is also strong against displacement of the camera, and it is not necessary to firmly fix the camera to the head. It can be worn for a long time, and (3) it is easy to detect the movement of the eyeball, etc., even when the eyelid of the upper and lower eyelids is dark and the eyelashes are long and cover the iris. It is an object of the present invention to provide a method for easily identifying a blood vessel for detecting movement of a blood vessel.
  • a method for detecting eye movement includes: (a) at least in the vicinity of the front side of one eye, or by using one-way mirror or the like together; A step of inputting a reference image of a predetermined area including a peripheral area of the eye, which is imaged by an imaging device disposed at an optically equivalent position; and (b) at least an eye and an eye corner of the eye from the reference image.
  • a step of detecting a step of detecting a white eye region in the eye from the eye region between the eye and the corner of the eye of the reference image, and (d) all blood vessel images identifiable from the white eye region.
  • each step in the above-described method is executed by the arithmetic processing unit by a program stored in an information processing apparatus such as a computer, and the program is processed from a storage medium storing the program to an internal processing operation of the information processing apparatus. After being transmitted and stored in the storage unit, it is executed by the arithmetic processing unit.
  • the step (b) of detecting the eye's eye and the corner of the eye and the step (c) of detecting a white eye region in the eye of the method for detecting eye movement according to the present invention include a feature including luminance in the image.
  • a binarization process may be performed on the vector value to detect a region where the binarized luminance value is equal to or greater than a threshold value.
  • the template blood vessel image and each nth blood vessel are detected.
  • At least one contraction process and at least one expansion process may be executed on the image detection image.
  • the nth match blood vessel image is expressed in a vertical direction, a horizontal direction, and a template.
  • a matching process may be executed corresponding to the movement in the rotation direction.
  • step (c) of detecting a white eye region from the reference image of the method for detecting eye movement according to the present invention an iris region and a pupil center not included in the white eye region in the eye are detected,
  • step (f) of recording the reference position and reference angle in the coordinates of the template blood vessel image the distance from the iris region to the template blood vessel image and the angle from the horizontal reference line passing through the center of the pupil are also recorded.
  • the white region of the eye is near the ear side of the iris region, and A blood vessel image that exists in the vicinity region of the horizontal reference line or that is in the lower region of the horizontal reference line and in the vicinity region may be selected and determined or detected.
  • the white eye region in the eye of each image In addition, as a blood vessel image to be determined or detected by performing a labeling process on each pixel of each blood vessel image, (1) the number of connections in the long side direction of pixel regions connected by the same label in each blood vessel image Or select the blood vessel image with the maximum number of connections, or (2) calculate the perimeter of pixel regions connected with the same label in each blood vessel image, and the perimeter is the longest A certain blood vessel image is selected, or (3) in each blood vessel image in coordinates having a first component axis and a second component axis that are orthogonal to each other, the displacement of the pixel region connected by the same label with respect to the first component axis
  • the first main component indicating the width and the second component
  • Each seek second principal component showing the displacement range with respect to the axis, the sum of the displacement width value of
  • an apparatus for detecting eye movement is (A) optically equivalent at least in the vicinity of the front side of one eye, or in combination with one-way mirror or the like.
  • An imaging device arranged at a position; (B) a step (a) in which a reference image of a predetermined region including a peripheral region of the eye input from the imaging device is input; and at least the eye and the eye corner of the eye are detected from the reference image Step (b), a step (c) of detecting a white eye region in the eye from the eye region between the eye and the corner of the reference image, and extracting all vascular images that can be identified from the white eye region.
  • Step (f) a step (g) of inputting an n-th blood vessel image detection image (n is an integer greater than or equal to 1 starting from 1 and gradually increasing by 1) imaged by the imaging device, and the n-th blood vessel
  • the above-described method of the present invention in order to solve the above-described problems, it is necessary to (1) be resistant to changes in background light, (2) be resistant to camera displacement, and firmly fix the camera to the head. It can be worn for a long time because it is not available. (3) Even if the eyelid of the upper and lower eyes or the eyelashes of the upper eyelid is dark and covered with a long iris, it is easy to detect the movement of the eyeball, etc. 4) Since it is possible to provide a method for easily identifying a blood vessel for detecting the movement of the eyeball, the position, angle and movement of the eyeball can be detected with higher accuracy.
  • the position of the iris can be detected from the position, angle, and movement of the eyeball described above, and since there is a pupil at the center of the iris, the direction (line of sight) of what the subject is looking at can be detected with higher accuracy. it can. For example, if the line of sight stays in a certain direction for a predetermined time or longer, you may be trying to determine or understand what you are looking at if it is unknown. There is a high probability that what is present is of high interest or is preferable in terms of preference.
  • FIG. 1 is a block diagram showing a schematic configuration of a device for detecting eye movement according to a first embodiment of the present invention.
  • FIG. It is an operation
  • A The flowchart of an example of the detection method of an eye head and an eye corner,
  • B The figure which showed an example of the rectangular extraction of an eye head and an eye corner.
  • A An example of a blood vessel in the white of the eye and (b) an example of a selected template blood vessel diagram.
  • A an example of an eyeball image causing halation due to measurement auxiliary light or too strong background light,
  • FIG. 1 is a hardware configuration diagram of an apparatus for detecting eye movement according to the first embodiment.
  • the information processing apparatus 1 of the eye movement detection device includes, for example, a central processing unit (CPU) that is a calculation unit that reads a program and executes various processes, a working RAM that has a high read / write processing speed, various programs, and the like.
  • Various interfaces that enable transmission and reception of electrical signals and power between a plurality of storage devices such as a non-volatile storage element to be stored, an imaging device 100 such as a camera, a display output device 200 such as a display, and an input device 300 such as a keyboard.
  • the imaging apparatus 100, the display output apparatus 200, and the input apparatus 300 may be connected to the outside of the information processing apparatus or may be provided inside the information processing apparatus. These components are connected to each other via a bus, a serial line, or the like.
  • the CPU is composed of, for example, an arithmetic processing unit having a program counter, an instruction decoder, various arithmetic units, an LSU (Load Store Unit), a general-purpose register, and the like.
  • the program, data, and the like are read by the drive device from, for example, an auxiliary storage device inside the information processing apparatus 1 or a storage medium connected to the outside.
  • the storage medium may be a portable storage medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a USB (Universal Serial Bus) memory.
  • the auxiliary storage device may be configured with, for example, an HDD (Hard Disk Drive), a flash memory, or the like.
  • the method for installing the program is not limited to the present embodiment, and the program may be installed from the recorded external storage medium to the auxiliary storage device by the drive device, or the remote server or others may be installed via the interface and the network.
  • the program may be downloaded from the computer and installed in the auxiliary storage device.
  • the network may be configured by the Internet, a LAN (Local Area Network), a wireless network, or the like.
  • the program may be stored (implemented) in advance in an auxiliary storage device or a ROM (Read Only Memory) (not shown) when the eye movement detection device is shipped.
  • the memory device is configured by a storage device such as a RAM (Random Access Memory) or an EEPROM (Electrically, Erasable and Programmable Read Only Memory).
  • the interface is connected to the various networks described above and performs input / output operations such as predetermined data and programs to various external devices via the network.
  • the input device 300 includes various input operation devices such as a keyboard, a mouse, a button, a touch pad, a touch panel, and a microphone.
  • the display output device 200 is configured by a display device such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube).
  • the eye movement detection device may include various output devices such as a printer and a speaker.
  • the image input interface of the information processing apparatus is connected to the camera 100. Then, the image input interface temporarily outputs the image data input from the camera 100 to a memory device or an auxiliary storage device.
  • the camera 100 is an imaging device such as a CCD (Charge-Coupled Device) camera or a CMOS (Complementary Metal-Oxide Semiconductor) camera, and outputs captured image data via an image input interface.
  • the image may be a still image or a moving image.
  • the eyeball of the subject is photographed by the camera 100.
  • light emitted from a blue LED may be irradiated to the eyeball.
  • the blue LED irradiates blue light to the white eye region (region including the sclera and conjunctiva) of the eyeball in order to increase the contrast of conjunctival blood vessels (hereinafter simply referred to as blood vessels) in the eyeball.
  • blood vessels conjunctival blood vessels
  • the eyeball may be irradiated with infrared light emitted from an infrared LED (Light Emitting Diode) simultaneously with the blue LED.
  • a so-called pupil method in a conventional eye movement measuring device which is a technique for calculating the center of the pupil by irradiating the eye with near infrared light and measuring the reflected light with an infrared camera.
  • relatively strong light is necessary as auxiliary light for measurement. Both are shown in FIG.
  • halation 66 is likely to occur.
  • the wearer of the device that detects the movement of the eyeball may feel uncomfortable or may be harmful to the wearer's eyes.
  • FIG. 5 (c) Even if the light of the blue LED irradiated to the white eye region 50 of the eyeball in the present invention shown in FIG. 5 (c) is very weak compared with the conventional eye movement measuring device or the like, FIG. As shown in (c), it has been confirmed by the experiment of the present inventor that the camera 100 can obtain a light and dark contrast capable of sufficiently recognizing a white blood vessel image (blood vessel 60). In addition, due to human color vision characteristics, blue light is less likely to perceive glare than medium or long wavelength light. Therefore, in the apparatus for detecting eye movement of the present invention, the possibility of causing halation in the camera 100 can be greatly reduced, and the wearer of the apparatus hardly feels uncomfortable with the light for measuring eye movement. Can do.
  • the information processing apparatus 1 includes an eye / eye corner detection unit 11, a white eye region detection unit 12, a blood vessel image detection unit 13, and a match image detection unit 14 as functional blocks that function when the CPU executes a program. Includes an image position correction unit 15, an image position / angle comparison unit 16, an eyeball movement / rotation angle calculation unit 17, an eyeball movement / rotation angle storage unit 18, an iris / pupil center detection unit 21, and a horizontal reference line.
  • a detection unit 22, a template image determination unit 23, a template image storage unit 24, various setting value storage units 71, a program storage unit 81, and a control unit 91 are provided.
  • Each of these functional blocks inputs / outputs various information (data) to, for example, a memory device or an auxiliary storage device, and the memory device or auxiliary storage device stores various information output from each functional block.
  • each functional block may be a block realized by a program clearly separated from each other, or a block realized by a program called by another program, such as a subroutine or a function. May be.
  • Some or all of these functional blocks may be configured by hardware such as LSI (Large Scale Integrated Circuit), IC (Integrated Circuit), FPGA (Field Programmable Gate Array), and the like.
  • a predetermined template blood vessel one blood vessel located in the white eye region in the eyeball image in the reference state is selected, and the selected blood vessel is used as a reference.
  • the position information and angle information are acquired as a template blood vessel image.
  • a matching blood vessel image that matches the template matching process using the template blood vessel image is detected from the eyeball image (blood vessel image detection image) at the time of actual measurement, and the position information and Get angle information.
  • the template blood vessel image acquisition process is performed before the actual measurement of the eye movement, and acquires various reference information necessary for the eye movement measurement.
  • the acquisition process of various reference information performed at the time of acquisition of a template blood vessel image is acquired in a state in which the movement is more limited than the process at the time of actual measurement of eye movement.
  • the above-described blue LED is used to irradiate the periphery of the blood vessel of the eyeball (white eye region) with blue light.
  • infrared LEDs may be used simultaneously to irradiate the pupil and iris regions with infrared rays.
  • the eyeball image of the subject acquired in the reference state is analyzed, and information on the template blood vessel image vector data in the reference state, information on the position of the blood vessel, and the like is acquired.
  • information such as pupil ellipse parameters (for example, information on the center point of the pupil contour, the long axis value, the short axis value, the inclination of the ellipse (major axis rotation angle), etc.) is acquired as necessary.
  • the template blood vessel image and the various reference information are acquired as described above, and the various reference information is output and stored in the memory device or the auxiliary storage device.
  • the position information of the template blood vessel image is coordinates in an XY orthogonal coordinate system in which the horizontal direction and the vertical direction of the eyeball image in the reference state are the X-axis direction and the Y-axis direction, respectively.
  • the blood vessel image detection unit 13 recognizes the position of the blood vessel 60 or the like in the white eye region 50, and outputs information related to the recognized position of the blood vessel 60 to, for example, a memory device or an auxiliary storage device.
  • the white-eye region 50 is a white-eye region recognized by the white-eye region detection unit 12 between the eyes and the corners of the eye recognized by the eye / eye corner detection unit 11 in the eyeball image. Further, it is a region outside the iris region 51 recognized by the iris / pupil center detection unit 21, in the vicinity of the horizontal reference line detected by the horizontal reference line detection unit 22 from the eyes and the corners of the eyes, or near the lower side thereof. There may be.
  • the blood vessel 60 recognized (specified) by the blood vessel image detection unit 13 matches the template blood vessel image and a predetermined template blood vessel selected at the time of acquiring various reference information by template matching.
  • Blood vessels hereinafter also referred to as match blood vessels).
  • the blood vessel image detection unit 13 refers to the reference information stored in the memory device or the auxiliary storage device, and in the white eye region of the eyeball image during actual measurement. In the vicinity of the horizontal reference line or in the vicinity of the lower side, the position information of a match blood vessel (match blood vessel image) existing at a predetermined distance from the iris center 52 in the vicinity of the predetermined distance away from the iris region 51 is acquired. . Then, the blood vessel image detection unit 13 outputs the acquired match blood vessel position information (coordinate information) to, for example, a memory device or an auxiliary storage device.
  • the processing content performed by the blood vessel image detection unit 13 will be described in more detail.
  • the blood vessel image detection unit 13 reads a template blood vessel image and position information (coordinate information) of a predetermined template blood vessel in a reference state acquired in advance when acquiring various reference information from a memory device or an auxiliary storage device.
  • the blood vessel image detection unit 13 sets a search region for specifying the position of the matched blood vessel in the eyeball image acquired at the time of actual measurement based on the position information of the predetermined template blood vessel in the read reference state.
  • the blood vessel image detection unit 13 includes a search area having a predetermined shape (for example, a rectangular shape) centered on the eye movement angle of the predetermined template blood vessel in the reference state and the rotated point in the white eye image of the eyeball. Set.
  • the blood vessel image detection unit 13 performs, for example, a smoothing process on the image of the search area to remove noise.
  • the blood vessel image detection unit 13 performs binarization processing on the search region image that has been subjected to smoothing processing according to the pixel value, and recognizes a set portion of pixels having a lower pixel value as a blood vessel. To do. At this time, a plurality of blood vessels are recognized in the search area.
  • the blood vessel image detecting unit 13 applies a Hilditch thinning algorithm to a set portion of pixels recognized as blood vessels to perform noise removal processing.
  • the blood vessel image detection unit 13 measures the length of the blood vessel by performing a depth-first search on the thin line portion. Then, the blood vessel image detection unit 13 extracts only blood vessels having a length equal to or greater than a predetermined value from the plurality of recognized blood vessels.
  • a 3 ⁇ 3 window that refers to the pixel of interest in the search area and the surrounding 8 pixels is used as the basic processing unit of the noise removal process. Then, the blood vessel image detection unit 13 performs thinning processing by performing noise removal using each pixel as a target pixel while raster scanning the entire image data of the search region.
  • the blood vessel image detection unit 13 determines whether or not the pixel of interest matches a deletion condition by thinning defined in advance in a 3 ⁇ 3 window.
  • the blood vessel image detection unit 13 deletes the target pixel, that is, replaces the graphic pixel (the blood vessel region pixel) with the background pixel (the white eye region pixel).
  • the blood vessel image detection unit 13 sets the next pixel in the raster scanning order as the target pixel, and performs the target pixel determination process and graphic pixel replacement in a new 3 ⁇ 3 window. Process.
  • the blood vessel image detection unit 13 repeats the above-described series of processes for all the pixels in the search region. Next, the blood vessel image detection unit 13 repeats the series of processes described above while raster scanning the search area until there are no pixels to be deleted in one cycle of raster scanning. Then, the blood vessel image detection unit 13 ends the noise removal processing by the thinning method of Hilditch when there are no pixels to be deleted in one cycle of raster scanning.
  • the position information of the matched blood vessels output from the blood vessel image detection unit 13 is XY orthogonal coordinates in which the horizontal direction and the vertical direction of the eyeball image (search area) at the time of actual measurement are the X axis direction and the Y axis direction, respectively.
  • the coordinates of the system are XY orthogonal coordinates in which the horizontal direction and the vertical direction of the eyeball image (search area) at the time of actual measurement are the X axis direction and the Y axis direction, respectively. The coordinates of the system.
  • the predetermined template blood vessel selected in the reference state is obtained as follows. First, a predetermined search area is set in the white eye area. Next, a series of the above-described processes from the binarization process performed by the blood vessel image detection unit 13 to the noise removal process by the Hilditch thinning method are performed on the set image data of the predetermined search area, and the search area The end points of a plurality of blood vessels are extracted. Then, a predetermined template blood vessel in the reference state is selected by the template image determination unit 23 from the plurality of extracted blood vessels. These processes may be performed by the blood vessel image detection unit 13 and the selection result may be acquired from the blood vessel image detection unit 13.
  • the setting position and size of the search area when selecting a predetermined template blood vessel when acquiring the template blood vessel image and various reference information can be arbitrarily set. Further, a criterion for selecting a predetermined template blood vessel from a plurality of blood vessels extracted in the search region is also arbitrary.
  • it is a white eye region of the eyeball, in the vicinity of the horizontal reference line or in the vicinity of the lower side, in the vicinity of a predetermined distance from the iris region 51, and also at another predetermined distance from the iris center 52. It is preferable to select a proper blood vessel as a predetermined template blood vessel. In addition, it is preferable to select a blood vessel whose blood vessel coordinate in the Y-axis direction is separated from the coordinate in the Y-axis direction of the pupil center by another predetermined distance as a predetermined template blood vessel. By selecting as a predetermined template blood vessel in this way, for example, it becomes difficult to be affected by the effects of eyelashes, eyelid movement, eye movement, etc.
  • the search area in the reference state is also the white eye area of the eyeball, in the vicinity of the horizontal reference line or in the vicinity below the predetermined distance from the iris area 51 and from the iris center 52. May also exist at another predetermined distance, and the search area may be set such that the Y-axis direction coordinate of the center point of the search area is separated from the Y-axis direction coordinate of the pupil center by the above-described another predetermined distance. preferable.
  • the eye movement amount / rotation angle calculation unit 17 matches the position information of the predetermined template blood vessel selected in the reference state and the match blood vessel (blood vessel corresponding to the predetermined template blood vessel) identified (recognized) during actual measurement of eye movement.
  • the eye movement angle ⁇ is calculated based on the position information.
  • FIG. 2 is a flowchart showing the processing procedure of the eye movement detection method executed by the eye movement detection apparatus of this embodiment.
  • a collation database (template image storage unit 24) is constructed before actual eye movement detection is performed (S1).
  • an image database for collation is created from the image feature amount of a predetermined template blood vessel image.
  • a newly imaged eyeball image from the imaging device 100 is input to the information processing device 1 and stored in the image data storage unit (S2).
  • a binarization process is performed on the luminance value of the image data stored in the image data storage unit (S3).
  • the eye / eye corner detection unit 11 detects the eye head and the eye corner (S4).
  • a white-eye area between the top and bottom of the image is detected by the white-eye area detection unit 12 (S5).
  • the iris / pupil center detection unit 21 detects the iris and the center of the pupil between the eye and the corner of the eye from the image data (S6).
  • the horizontal reference line detection unit 22 detects the horizontal reference line from the detected position information of the eyes and the corners of the eyes (S7).
  • a predetermined number of contraction and expansion processes are performed on all the blood vessel images in the detected white-eye region (S8), and it is determined whether or not it is the first reference image (S9). If it is a reference image (S9: Yes), a predetermined template blood vessel image to be a reference image is determined by a predetermined rule or manual processing (S10), and various reference information including the template blood vessel image, position and angle Is recorded (S11).
  • step S12 After recording the template blood vessel image and various reference information (S11), or when it is not the first reference image (S9: No), template matching is performed for the next image input, and the nth (n starts from 1)
  • the detection processing of the matched blood vessel image (an integer that is gradually increased by 1) is executed (S12), and when it is detected (S12: Yes), various reference information such as the position and angle is recorded (S13). If it cannot be detected (S12: No), the process returns to step S9 to determine whether or not it is the first reference image, and the detection processing of the nth matched blood vessel image in step S12 is executed.
  • the image position / angle comparing unit 16 determines the image position / angle of the template blood vessel image and the nth matched blood vessel image. Are compared with each other and the difference is calculated (S14). Next, the movement amount and the rotation angle are calculated from the difference between the image position / angle of the nth matched blood vessel image with respect to the image position / angle of the template blood vessel image by the eyeball movement amount / rotation angle calculation unit 17. It is stored in the rotation angle storage unit 18 (S15). Thereafter, it is determined whether or not there is a next image (S16).
  • step S16: No If there is a next image (S16: No), the process returns to step S2 to input the next image. If there is no next image (S16: Yes), step S15 is performed.
  • the movement amount and rotation angle calculated and stored in the eyeball movement amount / rotation angle storage unit 18 are output to the display output device 200, and the process is terminated.
  • the eye movement is measured as described above.
  • the above-described eye movement detection process may be realized by mounting a corresponding eye movement detection program in the eye movement detection device and executing the eye movement detection program by the information processing device 1. .
  • the eye movement is calculated based on the position information of the blood vessel in the white eye part, which has a large contrast with respect to the surroundings and is not affected by pupil contraction. It can be measured.
  • the “white eye region” means a region including the sclera and the conjunctiva
  • the “reference state” is, for example, a healthy state in which the subject is not stressed, and the rotation angle of the eyeball is A state that is considered zero.
  • blood vessels such as thick, thin, curved, and branched.
  • Y 0.2989R + 0.5866G + 0.1145B
  • Y is the color luminance
  • Cr is the red color difference component
  • Cb is the blue color difference component.
  • the input is monochrome, it is the same as the Y component of the YCbCr color system.
  • the binarization process is performed on the luminance, and an area above a certain threshold is extracted and set as a white eye area.
  • the horizontal, vertical, and rotating eye movements can be measured by tracking feature points using SIFT.
  • the human rotational movement component is not so large as about ⁇ 12 °, and the soft conjunctiva adhering to the sclera does not rotate the conjunctival blood vessels as much as the amount of eye movement.
  • Template matching can be measured with a certain level of accuracy.
  • a method for measuring horizontal and vertical eye movements by a relatively simple method is as follows: The detected white eye region is subjected to contraction treatment about once or twice, and thin blood vessels, processes, sesame salt The noise is removed, and then the dilation process is performed once or twice so that thick blood vessels and branch points remain.
  • a method of performing labeling on the white eye region and using the connected region having the longest perimeter as a template image Similarly, the white eye region is labeled, the first principal component and the second principal component are obtained in each connected region, and the connected region with the largest sum of errors from the two principal component axes (ie, the complex region).
  • the following image blur prevention function is installed so that accurate eye movement measurement can be performed even when the device is worn due to the movement of the user's head or body or due to the weight of the device.
  • An eyeball image is taken in a state where the eyeglass frame on which the camera is installed is correctly attached, and this is used as a reference image.
  • a rectangular shape is extracted from the corner of the eye and the eye portion to obtain two feature points, and a third feature point is determined according to a reference described later.
  • the positions of the corners of the eyes and the corners of the eyes and the third point are obtained based on the template image created from the first image, and the Affine matrix is calculated.
  • the eyeball images after the second image are returned to the position of the reference image by Affine conversion from the two sets of three positions of the reference image and the second and subsequent images.
  • the third point is used in both the reference image and the converted image (that is, the second and subsequent images) so that the distance between the two points of the corner of the eye and the top of the eye can be used to enlarge or reduce the distance.
  • the triangle formed by the three points was set to be as similar as possible. This triangle is an isosceles triangle, and the third point is determined on the side closer to the eye.
  • Feature point extraction and template matching limit the processing range to the area where the corner of the eye and the eye are estimated to reduce false detection and speed up the processing.
  • the feature point extraction method uses a Harris edge detector. Furthermore, when the matching degree is low in template matching, it is processed as an error.
  • the eye movement amount / rotation angle calculation unit 17 matches the position information of the predetermined template blood vessel selected in the reference state and the match blood vessel (blood vessel corresponding to the predetermined template blood vessel) identified (recognized) during actual measurement of eye movement.
  • the eye movement angle is calculated based on the position information. Note that these various parameters in the reference state are acquired in advance when the template blood vessel image and various reference information are acquired, and stored in, for example, a memory device or an auxiliary storage device.
  • the method of the present embodiment (1) strong against changes in background light, (2) strong against displacement of the camera, and it is not necessary to firmly fix the camera to the head. It can be worn for a long time, and (3) it is easy to detect the movement of the eyeball, etc., even when the eyelid of the upper and lower eyelids is dark and the eyelashes are long and cover the iris. Since it is possible to provide a method for easily identifying a blood vessel for detecting the movement of the eyeball, the position, angle and movement of the eyeball can be detected with higher accuracy.
  • Luminance value data is used as the feature vector. Place the center t [k, l] of the template image at a point (i, j) where the input image f [i, j] is located. Calculate the degree and determine the maximum position. Similarity determination uses “Diffusion of Differences” that can be processed at high speed, “Cross-correlation”, “Correlation coefficient” that resists changes in brightness, and image size and brightness respectively. Some are normalized by value. As pre-processing for template matching, normalization processing may be performed in order to deal with size mismatch.
  • ZNCC zero average normalized cross-correlation
  • the camera shift method (object tracking) is used to shift to a position closer to the histogram characteristics of the template image in the current frame image, focusing on the RGB histograms of the input image, without converting to luminance. Is available.
  • the video blur prevention function (video stabilization control) shown in FIG. 3 may be installed so that accurate eye movement measurement can be performed even when the worn device is displaced due to the movement of the user's head or body or due to the weight of the device. it can.
  • Take an eyeball image with the glasses frame with the camera installed correctly, and use this as the reference image.
  • the first eyeball image which is the reference image
  • a rectangular shape is extracted from the corner of the eye and the eye portion to obtain two feature points, and a third feature point is determined according to a reference described later.
  • the positions of the corners of the eyes and the corners of the eyes and the third point are obtained based on the template image created from the first image, and the Affine matrix is calculated.
  • the second and subsequent eyeball images are returned to the position of the reference image by Affine transformation.
  • 3 points in both the reference image and the converted image are used so that the distance between the two points of the corner of the eye and the top of the eye can be used to enlarge or reduce the distance.
  • the triangles created by will be as similar as possible. This triangle is an isosceles triangle, and the third point is determined on the side closer to the eye.
  • Feature point extraction and template matching limit the processing range to the area where the corner of the eye and the eye are estimated to reduce false detection and speed up the processing.
  • the feature point extraction method uses a Harris edge detector. Furthermore, when the matching degree is low in template matching, it is processed as an error.
  • FIG. 4 is a diagram showing an example of a blood vessel in the white of the eye and an example of a selected template blood vessel diagram. According to the method of this embodiment, even when the glasses frame to which the apparatus is fixed is displaced from the face, the eye movement can be measured without hindrance if the frame is shifted to the normal use level.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

背景光の変化に強く、カメラの位置ずれにも強く、長時間装用が可能であり、眼球の移動方向等の運動を検出しやすい方法を提供する。 情報処理装置において、当該眼の領域から、当該眼の中の白目領域を検出し、白目領域から、テンプレートとなる血管像を決定し、テンプレート血管像にマッチした第nのマッチ血管像を検出し、その第n検出位置との差から眼球の第n移動量を演算し、前記基準角度と前記第n検出角度との差から眼球の第n回転角度を演算し、眼球の運動を検出する方法。

Description

眼球の運動を検出する方法、そのプログラム、そのプログラムの記憶媒体、及び、眼球の運動を検出する装置
 本発明は、眼の近傍に配置された撮像装置(カメラ)により眼の周辺を含む所定領域を撮像した画像から、眼球の運動を検出する方法に関し、特に、眼の画像から眼の中の虹彩及び/又は瞳孔以外の特徴点を利用して間接的に瞳孔の位置又は視線の方向等を検出する方法に関する。
 近年になり、ヘッドマウントディスプレイや眼鏡型のウェアラブルデバイスに、眼の動きを知るための装置が設置されたものが公知になっている。例えば、グーグルグラス(Google Glass:登録商標)では、赤外線センサにより眼が上を向くこと、まばたきやウインク、及び、装置の着脱を検知して、設定により眼をウインクさせて写真撮影や着脱や上向きでディスプレイをオンできることが知られている。
 また、まばたきやウインクの検知の他にも、カメラで眼の領域を撮像した画像から眼の中の虹彩の位置を検出する方法が知られている。例えば、虹彩部分には濃淡の模様(虹彩紋理:虹彩の濃淡パターン)があるので、眼球の画像における虹彩部分から、テンプレートマッチング等の既存の技術を用いて、眼の中の虹彩の位置を検出している。
 さらに、上記のような虹彩の位置の検出を、連続した眼球の画像から各々検出し、例えば、その各位置を2次元又は3次元の座標上に投影して比較するか又は各座標値の差をとることで、眼球の移動する方向や移動する速度を検出できる。さらに、この眼球の移動方向をトレースしたり、眼球の移動する方向や速度のパターンを検出し、それを既知の正常なパターンと比較して異なることを検出することで、身体の異常あるいは不調や疾病の発見等に利用することができる。例えば、眼球が視線の方向を回転軸として回転(眼球運動)する運動は、通常であれば、頭が傾いた時に元の状態に戻ろうとして発生する。この運動が頭を傾けない場合に発生する場合は、乗り物酔いや影像酔いの可能性がある(例えば、非特許文献1基準)。
 また、眼球の画像を撮像する場合には、眼球の表面が曲面であるので、撮像目的の中心部と周辺部の各表面からカメラのレンズまでの光路の距離が異なり、同時にカメラで焦点(ピント)を合わせることが困難であり、眼球が運動すると焦点が合わなくなる場合がある。それを解決するための一案としては、焦点深度の深いレンズを用いて眼球の中心と周辺を含む全体で同時にピントが合うようにすることであるが、そのためには強い照明が必要になり眼に悪影響を及ぼすことがある。そこで、他の案として瞳孔の重心を検出し、その瞳孔の重心に合わせてフォーカス制御を行うことで、眼球が移動してもピントを合わせられるようにできるものがある(例えば、特許文献1基準)。
 また、眼球の運動や視線の垂直・水平成分の高精度な計測には、眼球と角膜の回転中心が異なることを利用した角膜反射像(プルキンエ像)を利用する方法がある。
 また、本願発明の発明者等は、上記した虹彩紋理を検出する場合の課題(後述)を解決するために、基準状態の眼の白目(強膜および結膜が露出している部分)中から虹彩近傍の所定パターンの血管を特定し、その特定の血管の端点の位置から虹彩の外縁端部を検出することで、眼球の回旋を測定する方法を提案した(例えば、特許文献2基準)。
橋本勉・牧孝郎・坂下祐輔・西山潤平・藤吉弘亘・平田豊、「瞳孔径変化による虹彩パターン伸縮のモデル化と眼球運動計測への応用」、電子情報通信学会論文誌、2010, Vol. J93-D, No.1, pp.39-46.
特開平02-164335号公報 国際公開WO2013/125707号パンフレット
 しかしながら、非特許文献1等で利用する虹彩紋理は、濃淡のコントラストが不明瞭であり、見ているものや周辺(背景)の光量の変化により瞳孔径が変化するのに伴い、紋理の形状や位置や濃淡が変化するので、検出する際に背景光を一定に保つか、眼の周囲を覆うゴーグル等により背景光を遮断する必要がある。
 また、特許文献1には、眼球に対して瞳孔の重心を用いてフォーカシング制御し、眼球が運動してもピントを合わせられる方法の一例が示されているが、その瞳孔の重心の情報は、フォーカシング制御のみに使用されている。従って、特許文献1では、本願発明のような、瞳孔の重心に基づく位置情報を、眼球の移動方向、移動量、移動速度等の計測に利用することについて開示していない。
 また、眼球の角膜反射像(プルキンエ像)を利用する方法は、測定中の頭部とカメラのずれに弱く、ベルト等によりカメラを頭部に強固に固定する必要があった。また、この角膜反射像(プルキンエ像)を利用する方法では、眼球の回旋運動は計測できない。
 また、特許文献2の眼球の回旋を測定する方法では、白目中の特定の血管の端点の位置から虹彩の外縁端部を検出する事で、上記したような非特許文献1、特許文献1及びプルキンエ像を利用する方法の課題(背景光によりコントラスト検出が困難、移動方向等を計測できない、頭部にカメラを強固に固定する必要があり長時間装用が困難)を解決できる可能性を有する。しかし、虹彩の外縁端部を検出しているため、使用できる血管の位置する領域が虹彩近傍に限られている。さらに「その血管の少なくとも一部に虹彩の外周端部で終端する部分を有する」という制約がある。また、その制約中で、上まぶたから突出する直線状のまつげと判別可能であるような複雑な形状(例えば、折れ曲がりが多いか、分岐している等)で、なるべく明確に検出できる「太さ寸法」を有する血管を特定する必要があるため、血管を特定することの難易度が高く処理に時間がかかっていた。
 また、例えば、眼の上下幅が狭い人(眼が細い人)のように上まぶたで虹彩の上部が部分的に覆われる身体的特徴や、あるいは上まぶたのまつげが黒色等の強コントラストになる濃色であり虹彩の上部等に部分的に被さるように長く及び/又は太いような身体的特徴は、虹彩紋理を検出する際には好ましい結果を得られない場合があった。一般的に、東アジアの一部の地域の(一部の民族の)人には、上記したような身体的特徴を有することが多く、そのような身体的特徴を有する被測定者は、虹彩を計測する際に、眼を意図的に見開いたり、まばたきを我慢する必要があった。また、特許文献2の方法の場合も、上記したような身体的特徴を有する人の場合は、虹彩の端部で終端する血管を特定する領域が狭くなるため、好ましい結果が得られない場合があった。
 従って、従来の眼球の運動を検出する方法では、(1)背景光が変化してもコントラスト検出でき、(2)頭部にカメラを強固に固定する必要が無く長時間装用が可能であり、さらに(3)眼の上下幅が狭く眼が細い場合、又は、上まぶたのまつげが濃色で長く虹彩の上部等に部分的に被さる場合でも、眼球の移動方向等の運動を検出しやすいことに加えて、(4)眼球の移動を検出するための血管を特定することが容易である、という全て満足できる方法を提供できなかった。
 そこで本発明は、上記した課題を解決するために、(1)背景光の変化に強く、(2)カメラの位置ずれにも強く、頭部にカメラを強固に固定する必要が無いことから長時間装用が可能であり、(3)眼の上下幅が狭い人や上まぶたのまつげが濃色で長く虹彩に被さる場合でも、眼球の移動方向等の運動を検出しやすく、(4)さらに眼球の移動を検出するための血管を特定しやすい方法を提供することを目的とする。
 上記した課題を解決するために、本発明に係る眼球の運動を検出する方法は、情報処理装置において、(a)少なくとも片眼の前面側の近傍領域内、もしくはone-way mirror等の併用により光学的に等価な位置に配置された撮像装置により撮像された、当該眼の周辺領域を含む所定領域の基準画像が入力するステップと、(b)基準画像から、少なくとも当該眼の目頭と目尻を検出するステップと、(c)基準画像の目頭と目尻の間の当該眼の領域から、当該眼の中の白目領域を検出するステップと、(d)白目領域から、識別可能な全ての血管像を抽出するステップと、(e)全ての血管像中から、テンプレートとなる血管像を決定するステップと、(f)白目領域中のテンプレート血管像の座標中の基準位置及び水平基準の基準角度を記録するステップと、(g)撮像装置により撮像された第n(nは1から始まり順次1ずつ漸増する1以上の整数)の血管像検出用画像が入力するステップと、(h)第nの血管像検出用画像から、テンプレートにマッチした第nのマッチ血管像を検出するステップと、(i)白目領域中の第nのマッチ血管像の座標中の第n検出位置及び第n検出角度を記録するステップと、(j)座標中の基準位置及び第n検出位置との差から眼球の第n移動量を演算し、基準角度と第n検出角度との差から眼球の第n回転角度を演算するステップと、(k)n=n+1として上記(g)~(j)のステップを実行し、入力した第(n+1)血管像検出用画像から第(n+1)のマッチ血管像を検出し、さらに第(n+1)移動量及び第(n+1)回転角度を演算する処理を繰り返すステップと、 が実行される。
 また、上記した方法における各ステップは、コンピュータ等の情報処理装置に記憶されたプログラムにより演算処理部で実行され、また、当該プログラムは、当該プログラムを記憶する記憶媒体から情報処理装置内部の処理作業用記憶部に伝送されて記憶された後、演算処理部で実行される。
 好ましくは、本発明に係る眼球の運動を検出する方法の眼の目頭と目尻の検出するステップ(b)と、眼の中の白目領域を検出するステップ(c)では、画像における輝度を含む特徴ベクトルの値に対して2値化処理が実施され、当該2値化輝度値が閾値以上である領域が検出されるようにしてもよい。
 好ましくは、本発明に係る眼球の運動を検出する方法のテンプレート血管像を決定するステップ(e)及び第nのマッチ血管像を検出するステップ(h)では、テンプレート血管像及び各第nの血管像検出用画像に対して、少なくとも一回の収縮処理と少なくとも一回の膨張処理が実行されるようにしてもよい。
 好ましくは、本発明に係る眼球の運動を検出する方法の第nのマッチ血管像を検出するステップ(h)では、テンプレートに対して、第nのマッチ血管像を、垂直方向、水平方向、及び/又は、回旋方向の移動に対応させてマッチングさせる処理が実行されるようにしてもよい。
 好ましくは、本発明に係る眼球の運動を検出する方法の基準画像から白目領域を検出するステップ(c)では、当該眼の中の白目領域に含まれない虹彩領域及び瞳孔の中心が検出され、テンプレート血管像の座標中の基準位置及び基準角度を記録するステップ(f)では、虹彩領域からテンプレート血管像までの座標中の距離及び瞳孔の中心を通過する水平基準線からの角度も記録し、テンプレート血管像を決定するステップ(e)及び前記第nのマッチ血管像を検出するステップ(h)では、当該眼の中の白目領域の中で、虹彩領域の耳側の近傍であり、且つ、水平基準線の近傍領域に存在するか、又は、当該水平基準線の下側領域であって且つ近傍領域に存在する血管像が選択されて決定又は検出されるようにしてもよい。
 好ましくは、本発明に係る眼球の運動を検出する方法のテンプレート血管像を決定するステップ(e)及び第nのマッチ血管像を検出するステップ(h)では、各画像の眼の中の白目領域及び各血管像の各画素に対してラベリング処理を実施し、決定又は検出される当該血管像として、(1)各血管像中において、同一ラベルで連結された画素領域の長辺方向の連結数を演算し、該連結数が最大である血管像を選択するか、又は、(2)各血管像中において、同一ラベルで連結された画素領域の周囲長を演算し、該周囲長が最長である血管像を選択するか、又は、(3)直交する第1成分軸と第2成分軸を有する座標中の各血管像中において、同一ラベルで連結された画素領域の第1成分軸に対する変位幅を示す第1主成分、及び、第2成分軸に対する変位幅を示す第2主成分を各々求め、第1主成分の変位幅値と前記第2主成分の変位幅値との総和が最大となる血管像を選択するようにしてもよい。
 上記した課題を解決するために、本発明に係る眼球の運動を検出する装置は、(A)少なくとも片眼の前面側の近傍領域内、もしくはone-way mirror等の併用により光学的に等価な位置に配置された撮像装置と、(B)撮像装置から入力する当該眼の周辺領域を含む所定領域の基準画像が入力するステップ(a)と、基準画像から少なくとも当該眼の目頭と目尻を検出するステップ(b)と、基準画像の目頭と目尻の間の当該眼の領域から当該眼の中の白目領域を検出するステップ(c)と、白目領域から識別可能な全ての血管像を抽出するステップ(d)と、全ての血管像中からテンプレートとなる血管像を決定するステップ(e)と、白目領域中のテンプレート血管像の座標中の基準位置及び水平基準の基準角度を記録するステップ(f)と、撮像装置により撮像された第n(nは1から始まり順次1ずつ漸増する1以上の整数)の血管像検出用画像が入力するステップ(g)と、第nの血管像検出用画像から、テンプレートにマッチした第nのマッチ血管像を検出するステップ(h)と、白目領域中の第nのマッチ血管像の座標中の第n検出位置及び第n検出角度を記録するステップ(i)と、座標中の基準位置及び第n検出位置との差から眼球の第n移動量を演算し、基準角度と第n検出角度との差から眼球の第n回転角度を演算するステップ(j)と、n=n+1として上記(g)~(j)のステップを実行し、入力した第(n+1)血管像検出用画像から第(n+1)のマッチ血管像を検出し、さらに第(n+1)移動量及び第(n+1)回転角度を演算する処理を繰り返すステップ(k)と、を少なくとも実行する情報処理装置と、を有する。
 上記した本発明の方法によれば、上記した課題を解決するために(1)背景光の変化に強く、(2)カメラの位置ずれにも強く、頭部にカメラを強固に固定する必要が無いことから長時間装用が可能であり、(3)眼の上下幅が狭い人や上まぶたのまつげが濃色で長く虹彩に被さる場合でも、眼球の移動方向等の運動を検出しやすく、(4)さらに眼球の移動を検出するための血管を特定しやすい方法を提供することができることから、より高精度に眼球の位置や角度及び運動を検出することができる。
 なお、上記した眼球の位置や角度及び運動から虹彩の位置も検出でき、虹彩の中心には瞳孔があることから、被測定者が見ているものの方向(視線)についても、より高精度に検出できる。
例えば、視線が一定の方向に所定以上の時間留まる場合、見ているものが未知のものの場合には何であるか判別あるいは理解しようとしていることもあるが、既知のものである場合には、見ているものが興味度の高いものであったり、嗜好の上で好ましいものである確率が高くなる。
本発明の第一実施形態に係る眼球の運動を検出する装置の概略構成を示すブロック図である。 本発明の第一実施形態に係る動作フローチャートである。 (a)目頭と目尻の検出方法の一例のフローチャート、(b)目頭と目尻の矩形抜き出しの一例を示した図である。 (a)眼の白目中の血管の一例と、(b)選択されたテンプレート血管図の一例を示す図である。 (a)計測用補助光や強すぎる背景光でハレーションを起こしている眼球画像の一例と、(b)周囲が暗い場合に撮像される眼球画像の一例と、(c)非常に弱い光であっても十分に白目の血管像を認識できる濃淡コントラストが得られている眼球画像の一例を示す図である。
<第1の実施形態>
 まず、本発明の第1の実施形態に係る眼球の運動を検出する装置、検出方法、及び、検出プログラムについて説明する。
[ハードウェア構成]
 図1は、第1の実施形態に係る眼球の運動を検出する装置のハードウェア構成図である。
眼球運動検出装置の情報処理装置1は、例えば、プログラムを読み込んで各種処理を実行する演算ユニットであるCPU(Central Processing Unit)と、リード/ライトの処理速度が速い作業用RAMと各種プログラム等を格納する不揮発性記憶素子等の複数の記憶装置と、カメラ等の撮像装置100、ディスプレイ等の表示出力装置200、キーボード等の入力装置300等との電気信号及び電力の送受信を可能にする各種インターフェースとを含む。また、撮像装置100と、表示出力装置200と、入力装置300は、情報処理装置の外部に接続されても、情報処理装置の内部に備えられてもよい。これらの各構成要素は、バスやシリアル回線等を介して互いに接続される。
  CPUは、例えば、プログラムカウンタ、命令デコーダ、各種演算器、LSU(Load Store Unit)、汎用レジスタ等を有する演算処理装置で構成される。プログラムやデータなどは、例えば、情報処理装置1の内部の補助記憶装置又は外部に接続された記憶媒体からドライブ装置により読み込むまれる。記憶媒体は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ等の可搬型の記憶媒体であってもよい。また、補助記憶装置は、例えば、HDD(Hard Disk Drive)やフラッシュメモリなどで構成されてもよい。
 プログラムをインストールする方法は、本実施形態には限定されず、記録された外部記憶媒体からドライブ装置で補助記憶装置にインストールしてもよいし、インターフェースとネットワークを介して、遠隔地のサーバーや他のコンピュータからプログラムをダウンロードして補助記憶装置にインストールしてもよい。ネットワークは、インターネット、LAN(Local Area Network)、無線ネットワーク等で構成されてもよい。また、例えば、プログラムが、眼球運動検出装置の出荷時に、補助記憶装置や図示しないROM(Read Only Memory)等に予め格納(実装)されていてもよい。
 上述のようにしてインストールされた各種プログラム、又は、予め格納された各種プログラムをCPUが実行することにより、本実施形態の眼球運動検出装置における後述の各種機能(各種処理)が実現される。
メモリ装置は、例えば、RAM(Random Access Memory)やEEPROM(Electrically Erasable and Programmable Read Only Memory)などの記憶装置で構成される。また、インターフェースは、上述した各種ネットワーク等に接続され、該ネットワークを介して、外部の各種装置に対して所定のデータやプログラムなどの入出力動作を行う。
 入力装置300は、例えば、キーボード、マウス、ボタン、タッチパッド、タッチパネル、マイク等の各種入力操作装置で構成される。また、表示出力装置200は、例えば、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等の表示装置で構成される。なお、眼球運動検出装置は、表示出力装置200以外では、例えば、プリンタ、スピーカ等の各種出力装置を備えていてもよい。
 情報処理装置の画像入力インターフェースは、カメラ100に接続される。そして、画像入力インターフェースは、カメラ100から入力された画像データを、一旦、メモリ装置や補助記憶装置に出力する。
 カメラ100は、例えばCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラ等の撮像装置であり、撮影された画像のデータを画像入力インターフェースを介して出力する。なお、画像は、静止画像であってもよいし、動画像であってもよい。
 本実施形態では、カメラ100により、被験体の眼球を撮影する。撮影時には、例えば、青色LEDから射出された光が眼球に照射されるようにしてもよい。青色LEDは、眼球内の結膜血管(以下、単に血管という)のコントラストを高めるため、眼球の白目領域(強膜及び結膜を含む領域)に青色光を照射する。青色LEDの照射範囲を眼球の白目領域に絞ることにより、眼球の撮影時に被験体に与える負担を軽減することができる。また、瞳孔を強調するため及び虹彩の濃淡パターンを精度よく撮像するためには、青色LEDと同時に赤外線LED(Light Emitting Diode)から射出された赤外線の光を眼球に照射してもよい。
 ここで、従来の眼球運動計測装置には瞳孔法と呼ばれるものがあり、眼球に対して近赤外光を照射し、その反射光を赤外線カメラで計測して瞳孔の中心を算出する手法である。また、図5(b)に例示したように周囲が暗い場合、計測用補助光として比較的強い光が必要となるが、どちらも、カメラ100で映像した画像には図5(a)に示したようなハレーション66を起こしやすいという問題がある。とくに、計測用補助光として強い光を用いた場合は、眼球の運動を検出する装置の装着者が不快を感じたり、場合によっては、装着者の眼に有害となる可能性もある。それに対して図5(c)に示した本願発明で眼球の白目領域50に照射する青色LEDの光は、従来の眼球運動計測装置等と比較して非常に弱い光であっても、図5(c)に示したように、カメラ100で十分に白目の血管像(血管60)を認識できる濃淡コントラストを得られることが本願発明者の実験により確認されている。また、人間の色覚の特性上、中波長や長波長の光に比べ、青色光は眩しさも知覚しにくい。従って、本願発明の眼球の運動を検出する装置では、カメラ100でハレーションを起こす可能性を非常に低くでき、また、装置の装着者が眼球運動計測用の光により不快を感じることをほとんど無くすことができる。
[機能構成]
 情報処理装置1は、CPUがプログラムを実行することにより機能する機能ブロックとして、目頭/目尻検出部11と、白目領域検出部12と、血管画像検出部13と、マッチ画像検出部14と、マッチが像位置補正部15と、画像位置/角度比較部16と、眼球移動量/回転角演算部17と眼球移動量/回転角記憶部18と、虹彩/瞳孔中心検出部21と、水平基準線検出部22と、テンプレート画像決定部23と、テンプレート画像記憶部24と、各種設定値記憶部71と、プログラム記憶部81と、制御部91とを備える。また、これらの各機能ブロックは、例えばメモリ装置や補助記憶装置に対して各種情報(データ)を入出力し、メモリ装置や補助記憶装置は、各機能ブロックから出力された各種情報を格納する。
 これらの機能ブロックは、ソフトウェアで構成するこができる。この場合、各機能ブロックは、互いに明確に分離したプログラムによって実現されるブロックであってもよいし、例えば、サブルーチンや関数などのように、他のプログラムによって呼び出されるプログラムにより実現されるブロックであってもよい。また、これらの機能ブロックの一部又は全てが、例えば、LSI(Large Scale Integrated circuit)、IC(Integrated Circuit)、FPGA(Field Programmable Gate Array)等のハードウェアで構成されていてもよい。
[眼球運動検出方法の概要]
 次に、図1に示す各機能ブロックで行われる各種処理を説明しながら、本実施形態における眼球運動検出方法の内容を具体的に説明するが、最初に、本実施形態における眼球運動検出方法の概要を説明する。
 本実施形態の眼球運動検出方法では、まず、基準状態において、基準状態時の眼球画像内の白目領域に位置する所定のテンプレート血管(1つの血管)を選択し、該選択した血管を基準となるテンプレート血管像として、その位置情報と角度情報を取得する。次いで、眼球運動の実計測時において、実計測時の眼球画像(血管像検出用画像)に対して、テンプレート血管像を用いたテンプレートマッチング処理で一致するマッチ血管像を検出し、その位置情報と角度情報を取得する。
[テンプレート血管像の取得時の処理]
 本実施形態の眼球運動検出方法において、テンプレート血管像の取得処理は、眼球運動の実計測時より前に行われ、眼球運動の測定に必要な各種基準情報を取得する。なお、テンプレート血管像の取得時に実行される各種基準情報の取得処理は、眼球運動の実計測時の処理よりも動きが制限された状態で取得される。
 本実施形態では、テンプレート血管像と各種基準情報取得時に、基本的に上述した青色LEDを用いて眼球の血管の周辺(白目領域)に青色光を照射して撮影する。また、血管の位置データに加えて、虹彩や瞳孔中心のデータも利用する場合には赤外線LEDを同時に使用して、瞳孔領域及び虹彩領域に赤外線を照射してもよい。
 次に、テンプレート血管像と各種基準情報の取得処理では、基準状態において取得された被験体の眼球画像を解析して、基準状態におけるテンプレート血管像のベクトルデータ、血管の位置情報等に関する情報を取得する。また、必要に応じて、瞳孔の楕円パラメータ(例えば、瞳孔輪郭の中心点、長軸値、短軸値、楕円の傾き(長軸の回転角度)等に関する情報)等の情報を取得する。
 そして、テンプレート血管像と各種基準情報の取得時には、上述のようにして、テンプレート血管像と各種基準情報が取得され、該各種基準情報がメモリ装置あるいは補助記憶装置に出力されて格納される。なお、ここでテンプレート血管像の位置情報は、基準状態の眼球画像の横方向及び縦方向をそれぞれX軸方向及びY軸方向とするX-Y直交座標系の座標である。
[血管位置認識処理]
 血管画像検出部13は、白目領域50における血管60等の位置を認識し、該認識した血管60の位置に関する情報を、例えばメモリ装置や補助記憶装置に出力する。白目領域50は、図1及び図4に示すように、眼球画像において、目頭/目尻検出部11により認識された目頭と目尻の間で、白目領域検出部12により認識された白目領域である。また、虹彩/瞳孔中心検出部21により認識された虹彩領域51よりも外側の領域であって、水平基準線検出部22により目頭と目尻等から検出された水平基準線の近傍又は下側近傍であってもよい。なお、実計測時の眼球運動検出の際には、血管画像検出部13で認識(特定)する血管60は、テンプレート血管像と各種基準情報取得時に選択された所定のテンプレート血管にテンプレートマッチングでマッチした血管(以下、マッチ血管ともいう)である。
 より具体的に、実計測時の眼球運動検出の際には、血管画像検出部13は、メモリ装置や補助記憶装置に格納された基準情報を参照し、実計測時の眼球画像の白目領域において、水平基準線の近傍又は下側近傍で、所定距離虹彩領域51から所定距離離れた近傍で、虹彩中心52からも別の所定距離に存在するマッチ血管(マッチ血管像)の位置情報を取得する。そして、血管画像検出部13は、取得されたマッチ血管の位置情報(座標情報)を、例えばメモリ装置や補助記憶装置に出力する。以下、この血管画像検出部13で行う処理内容についてより詳細に説明する。
 まず、血管画像検出部13は、テンプレート血管像と各種基準情報取得時に予め取得されている基準状態における所定のテンプレート血管の位置情報(座標情報)をメモリ装置や補助記憶装置から読み込む。次いで、血管画像検出部13は、読み込んだ基準状態における所定のテンプレート血管の位置情報に基づき、実計測時に取得された眼球画像において、マッチ血管の位置を特定するための探索領域を設定する。具体的には、血管画像検出部13は、基準状態における所定のテンプレート血管の眼球運動角度、回転させた点を中心とする所定形状(例えば、矩形形状)の探索領域を眼球の白目画像内に設定する。
 次に、血管画像検出部13は、探索領域の画像に対して例えば平滑化処理を施し、ノイズ除去を行う。次いで、血管画像検出部13は、平滑化処理が施された探索領域の画像に対して、画素値に応じて二値化処理を施し、画素値が低い方の画素の集合部分を血管として認識する。この際、探索領域において、複数の血管が認識される。
 更に、血管画像検出部13は、血管であると認識された画素の集合部分に対して、Hilditchの細線化アルゴリズムを適用してノイズ除去処理を施す。次いで、血管画像検出部13は、細線部分に対して深さ優先探索を行うことにより血管の長さを計測する。そして、血管画像検出部13は、認識された複数の血管の中から、長さが所定値以上の血管のみを抽出する。
 Hilditchの細線化法では、探索領域内の注目画素とその周囲の8画素を参照する3×3のウィンドウ(画素領域)をノイズ除去処理の基本処理単位とする。そして、血管画像検出部13は、探索領域の画像データ全体をラスタ走査しながら、各画素を注目画素としてノイズ除去を行うことにより細線化処理を行う。
 具体的には、まず、血管画像検出部13は、注目画素が3×3のウィンドウで予め定義した細線化による削除条件に合致するか否かの判定を行う。そして、注目画素が削除条件に合致する場合には、血管画像検出部13は、当該注目画素を削除する、すなわち、図形画素(血管領域の画素)を背景画素(白目領域の画素)に置き換える。一方、注目画素が削除条件に合致しない場合、血管画像検出部13は、ラスタ走査順で次の画素を注目画素とし、新たな3×3のウィンドウにおいて、注目画素の判定処理及び図形画素の置換処理を行う。
 Hilditchの細線化法によるノイズ除去処理において、血管画像検出部13は、上述した一連の処理を探索領域内の全ての画素に対して繰り返す。次いで、血管画像検出部13は、1サイクルのラスタ走査において削除される画素が無くなるまで、探索領域をラスタ走査しながら上述した一連の処理を繰り返す。そして、血管画像検出部13は、1サイクルのラスタ走査において削除される画素が無くなった時点で、Hilditchの細線化法によるノイズ除去処理を終了する。
 ここで血管画像検出部13から出力されるマッチ血管の位置情報は、実計測時の眼球画像(探索領域)の横方向及び縦方向をそれぞれX軸方向及びY軸方向とするX-Y直交座標系の座標である。
 なお、本実施形態では、基準状態において選択された所定のテンプレート血管は、次のようにして求められる。まず、白目領域において、所定の探索領域を設定する。次いで、設定された所定の探索領域の画像データに対して、血管画像検出部13で実施された二値化処理からHilditchの細線化法によるノイズ除去処理に至る一連の上記処理を施し、探索領域内の複数の血管の端点を抽出する。そして、抽出された複数の血管から、テンプレート画像決定部23で基準状態における所定のテンプレート血管を選択する。これらの処理は、血管画像検出部13で行い、選択結果を血管画像検出部13から取得するようにしてもよい。
 また、テンプレート血管像と各種基準情報取得時において所定のテンプレート血管を選択する際の探索領域の設定位置及びサイズ等は任意に設定することができる。また、探索領域において抽出された複数の血管から、所定のテンプレート血管を選択する基準も任意である。
 しかしながら、本実施形態では、眼球の白目領域であって、水平基準線の近傍又は下側近傍で、虹彩領域51から所定距離離れた近傍で、虹彩中心52からも別の所定距離に存在するような血管を、所定のテンプレート血管として選択することが好ましい。また、血管のY軸方向の座標が、瞳孔中心のY軸方向の座標から上記した別の所定距離だけ離れた血管を所定のテンプレート血管として選択することが好ましい。このようにして所定のテンプレート血管として選択することにより、例えば、まつ毛の影響、瞼の動きや視線移動などの影響を受け難くなり(眼球画像中に血管の端点が写り込む可能性が高くなり)、血管のトラッキング精度(マッチ血管の認識(特定)精度)を高めることができ、眼球運動角度をより確実に精度良く計測することが可能になる。また、同様の理由から、基準状態における探索領域も、眼球の白目領域であって、水平基準線の近傍又は下側近傍で、所定距離虹彩領域51から所定距離離れた近傍で、虹彩中心52からも別の所定距離に存在し、かつ、探索領域の中心点のY軸方向の座標が、瞳孔中心のY軸方向の座標から上記した別の所定距離だけ離れるように探索領域を設定することが好ましい。
[角度算出部の処理]
 眼球移動量/回転角演算部17は、基準状態において選択された所定のテンプレート血管の位置情報と、眼球運動の実計測時に特定(認識)されたマッチ血管(所定のテンプレート血管に対応する血管)の位置情報とに基づいて、眼球運動角度θを算出する。
[眼球運動検出処理のフローチャート]
 次に、本実施形態の眼球運動検出装置により眼球運動検出を行う際の具体的な処理手順を、図2を参照しながら説明する。図2は、本実施形態の眼球運動検出装置によって実行される眼球運動検出方法の処理手順を示すフローチャートである。
 まず、実際の眼球運動の検出を実施する前に照合用データベース(テンプレート画像記憶部24)を構築する(S1)。照合用データベースの構築には、所定のテンプレート血管像の画像特徴量等から照合用の画像データベースを作成する。
 実際の眼球運動の検出では、撮像装置100からの新規に撮像された眼球の画像が情報処理装置1に入力され、画像データの記憶部に格納される(S2)。画像データの記憶部に格納された画像データの輝度値に対して2値化処理が実施される(S3)。2値化された画像から、目頭/目尻検出部11で、目頭と目尻が検出される(S4)。その画像の目頭と目尻の間の白目領域が、白目領域検出部12で検出される(S5)。
 さらに、赤色光を照射した場合画像データから、虹彩/瞳孔中心検出部21で、目頭と目尻の間の虹彩と瞳孔の中心を検出する(S6)。また、検出した目頭と目尻の位置情報等から、水平基準線検出部22で、水平基準線を検出する(S7)。
 検出された白目領域内の全ての血管画像に対して、所定回数の収縮処理と膨張処理を実施し(S8)、最初の基準画像であるか否かを判断する(S9)。基準画像である場合(S9:Yes)なら所定のルール、又は、マニュアル処理により、基準画像となる所定のテンプレート血管像を決定し(S10)、そのテンプレート血管像と位置及び角度を含む各種基準情報を記録する(S11)。
 テンプレート血管像と各種基準情報を記録(S11)した後、あるいは、最初の基準画像でない場合(S9:No)、次の画像入力に対してテンプレートマッチングが実施され第n(nは1~始まり順次1ずつ漸増する整数)のマッチ血管像の検出処理が実行され(S12)、検出できた場合(S12:Yes)には、その位置と角度等の各種基準情報が記録される(S13)。検出できない場合(S12:No)には、ステップS9に戻って最初の基準画像であるか否かの判断と、ステップS12の第nのマッチ血管像の検出処理が実行される。
 ステップS12で第nのマッチ血管像が検出され、ステップS13でその各種基準情報が記録されると、画像位置/角度比較部16でテンプレート血管像の画像位置/角度と、第nのマッチ血管像の画像位置/角度とが比較され差が演算される(S14)。次に、眼球移動量/回転角演算部17でテンプレート血管像の画像位置/角度に対する、第nのマッチ血管像の画像位置/角度の差から移動量と回転角度が演算され、眼球移動量/回転角記憶部18に格納される(S15)。その後、次画像が無いか判断され(S16)、次画像が有れば(S16:No)ステップS2に戻って次の画像が入力され、次画像が無ければ(S16:Yes)、ステップS15で演算され眼球移動量/回転角記憶部18に格納された移動量と回転角度が表示出力装置200に出力され、処理を終了する。
 本実施形態では、上述のようにして眼球運動の測定を行う。なお、本実施形態では、上述した眼球運動検出処理を、対応する眼球運動検出プログラムを眼球運動検出装置に実装し、該眼球運動検出プログラムが情報処理装置1により実行することにより実現してもよい。
 上述した本実施形態の眼球運動検出技術では、周囲に対するコントラストが大きく、かつ、瞳孔収縮による影響がない白目部の血管の位置情報に基づいて眼球運動を算出するため、より高精度に眼球運動を計測することができる。
 以下に基準情報(テンプレート)の取得について記載する。 本明細書において「白目領域」とは、強膜及び結膜を含む領域を意味し、「基準状態」とは、例えば、被験体の状態がストレスの無い健康な状態であり、眼球の回旋角度が零度とみなされる状態のことをいう。血管には、太いもの細いもの、曲線のもの、分岐など、さまざまなタイプが存在する。
(白目(強膜)領域の検出)
 入力がカラー(RGB)なら、YCbCr(あるいはYIQ,HSV)表色系への変換を行う。
Y = 0.2989R + 0.5866G + 0.1145B
Cb = - 0.1687R - 0.3312G + 0.5000B
Cr = 0.5000R - 0.4183G - 0.0816B
ここで、Yは色の輝度、Crは赤の色差成分、Cbは青の色差成分である。
 入力がモノクロなら、YCbCr表色系のY成分と同じである。いずれの場合も、輝度について2値化処理を行い、一定の閾値以上の領域を抽出し、白目領域とする。
(テンプレート血管像の決定)
 一つの処理で、水平・垂直・回旋の眼球運動を測定する方法は、SIFTを用いて特徴点を追跡すればよい。他方、ヒトの回旋運動成分は±12°程度と、それほど大きくなく、かつ、強膜に付着する柔らかい結膜が、眼球運動量ほどには結膜血管を回旋させないため、垂直水平方向(すなわち回転を含まない)テンプレートマッチングでも、それなりの精度の測定も可能である。
 比較的簡便な方法で、水平垂直眼球運動を測定する方法は、次の通りである:検出された白目領域に対して、収縮処理を1~2回程度行って、細い血管や突起、ゴマ塩雑音を除去し、その後、膨張処理を1~2回程度行って、太い血管や分岐点が残るようにする。
 視線が、正面から水平垂直に動いた場合でも、注目する血管像が睫毛(まつげ)や瞼(まぶた)に遮蔽されにくいよう、黒目領域(角膜)から耳側で、なるべく黒目に近く、かつ、瞳孔中心か、瞳孔中心よりもやや下側の白目領域(強膜)に存在する血管像をテンプレート画像として選択する。
 テンプレート画像の選択には、たとえば、(1)白目領域にラベリングを行い、画素数が最大の連結領域をテンプレート画像に選択する方法。(2)同じく、白目領域にラベリングを行い、周囲長が最長の連結領域をテンプレート画像にする方法。(3)同じく、白目領域にラベリングを行い、それぞれの連結領域で第一主成分と第二主成分とを求め、二つの主成分軸からの誤差の総和が最も多い連結領域(すなわち、複雑で特徴的な形の血管像)をテンプレート画像にする方法、などがある。
 装着した装置が、ユーザの頭部や体の動き、あるいは装置の自重によりズレた場合でも正確な眼球運動計測が行えるよう、以下のような映像ブレ防止機能を搭載する。
 カメラを設置したメガネフレームが正しく装着された状態で眼球画像を撮像し、これを基準画像とする。基準画像である1枚目の眼球画像に対して、目尻部分と目頭部分の矩形抜き出しを行って2つの特徴点を求め、かつ、後述する基準に従って3番目の特徴点を決定する。そして、2枚目以降の眼球画像に対しては、1枚目の画像から作成したテンプレート画像をもとに、目尻と目尻の位置と、3番目の点を求め、Affine matrixを計算する。基準画像と2枚目以降画像の2組の3点位置から、Affine変換により、2枚目以降の眼球画像を基準画像の位置に戻すようにした。
ここで、3番目の点については、目尻と目頭との2点間の距離が拡大・縮小するのに利用できるように、基準画像と変換画像(すなわち、2枚目以降の画像)の双方において、3点が作る三角形がなるべく相似形になるように設定した。また、この三角形は二等辺三角形で、3番目の点が目頭に近い側で決定するようにする。
 特徴点抽出とテンプレートマッチングは、誤検出を少なくするため、また処理の高速化のため、目尻と目頭が存在すると推定される領域に処理範囲を限定する。特徴点抽出方法は、Harris エッジ検出器を使用する。さらに、テンプレートマッチングにおいて一致度が低い場合は、エラーとして処理するようにする。
(角度算出部の処理)
 眼球移動量/回転角演算部17は、基準状態において選択された所定のテンプレート血管の位置情報と、眼球運動の実計測時に特定(認識)されたマッチ血管(所定のテンプレート血管に対応する血管)の位置情報とに基づいて、眼球運動角度を算出する。なお、これらの基準状態における各種パラメータは、テンプレート血管像と各種基準情報取得時に予め取得され、例えばメモリ装置や補助記憶装置に格納される。
 上記したように、本実施形態の方法によれば、(1)背景光の変化に強く、(2)カメラの位置ずれにも強く、頭部にカメラを強固に固定する必要が無いことから長時間装用が可能であり、(3)眼の上下幅が狭い人や上まぶたのまつげが濃色で長く虹彩に被さる場合でも、眼球の移動方向等の運動を検出しやすく、(4)さらに眼球の移動を検出するための血管を特定しやすい方法を提供することができることから、より高精度に眼球の位置や角度及び運動を検出することができる。
<第2の実施形態>
 以下に、第二の方法である水平垂直のテンプレートマッチングについて説明する。特徴ベクトルとして輝度値データを用いる。テンプレート画像の中心t[k,l]を、入力画像f[i,j]のある点(i,j)に置き、点(i,j)をラスタ走査しながら、重なっている局所領域の類似度を計算し、最大となる位置を決定する。類似度判定は、高速処理が可能な「差の二条和」を用いるもの、「相互相関」を用いるもの、輝度変化に強い「相関係数」を用いるもの、および、それぞれに画像の大きさや輝度値で正規化したもの等がある。テンプレートマッチングの前処理として、大きさの不一致に対応するため、正規化処理を行っても良い。また、眼球に照射される照明光の輝度変化がある場合は、それぞれの画像の平均輝度をピクセル値から引くゼロ平均正規化相互相関(ZNCC)も有効であり、高精度測定が期待できるが、演算量が多く、処理速度が遅くなる。
 カメラがカラーなら、第三に、輝度に変換せず、入力画像のRGBの各ヒストグラムに着目し、現フレームの画像中でテンプレート画像のヒストグラム特徴により近くなる位置にシフトさせるCamShift法(物体追跡)が利用できる。
[ビデオスタビライズ制御の概要]
 装着した装置が、ユーザの頭部や体の動き、あるいは装置の自重によりずれた場合でも正確な眼球運動計測が行えるよう、図3に示す映像ブレ防止機能(ビデオスタビライズ制御)を搭載することができる。
 カメラを設置したメガネフレームが正しく装着された状態で眼球画像を撮像し、これを基準画像とする。基準画像である1枚目の眼球画像に対して、目尻部分と目頭部分の矩形抜き出しを行って2つの特徴点を求め、かつ、後述する基準に従って3番目の特徴点を決定する。そして、2枚目以降の眼球画像に対しては、1枚目の画像から作成したテンプレート画像をもとに、目尻と目尻の位置と、3番目の点を求め、Affine matrixを計算する。基準画像と2枚目以降画像の2組の3点位置から、Affine変換により、2枚目以降の眼球画像を基準画像の位置に戻すようにする。
 3番目の点については、目尻と目頭との2点間の距離が拡大・縮小するのに利用できるように、基準画像と変換画像(すなわち、2枚目以降の画像)の双方において、3点が作る三角形がなるべく相似形になるように設定する。また、この三角形は二等辺三角形で、3番目の点が目頭に近い側で決定するようにする。
 特徴点抽出とテンプレートマッチングは、誤検出を少なくするため、また処理の高速化のため、目尻と目頭が存在すると推定される領域に処理範囲を限定する。特徴点抽出方法は、Harris エッジ検出器を使用する。さらに、テンプレートマッチングにおいて一致度が低い場合は、エラーとして処理するようにする。
 図4は、眼の白目中の血管の一例と、選択されたテンプレート血管図の一例を示す図である。本実施形態の方法によれば、装置が固定されるメガネフレームが顔面からずれた場合でも、通常使用程度のフレームのずれなら、支障なく眼球運動が計測できる。
 1…情報処理装置、
 11…目頭/目尻検出部、
 12…白目領域検出部、
 13…血管画像検出部、
 14…マッチ画像検出部、
 15…マッチ画像位置補正部、
 16…画像位置/角度比較部、
 17…眼球移動量/回転角演算部、
 18…眼球移動量/回転角記憶部、
 21…虹彩/瞳孔中心検出部、
 22…水平基準線検出部、
 23…テンプレート画像決定部、
 24…テンプレート画像記憶部、
 50…白目領域、
 51…虹彩領域、
 52…瞳孔中心、
 53…まつげ、
 55…検出領域(マッチングエリア)、
 60…血管、
 65…水平基準線、
 66…ハレーション、
 71…各種設定値記憶部、
 81…プログラム記憶部、
 91…制御部、
 100…撮像装置(カメラ)、
 200…表示出力装置、
 300…入力装置

Claims (10)

  1.  情報処理装置において、
     (a)少なくとも片眼の前面側の近傍領域内、もしくは光学的に等価な位置に配置された撮像装置により撮像された、当該眼の周辺領域を含む所定領域の基準画像が入力するステップと、
     (b)前記基準画像から、少なくとも当該眼の目頭と目尻を検出するステップと、
     (c)前記基準画像の前記目頭と目尻の間の当該眼の領域から、当該眼の中の白目領域を検出するステップと、
     (d)前記白目領域から、識別可能な全ての血管像を抽出するステップと、
     (e)前記全ての血管像中から、テンプレートとなる血管像を決定するステップと、
     (f)前記白目領域中の前記テンプレート血管像の座標中の基準位置及び水平基準の基準角度を記録するステップと、
     (g)前記撮像装置により撮像された第n(nは1から始まり順次1ずつ漸増する1以上の整数)の血管像検出用画像が入力するステップと、
     (h)前記第nの血管像検出用画像から、前記テンプレートにマッチした第nのマッチ血管像を検出するステップと、
     (i)前記白目領域中の前記第nのマッチ血管像の座標中の第n検出位置及び第n検出角度を記録するステップと、
     (j)前記座標中の基準位置及び第n検出位置との差から眼球の第n移動量を演算し、前記基準角度と前記第n検出角度との差から眼球の第n回転角度を演算するステップと、
     (k)前記n=n+1として上記(g)~(j)のステップを実行し、入力した第(n+1)血管像検出用画像から第(n+1)のマッチ血管像を検出し、さらに第(n+1)移動量及び第(n+1)回転角度を演算する処理を繰り返すステップと、
     が実行される眼球の運動を検出する方法。
  2.  前記眼の目頭と目尻の検出するステップ(b)と、前記眼の中の白目領域を検出するステップ(c)では、
     画像における輝度を含む特徴ベクトルの値に対して2値化処理が実施され、当該2値化輝度値が閾値以上である領域が検出される
     請求項1に記載の眼球の運動を検出する方法。
  3.  前記テンプレート血管像を決定するステップ(e)及び前記第nのマッチ血管像を検出するステップ(h)では、
     前記テンプレート血管像及び各第nの血管像検出用画像に対して、少なくとも一回の収縮処理と少なくとも一回の膨張処理が実行される
     請求項1又は2に記載の眼球の運動を検出する方法。
  4.  前記第nのマッチ血管像を検出するステップ(h)では、
     前記テンプレートに対して、第nのマッチ血管像を、垂直方向、水平方向、及び/又は、回旋方向の移動に対応させてマッチングさせる処理が実行される
     請求項1~3の何れか1項に記載の眼球の運動を検出する方法。
  5.  前記基準画像から白目領域を検出するステップ(c)では、
     当該眼の中の白目領域に含まれない虹彩領域及び瞳孔の中心が検出され、
     前記テンプレート血管像の座標中の基準位置及び基準角度を記録するステップ(f)では、
     前記虹彩領域から前記テンプレート血管像までの座標中の距離及び前記瞳孔の中心を通過する水平基準線からの角度も記録し、
     前記テンプレート血管像を決定するステップ(e)及び前記第nのマッチ血管像を検出するステップ(h)では、
     当該眼の中の白目領域の中で、前記虹彩領域の耳側の近傍であり、且つ、前記水平基準線の近傍領域に存在するか、又は、当該水平基準線の下側領域であって且つ近傍領域に存在する血管像が選択されて決定又は検出される、
     請求項1~4の何れか1項に記載の眼球の運動を検出する方法。
  6.  前記テンプレート血管像を決定するステップ(e)及び前記第nのマッチ血管像を検出するステップ(h)では、
     前記各画像の眼の中の白目領域及び各血管像の各画素に対してラベリング処理を実施し、決定又は検出される当該血管像として、
     (1)各血管像中において、同一ラベルで連結された画素領域の長辺方向の連結数を演算し、該連結数が最大である血管像を選択するか、又は、
     (2)各血管像中において、同一ラベルで連結された画素領域の周囲長を演算し、該周囲長が最長である血管像を選択するか、又は、
     (3)直交する第1成分軸と第2成分軸を有する前記座標中の各血管像中において、同一ラベルで連結された画素領域の第1成分軸に対する変位幅を示す第1主成分、及び、第2成分軸に対する変位幅を示す第2主成分を各々求め、前記第1主成分の変位幅値と前記第2主成分の変位幅値との総和が最大となる血管像を選択する、
     請求項1~5の何れか1項に記載の眼球の運動を検出する方法。
  7.  前記基準画像から少なくとも当該眼の目頭と目尻を2つの特徴点として求め、所定の三角形に従って3番目の特徴点を決定し、
     前記第nの血管像検出用画像において前記3個の特徴点が作る三角形が相似形になるように設定することにより前記第nの血管像検出用画像における映像のブレを抑制する、
     請求項1~6の何れか1項に記載の眼球の運動を検出する方法。
  8.  請求項1~7の何れか一つの眼球の運動を検出する方法における各ステップを実施するプログラム。
  9.  請求項8のプログラムを記憶する記憶媒体。
  10.  (A)少なくとも片眼の前面側の近傍領域内、もしくは光学的に等価な位置に配置された撮像装置と、
     (B)前記撮像装置から入力する当該眼の周辺領域を含む所定領域の基準画像が入力するステップ(a)と、
      前記基準画像から少なくとも当該眼の目頭と目尻を検出するステップ(b)と、
      前記基準画像の前記目頭と目尻の間の当該眼の領域から当該眼の中の白目領域を検出するステップ(c)と、
      前記白目領域から識別可能な全ての血管像を抽出するステップ(d)と、
      前記全ての血管像中からテンプレートとなる血管像を決定するステップ(e)と、
      前記白目領域中の前記テンプレート血管像の座標中の基準位置及び水平基準の基準角度を記録するステップ(f)と、
      前記撮像装置により撮像された第n(nは1から始まり順次1ずつ漸増する1以上の整数)の血管像検出用画像が入力するステップ(g)と、
      前記第nの血管像検出用画像から、前記テンプレートにマッチした第nのマッチ血管像を検出するステップ(h)と、
      前記白目領域中の前記第nのマッチ血管像の座標中の第n検出位置及び第n検出角度を記録するステップ(i)と、
      前記座標中の基準位置及び第n検出位置との差から眼球の第n移動量を演算し、前記基準角度と前記第n検出角度との差から眼球の第n回転角度を演算するステップ(j)と、
      前記n=n+1として上記(g)~(j)のステップを実行し、入力した第(n+1)血管像検出用画像から第(n+1)のマッチ血管像を検出し、さらに第(n+1)移動量及び第(n+1)回転角度を演算する処理を繰り返すステップ(k)と、
      を少なくとも実行する情報処理装置と、
     を有する眼球の運動を検出する装置。
PCT/JP2016/066562 2015-06-05 2016-06-03 眼球の運動を検出する方法、そのプログラム、そのプログラムの記憶媒体、及び、眼球の運動を検出する装置 WO2016195066A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/579,241 US10311583B2 (en) 2015-06-05 2016-06-03 Eye motion detection method, program, program storage medium, and eye motion detection device
JP2017522275A JP6651074B2 (ja) 2015-06-05 2016-06-03 眼球の運動を検出する方法、そのプログラム、そのプログラムの記憶媒体、及び、眼球の運動を検出する装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015115287 2015-06-05
JP2015-115287 2015-06-05
JP2016089759 2016-04-27
JP2016-089759 2016-04-27

Publications (1)

Publication Number Publication Date
WO2016195066A1 true WO2016195066A1 (ja) 2016-12-08

Family

ID=57440482

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/066562 WO2016195066A1 (ja) 2015-06-05 2016-06-03 眼球の運動を検出する方法、そのプログラム、そのプログラムの記憶媒体、及び、眼球の運動を検出する装置

Country Status (4)

Country Link
US (1) US10311583B2 (ja)
JP (1) JP6651074B2 (ja)
TW (1) TWI694809B (ja)
WO (1) WO2016195066A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101898414B1 (ko) * 2018-04-24 2018-09-12 한림대학교 산학협력단 3차원 안구 움직임 측정 방법 및 전자동 딥러닝 기반 어지럼 진단 시스템
WO2019031599A1 (ja) * 2017-08-10 2019-02-14 ヤマハ発動機株式会社 視線移動関連値取得装置、それを備えた輸送機器及び視線移動関連値取得方法
WO2019240157A1 (ja) * 2018-06-12 2019-12-19 国立大学法人筑波大学 眼球運動測定装置、眼球運動測定方法及び眼球運動測定プログラム
CN110832435A (zh) * 2017-07-03 2020-02-21 惠普发展公司,有限责任合伙企业 基于眼睛移动旋转微led显示器
WO2022085276A1 (ja) 2020-10-20 2022-04-28 日本電気株式会社 情報処理システム、目状態測定システム、情報処理方法および非一時的なコンピュータ可読媒体
JP7510401B2 (ja) 2021-10-13 2024-07-03 株式会社モリタ製作所 データ処理装置、眼球運動データ処理システム、データ処理方法、およびプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6751324B2 (ja) * 2016-09-14 2020-09-02 株式会社デンソーアイティーラボラトリ 虹彩検出装置、虹彩検出方法、およびプログラム
JP2018092495A (ja) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 画像センサ
CN110638466B (zh) * 2019-09-17 2022-06-03 广东普洛宇飞生物科技有限公司 一种定位装置及方法
EP4066044A4 (en) 2019-11-26 2023-12-27 Magic Leap, Inc. ENHANCED EYE TRACKING FOR AUGMENTED OR VIRTUAL REALITY DISPLAY SYSTEMS

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008099716A (ja) * 2006-10-17 2008-05-01 Tokyo Institute Of Technology 眼球運動計測装置
WO2013125707A1 (ja) * 2012-02-24 2013-08-29 国立大学法人筑波大学 眼球回旋測定装置、眼球回旋測定方法、及び、眼球回旋測定プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02164335A (ja) * 1988-12-16 1990-06-25 Konan Camera Kenkyusho:Kk 眼球運動解析装置
FR2945435B1 (fr) * 2009-05-12 2012-12-14 Essilor Int Paire de lunettes ophtalmiques adaptee pour caracteriser une direction de regard d'un porteur.
DE102010032193A1 (de) * 2010-07-24 2012-01-26 Chronos Vision Gmbh Verfahren und Vorrichtung zur Bestimmung der Augentorsion
JP5590487B2 (ja) * 2010-07-30 2014-09-17 公立大学法人広島市立大学 視線計測方法及び視線計測装置
DE102011082901A1 (de) * 2011-09-16 2013-03-21 Carl Zeiss Meditec Ag Bestimmen der azimutalen Orientierung eines Patientenauges
WO2013125704A1 (ja) 2012-02-22 2013-08-29 日本碍子株式会社 エンジン燃焼室構造、および流路の内壁構造
KR20160064978A (ko) * 2014-11-28 2016-06-08 가부시키가이샤 한도오따이 에네루기 켄큐쇼 표시 장치, 모듈, 표시 시스템, 및 전자 기기

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008099716A (ja) * 2006-10-17 2008-05-01 Tokyo Institute Of Technology 眼球運動計測装置
WO2013125707A1 (ja) * 2012-02-24 2013-08-29 国立大学法人筑波大学 眼球回旋測定装置、眼球回旋測定方法、及び、眼球回旋測定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HIROYUKI NAKAGOMI ET AL.: "Fast and Precise Measurement of Rotational Eye Movement by Detecting Conjunctiva Blood Vessel End", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS D, vol. J96-D, no. 4, 2013, pages 876 - 884 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110832435A (zh) * 2017-07-03 2020-02-21 惠普发展公司,有限责任合伙企业 基于眼睛移动旋转微led显示器
JP2020524311A (ja) * 2017-07-03 2020-08-13 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. 眼球運動に基づいて回転するマイクロledディスプレイ
WO2019031599A1 (ja) * 2017-08-10 2019-02-14 ヤマハ発動機株式会社 視線移動関連値取得装置、それを備えた輸送機器及び視線移動関連値取得方法
JP2019034723A (ja) * 2017-08-10 2019-03-07 ヤマハ発動機株式会社 視線移動関連値取得装置、それを備えた輸送機器及び視線移動関連値取得方法
JP7066123B2 (ja) 2017-08-10 2022-05-13 ヤマハ発動機株式会社 視線移動関連値取得装置、それを備えた輸送機器及び視線移動関連値取得方法
WO2019208848A1 (ko) * 2018-04-24 2019-10-31 한림대학교 산학협력단 3차원 안구 움직임 측정 방법 및 전자동 딥러닝 기반 어지럼 진단 시스템
KR101898414B1 (ko) * 2018-04-24 2018-09-12 한림대학교 산학협력단 3차원 안구 움직임 측정 방법 및 전자동 딥러닝 기반 어지럼 진단 시스템
US11779257B2 (en) 2018-04-24 2023-10-10 Hallym University Technology Holdings 3-dimensional measurement method for eye movement and fully automated deep-learning based system for vertigo diagnosis
WO2019240157A1 (ja) * 2018-06-12 2019-12-19 国立大学法人筑波大学 眼球運動測定装置、眼球運動測定方法及び眼球運動測定プログラム
JPWO2019240157A1 (ja) * 2018-06-12 2021-07-08 国立大学法人 筑波大学 眼球運動測定装置、眼球運動測定方法及び眼球運動測定プログラム
US20210264618A1 (en) * 2018-06-12 2021-08-26 University Of Tsukuba Eye movement measurement device, eye movement measurement method, and eye movement measurement program
JP7320283B2 (ja) 2018-06-12 2023-08-03 国立大学法人 筑波大学 眼球運動測定装置、眼球運動測定方法及び眼球運動測定プログラム
WO2022085276A1 (ja) 2020-10-20 2022-04-28 日本電気株式会社 情報処理システム、目状態測定システム、情報処理方法および非一時的なコンピュータ可読媒体
JP7510401B2 (ja) 2021-10-13 2024-07-03 株式会社モリタ製作所 データ処理装置、眼球運動データ処理システム、データ処理方法、およびプログラム

Also Published As

Publication number Publication date
TWI694809B (zh) 2020-06-01
TW201701820A (zh) 2017-01-16
JP6651074B2 (ja) 2020-02-19
US10311583B2 (en) 2019-06-04
JPWO2016195066A1 (ja) 2018-03-22
US20180174309A1 (en) 2018-06-21

Similar Documents

Publication Publication Date Title
JP6651074B2 (ja) 眼球の運動を検出する方法、そのプログラム、そのプログラムの記憶媒体、及び、眼球の運動を検出する装置
US10387724B2 (en) Iris recognition via plenoptic imaging
EP2975997B1 (en) System and method for on-axis eye gaze tracking
JP6048844B2 (ja) 眼球回旋測定装置、眼球回旋測定方法、及び、眼球回旋測定プログラム
JP5776323B2 (ja) 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
US20220100268A1 (en) Eye tracking device and a method thereof
KR101748563B1 (ko) 양안기반 시선추적 방법
US11163994B2 (en) Method and device for determining iris recognition image, terminal apparatus, and storage medium
WO2015008717A1 (en) Image processing device and imaging apparatus
JP2008264341A (ja) 眼球運動計測方法および眼球運動計測装置
JP4313717B2 (ja) 視線検出装置
JP2004192552A (ja) 開閉眼判定装置
JP4451195B2 (ja) 視線検出装置
CN113658243B (zh) 眼底三维模型建立方法、眼底照相机、装置和存储介质
WO2019240157A1 (ja) 眼球運動測定装置、眼球運動測定方法及び眼球運動測定プログラム
García-Dopico et al. Precise Non-Intrusive Real-Time Gaze Tracking System for Embedded Setups.
WO2021095278A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2022059064A1 (ja) フォーカス判定装置、虹彩認証装置、フォーカス判定方法、及び、記録媒体
Sharma et al. A comprehensive study of optic disc detection in artefact retinal images using a deep regression neural network for a fused distance-intensity map

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16803497

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017522275

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15579241

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16803497

Country of ref document: EP

Kind code of ref document: A1