WO2020170915A1 - 画像処理装置、方法、システム、及びコンピュータ可読媒体 - Google Patents

画像処理装置、方法、システム、及びコンピュータ可読媒体 Download PDF

Info

Publication number
WO2020170915A1
WO2020170915A1 PCT/JP2020/005411 JP2020005411W WO2020170915A1 WO 2020170915 A1 WO2020170915 A1 WO 2020170915A1 JP 2020005411 W JP2020005411 W JP 2020005411W WO 2020170915 A1 WO2020170915 A1 WO 2020170915A1
Authority
WO
WIPO (PCT)
Prior art keywords
iris
image
subject
image pickup
reading
Prior art date
Application number
PCT/JP2020/005411
Other languages
English (en)
French (fr)
Inventor
慶一 蝶野
知里 舟山
塚田 正人
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP20759087.8A priority Critical patent/EP3930301A4/en
Priority to CN202080022309.4A priority patent/CN113615150B/zh
Priority to JP2021501893A priority patent/JP7276427B2/ja
Priority to SG11202108903RA priority patent/SG11202108903RA/en
Priority to US17/431,539 priority patent/US11734957B2/en
Publication of WO2020170915A1 publication Critical patent/WO2020170915A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Definitions

  • the present disclosure relates to an image processing device, a method, a system, and a computer-readable medium, and more particularly to an image processing device, a method, a system, and a computer-readable medium that can be used for an authentication application using an iris.
  • -Biometric authentication using an iris is known.
  • an iris of a subject is imaged using an imaging device, and a feature amount is extracted from the imaged iris pattern.
  • the extracted feature amount is collated with the feature amount registered in the database in advance, and the pass/fail is determined based on the collation score.
  • the extracted feature amount is added to the database.
  • the iris which is a donut-shaped tissue surrounding the pupil, has a very complicated pattern and is unique to each person. Further, in imaging the iris, the subject's eyes are irradiated with near-infrared light.
  • an iris image is captured with a resolution capable of expressing the radius of the iris with 100 to 140 pixels. Further, the wavelength of near-infrared light with which the subject's eyes are irradiated is 700 nm to 900 nm.
  • the diameter of the iris is about 1 cm, and if you try to express the radius with 100 pixels, you will get a particle size of 50 ⁇ m.
  • the iris pattern is minute, it is possible to image the iris pattern with a quality that can be authenticated or collated under conditions such as a long distance between the subject and the imaging unit, a wide field of view for imaging, and movement of the subject. Have difficulty.
  • an object of the present disclosure to provide an image processing device, a method, a system, and a computer-readable medium capable of capturing an iris pattern with a quality that can be authenticated or collated.
  • a plurality of iris image pickup means arranged in different positions in the same visual field range and an image in a visual field range wider than the visual field range of the iris image pickup means are taken.
  • a control unit for controlling at least one of presentation of at least one of video and sound and irradiation of light of the illumination unit, the control unit controlling readout of an image of the iris imaging unit,
  • the control unit sets a gaze area to be the target of image reading in the control of reading the image
  • the control unit further stores past information, and performs image processing on the same subject.
  • An image processing system is provided which determines whether or not the eye area of the subject has been covered by a gaze area used in the past, and when it is determined that the eye area has not been covered, calibrates reading of the image of the iris image pickup means.
  • the present disclosure includes a control unit that controls reading of an image of an iris image pickup unit for picking up an image of an iris of a subject, and the control unit controls the reading of the image to read the image.
  • the control unit controls the reading of the image to read the image.
  • the target gaze area is set and the control unit further stores the past information and performs image processing on the same subject, the eye area of the subject can be covered with the gaze area used in the past.
  • An image processing device is provided which calibrates the reading of the image of the iris image pickup means when it is judged whether or not it has not been covered.
  • the plurality of iris images are captured by using the image of the entire image capturing unit that captures a wider field of view than the field of view of the plurality of iris imagers arranged at different positions in the same field of view.
  • An image processing method for performing at least one of reading out an image of a device, presenting at least one of a video image and a sound of a guiding device for guiding a subject, and irradiating light from an illuminating device that illuminates the subject. provide.
  • the present disclosure controls the readout of an image of an iris imaging unit for capturing the iris of a subject, and when image processing is performed on the same subject, the target of the image readout used in the past.
  • an image processing method for determining whether or not the eye area of the subject has been covered with the gaze area, and calibrating the reading of the image of the iris image pickup means when it is judged that the eye area of the subject has not been covered.
  • the plurality of iris images are captured by using an image of an entire image capturing unit that captures a wider field of view than the field of view of a plurality of iris imagers arranged at different positions in the same field of view.
  • a non-transitory computer-readable medium that stores a program to be executed is provided.
  • the present disclosure controls the readout of an image of an iris imaging unit for capturing an iris of a subject, and when image processing is performed on the same subject, a target of image readout used in the past. It is determined whether or not the eye area of the subject can be covered with the gaze area that becomes, and when it is determined that the eye area has not been covered, a program for causing a computer to execute the process of calibrating the reading of the image of the iris image pickup means is performed.
  • a non-transitory computer-readable medium for storage is provided.
  • the image processing device, method, system, and computer-readable medium according to the present disclosure can capture an iris pattern with a quality that allows authentication and matching.
  • FIG. 1 is a block diagram showing an image processing system according to a first embodiment of the present disclosure.
  • 3 is a flowchart showing an operation procedure in the image processing system.
  • 9 is a flowchart showing an operation procedure in the image processing system according to the second embodiment of the present disclosure.
  • the block diagram which shows the structural example of a computer device.
  • the problem is quantified.
  • the distance between the subject and the imaging means distance between the subject and the imaging means (distance between the subject and the gate) is 2 m
  • the horizontal field of view that is, the horizontal range that can cover both eyes of one subject is 0.2 m.
  • the vertical field of view that is, the vertical range that can be covered from the eyes of a tall subject, typically a male, to the eyes of a short subject, typically a female, is 0.4 m. .
  • the walking speed (moving speed) of the subject with respect to the gate is an average value of the slow walking speed of an adult, for example, 1 m/s.
  • the image pickup means has a high resolution of 32 M pixels and 100 fps (frame second), as will be described later. Both high frame rates are required.
  • the depth of field that can be secured 2 m ahead is about 1 cm.
  • FIG. 1 shows an image processing system according to the first embodiment of the present disclosure.
  • the image processing system includes a whole imager 100, an inductor 200, an illuminator 300, iris imagers 401 to 404, and a controller 500.
  • the number of iris imagers is four in FIG. 1, the number of iris imagers is not particularly limited. The number of iris imagers can be appropriately set according to the range of visual field to be covered, available resolution of the iris imager, and the like.
  • the whole image pickup device (whole image pickup means) 100 picks up an image of a subject in a wide visual field range so as to cover the whole from a tall subject to a short subject.
  • the whole imager 100 may have a resolution capable of authenticating a subject with a face.
  • the controller (control means) 500 monitors the whole image supplied from the whole image pickup device 100, and includes an inductor (guide means) 200, an illuminator (illumination means) 300, and a plurality of iris imagers (iris image pickup means). Controls 401 to 404.
  • the function of the controller 500 can be configured by hardware, but can also be realized by a computer program.
  • the controller 500 determines the start of biometric authentication for the subject based on the whole image supplied from the whole imager 100 or an external input.
  • the control executed by the controller 500 includes guidance control, lighting control, and iris image pickup control.
  • the controller 500 supplies guidance control information for guiding the subject to the guidance device 200.
  • the inductor 200 guides the subject based on the guidance control information.
  • the inductor 200 includes, for example, a display and a speaker.
  • the inductor 200 presents, for example, a video or audio for presenting the start of biometric authentication on a display or a speaker.
  • the inducing device 200 presents an image, a sound, and the like for inducing the eye gaze of the subject on the iris image pickup device through a display and a speaker.
  • the controller 500 supplies the lighting device 300 with lighting control information for irradiating the subject with the illumination light.
  • the illuminator 300 irradiates the subject with light (for example, near-infrared light) based on the illumination control information.
  • the illuminator 300 includes an LED (Light Emitting Diode) that is a light source and a synchronization signal generator.
  • the amount of light emitted from the illuminator 300 to the subject is determined by the supply current value to the LED, the lighting time of the LED, and the lighting cycle.
  • the lighting control information includes these numerical values.
  • the LED lighting cycle is synchronized with the frame rates of the plurality of iris imagers 401 to 404.
  • the controller 500 selects an iris image pickup device that can appropriately pick up an area including the eyes of the subject among the plurality of iris image pickup devices 401 to 404 based on the whole image supplied from the whole image pickup device 100. decide. Further, the controller 500 determines the vertical position of the gaze area to be read at high speed in the determined iris imager.
  • FIG. 2 is a diagram showing a state of iris image pickup control. Details of the iris image pickup control will be described with reference to FIG.
  • the iris imagers 401 to 404 are general-purpose cameras of 12M pixels (horizontal 4000 pixels, vertical 3000 pixels) and 60 fps. Such cameras are becoming popular as industrial cameras.
  • a plurality of iris imagers 401 to 404 are arranged so as to be vertically stacked on each other. At this time, each of the plurality of iris imagers 401 to 404 is arranged such that the image areas thereof partially overlap with the adjacent iris imagers.
  • the iris imagers 401 to 404 are arranged, for example, so that the image areas of adjacent iris imagers overlap by 2.5 cm. In that case, at the focus position of 2 m ahead, the four units have horizontal 0.2 m and vertical 0.45 m ((0.15-0.025)+(0.15-0.025-0.025)+( A visual field of 0.15-0.025-0.025)+(0.15-0.025)m) can be secured. That is, the required visual field of 0.2 m in the horizontal direction and 0.4 m in the vertical direction can be secured. From the drawings and the above description, it can be seen that the iris imagers have the same visual field range and are arranged at different positions.
  • the frame rate of each iris imager is 60 fps, the required frame rate of 100 fps cannot be satisfied as it is.
  • an industrial camera or the like has a gaze area mode. In the gaze area mode, only the partial area set as the gaze area is read out, not the entire screen. The frame rate can be increased by using such a gaze area mode.
  • the controller 500 sets a gaze area in an arbitrary iris imager and reads an image of the gaze area from the iris imager.
  • a partial area of 4000 pixels in the horizontal direction and 1500 pixels in the vertical direction is set as the gazing area.
  • the frame rate can be increased to 120 fps, which is twice the frame rate of 60 fps when reading the entire screen.
  • the horizontal field of view and the vertical field of view of the partial regions are 0.2 m and 0.75 m, respectively. Both eyes of a person are lined up horizontally. Therefore, in the gaze area mode, it is preferable to reduce the number of pixels vertically rather than horizontally so that both eyes can be imaged.
  • the iris imager that captures the eye region is only one of the four iris imagers 401 to 404.
  • the condition for reading at 120 fps is the partial area in the iris imager.
  • the controller 500 estimates an iris imager that can preferably image the eye region among the plurality of iris imagers 401 to 404, and estimates the vertical position of the gaze region that is read out at high speed in the iris imager.
  • the above estimation can be realized by the following method.
  • the whole imager 100 has a resolution capable of authenticating the subject with the face, and the controller 500 derives the eye position of the subject in the whole image captured by the whole imager 100.
  • the controller 500 determines the iris imager corresponding to the eye position of the subject in the entire image and the eye positions existing in the imager by using the camera parameters and the layout relationship of the whole imager 100 and each iris imager. Derive.
  • a field of view wider than 0.2 m in the horizontal direction and 0.4 m in the vertical direction and a time resolution higher than 100 fps can be realized by using a general-purpose camera.
  • the controller 500 supplies iris image pickup information to each of the iris imagers 401 to 404 based on the above-described iris image pickup control.
  • the controller 500 supplies the iris imaging information including the vertical position of the gaze area to the iris imaging device that passes the eye area of the subject.
  • the controller 500 may supply arbitrary iris imaging information for other iris imagers.
  • the controller 500 may supply the iris image pickup information including the information about the supply stop of the iris image to other iris imagers in order to reduce the total data amount of the iris image, for example.
  • Each of the iris imagers 401 to 404 supplies an iris image to the controller 500 based on the iris image pickup information supplied from the controller 500. At this time, the iris imagers 401 to 404 output to the controller 500 an image (iris image) of the gaze area set by the controller 500 using the iris image pickup information.
  • the iris imagers 401 to 404 may apply lossy compression to the iris image in the gaze area and output the compressed iris image to the controller 500.
  • the iris imagers 401 to 404 may perform quantization (compression for each pixel), predictive encoding and quantization (compression with a set of a plurality of pixels), or combination of transform encoding and quantization (compression of a plurality of pixels).
  • the controller 500 uses the iris images supplied from the iris imagers 401 to 404 to perform the authentication and registration described in the background art. The controller 500 returns to the next process when the next subject exists or when the authentication or registration fails.
  • FIG. 3 shows an operation procedure in the image processing system.
  • the controller 500 performs guidance control and guides the subject using the inductor 200 (step S1001).
  • the controller 500 performs illumination control and irradiates the subject with infrared light using the illuminator 300 (step S1002).
  • the controller 500 performs the above-described iris image pickup control, and acquires an image of an iris (iris image) picked up by the plurality of iris imagers 401 to 404 (step S1003).
  • the iris image acquired in step S1003 is used for iris authentication and registration.
  • the controller 500 does not need to obtain an iris image from all the iris imagers 401 to 404 for a certain subject, as described above.
  • the controller 500 acquires an iris image from an iris imager that is imaging the subject's eye region.
  • the controller 500 performs iris authentication using the iris image acquired in step S1003 or registers the iris image (step S1004).
  • the controller 500 determines whether there is a next subject, or whether to perform re-authentication or re-registration (step S1005). If there is a next subject, or if it is determined to perform re-authentication or re-registration, the process returns to step S1001 and the process is performed from the guidance control.
  • the whole image pickup device 100 of the present embodiment has a resolution capable of authenticating with a face, holds a feature amount for face recognition of a subject in a database, and stores a feature amount for subject iris authentication with a database.
  • the apparatus according to the present disclosure can be used for the purpose of identifying a subject based on face recognition and registering the extracted feature amount of the iris in a database.
  • the device according to the present disclosure provides height information of a subject based on eye position information obtained by iris imaging control, or eye position information obtained when authenticating or registering an iris image obtained by an iris imager. It can also be used to estimate and register in the database.
  • the apparatus uses the estimated height information to determine the vertical position of the gaze region that can be used to quickly image the eye region from a plurality of iris image pickup devices and the gaze region that is read out at high speed in the image pickup device. Can be used for calibration.
  • a high resolution corresponding to a required visual field of 0.2 m ⁇ 0.4 m and a high frame rate corresponding to a time resolution of 0.01 seconds can be achieved with a combination of general-purpose cameras.
  • the configuration of the image processing system according to this embodiment may be the same as the configuration of the image processing system shown in FIG.
  • the present embodiment aims to reduce the rate of re-execution of authentication and registration due to fluctuations in the eye position of the subject.
  • the controller 500 also functions as an image processing device that implements the image processing method.
  • the controller 500 controls the information of the iris imager that has imaged the eye region in the past, the information of the vertical position of the gaze region that is read at high speed in the iris imager, and the gaze region that is read at a high speed.
  • the time series information of the vertical position of the detected eye is stored.
  • the controller 500 determines whether or not the eye region of the subject can be covered with the gaze region in the past biometric authentication.
  • the controller 500 calibrates the iris imager capable of suitably capturing the eye region and the vertical position of the gaze region read out at high speed in the iris imager. Other points may be similar to those of the first embodiment.
  • the fluctuation of the eye position refers to the vertical movement of the eye area imaged by the iris imager.
  • the width of the vertical movement of the head accompanying walking is several cm, and as shown in the case of the first embodiment, the vertical field of view that can be read at 120 fps is only 7.5 cm.
  • the gaze area determined by the controller 500 cannot cover the eye area due to the vertical fluctuation of the head.
  • information on the iris imager that has imaged the eye region in the past information on the vertical position of the gaze region that was read at high speed in the imager, and the eye detected in the gaze region that was read at high speed.
  • information on the vertical position of the gaze region that was read at high speed in the imager information on the vertical position of the gaze region that was read at high speed in the imager, and the eye detected in the gaze region that was read at high speed.
  • cn(k) be the information of the iris imager that imaged the eye area in the past.
  • k is an index
  • cn(k) represents information when biometric authentication is performed k times before. It is assumed that cn(0) represents the information when biometric authentication was performed immediately before.
  • the number of iris imagers is four, and the iris imagers 401 to 404 are assigned numbers 1 to 4, respectively. In that case, the range of cn(k) is 1 to 4.
  • CY(k) is the vertical position information of the gaze area read at high speed in the iris imager.
  • k is an index
  • cy(k) represents information when biometric authentication is performed k times before. It is assumed that cy(0) is information when biometric authentication was performed immediately before.
  • the iris imager has 3000 vertical pixels and the gaze region has a vertical height of 1500 pixels (see FIG. 2). In that case, the value range of cy(k) is from 0 to 1500 (a value obtained by subtracting 1500 vertical pixels in the gazing area from 3000 pixels).
  • the time-series information of the vertical position of the eye detected in the gaze area that is read at high speed is ey(t(k)).
  • k is an index
  • t(k) represents the time at the time of biometric authentication k times before. If st(k) is the imaging start time at index k and et(k) is the imaging end time at index k, then t(k) is st(k) ⁇ t(k) ⁇ et(k). expressed.
  • the time difference between st(k) and et(k) is 2 seconds, the number of frames included in this time difference will be 240 in 120 fps shooting.
  • the number of vertical pixels in the gazing area is 1500 pixels, and the range of ey(t(k)) is 0 to 1500 when an eye can be detected in the gazing area. If no eye can be detected in the gaze area, the value of ey(t(k)) is -1. This completes the definition of each piece of information.
  • the controller 500 performs a gaze area cover determination process when biometrically authenticating the same subject again.
  • the controller 500 determines whether or not the eye area of the subject has been covered with the gaze area in the past when biometrically authenticating the same subject again. This judgment is performed in the following manner, for example.
  • the controller 500 determines the index k corresponding to the biometric authentication of the subject in the past.
  • the controller 500 calculates the number of times co(k) at which the value of ey(t(k)) becomes ⁇ 1 in the period st(k) ⁇ t(k) ⁇ et(k) corresponding to the index k.
  • the controller 500 counts, for example, in which of the 240 images captured in 2 seconds the eye cannot be detected. When the number of times co(k) exceeds a predetermined number, the controller 500 determines that the eye region of the subject could not be covered with the gaze region in the past. This is the end of the description of the gaze area cover determination process.
  • the gage area calibration process is performed.
  • the controller 500 calibrates the iris imager capable of suitably imaging the eye area and the vertical position of the gaze area read out at high speed in the iris imager when biometrically authenticating the same subject again.
  • the calibration is performed in the following manner, for example.
  • the controller 500 determines the index k corresponding to when the subject was biometrically authenticated in the past.
  • the iris imager corresponding to cn(k) corresponding to the index k and the vertical position of the gaze area corresponding to cy(k) are derived by the iris imaging control described in the first embodiment. It is determined whether or not the vertical positions of the iris imager and the gaze area match. If the controller 500 determines that they match, it determines that calibration is necessary.
  • ey(t(k)) becomes a value other than ⁇ 1 in the period st(k) ⁇ t(k) ⁇ et(k) corresponding to the index k.
  • the average value ay(k) in the case is calculated.
  • the average value ay(k) indicates the vertical position when the eye region exists in the gaze region.
  • the eye area extends to the upper side of the gazing area, and when it becomes larger than 750, the eye area falls below the gazing area. Shows that it sticks out to the side.
  • the controller 500 sets the iris imager and the vertical position of the gazing area so that the gazing area shifted upward by the number of pixels of 750 ⁇ ay(k) is read. Calibrate. Similarly, when the average value ay(k) is larger than 750, the vertical positions of the iris imager and the gaze area are calibrated so that the gaze area shifted downward by the number of pixels of ay(k) ⁇ 750 is read.
  • the present disclosure is not limited to this.
  • the focus score in each frame may be stored, and the average value calculated only for the in-focus frames may be used as the average value ay(k).
  • co(k) and ay(k) may be stored instead of ey(t(k)) itself. This is the end of the description of the gaze area calibration process.
  • FIG. 4 shows an operation procedure in the image processing system including the image processing method.
  • the controller 500 performs guidance control and guides the subject using the inductor 200 (step S2002).
  • the controller 500 performs illumination control and illuminates the subject with the illumination device 300 (step S2002).
  • Steps S2001 and S2002 may be the same as steps S1001 and S1002 of FIG.
  • the controller 500 performs iris image pickup control, and determines the iris imager used for iris image pickup and the vertical position of the gaze area within the iris imager (step S2003).
  • the controller 500 determines whether or not the biometric authentication should be redone (step S2004). When the controller 500 determines that the biometric authentication is not performed again, the controller 500 acquires an image (iris image) of the gaze area of the iris imager determined in step S2003 and performs iris authentication using the iris image, or The video is registered (step S2007). The controller 500 determines whether there is a next subject, or whether to perform re-authentication or re-registration (step S2008). When there is the next subject, or when it is determined that re-authentication or re-registration is performed, the process returns to step S2001, and the process is performed from the guidance control.
  • step S2004 determines whether the biometric authentication is to be redone
  • the controller 500 performs the above-described gaze area cover determination process and determines whether the eye area of the subject has been covered with the gaze area in the past (step S2005). ).
  • the controller 500 determines that the eye area of the subject has not been covered by the gaze area in the past
  • the controller 500 performs the gaze area calibration process described above (step S2006).
  • step S2007 the calibrated image of the gaze area of the iris imager is acquired, and iris authentication or iris image registration is performed.
  • the process returns to step S2001, and the process is performed from the guidance control.
  • the controller 500 determines whether the eye area of the subject has been covered with the gaze area in the past when the biometric authentication of the same subject is redone. If the eye area of the subject has not been covered by the gaze area in the past, the controller 500 performs gaze area calibration processing to calibrate the gaze area. By calibrating the gaze area using past information, it is possible to increase the probability that the eye area of the subject can be covered with the gaze area in the biometric authentication this time. Therefore, in the present embodiment, it is possible to reduce the re-acquisition rate of an image due to the fluctuation of the eye position, and the redone rate of authentication and registration.
  • the controller 500 derives the positions of the right eye and left eye of the subject from the entire image (overhead image) captured by the entire imager 100, and determines the gaze area corresponding to the position of the right eye and the gaze area corresponding to the position of the left eye. And may be set in the iris imager. In that case, the iris imager supplies the iris image of the right eye and the iris image of the left eye to the controller 500.
  • the shape of the gaze area may be rectangular or elliptical.
  • the controller 500 may derive the positions of the right eye and the left eye of the subject based on the iris image captured by the iris imager, instead of the overhead image. For example, the controller 500 may temporarily set the partial area shown in FIG. 2 as a gaze area and derive the positions of the right eye and the left eye from the image of the gaze area. In that case, the controller 500 sets a partial area corresponding to the position of the right eye and a partial area corresponding to the position of the left eye to the iris imager as the gaze area based on the derived positions of the right eye and the left eye. May be.
  • the controller 500 can be configured as a computer device.
  • FIG. 5 shows a configuration example of an information processing device (computer device) that can be used as the controller 500.
  • the information processing device 600 includes a control unit (CPU: Central Processing Unit) 610, a storage unit 620, a ROM (Read Only Memory) 630, a RAM (Random Access Memory) 640, a communication interface (IF) 650, and a user interface 660.
  • CPU Central Processing Unit
  • storage unit 620 a storage unit 620
  • ROM (Read Only Memory) 630 a ROM (Read Only Memory) 630
  • RAM Random Access Memory
  • IF communication interface
  • user interface 660 a user interface
  • the communication interface 650 is an interface for connecting the information processing device 600 and a communication network via a wired communication means or a wireless communication means.
  • the user interface 660 includes a display unit such as a display.
  • the user interface 660 also includes an input unit such as a keyboard, a mouse, and a touch panel.
  • the storage unit 620 is an auxiliary storage device that can hold various data.
  • the storage unit 620 does not necessarily have to be a part of the information processing device 600, and may be an external storage device or a cloud storage connected to the information processing device 600 via a network.
  • the ROM 630 is a non-volatile storage device.
  • a semiconductor memory device such as a flash memory having a relatively small capacity is used.
  • the program executed by the CPU 610 can be stored in the storage unit 620 or the ROM 630.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of the non-transitory computer-readable medium are, for example, magnetic recording media such as flexible disks, magnetic tapes, and hard disks, magneto-optical recording media such as magneto-optical disks, CDs (compact disk), or DVDs (digital versatile disk).
  • an optical disk medium such as a mask ROM, a PROM (programmable ROM), an EPROM (erasable PROM), a flash ROM, or a semiconductor memory such as a RAM.
  • the program may be supplied to the computer using various types of temporary computer-readable media.
  • Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves.
  • the transitory computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the RAM 640 is a volatile storage device.
  • various semiconductor memory devices such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory) are used.
  • the RAM 640 can be used as an internal buffer that temporarily stores data and the like.
  • the CPU 610 expands the program stored in the storage unit 620 or the ROM 630 into the RAM 640 and executes it.
  • various controls including, for example, guidance control, illumination control, iris imaging control, gaze area cover determination processing, and gaze area calibration processing are executed.
  • [Appendix 1] A plurality of iris imaging means arranged in different positions in the same visual field range, A whole image pickup means for picking up an image in a visual field range wider than the visual field range of the iris image pickup means; Guiding means for guiding the subject, Illumination means for illuminating the subject with light, Using at least one of the image of the plurality of iris image pickup means, at least one of presentation of at least one of video and sound of the guide means, and control of at least one of irradiation of light of the illumination means using the image of the whole image pickup means.
  • a control means for The control means controls reading of an image of the iris image pickup means, In the control of reading the image, the control unit sets a gaze area to be a target of image reading, The control unit further stores past information, and when performing image processing on the same subject, determines whether or not the eye region of the subject can be covered with a gaze region used in the past, and can be covered.
  • An image processing system that calibrates the reading of the image of the iris image pickup means when it is determined that the image has not been read.
  • the control means reads out images of the plurality of iris image pickup means, In the reading of the images of the plurality of iris image pickup means, the control means specifies the iris image pickup means capable of picking up the eye of the subject out of the plurality of iris image pickup means based on the image picked up by the whole image pickup means.
  • the plurality of iris imagers are vertically stacked, In the setting of the gaze area, the control unit determines an iris imager to be used for reading out an image among the plurality of iris imagers, and sets the gaze area within the determined imaging range of the iris imager. Then When the iris image pickup device used for reading out the determined image and the gaze area set in the iris image pickup device are the same as the iris image pickup device and the gaze region in the past information, the control means is the iris image pickup means. 3.
  • the image processing system according to appendix 1 or 2 which calibrates reading of the image.
  • a control means for controlling the readout of the image of the iris imaging means for imaging the iris of the subject In the control of reading the image, the control unit sets a gaze area that is a target of reading the image, The control unit further stores past information, and when performing image processing on the same subject, determines whether or not the eye region of the subject can be covered with a gaze region used in the past, and can be covered.
  • An image processing apparatus that calibrates the reading of the image of the iris image pickup unit when it is determined that the image has not been read.
  • the iris imaging means includes a plurality of vertically stacked iris imagers, In the setting of the gaze area, the control unit determines an iris imager to be used for image reading among the plurality of iris imagers, and sets the gaze area within the determined imaging range of the iris imager. Then When the iris image pickup device used for reading out the determined image and the gaze area set in the iris image pickup device are the same as the iris image pickup device and the gaze region in the past information, the control means is the iris image pickup means. 5.
  • the image processing apparatus according to attachment 4 which calibrates reading of the image.
  • the past information includes information indicating the position of the eye region in the gaze region imaged in the past, 6.
  • the image processing apparatus according to appendix 4 or 5, wherein the control unit calibrates the reading of the image of the iris image pickup unit based on the information indicating the position of the eye region.
  • the past information includes information indicating whether or not the gaze region imaged in the past includes an eye region, Any one of Supplementary Notes 4 to 6 in which the control means determines whether or not the eye area of the subject can be covered with a gaze area used in the past based on information indicating whether or not the eye area is included.
  • the image processing device according to item 1.
  • control unit controls the readout of the image of the iris image pickup unit by using the image captured by the entire image pickup unit that captures a range wider than the image pickup range of the iris image pickup unit.
  • Appendix 12 Controlling the readout of the image of the iris imaging means for imaging the iris of the subject; When image processing is performed on the same subject, it is determined whether or not the eye region of the subject has been covered with the gaze region used in the past, which is the target of image reading, A non-transitory computer-readable medium that stores a program for causing a computer to execute a process of calibrating the reading of the image of the iris image pickup unit when it is determined that the image has not been covered.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

目位置のゆらぎに起因する画像の再取得を低減する。制御器(500)は、被験者の虹彩を撮像するための虹彩撮像器(401~404)の画像の読出しを制御する。制御器(500)は、虹彩撮像器の画像の読出しの制御では、画像の読出しの対象となる注視領域を設定する。制御器(500)は、過去の情報を記憶しておき、同じ被験者に対して画像処理する場合、被験者の目領域を過去に利用した注視領域でカバーできたか否かを判断する。制御器(500)は、カバーできていなかったと判断した場合、虹彩撮像器の画像の読出しを校正する。

Description

画像処理装置、方法、システム、及びコンピュータ可読媒体
 本開示は、画像処理装置、方法、システム、及びコンピュータ可読媒体に関し、特に虹彩を用いる認証の用途に用いられ得る画像処理装置、方法、システム、及びコンピュータ可読媒体に関する。
 虹彩を用いる生体認証が知られている。この生体認証では、撮像装置を用いて被験者の虹彩が撮像され、撮像された虹彩のパターンから特徴量が抽出される。被験者を認証する場合、抽出された特徴量とあらかじめデータベースに登録された特徴量とが照合され、照合スコアに基づいて合否が判断される。一方、認証対象の被験者を登録する場合、抽出された特徴量がデータベースに追加される。
 非特許文献1に記載されるように、瞳孔を取り囲むドーナツ型の組織である虹彩は、非常に複雑なパターンで、人それぞれに固有のものとなる。また、虹彩の撮像においては、被験者の目に近赤外光が照射される。
 非特許文献2に記載されるように、虹彩の撮像においては、虹彩の半径を100画素から140画素で表現できる解像度で虹彩映像が撮像される。また、被験者の目に照射される近赤外光の波長は700nmから900nmとなる。
細矢、「虹彩による認証システムについて」、生体医工学44(1), page33-39, 2006 Daugman, "How Iris Recognition Works," https://www.cl.cam.ac.uk/~jgd1000/irisrecog.pdf
 虹彩の直径は約1cmであり、その半径を100画素で表現しようとすると、50μm粒度となる。このように、虹彩のパターンは微細なため、被験者と撮像手段との距離が長い、撮像する視野が広い、及び被験者が移動するなど条件で、認証や照合できる品質で虹彩パターンを撮像することが困難である。
 本開示は、上記事情に鑑み、認証や照合できる品質で虹彩パターンを撮像することが可能な画像処理装置、方法、システム、及びコンピュータ可読媒体を提供することを目的とする。
 上記目的を達成するために、本開示は、第1の態様として、同じ視野範囲で互いに異なる位置に配置される複数の虹彩撮像手段と、前記虹彩撮像手段の視野範囲より広い視野範囲で撮像する全体撮像手段と、被験者を誘導するための誘導手段と、前記被験者に光を照らす照明手段と、前記全体撮像手段の画像を用いて、前記複数の虹彩撮像手段の画像の読み出し、前記誘導手段の映像及び音声の少なくとも一方の提示、及び、前記照明手段の光の照射のうち少なくとも1つを制御する制御手段とを備え、前記制御手段は、前記虹彩撮像手段の画像の読み出しを制御し、前記制御手段は、前記画像の読み出しの制御では、画像の読出しの対象となる注視領域を設定し、前記制御手段は、更に、過去の情報を記憶しておき、同じ被験者に対して画像処理する場合、前記被験者の目領域を過去に利用した注視領域でカバーできたか否かを判断し、カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する画像処理システムを提供する。
 本開示は、第2の態様として、被験者の虹彩を撮像するための虹彩撮像手段の画像の読み出しを制御する制御手段を備え、前記制御手段は、前記画像の読出しの制御では、画像の読み出しの対象となる注視領域を設定し、前記制御手段は、更に、過去の情報を記憶しておき、同じ被験者に対して画像処理する場合、前記被験者の目領域を過去に利用した注視領域でカバーできたか否かを判断し、カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する画像処理装置を提供する。
 本開示は、第3の態様として、同じ視野範囲で互いに異なる位置に配置される複数の虹彩撮像手段の視野範囲より広い視野範囲で撮像する全体撮像手段の画像を用いて、前記複数の虹彩撮像手段の画像の読み出し、被験者を誘導するための誘導手段の映像及び音声の少なくとも一方の提示、及び、前記被験者に光を照らす照明手段の光の照射のうち少なくとも1つを実施する画像処理方法を提供する。
 本開示は、第4の態様として、被験者の虹彩を撮像するための虹彩撮像手段の画像の読み出しを制御し、同じ被験者に対して画像処理する場合、過去に利用された、画像の読み出しの対象となる注視領域で前記被験者の目領域をカバーできたか否かを判断し、カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する画像処理方法を提供する。
 本開示は、第5の態様として、同じ視野範囲で互いに異なる位置に配置される複数の虹彩撮像手段の視野範囲より広い視野範囲で撮像する全体撮像手段の画像を用いて、前記複数の虹彩撮像手段の画像の読み出し、被験者を誘導するための誘導手段の映像及び音声の少なくとも一方の提示、及び、前記被験者に光を照らす照明手段の光の照射のうち少なくとも1つを実施する処理をコンピュータに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体を提供する。
 本開示は、第6の態様として、被験者の虹彩を撮像するための虹彩撮像手段の画像の読み出しを制御し、同じ被験者に対して画像処理する場合、過去に利用された、画像の読み出しの対象となる注視領域で前記被験者の目領域をカバーできたか否かを判断し、カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する処理をコンピュータに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体を提供する。
 本開示に係る画像処理装置、方法、システム、及びコンピュータ可読媒体は、認証や照合できる品質で虹彩パターンを撮像することができる。
本開示の第1実施形態に係る画像処理システムを示すブロック図。 虹彩撮像制御の様子を示す図。 画像処理システムにおける動作手順を示すフローチャート。 本開示の第2実施形態に係る画像処理システムにおける動作手順を示すフローチャート。 コンピュータ装置の構成例を示すブロック図。
 本開示の実施の形態の説明に先立ち、課題を定量化する。以下では、Automated border control systems(ABC)の運用条件などで想定される下記の条件を例として説明する。被験者と撮像手段の距離(被験者とゲートの間の距離)は2mであり、水平視野、すなわち被験者1人の両目をカバーできる水平方向の範囲は0.2mであるとする。また、垂直視野、すなわち、典型的には男性である背の高い被験者の目から、典型的には女性である背の低い被験者の目までカバーできる垂直方向の範囲は0.4mであるとする。また、ゲートに対する被験者の歩行速度(移動速度)は、成人のゆっくりとした歩行速度の平均値、例えば1m/sであるとする。
 上記運用条件で、画素ピッチ5μmのイメージセンサ、絞りF2で焦点距離200mmのレンズが用いられることを仮定すると、撮像手段には、後述するように、32M画素の高解像度と100fps(frame per second)の高フレームレートの両方が要求される。
 解像度について、撮像装置から2m離れた位置において水平0.2mの視野を確保するためには、撮像装置には水平方向に4000画素(0.2[m]÷50[μm]=4000)が必要となる。また、撮像装置から2m離れた位置において垂直0.4mの視野を確保するためには、撮像装置には垂直方向に8000画素(0.4[m]÷50[μm]=8000)が必要となる。結果として、撮像装置には32M画素の解像度が要求される。
 一方、上記レンズが用いられる場合で、許容錯乱円径が0.03mmの場合、2m先に確保できる被写界深度は約1cmとなる。被験者の歩行速度が1m/sの場合、被験者が被写体深度1cmを通過する時間は1[cm]÷100[cm/s]=0.01秒である。この場合、歩行する被験者の虹彩が合焦した瞬間0.01秒を捉えるためには、撮像装置には100fps(1[秒]÷100[fps]=0.01秒の時間分解能)の性能が要求される。
 32M画素の高解像度と100fpsの高フレームレートを1台で満たせる撮像機器は普及品では存在しない。このため、上記運用条件にて、認証や照合できる品質で虹彩パターンを撮像することが困難である。以上で、課題の定量化の説明を終了する。
 以下、図面を参照しつつ、本開示の実施の形態を説明する。図1は、本開示の第1実施形態に係る画像処理システムを示す。画像処理システムは、全体撮像器100、誘導器200、照明器300、虹彩撮像器401~404、及び制御器500を有する。なお、図1では、虹彩撮像器の数を4台としているが、虹彩撮像器の台数は特に限定されない。虹彩撮像器の数は、カバーしたい視野範囲や、利用できる虹彩撮像器の解像度などに応じて、適宜設定され得る。
 全体撮像器(全体撮像手段)100は、背の高い被験者から背の低い被験者までの全体をカバーできるように、広い視野範囲で被験者を撮像する。全体撮像器100は、被験者を顔で認証できる解像度を備えていてもよい。
 制御器(制御手段)500は、全体撮像器100から供給される全体映像を監視し、誘導器(誘導手段)200、照明器(照明手段)300、及び複数の虹彩撮像器(虹彩撮像手段)401~404を制御する。制御器500の機能は、ハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。制御器500は、全体撮像器100から供給される全体映像、又は外部入力に基づいて被験者に対する生体認証の開始を判断する。
 制御器500が実施する制御は、誘導制御、照明制御、及び虹彩撮像制御を含む。制御器500は、誘導制御では、被験者を誘導するための誘導制御情報を誘導器200に供給する。誘導器200は、誘導制御情報に基づいて被験者を誘導する。誘導器200は、例えばディスプレイやスピーカなどを含む。誘導器200は、例えば、生体認証を開始することを提示するための映像や音声をディスプレイやスピーカで提示する。また、誘導器200は、虹彩撮像器に被験者の視線を誘導させるための映像や音声などをディスプレイやスピーカで提示する。
 制御器500は、照明制御では、被験者に照明光を照射するための照明制御情報を照明器300に供給する。照明器300は、照明制御情報に基づいて被験者に光(例えば近赤外光)を照射する。照明器300は、光源であるLED(Light Emitting Diode)や同期信号発生器を含む。照明器300から被験者に照射される光量は、LEDへの供給電流値、LEDの点灯時間、及び点灯周期で決定される、照明制御情報は、これらの数値を含む。LEDを常時点灯させない場合、LEDの点灯周期は、複数の虹彩撮像器401~404のフレームレートと同期される。
 制御器500は、虹彩撮像制御では、全体撮像器100から供給される全体映像に基づいて、複数の虹彩撮像器401~404のうち、被験者の目を含む領域を好適に撮像できる虹彩撮像器を決定する。また、制御器500は、決定した虹彩撮像器内で高速に読み出す注視領域の垂直位置を決定する。
 図2は、虹彩撮像制御の様子を示す図である。図2を用いて、虹彩撮像制御の詳細を説明する。ここでは、虹彩撮像器401~404に、12M画素(水平4000画素、垂直3000画素)かつ60fpsの汎用カメラが使用される場合を想定する。そのようなカメラは、産業用カメラなどで普及品となりつつある。虹彩で認証できる粒度の50μmで撮像する場合、各虹彩撮像器の水平視野と垂直視野はそれぞれ0.2m(4000×50[μm]=0.2[m])と0.15m(3000×50[μm]=0.15[m])となる。
 複数の虹彩撮像器401~404は、垂直方向に互いに積み重ねられるように配置される。このとき、複数の虹彩撮像器401~404のそれぞれは、隣接する虹彩撮像器との間で映像領域が一部重複するように配置される。虹彩撮像器401~404は、例えば隣接する虹彩撮像器間で、映像領域が2.5cm重複するように配置される。その場合、2m先の合焦位置にて、4台で水平0.2mと垂直0.45m((0.15-0.025)+(0.15-0.025-0.025)+(0.15-0.025-0.025)+(0.15-0.025)m)の視野を確保できる。つまり、水平0.2mと垂直0.4mの要求視野を確保できる。なお、図面と上述した説明により、各虹彩撮像器は同じ視野範囲であり、互いに異なる位置に配置されることが分かる。
 各虹彩撮像器のフレームレートが60fpsである場合、そのままでは要求フレームレート100fpsを満たせない。ここで、産業用カメラなどでは、注視領域モードがある。注視領域モードでは、画面全体ではなく、注視領域として設定された部分領域のみが読み出される。このような注視領域モードを利用することで、フレームレートを高めることができる。
 制御器500は、任意の虹彩撮像器に注視領域を設定し、その虹彩撮像器から注視領域の画像を読み出す。図2の例では、画面半分の水平4000画素、垂直1500画素の部分領域が注視領域として設定される例が示されている。この場合、1フレームあたりの画素数が全体の1/2となるため、全画面を読み出す場合のフレームレート60fpsの2倍の120fpsにフレームレートを高めることができる。ただし、部分領域の水平視野と垂直視野は、それぞれ0.2mと0.75mとなる。なお、人の両目は水平方向に並ぶ。このため、注視領域モードにおいては、両目を撮像できるように、水平ではなく垂直の画素数を削減することが好ましい。
 上記した隣接する虹彩撮像器で映像領域が重複する範囲で目領域が撮像されない条件では、目領域を撮像する虹彩撮像器は4台の虹彩撮像器401~404のうちの何れか1台のみとなる。また、120fpsで読み出させる条件は、その虹彩撮像器内の部分領域となる。制御器500は、複数の虹彩撮像器401~404のうち目領域を好適に撮像できる虹彩撮像器を推定し、その虹彩撮像器内で高速に読み出す注視領域の垂直位置を推定する。
 上記推定は、次に示す方法で実現できる。全体撮像器100は、被験者を顔で認証できる解像度を有しており、制御器500は、全体撮像器100で撮像された全体映像における被験者の目位置を導出する。制御器500は、全体撮像器100と各虹彩撮像器のカメラパラメータと配置関係とを用いて、全体映像における被験者の目位置に対応する虹彩撮像器と、その撮像器内で存在する目位置を導出する。注視領域モードを利用することで、水平0.2m及び垂直0.4mよりも広い視野と100fpsより高い時間分解能とを、汎用カメラを用いて実現できる。
 なお、上記した注視領域モードで垂直位置を変更すると、撮像開始までに遅延が発生する。このため、上記の推定においては、被験者が虹彩撮像器の合焦位置である2m先よりも先、例えば3m先で撮像される映像を用いればよい。3m先の被験者を顔で認証できる解像度は2M画素程度のカメラでも実現可能であり、全体撮像器100には、虹彩撮像カメラより低いスペックのカメラを利用できる。
 制御器500は、上述した虹彩撮像制御に基づいて、虹彩撮像器401~404のそれぞれに虹彩撮像情報を供給する。制御器500は、被験者の目領域をうつす虹彩撮像器には、注視領域の垂直位置を含む虹彩撮像情報を供給する。制御器500は、その他の虹彩撮像器については、任意の虹彩撮像情報を供給してもよい。制御器500は、例えば虹彩映像の総データ量を削減する目的で、虹彩映像の供給停止の情報を含む虹彩撮像情報をその他の虹彩撮像器に供給してもよい。
 虹彩撮像器401~404は、それぞれ、制御器500から供給される虹彩撮像情報に基づいて、虹彩映像を制御器500に供給する。このとき、虹彩撮像器401~404は、虹彩撮像情報を用いて制御器500から設定された注視領域の画像(虹彩映像)を、制御器500に出力する。虹彩撮像器401~404は、注視領域の虹彩映像に対して非可逆圧縮を適用し、圧縮した虹彩映像を制御器500に出力してもよい。例えば、虹彩撮像器401~404は、量子化(画素ごとに圧縮)、予測符号化と量子化(複数の画素の組で圧縮)、又は変換符号化と量子化との組み合わせ(複数の画素の組で圧縮)を用いて、注視領域の虹彩映像を圧縮する。制御器500は、虹彩撮像器401~404から供給される虹彩映像を用いて、背景技術で述べた認証や登録を行う。制御器500は、次の被験者が存在する場合、あるいは、認証や登録に失敗した場合、次の処理に戻る。
 続いて、動作手順を説明する。図3は、画像処理システムにおける動作手順を示す。制御器500は、誘導制御を行い、誘導器200を用いて被験者を誘導する(ステップS1001)。制御器500は、照明制御を行い、照明器300を用いて被験者に赤外光を照射する(ステップS1002)。制御器500は、上述した虹彩撮像制御を行い、複数の虹彩撮像器401~404を用いて撮像された虹彩の画像(虹彩映像)を取得する(ステップS1003)。ステップS1003で取得された虹彩映像は、虹彩認証や登録のために使用される。ステップS1003では、制御器500は、上述したように、ある被験者に対して虹彩撮像器401~404の全てから虹彩映像を得る必要はない。制御器500は、被験者の目領域を撮像している虹彩撮像器から、虹彩映像を取得する。
 制御器500は、ステップS1003で取得した虹彩映像を用いて虹彩認証を行い、或いは虹彩映像を登録する(ステップS1004)。制御器500は、次の被験者がいるか否か、或いは再認証若しくは再登録を行うか否かを判断する(ステップS1005)。次の被験者がいる場合、又は再認証若しくは再登録を行うと判断された場合、処理はステップS1001に戻り、誘導制御から処理が実施される。
 なお、本実施形態の全体撮像器100が顔で認証できる解像度を備えており、被験者を顔認証するため特徴量をデータベースに保有しており、かつ、被験者を虹彩認証するための特徴量をデータベースに保有してない場合、本開示に係る装置は、顔認証に基づいて被験者を特定し、抽出したその虹彩の特徴量をデータベースに登録する用途にも使用できる。また、本開示に係る装置は、虹彩撮像制御で得られる目位置情報、又は、虹彩撮像器で得られた虹彩映像を認証若しくは登録する際に得られる目位置情報に基づいて被験者の身長情報を推定し、データベースに登録する用途にも使用できる。さらに、本開示に係る装置は、推定した身長情報を用いて、複数の虹彩撮像器から目領域を好適に撮像できる虹彩撮像器と同撮像器内で高速に読み出す注視領域の垂直位置の決定や校正に用いることができる。
 本実施形態では、要求される0.2m×0.4mの視野に対応する高解像度と時間分解能0.01秒に相当する高フレームレートの性能を、汎用カメラの組み合わせで達成できる。結果として、被験者と撮像手段の距離が長い、撮像する視野が広い、及び被験者が移動する条件で、認証や照合できる品質で虹彩パターンを撮像することを容易にした。
 次いで、本開示の第2実施形態を説明する。本実施形態に係る画像処理システムの構成は図1に示される画像処理システムの構成と同様でよい。本実施形態は、被験者の目位置のゆらぎに起因する認証や登録のやり直し率を低減することを目的とする。本実施形態において、制御器500は、画像処理方法を実施する画像処理装置としても機能する。
 本実施形態において、制御器500は、過去に目領域を撮像した虹彩撮像器の情報、虹彩撮像器内で高速に読み出した注視領域の垂直位置の情報、及び、高速に読み出した注視領域内で検出した目の垂直位置の時系列の情報を記憶する。制御器500は、同じ被験者を再び生体認証する際に、過去の生体認証において、被験者の目領域を注視領域でカバーできたか否かを判断する。制御器500は、カバーできなかった場合、目領域を好適に撮像できる虹彩撮像器と虹彩撮像器内で高速に読み出す注視領域の垂直位置を校正する。他の点は、第1実施形態と同様でよい。
 ここで、目位置のゆらぎとは虹彩撮像器で撮像される目領域の上下の動きを指す。歩行に伴う頭部の上下のゆれ幅は数cmあり、第1実施形態の場合で示したように、120fpsで読み出せる垂直視野は7.5cmしかない。特に、合焦位置(2m先)を被験者が通過する瞬間に、虹彩撮像器401~404のうちで隣接する2台の境界領域(重複する映像領域)に目領域が位置する場合、歩行に伴う頭部の上下のゆれに起因して、制御器500決定した注視領域で目領域をカバーできない可能性がある。
 続いて、以後の説明のため、過去に目領域を撮像した虹彩撮像器の情報、撮像器内で高速に読み出した注視領域の垂直位置の情報、及び高速に読み出した注視領域内で検出した目の垂直位置の時系列の情報を定義する。
 過去に目領域を撮像した虹彩撮像器の情報をcn(k)とする。ここで、kはインデックスであり、cn(k)は、k回前に生体認証したときの情報であることを表す。cn(0)は、直前に生体認証したときの情報を表すとする。また、本実施形態では虹彩撮像器の台数が4台であり、虹彩撮像器401~404のそれぞれに番号1~4がアサインされるものとする。その場合、cn(k)の値域は1から4となる。
 虹彩撮像器内で高速に読み出した注視領域の垂直位置の情報をcy(k)とする。ここで、kはインデックスであり、cy(k)は、k回前に生体認証したときの情報であることを表す。cy(0)は、直前に生体認証したときの情報であるとする。第1実施形態と同様に、虹彩撮像器の垂直画素数は3000画素であり、注視領域の垂直方向の高さは1500画素であるとする(図2を参照)。その場合、cy(k)の値域は0から1500(3000画素から注視領域の垂直画素数1500画素を減じた値)となる。
 高速に読み出した注視領域内で検出した目の垂直位置の時系列の情報をey(t(k))とする。ここで、kはインデックスであり、t(k)はk回前の生体認証時の時刻を表す。st(k)をインデックスkでの撮像開始時刻とし、et(k)をインデックスkでの撮像終了時刻とすると、t(k)は、st(k)≦t(k)<et(k)で表される。以後の説明を簡略化するために、st(k)とet(k)の時間差を2秒とすると、120fpsの撮影にてこの時間差に含まれるフレーム枚数は240枚となる。また、本実施形態では注視領域の垂直画素数は1500画素であり、注視領域内で目を検出できた場合におけるey(t(k))の値域は0から1500となる。注視領域内で目を検出できなかった場合は、ey(t(k))の値は-1とする。以上で、それぞれの情報の定義を終了する。
 制御器500は、同じ被験者を再び生体認証する際、注視領域カバー判断処理を実施する。制御器500は、注視領域カバー判断処理では、同じ被験者を再び生体認証する際に、被験者の目領域を過去に注視領域でカバーできたか否かを判断する。この判断は、例えば、次に示すやり方で実施される。
 制御器500は、被験者を過去に生体認証したときに対応するインデックスkを決定する。インデックスkは、単純にやり直しを想定して直前k=0としてもよいし、システムに明示的にkを入力するのでもよい。制御器500は、インデックスkに対応する期間st(k)≦t(k)<et(k)において、ey(t(k))の値が-1となる回数co(k)を計算する。制御器500は、例えば、2秒間に撮像された240枚の画像のうち、何枚の画像において目が検出できなかったかをカウントする。制御器500は、回数co(k)が所定の回数を超えた場合、被験者の目領域を過去に注視領域でカバーできなかったと判断する。以上で、注視領域カバー判断処理の説明を終了する。
 制御器500は、被験者の目領域を過去に注視領域でカバーできなかったと判断した場合、注視領域校正処理を実施する。制御器500は、注視領域校正処理では、同じ被験者を再び生体認証する際に、目領域を好適に撮像できる虹彩撮像器と虹彩撮像器内で高速に読み出す注視領域の垂直位置とを校正する。校正は、例えば、次に示すやり方で実施される。
 制御器500は、被験者を過去に生体認証した時に対応するインデックスkを決定する。インデックスkは、単純にやり直しを想定して直前k=0としてもよいし、システムに明示的にkを入力するのでもよい。制御器500は、インデックスkに対応するcn(k)に対応する虹彩撮像器、及びcy(k)に対応する注視領域の垂直位置が、第1実施形態で説明した虹彩撮像制御で導出された虹彩撮像器及び注視領域の垂直位置と合致するか否かを判断する。制御器500は、合致すると判断した場合、校正が必要と判断する。
 制御器500は、校正が必要と判断した場合、インデックスkに対応する期間st(k)≦t(k)<et(k)において、ey(t(k))が-1以外の値となる場合での平均値ay(k)を計算する。ここで、平均値ay(k)は、目領域が注視領域内に存在する場合の垂直位置を示す。平均値ay(k)の値が、注視領域の垂直中心位置750(=1500/2)より小さくなるほど目領域が注視領域の上側にはみ出すことを示し、750より大きくなるほど目領域が注視領域の下側にはみ出すことを示す。
 制御器500は、平均値ay(k)が750以下の場合、750-ay(k)の画素数だけ上にずれた注視領域が読み出されるように、虹彩撮像器と注視領域の垂直位置とを校正する。同様に、平均値ay(k)が750より大きい場合、ay(k)-750の画素数だけ下にずれた注視領域が読み出されるように、虹彩撮像器と注視領域の垂直位置を校正する。
 なお、上記では、-1以外となる場合でのey(t(k))の平均値を平均値ay(k)として計算する例を説明したが、本開示はこれには限定されない。例えば、各フレームでの焦点スコアなども記憶しておき、焦点が合っているフレームに限定して計算した平均値を平均値ay(k)としてもよい。さらには、記憶容量を削減するために、ey(t(k))そのものではなく、co(k)とay(k)を記憶しておくようにしてもよい。以上で、注視領域校正処理の説明を終了する。
 続いて、動作手順を説明する。図4は、画像処理方法を含む画像処理システムにおける動作手順を示す。制御器500は、誘導制御を行い、誘導器200を用いて被験者を誘導する(ステップS2002)。制御器500は、照明制御を行い、照明器300を用いて被験者に光を照射する(ステップS2002)。ステップS2001及びS2002は、図3のステップS1001及びS1002と同様でよい。制御器500は、虹彩撮像制御を行い、虹彩の撮像に用いられる虹彩撮像器と、その虹彩撮像器内での注視領域の垂直位置を決定する(ステップS2003)。
 制御器500は、生体認証のやり直しか否かを判断する(ステップS2004)。制御器500は、生体認証のやり直しではないと判断した場合、ステップS2003で決定された虹彩撮像器の注視領域の画像(虹彩映像)を取得し、虹彩映像を用いて虹彩認証を行い、或いは虹彩映像を登録する(ステップS2007)。制御器500は、次の被験者がいるか否か、或いは再認証若しくは再登録を行うか否かを判断する(ステップS2008)。次の被験者がいる場合、又は再認証若しくは再登録を行うと判断された場合、処理はステップS2001に戻り、誘導制御から処理が実施される。
 制御器500は、ステップS2004で生体認証のやり直しであると判断した場合、上述した注視領域カバー判断処理を行い、被験者の目領域を過去に注視領域でカバーできたか否かを判断する(ステップS2005)。制御器500は、被験者の目領域を過去に注視領域でカバーできていなかったと判断した場合、上述した注視領域校正処理を行う(ステップS2006)。その後、処理はステップS2007へ進み、校正された虹彩撮像器の注視領域の画像が取得され、虹彩認証又は虹彩映像の登録が実施される。次の被験者がいる場合、又は再認証若しくは再登録を行うと判断された場合、処理はステップS2001に戻り、誘導制御から処理が実施される。
 本実施形態では、制御器500は、同じ被験者の生体認証のやり直しの場合に、被験者の目領域を過去に注視領域でカバーできたか否かを判断する。制御器500は、被験者の目領域を過去に注視領域でカバーできていない場合は、注視領域校正処理を行い、注視領域を校正する。過去の情報を用いて注視領域を校正することで、今回の生体認証において、被験者の目領域を注視領域でカバーできる確率を高めることができる。従って、本実施形態では、目位置のゆらぎに起因する画像の再取得、及び認証や登録のやり直し率を低減できる。
 なお、図2では、水平4000画素×垂直1500画素の部分領域が注視領域として設定される例を示したが、本開示はこれには限定されない。注視領域の形状は矩形には限定されず、また注視領域の数も1つには限定されない。制御器500は、例えば全体撮像器100で撮像された全体映像(俯瞰映像)から被験者の右目及び左目の位置を導出し、右目の位置に対応した注視領域と、左目の位置に対応した注視領域とを虹彩撮像器に設定してもよい。その場合、虹彩撮像器は、右目の虹彩映像、及び左目の虹彩映像を制御器500に供給する。注視領域の形状は、矩形であってもよいし、楕円形であってもよい。制御器500は、俯瞰映像に代えて、虹彩撮像器が撮像した虹彩映像に基づいて被験者の右目及び左目の位置を導出してもよい。例えば、制御器500は、図2に示される部分領域を一旦注視領域として設定し、その注視領域の映像から右目及び左目の位置を導出してもよい。その場合、制御器500は、導出した右目及び左目の位置に基づいて、右目の位置に対応した部分領域と、左目の位置に対応した部分領域とを、それぞれ注視領域として虹彩撮像器に設定してもよい。
 上記各実施形態において、制御器500は、コンピュータ装置として構成され得る。図5は、制御器500に用いられ得る情報処理装置(コンピュータ装置)の構成例を示す。情報処理装置600は、制御部(CPU:Central Processing Unit)610、記憶部620、ROM(Read Only Memory)630、RAM(Random Access Memory)640、通信インタフェース(IF:Interface)650、及びユーザインタフェース660を有する。
 通信インタフェース650は、有線通信手段又は無線通信手段などを介して、情報処理装置600と通信ネットワークとを接続するためのインタフェースである。ユーザインタフェース660は、例えばディスプレイなどの表示部を含む。また、ユーザインタフェース660は、キーボード、マウス、及びタッチパネルなどの入力部を含む。
 記憶部620は、各種のデータを保持できる補助記憶装置である。記憶部620は、必ずしも情報処理装置600の一部である必要はなく、外部記憶装置であってもよいし、ネットワークを介して情報処理装置600に接続されたクラウドストレージであってもよい。ROM630は、不揮発性の記憶装置である。ROM630には、例えば比較的容量が少ないフラッシュメモリなどの半導体記憶装置が用いられる。CPU610が実行するプログラムは、記憶部620又はROM630に格納され得る。
 上記プログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、情報処理装置600に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体を含む。非一時的なコンピュータ可読媒体の例は、例えばフレキシブルディスク、磁気テープ、又はハードディスクなどの磁気記録媒体、例えば光磁気ディスクなどの光磁気記録媒体、CD(compact disc)、又はDVD(digital versatile disk)などの光ディスク媒体、及び、マスクROM、PROM(programmable ROM)、EPROM(erasable PROM)、フラッシュROM、又はRAMなどの半導体メモリを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体を用いてコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバなどの有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 RAM640は、揮発性の記憶装置である。RAM640には、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)などの各種半導体メモリデバイスが用いられる。RAM640は、データなどを一時的に格納する内部バッファとして用いられ得る。CPU610は、記憶部620又はROM630に格納されたプログラムをRAM640に展開し、実行する。CPU610がプログラムを実行することで、例えば誘導制御、照明制御、虹彩撮像制御、注視領域カバー判断処理、及び注視領域校正処理を含む各種制御が実行される。
 以上、本開示の実施形態を詳細に説明したが、本開示は、上記した実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で上記実施形態に対して変更や修正を加えたものも、本開示に含まれる。
 例えば、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 同じ視野範囲で互いに異なる位置に配置される複数の虹彩撮像手段と、
 前記虹彩撮像手段の視野範囲より広い視野範囲で撮像する全体撮像手段と、
 被験者を誘導するための誘導手段と、
 前記被験者に光を照らす照明手段と、
 前記全体撮像手段の画像を用いて、前記複数の虹彩撮像手段の画像の読み出し、前記誘導手段の映像及び音声の少なくとも一方の提示、及び、前記照明手段の光の照射のうち少なくとも1つを制御する制御手段とを備え、
 前記制御手段は、前記虹彩撮像手段の画像の読み出しを制御し、
 前記制御手段は、前記画像の読み出しの制御では、画像の読出しの対象となる注視領域を設定し、
 前記制御手段は、更に、過去の情報を記憶しておき、同じ被験者に対して画像処理する場合、前記被験者の目領域を過去に利用した注視領域でカバーできたか否かを判断し、カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する画像処理システム。
[付記2]
 前記制御手段は、前記複数の虹彩撮像手段の画像の読み出しを実施し、
 前記制御手段は、前記複数の虹彩撮像手段の画像の読み出しでは、前記全体撮像手段で撮像された映像に基づいて、前記複数の虹彩撮像手段のうち前記被験者の目を撮像できる虹彩撮像手段を特定し、該特定した虹彩撮像手段に前記被験者の目の位置を含む注視領域を設定し、前記特定した虹彩撮像手段から前記注視領域の映像を取得する付記1に記載の画像処理システム。
[付記3]
 前記複数の複数の虹彩撮像器は垂直方向に積み重ねられており、
 前記制御手段は、前記注視領域の設定では、前記複数の虹彩撮像器のうち、画像の読み出しに用いられる虹彩撮像器を決定し、該決定した虹彩撮像器の撮像範囲内に前記注視領域を設定し、
 前記制御手段は、前記決定される画像の読み出しに用いられる虹彩撮像器及び当該虹彩撮像器内に設定される注視領域が、過去の情報における虹彩撮像器及び注視領域と同じ場合、前記虹彩撮像手段の画像の読み出しを校正する付記1又は2に記載の画像処理システム。
[付記4]
 被験者の虹彩を撮像するための虹彩撮像手段の画像の読み出しを制御する制御手段を備え、
 前記制御手段は、前記画像の読出しの制御では、画像の読み出しの対象となる注視領域を設定し、
 前記制御手段は、更に、過去の情報を記憶しておき、同じ被験者に対して画像処理する場合、前記被験者の目領域を過去に利用した注視領域でカバーできたか否かを判断し、カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する画像処理装置。
[付記5]
 前記虹彩撮像手段は、垂直方向に積み重ねられた複数の虹彩撮像器を含み、
 前記制御手段は、前記注視領域の設定では、前記複数の虹彩撮像器のうち、画像の読出しに用いられる虹彩撮像器を決定し、該決定した虹彩撮像器の撮像範囲内に前記注視領域を設定し、
 前記制御手段は、前記決定される画像の読み出しに用いられる虹彩撮像器及び当該虹彩撮像器内に設定される注視領域が、過去の情報における虹彩撮像器及び注視領域と同じ場合、前記虹彩撮像手段の画像の読み出しを校正する付記4に記載の画像処理装置。
[付記6]
 前記過去の情報は過去に撮像された注視領域における目領域の位置を示す情報を含み、
 前記制御手段は、前記目領域の位置を示す情報に基づいて、前記虹彩撮像手段の画像の読み出しを校正する付記4又は5に記載の画像処理装置。
[付記7]
 前記過去の情報は過去に撮像された注視領域に目領域が含まれるか否かを示す情報を含み、
 前記制御手段は、前記目領域が含まれるか否かを示す情報に基づいて、前記被験者の目領域を過去に利用した注視領域でカバーできたか否かを判断する付記4から6何れか1つに記載の画像処理装置。
[付記8]
 前記制御手段は、前記虹彩撮像手段の撮像範囲よりも広い範囲を撮像する全体撮像手段が撮像した画像を用いて、前記虹彩撮像手段の画像の読み出しを制御する付記4から7何れか1つに記載の画像処理装置。
[付記9]
 同じ視野範囲で互いに異なる位置に配置される複数の虹彩撮像手段の視野範囲より広い視野範囲で撮像する全体撮像手段の画像を用いて、前記複数の虹彩撮像手段の画像の読み出し、被験者を誘導するための誘導手段の映像及び音声の少なくとも一方の提示、及び、前記被験者に光を照らす照明手段の光の照射のうち少なくとも1つを実施する画像処理方法。
[付記10]
 被験者の虹彩を撮像するための虹彩撮像手段の画像の読み出しを制御し、
 同じ被験者に対して画像処理する場合、過去に利用された、画像の読み出しの対象となる注視領域で前記被験者の目領域をカバーできたか否かを判断し、
 カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する画像処理方法。
[付記11]
 同じ視野範囲で互いに異なる位置に配置される複数の虹彩撮像手段の視野範囲より広い視野範囲で撮像する全体撮像手段の画像を用いて、前記複数の虹彩撮像手段の画像の読み出し、被験者を誘導するための誘導手段の映像及び音声の少なくとも一方の提示、及び、前記被験者に光を照らす照明手段の光の照射のうち少なくとも1つを実施する処理をコンピュータに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
[付記12]
 被験者の虹彩を撮像するための虹彩撮像手段の画像の読み出しを制御し、
 同じ被験者に対して画像処理する場合、過去に利用された、画像の読み出しの対象となる注視領域で前記被験者の目領域をカバーできたか否かを判断し、
 カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する処理をコンピュータに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
 この出願は、2019年2月18日に出願された日本出願特願2019-026938を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100:全体撮像器
200:誘導器
300:照明器
401~404:虹彩撮像器
500:制御器
600:情報処理装置

Claims (12)

  1.  同じ視野範囲で互いに異なる位置に配置される複数の虹彩撮像手段と、
     前記虹彩撮像手段の視野範囲より広い視野範囲で撮像する全体撮像手段と、
     被験者を誘導するための誘導手段と、
     前記被験者に光を照らす照明手段と、
     前記全体撮像手段の画像を用いて、前記複数の虹彩撮像手段の画像の読み出し、前記誘導手段の映像及び音声の少なくとも一方の提示、及び、前記照明手段の光の照射のうち少なくとも1つを制御する制御手段とを備え、
     前記制御手段は、前記虹彩撮像手段の画像の読み出しを制御し、
     前記制御手段は、前記画像の読み出しの制御では、画像の読出しの対象となる注視領域を設定し、
     前記制御手段は、更に、過去の情報を記憶しておき、同じ被験者に対して画像処理する場合、前記被験者の目領域を過去に利用した注視領域でカバーできたか否かを判断し、カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する画像処理システム。
  2.  前記制御手段は、前記複数の虹彩撮像手段の画像の読み出しを実施し、
     前記制御手段は、前記複数の虹彩撮像手段の画像の読み出しでは、前記全体撮像手段で撮像された映像に基づいて、前記複数の虹彩撮像手段のうち前記被験者の目を撮像できる虹彩撮像手段を特定し、該特定した虹彩撮像手段に前記被験者の目の位置を含む注視領域を設定し、前記特定した虹彩撮像手段から前記注視領域の映像を取得する請求項1に記載の画像処理システム。
  3.  前記複数の複数の虹彩撮像器は垂直方向に積み重ねられており、
     前記制御手段は、前記注視領域の設定では、前記複数の虹彩撮像器のうち、画像の読み出しに用いられる虹彩撮像器を決定し、該決定した虹彩撮像器の撮像範囲内に前記注視領域を設定し、
     前記制御手段は、前記決定される画像の読み出しに用いられる虹彩撮像器及び当該虹彩撮像器内に設定される注視領域が、過去の情報における虹彩撮像器及び注視領域と同じ場合、前記虹彩撮像手段の画像の読み出しを校正する請求項1又は2に記載の画像処理システム。
  4.  被験者の虹彩を撮像するための虹彩撮像手段の画像の読み出しを制御する制御手段を備え、
     前記制御手段は、前記画像の読出しの制御では、画像の読み出しの対象となる注視領域を設定し、
     前記制御手段は、更に、過去の情報を記憶しておき、同じ被験者に対して画像処理する場合、前記被験者の目領域を過去に利用した注視領域でカバーできたか否かを判断し、カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する画像処理装置。
  5.  前記虹彩撮像手段は、垂直方向に積み重ねられた複数の虹彩撮像器を含み、
     前記制御手段は、前記注視領域の設定では、前記複数の虹彩撮像器のうち、画像の読出しに用いられる虹彩撮像器を決定し、該決定した虹彩撮像器の撮像範囲内に前記注視領域を設定し、
     前記制御手段は、前記決定される画像の読み出しに用いられる虹彩撮像器及び当該虹彩撮像器内に設定される注視領域が、過去の情報における虹彩撮像器及び注視領域と同じ場合、前記虹彩撮像手段の画像の読み出しを校正する請求項4に記載の画像処理装置。
  6.  前記過去の情報は過去に撮像された注視領域における目領域の位置を示す情報を含み、
     前記制御手段は、前記目領域の位置を示す情報に基づいて、前記虹彩撮像手段の画像の読み出しを校正する請求項4又は5に記載の画像処理装置。
  7.  前記過去の情報は過去に撮像された注視領域に目領域が含まれるか否かを示す情報を含み、
     前記制御手段は、前記目領域が含まれるか否かを示す情報に基づいて、前記被験者の目領域を過去に利用した注視領域でカバーできたか否かを判断する請求項4から6何れか1項に記載の画像処理装置。
  8.  前記制御手段は、前記虹彩撮像手段の撮像範囲よりも広い範囲を撮像する全体撮像手段が撮像した画像を用いて、前記虹彩撮像手段の画像の読み出しを制御する請求項4から7何れか1項に記載の画像処理装置。
  9.  同じ視野範囲で互いに異なる位置に配置される複数の虹彩撮像手段の視野範囲より広い視野範囲で撮像する全体撮像手段の画像を用いて、前記複数の虹彩撮像手段の画像の読み出し、被験者を誘導するための誘導手段の映像及び音声の少なくとも一方の提示、及び、前記被験者に光を照らす照明手段の光の照射のうち少なくとも1つを実施する画像処理方法。
  10.  被験者の虹彩を撮像するための虹彩撮像手段の画像の読み出しを制御し、
     同じ被験者に対して画像処理する場合、過去に利用された、画像の読み出しの対象となる注視領域で前記被験者の目領域をカバーできたか否かを判断し、
     カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する画像処理方法。
  11.  同じ視野範囲で互いに異なる位置に配置される複数の虹彩撮像手段の視野範囲より広い視野範囲で撮像する全体撮像手段の画像を用いて、前記複数の虹彩撮像手段の画像の読み出し、被験者を誘導するための誘導手段の映像及び音声の少なくとも一方の提示、及び、前記被験者に光を照らす照明手段の光の照射のうち少なくとも1つを実施する処理をコンピュータに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
  12.  被験者の虹彩を撮像するための虹彩撮像手段の画像の読み出しを制御し、
     同じ被験者に対して画像処理する場合、過去に利用された、画像の読み出しの対象となる注視領域で前記被験者の目領域をカバーできたか否かを判断し、
     カバーできていなかったと判断した場合、前記虹彩撮像手段の画像の読み出しを校正する処理をコンピュータに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
PCT/JP2020/005411 2019-02-18 2020-02-12 画像処理装置、方法、システム、及びコンピュータ可読媒体 WO2020170915A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP20759087.8A EP3930301A4 (en) 2019-02-18 2020-02-12 IMAGE PROCESSING APPARATUS, METHOD, SYSTEM AND COMPUTER READABLE MEDIA
CN202080022309.4A CN113615150B (zh) 2019-02-18 2020-02-12 图像处理装置、方法、***和计算机可读介质
JP2021501893A JP7276427B2 (ja) 2019-02-18 2020-02-12 画像処理装置、方法、システム、及びプログラム
SG11202108903RA SG11202108903RA (en) 2019-02-18 2020-02-12 Image processing apparatus, method, system, and computer readable medium
US17/431,539 US11734957B2 (en) 2019-02-18 2020-02-12 Image processing apparatus, method, system, and computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019026938 2019-02-18
JP2019-026938 2019-12-04

Publications (1)

Publication Number Publication Date
WO2020170915A1 true WO2020170915A1 (ja) 2020-08-27

Family

ID=72144774

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/005411 WO2020170915A1 (ja) 2019-02-18 2020-02-12 画像処理装置、方法、システム、及びコンピュータ可読媒体

Country Status (6)

Country Link
US (1) US11734957B2 (ja)
EP (1) EP3930301A4 (ja)
JP (1) JP7276427B2 (ja)
CN (1) CN113615150B (ja)
SG (1) SG11202108903RA (ja)
WO (1) WO2020170915A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022176323A1 (ja) * 2021-02-18 2022-08-25 日本電気株式会社 生体認証システム、生体認証方法、及び記録媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170892A1 (ja) 2019-02-18 2020-08-27 日本電気株式会社 撮像装置、方法、システム、及びコンピュータ可読媒体
SG11202108901PA (en) 2019-02-18 2021-09-29 Nec Corp Image processing apparatus, method, system, and computer readable medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009016846A1 (ja) * 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
JP2012028949A (ja) * 2010-07-21 2012-02-09 Canon Inc 画像処理装置及びその制御方法
JP2017049311A (ja) * 2015-08-31 2017-03-09 沖電気工業株式会社 情報処理装置、情報処理方法及びプログラム
CN207571761U (zh) * 2017-12-27 2018-07-03 中国科学院深圳先进技术研究院 虹膜成像***
JP2019026938A (ja) 2017-07-27 2019-02-21 Jfeスチール株式会社 微細脱硫スラグの捕集材および微細脱硫スラグの除去方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846836A (ja) 1994-07-29 1996-02-16 Canon Inc 視線検出方法及び装置並びに撮像装置
JPH10340345A (ja) 1997-06-06 1998-12-22 Oki Electric Ind Co Ltd 個体識別装置
JP2007504562A (ja) 2003-09-04 2007-03-01 サーノフ コーポレーション 1つの画像から虹彩認証を行う方法および装置
JP4345741B2 (ja) 2005-12-15 2009-10-14 沖電気工業株式会社 個人識別装置
US7574021B2 (en) 2006-09-18 2009-08-11 Sarnoff Corporation Iris recognition for a secure facility
US20090275929A1 (en) * 2008-04-30 2009-11-05 Amo Development, Llc System and method for controlling measurement in an eye during ophthalmic procedure
JP2010134735A (ja) * 2008-12-05 2010-06-17 Panasonic Corp 虹彩認証装置
JP5921239B2 (ja) 2012-02-10 2016-05-24 キヤノン株式会社 撮像装置ならびに制御方法およびプログラム
JP6383251B2 (ja) 2013-12-27 2018-08-29 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
CN108650445A (zh) 2014-01-31 2018-10-12 奥林巴斯株式会社 摄像装置
US9824271B2 (en) 2014-06-25 2017-11-21 Kodak Alaris Inc. Adaptable eye artifact identification and correction system
KR102277212B1 (ko) 2015-01-23 2021-07-15 삼성전자주식회사 디스플레이 정보를 이용한 홍채 인증 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009016846A1 (ja) * 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
JP2012028949A (ja) * 2010-07-21 2012-02-09 Canon Inc 画像処理装置及びその制御方法
JP2017049311A (ja) * 2015-08-31 2017-03-09 沖電気工業株式会社 情報処理装置、情報処理方法及びプログラム
JP2019026938A (ja) 2017-07-27 2019-02-21 Jfeスチール株式会社 微細脱硫スラグの捕集材および微細脱硫スラグの除去方法
CN207571761U (zh) * 2017-12-27 2018-07-03 中国科学院深圳先进技术研究院 虹膜成像***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DAUGMAN, HOW IRIS RECOGNITION WORKS, Retrieved from the Internet <URL:https://www.cl.cam.ac.uk/~jgd1000/irisrecog.pdf>
HOSOYA: "Identification System by Iris Recognition", vol. 44, 2006, JAPANESE SOCIETY FOR MEDICAL AND BIOLOGICAL ENGINEERING, pages: 33 - 39

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022176323A1 (ja) * 2021-02-18 2022-08-25 日本電気株式会社 生体認証システム、生体認証方法、及び記録媒体

Also Published As

Publication number Publication date
CN113615150A (zh) 2021-11-05
SG11202108903RA (en) 2021-09-29
EP3930301A4 (en) 2022-04-20
JP7276427B2 (ja) 2023-05-18
EP3930301A1 (en) 2021-12-29
US11734957B2 (en) 2023-08-22
CN113615150B (zh) 2023-12-12
JPWO2020170915A1 (ja) 2021-12-16
US20220139112A1 (en) 2022-05-05

Similar Documents

Publication Publication Date Title
WO2020170915A1 (ja) 画像処理装置、方法、システム、及びコンピュータ可読媒体
JP7468746B2 (ja) 画像処理システム
WO2020170893A1 (ja) 画像処理装置、方法、システム、及びコンピュータ可読媒体
WO2020170914A1 (ja) 照明制御装置、方法、システム、及びコンピュータ可読媒体
JP2007011667A (ja) 虹彩認証装置および虹彩認証方法
JP3879719B2 (ja) 画像入力装置およびそれを用いた認証装置
JP2005258860A (ja) 複数認証方法及びその装置
JP2017162302A (ja) 生体認証装置、生体認証方法および生体認証プログラム
KR101302601B1 (ko) 홍채인증용 영상처리장치 및 그 방법
WO2020170892A1 (ja) 撮像装置、方法、システム、及びコンピュータ可読媒体
JP2024026287A (ja) 撮像システム、撮像方法及び撮像プログラム
KR20180100890A (ko) 원거리 멀티 생체 인식 방법 및 장치
JP7211492B2 (ja) 撮像システムおよび撮像方法
WO2021111548A1 (ja) 情報提示システム、情報提示方法、コンピュータプログラム、及び認証システム
KR20120131819A (ko) 신체 검출 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20759087

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021501893

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020759087

Country of ref document: EP

Effective date: 20210920