WO2016080716A1 - 홍채 인식 카메라 시스템 및 이를 포함하는 단말기와 그 시스템의 홍채 인식 방법 - Google Patents

홍채 인식 카메라 시스템 및 이를 포함하는 단말기와 그 시스템의 홍채 인식 방법 Download PDF

Info

Publication number
WO2016080716A1
WO2016080716A1 PCT/KR2015/012290 KR2015012290W WO2016080716A1 WO 2016080716 A1 WO2016080716 A1 WO 2016080716A1 KR 2015012290 W KR2015012290 W KR 2015012290W WO 2016080716 A1 WO2016080716 A1 WO 2016080716A1
Authority
WO
WIPO (PCT)
Prior art keywords
iris
image
unit
iris recognition
display unit
Prior art date
Application number
PCT/KR2015/012290
Other languages
English (en)
French (fr)
Inventor
엄기태
Original Assignee
엘지이노텍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍(주) filed Critical 엘지이노텍(주)
Priority to US15/527,642 priority Critical patent/US10402669B2/en
Publication of WO2016080716A1 publication Critical patent/WO2016080716A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/63Static or dynamic means for assisting the user to position a body part for biometric acquisition by static guides
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof

Definitions

  • Embodiments relate to an iris recognition camera system, a terminal including the same, and an iris recognition method using the same.
  • the iris recognition system is a system that authenticates a specific person by comparing a characteristic pattern of an iris in an iris image taken by a camera using image processing technology and comparing it with iris data of a user who has registered in advance.
  • the iris recognition system has been applied to mobile devices, and the use of the iris recognition system is increasing as a personal security system in everyday life.
  • the iris In the case of such an iris recognition system, the iris must be correctly recognized at the center of the lens of the camera so that security authentication can be performed quickly and accurately.
  • An embodiment provides an iris recognition camera system including a display unit for indicating a relative position of a photographed iris image to a user, a terminal including the same, and an iris recognition method using the iris recognition camera system.
  • Embodiments include an imaging unit including an image sensor; At least one display unit disposed outside the image pickup unit; A calculator configured to analyze a position of the photographed iris image generated by the image pickup unit in the image sensor; And a controller configured to control driving of the at least one display unit in response to a result value output from the calculator. It can provide an iris recognition camera system comprising a.
  • the at least one display unit may include a plurality of display units, and the plurality of display units may include at least one light emitting module.
  • the plurality of display units may be disposed on the upper and lower sides and left and right sides of the image capturing unit, and the plurality of display units disposed on the upper and lower sides are symmetrical with respect to the image capturing unit, and the plurality of display units disposed on the left and right sides.
  • the image pickup unit may be disposed to be symmetrical with each other.
  • the at least one display unit may include a plurality of light emitting modules, and the plurality of light emitting modules may be disposed on the upper and lower sides and left and right sides of the image capturing unit.
  • Each of the plurality of light emitting modules may have a separate driving unit.
  • the embodiment may include an image extracting unit for extracting the authentication iris image, and may further include a memory unit in which the reference iris image is stored.
  • Another embodiment is an iris recognition method using the iris recognition camera system of the above embodiment, the method comprising: generating a photographed iris image; Analyzing a position in the image sensor of the captured iris image; And driving the display unit corresponding to a position result value of the analyzed iris image. It can provide an iris recognition method comprising a.
  • the analyzing of the position in the image sensor may include determining whether the photographed iris image is formed within a reference area of the image sensor.
  • the reference area may be a virtual optical field area including a center of the image sensor.
  • driving the display unit may indicate a moving direction of the iris.
  • the method may include extracting the photographed iris image as the authentication iris image.
  • the center of the iris and the center of the image sensor in the photographed iris image may coincide.
  • the method may include comparing the authentication iris image with the reference iris image.
  • the driving of the display unit may include driving the at least one display unit to blink.
  • Still another embodiment may provide a terminal including the iris recognition camera system of the above-described embodiment, and the terminal may further include an infrared light emitting module.
  • An iris recognition camera system and an iris recognition method using the same include a display unit outside the imaging unit so that the relative position of the iris photographed by the imaging unit can be easily informed to the outside. Iris recognition can be performed quickly.
  • FIG. 1 is a block diagram of an iris recognition camera system according to an embodiment
  • FIG. 2 is a diagram illustrating an embodiment of an imaging unit
  • 3 to 4 is a view showing an embodiment of an iris recognition camera system
  • FIG. 5 is a view showing an embodiment of a light emitting module
  • FIG. 6 is a diagram illustrating an embodiment of an iris recognition camera system
  • FIG. 7 is a flowchart illustrating an embodiment of an iris recognition method
  • FIG. 8 is a diagram illustrating an example in which an iris image is formed in an image sensor.
  • FIG. 9 is a diagram illustrating an embodiment of driving a display unit
  • FIG. 10 is a diagram illustrating an embodiment of a portable terminal.
  • each component is exaggerated, omitted, or schematically illustrated for convenience and clarity of description. Also, the size of each component does not fully reflect its actual size.
  • FIG. 1 is a block diagram illustrating a schematic configuration of an iris recognition camera system according to an exemplary embodiment.
  • the iris recognition camera system 200 illustrated in FIG. 1 may include an imaging unit 110, a display unit 120, a calculator 140, a controller 150, an image extractor 160, and a memory unit 170. have.
  • the imaging unit 110 may include an image sensor.
  • FIG 2 is a diagram illustrating an embodiment of the imaging unit 110.
  • the imaging unit 110 may include an optical unit 10 for outputting optical information of the photographed iris, and an image sensor 14 for converting the output optical information into an electrical signal.
  • the optical unit 10 may include a plurality of lenses 10a, 10b, 10c, and 10d, and absorb the light incident from the outside to output the image to the image sensor 14 to obtain an image of the subject. have.
  • the imaging unit 110 may generate the photographed iris image by outputting optical information of the iris obtained from the optical unit 10 including the lens, transferring the optical information to the image sensor 14, and converting it into an electrical signal.
  • FIG. 2 illustrates four lenses 10a to 10d disposed on the lens barrel 12, the number of lenses constituting the optical unit 10 is not limited thereto, and the optical unit 10 may be singular or plural.
  • the lens of can be arranged.
  • the plurality of lenses 10a to 10d may be sequentially stacked, and a spacer (not shown) may be disposed between the plurality of lenses 10a to 10d.
  • the spacers may be spaced apart from the plurality of lenses 10a to 10d to maintain a gap between the lenses 10a to 10d.
  • the lens barrel 12 may have a cylindrical or rectangular shape, but is not limited thereto.
  • At least one of the plurality of lenses 10a to 10d included in the optical unit 10 may condense light with the image sensor 14.
  • the lenses 10a to 10d may be to draw a large amount of light from one point of the subject, and to refract the incident light to collect the drawn light to one point.
  • the light collected at one point may form an image, and when the image is collected at one point in the image sensor 14 and one image is formed, the subject may be located at the focal length of the lens.
  • Optical information output from the optical unit 10 may be transferred to the image sensor 14.
  • the image sensor 14 may receive optical information of a subject incident through the lens of the optical unit 10 and photoelectrically convert it into an electrical signal.
  • the image sensor 14 may be a CCD (Charge-Coupled Device) sensor or a CMOS ( Complementary Metal-Oxide-Semiconductor) sensor.
  • the imaging unit 110 may include, but is not limited to, a lens having a fixed focal length, and may have an auto focusing function.
  • the iris recognition camera system 200 may include a display unit 120, and at least one display unit 120 may be disposed around the image capturing unit 110 and outside the image capturing unit.
  • FIG. 3 is a diagram illustrating an embodiment of an iris recognition camera system, and schematically illustrates a front view of the iris recognition camera system 200a.
  • the imaging unit 110 may be disposed at the center of the iris recognition camera system 200a, and the display units 120a, 120b, 120c, and 120d may surround the imaging unit 110, and the imaging unit ( It may be arranged in a plurality outside of the 110.
  • the display units 120a to 120d may be spaced apart from each other, but are not limited thereto and may be disposed adjacent to each other.
  • four display units 120a to 120d may be disposed around the imaging unit 110, and the display unit 120a is centered on the imaging unit 110.
  • To 120d) may be arranged up, down, left and right, respectively.
  • the display units 120a and 120c disposed above and below may be disposed to face each other based on the imaging unit 110.
  • the display units 120b and 120d disposed on the left and right sides may also be disposed to face each other with respect to the imaging unit 110.
  • FIG 3 illustrates that the plurality of display units 120a to 120d are disposed above and below and to the left and right of the image capturing unit 110, but embodiments are not limited thereto, and the plurality of display units may surround the image capturing unit 110. It may be arranged in a diagonal direction.
  • two display units facing each other may be arranged to be symmetrical with respect to the image pickup unit 110.
  • display units 120a to 120d are arranged in FIG. 3, the number of display units is not limited thereto, and for example, four or more display units may be disposed to surround the imaging unit 110.
  • Each of the plurality of display units 120a to 120d may include at least one light emitting module 20.
  • each of the display units of the plurality of display units 120a to 120d may include one or a plurality of light emitting modules 20.
  • Each display unit may include a plurality of light emitting modules 20 emitting light of the same wavelength, or each display unit may include a plurality of light emitting modules emitting light of different wavelengths.
  • Each of the plurality of display units 120a to 120d may have a separate driving unit, and each of the display units may emit light of a different wavelength region.
  • FIG. 4 illustrates another embodiment of an iris recognition camera system.
  • the iris recognition camera system 200b of the embodiment may include an image capturing unit 110 and a display unit 120.
  • the display unit 120 may be in the form of one module surrounding the imaging unit 110.
  • the display unit 120 may have a donut shape so that the imaging unit 110 may be disposed at the center.
  • the display unit 120 may be disposed in a circle surrounding the image capturing unit 110.
  • the display unit 120 having one module form may include a plurality of light emitting modules 20a, 20b, 20c, and 20d.
  • each of the plurality of light emitting modules 20a to 20d included in one display unit 120 may have a separate driver (not shown).
  • the display unit 120 may include four light emitting modules 20a to 20d, and the four light emitting modules 20a to 20d may be respectively based on the imaging unit 110. It can be arranged up and down and left and right.
  • the plurality of light emitting modules 20a to 20d may emit light in the same wavelength region, or may emit light in different wavelength regions.
  • the plurality of light emitting modules 20a to 20d may be driven separately, and the plurality of light emitting modules 20a to 20d may be driven simultaneously.
  • the light emitting modules 20a to 20d included in the display unit 120 are disposed on the top and the left and right sides of the image pickup unit 110, the light emitting modules 20a and 20c disposed above and below the image pickup unit 110 are disposed. It may be arranged to face each other with respect to.
  • the light emitting modules 20b and 20d disposed on the left and right sides may also be disposed to face each other with respect to the imaging unit 110.
  • the light emitting modules 20a to 20d are disposed on the top, bottom, left, and right sides of the imaging unit 110, but embodiments are not limited thereto, and the light emitting modules 20a to 20d may be photographed. It may be disposed in a diagonal direction to surround the unit 110.
  • the number of light emitting modules is not limited thereto, and for example, four or more light emitting modules may be disposed surrounding the imaging unit 110.
  • the light emitting module 20 included in the embodiments of FIGS. 3 and 4 may include a light emitting diode or a lens on a light emitting device package or a light emitting device package in which the light emitting device is fixed to a body.
  • the shape of the light emitting module 20 is not limited thereto, and the light emitting module may include a lead frame or may further include a support substrate.
  • FIG. 5 is a view showing an embodiment of the light emitting module 20.
  • the light emitting module 20 includes a body portion 23, a cavity 27 formed on the body portion, and a light emitting element 21 disposed in the cavity. ), And the body portion may include a lead frame 25 for electrical connection with the light emitting device.
  • the body portion 23 may be formed of a silicon material, a synthetic resin material, or a metal material, and the body may have a cavity 27 having an open top and consisting of side and bottom surfaces.
  • the body portion 23 may include at least one lead frame 25 to be electrically connected to the light emitting device.
  • At least one light emitting device 21 may be disposed on the bottom surface of the cavity 27.
  • the light emitting device 21 may be wrapped and a molding part may be disposed.
  • the molding part may include a resin layer and the phosphor 28.
  • the light emitting device 21 may include a first conductive semiconductor layer, an active layer, and a second conductive semiconductor layer, and may emit light of different wavelengths depending on the configuration of the semiconductor layer.
  • the light emitting device 21 may emit blue light.
  • the light emitting module 20 may be configured according to the kind of the phosphor included. The emission wavelength of the light emitted from may be varied.
  • the light emitting module 20 may emit light having a wavelength of red, yellow, white, etc. according to the light emitting device and the phosphor which is excited by the light emitted from the light emitting device and the wavelength is converted.
  • FIG. 6 is a cross-sectional view of an iris recognition camera system.
  • FIG. 6 may be a cross-sectional view of AA ′ in the embodiment of FIG. 3.
  • the display units 120a and 120c surrounding the imaging unit 110 may include the light emitting module 20, the substrate 11 supporting the light emitting module, and the front cover 23 protecting the light emitting module. It may include.
  • the substrate 11 may be a PCB substrate for driving a light emitting module.
  • the substrate 11 may be electrically connected to the light emitting module 20 and may be connected to an external electrode.
  • the PCB substrate may be a hard type for supporting the light emitting module 20, but is not limited thereto and may be a flexible type.
  • the front cover 23 may be made of a transparent plastic or glass material, but is not limited thereto.
  • the front cover 23 may further include a diffusion plate to uniformly emit light emitted from the light emitting module 20.
  • FIGS. 3 to 4 and 6 Although the arrangement of the display unit in FIGS. 3 to 4 and 6 has been described with reference to the drawings, the arrangement or number of display units in the iris recognition camera system is not limited thereto, and display units having various shapes may be arranged.
  • the number of display units may be smaller or larger than that of the embodiment of the drawing, and the area of each display unit may be the same or different.
  • the iris recognition camera system 200 may include an operation unit 140 that analyzes the photographed iris image generated by the imaging unit 110.
  • the iris image photographed by the imaging unit 110 may be converted into an electrical signal by the image sensor and transferred to the calculator 140.
  • the calculator 140 may analyze a position in the image sensor in which the generated photographed iris image is formed.
  • the analyzing of the position of the photographing iris image by the calculator 140 may be analyzing whether the photographing iris image is located in a reference region in the image sensor.
  • the reference area may vary depending on the sensitivity performance of the iris recognition camera system, for example, the reference area may be an optical field area including the center of the image sensor when distinguishing the optical field of the image sensor.
  • the position result value of the photographed iris image analyzed by the calculator 140 may be transmitted to the controller 150.
  • the controller 120 may transmit a driving signal to the display unit 120.
  • the controller 150 may control driving of the at least one display unit 120 according to the result value output from the calculator 140.
  • the controller 120 may be connected to the driving unit of the light emitting module included in the display unit 120.
  • the controller 120 may operate at least one of the plurality of light emitting modules included in the display unit 120 according to the analysis result value of the calculator 140.
  • the iris recognition camera system 200 includes a plurality of display units 120
  • the light emitting module included in the at least one display unit 120 may be operated.
  • the controller 150 may transmit a signal for driving the display unit 120 corresponding to the analysis result value.
  • the controller 150 may control the driving of the display unit 120 to analyze the direction in which the photographed iris image deviates from the reference area and to display the moving direction to the outside.
  • the controller 150 may transmit a signal such that the display unit 120 is driven accordingly.
  • the controller 150 may control the display 120 to be driven by blinking in order to externally display that the iris is located in the reference area.
  • the iris recognition camera system 200 may include an image extractor 160.
  • the image extractor 160 may extract an authentication iris image.
  • the authentication iris image is a final iris image used for iris recognition and may be located in a reference region of the photographed iris image.
  • the calculator 140 may transmit a signal to the image extractor 160.
  • the image extractor 160 may capture and enlarge the photographed iris image positioned in the reference region and use the image iris image as an authentication iris image for iris recognition.
  • the image extractor 160 may store the captured authentication iris image.
  • the iris recognition camera system 200 may include a memory unit 170 storing a reference iris image.
  • the reference iris image may store an iris image of a user authenticated using an iris recognition camera system, and the reference iris image may be a data of a specific pattern of an iris in the stored iris image.
  • the reference iris image may be data obtained by analyzing a specific pattern of a user's iris and quantifying the same.
  • iris recognition method using the above-described iris recognition camera system 200 and a portable terminal including the same will be described as follows with reference to the accompanying drawings, but the embodiment is not limited thereto. It can be used for various purposes of shooting.
  • FIG. 7 is a flowchart illustrating an embodiment of an iris recognition method.
  • the generating of the photographed iris image (S1100) may include capturing the iris to obtain optical information and converting the acquired optical information into an electrical signal.
  • Acquiring optical information by photographing the iris may include generating an optical signal for the iris image in the image capturing unit of the iris recognition camera system.
  • the processing of the image information may be photoelectric conversion of an optical signal generated by photographing the iris from an image sensor.
  • the image sensor may process the optical signal into an electrical signal to obtain a photographed iris image.
  • analyzing the position in the image sensor with respect to the generated photographed iris image (S1200) may be calculating a position in the image sensor.
  • analyzing the position in the image sensor (S1200) may include determining whether the photographed iris image is located in the reference region of the image sensor (S1300).
  • the analyzing of the position in the image sensor (S1200) may be a step of determining in which region the photographed iris image is located based on the reference region of the image sensor, and whether the photographed iris image is formed in the reference region of the image sensor. It may be to include the step (S1300).
  • the step (S1200) of determining the position of the photographed iris image in the image sensor may be performed by an operation unit of the iris recognition camera system.
  • the calculation unit analyzes and determines the position of the photographed iris image, and determines the moving direction of the iris according to the result value.
  • the display unit may be driven by transmitting a signal for a value to the display unit.
  • whether the acquired iris image corresponds to a reference region on the image sensor may be determined by dividing the image sensor into a virtual region.
  • the reference region can be a virtual optical field that includes the center of the image sensor.
  • the reference area on the image sensor for determining the relative position of the iris image may be an optical field having a concentric shape with respect to the center of the image sensor.
  • FIG. 8 is a diagram illustrating an embodiment of an image sensor in which a photographed iris image is formed.
  • the image sensor 14 of the embodiment may be divided into n optical fields f 1 , f 2 ,... F n .
  • the virtual circle separating the n optical fields may be a concentric circle based on the center point O of the image sensor.
  • the optical field which is an imaginary region in the image sensor 14, is a diameter of the distance between two points on the diagonally symmetrical reference to the center point O of the image sensor when dividing the diagonal D1 of the image sensor at regular intervals. It may be an area divided by virtual concentric circles.
  • the first optical field f 1 may be inside the imaginary circle whose radius is a distance from the center O of the image sensor to a point spaced apart by r1.
  • the second optical field f 2 is a circle corresponding to the first optical field f 1 in the inner region of the imaginary circle whose radius is a distance from the center O of the image sensor to a point spaced apart by r2. It may be a part except the inner region of the.
  • the number of divided optical fields may vary depending on the size of the image sensor and the purpose of using the image acquired through the image sensor.
  • the iris image is located in the reference region of the image sensor when the iris image is imaged in the first optical field f 1 .
  • the first optical field f 1 which is the reference area
  • (f 1 ) it may be determined in which direction.
  • the photographed iris image when the photographed iris image is positioned in the reference region, the iris center in the photographed iris image I and the center O of the image sensor may coincide.
  • the imaged iris image I is formed at the upper right side at the center O of the image sensor outside the first optical field f 1 , so that the eye position is obtained by obtaining the iris image in order to obtain an accurate iris image. It should be moved to the right below the position of.
  • the iris may be moved in a direction in which the center of the iris image I coincides with the center O of the image sensor.
  • the iris recognition method of the embodiment may include analyzing the positions of the iris images obtained as described above, and then driving the display units accordingly (S1430 and S1450).
  • driving of the display unit may proceed to driving of the movement direction to the display unit (S1430).
  • the driving of the moving direction to the display unit (S1430) may be to drive the display unit in the iris recognition camera system to allow the user to recognize the moving direction.
  • FIG. 9 is a diagram illustrating an embodiment of presenting an moving direction of an iris in an iris recognition method using an iris recognition camera system having four display units 120a, 120b, and 120c.
  • FIG. 9A illustrates a case in which the display unit 120a disposed above the imaging unit 110 is driven.
  • (a) is a case where the generated photographed iris image is located at the lower end of the reference region of the image sensor.
  • the display unit 120a disposed above the imaging unit 110 is driven by driving the moving direction to the display unit. It may be to instruct to move the iris upwards.
  • (b), (c) and (d) of FIG. 9 may represent driving the display unit to move the iris downward (bottom), left (left) and right (right), respectively. .
  • the plurality of display units may be driven simultaneously according to the position analysis result of the acquired iris image.
  • the acquired iris image is formed in the upper right side from the center of the image sensor outside the reference area of the image sensor as shown in FIG. 8 described above, the image is captured to recognize the user to move the iris downward and downward.
  • the display units 120b and 120c on the left side and the lower portion of the unit 110 may be driven at the same time.
  • the driving method of the display unit described with reference to FIG. 9 is not limited thereto, and the driving method may vary depending on the number of display units arranged outside the imaging unit 110, the shape of the display units arranged, and the like.
  • the driving method of the display unit may vary according to an algorithm used in the iris recognition method of the embodiment.
  • the driving of the at least one display unit may indicate a relative position of the photographed iris image with respect to the reference region rather than the moving direction of the iris.
  • the user may move the iris in the indicated direction, and thereafter, in operation S1100, the iris image may be generated by the imaging unit.
  • the method may include extracting the imaged iris image as the authentication iris image (S1500).
  • the method may include comparing the authentication iris image with the reference iris image stored in the memory unit of the iris recognition camera system.
  • Extracting the authentication iris image may be a step of data-forming a characteristic pattern of the iris in the obtained iris image using an image processing technique.
  • the comparing with the reference iris image may be to authenticate the user by comparing the extracted authentication iris image data with the pattern data of the reference iris registered in advance.
  • driving of the display unit may be performed to drive at least one display unit to blink.
  • the display unit may blink the entire display unit disposed outside the imaging unit, or may drive the display unit for a predetermined time so that the user may obtain a final iris image for authentication by placing the pupil in the reference area. It may be to inform.
  • driving the display unit to blink may provide a light to the iris before extracting the authentication iris image, thereby preventing a red eye effect during iris photographing.
  • the entire display may be flickered or the display may be driven for a predetermined time in order to notify the acquisition of the final iris image
  • the present invention is not limited thereto and may notify that the final iris image is to be acquired by the pre-stored shooting notification sound.
  • the relative position of the iris image can be determined from the operation of the display unit without checking the photographed iris image through a separate display. Since it can be easily presented, there is an effect that can easily and accurately acquire the iris image to recognize the iris.
  • the terminal of one embodiment may include the iris recognition camera system of the above-described embodiment.
  • the terminal may arrange the iris recognition camera system in the front or the rear.
  • the terminal including the iris recognition camera system may be a portable terminal, but the embodiment is not limited thereto, and the iris recognition camera system of the above-described embodiment may also be provided in the fixed terminal.
  • FIG. 10 is a schematic front view of a portable terminal of an embodiment.
  • the portable terminal 300 may further include a camera system 220 for general image capturing in addition to the iris recognition camera system 200 of the above-described embodiment.
  • the lighting module for iris imaging may further include an infrared light emitting module 250.
  • the infrared light emitting module 250 may include a light emitting diode that emits an infrared wavelength region.
  • the iris image acquired by the iris recognition camera system 200 may be displayed on the display unit 270 of the portable terminal.
  • the iris image obtained by using the iris recognition camera system 200 may be provided to be used for other functions of the portable terminal.
  • the iris image may be used in a portable terminal security system, but is not limited thereto.
  • data information on a reference iris image may be stored in a memory of the portable terminal.
  • a security system using iris recognition can be used in a portable device including an iris recognition camera system, and the position of the iris can be easily determined by driving the display unit. Can have an effect.
  • An iris recognition camera system and a terminal including the same may be used to recognize an iris.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

실시예의 홍채 인식 카메라 시스템은 이미지 센서를 갖는 촬상부; 촬상부의 외곽에 배치되는 적어도 하나의 표시부; 촬상부에서 생성한 촬영 홍채 이미지의 이미지 센서에서의 위치를 분석하는 연산부; 및 연산부에서 출력된 결과 값에 상응하여 적어도 하나의 표시부의 구동을 제어하는 제어부; 를 포함하여, 사용자에게 촬영된 홍채 이미지의 위치를 용이하게 알려주어 보다 빠르고 정확하게 홍채 인식을 할 수 있다.

Description

홍채 인식 카메라 시스템 및 이를 포함하는 단말기와 그 시스템의 홍채 인식 방법
실시예는 홍채 인식 카메라 시스템과 이를 포함하는 단말기 및 이를 이용한 홍채 인식 방법에 관한 것이다.
보안 출입 등을 위한 신분 인증을 위하여 다른 인증 수단에 비하여 높은 보안성과 정확성을 갖춘 홍채 인식 시스템이 이용되고 있다. 이러한 홍채 인식 시스템은 카메라로 촬영한 홍채 이미지에서 홍채의 특징적인 패턴을 이미지 처리 기술을 이용하여 데이터화한 후 이를 사전에 등록한 사용자의 홍채 데이터와 비교하여 특정인을 인증하는 시스템이다.
최근에는 이러한 홍채 인식 시스템을 모바일 기기에도 적용하여 일상에서의 개인 보안 시스템으로의 활용도가 늘어나고 있다.
다만, 이러한 홍채 인식 시스템의 경우 카메라의 렌즈 중심에 홍채가 정확하게 인식되어야 빠르고 정확하게 보안 인증을 할 수 있다.
하지만, 종래의 홍채 인식 카메라를 사용할 경우 사용자가 자신의 눈이 렌즈의 중앙 영역에 위치하는지를 확인할 수 있는 방법이 없으며, 또한 모바일 기기의 디스플레이부에서 이를 확인할 수 있는 경우에도 홍채의 위치를 확인하기 위하여 디스플레이부를 보게 되면, 다시 홍채의 위치가 달라질 수 있으므로 홍채 인식의 정확성이 떨어지는 문제점이 있다.
실시예는 사용자에게 촬영된 홍채 이미지의 상대적 위치를 알려주는 표시부를 포함하는 홍채 인식 카메라 시스템과 이를 포함하는 단말기 및 이러한 홍채 인식 카메라 시스템을 이용하는 홍채 인식 방법을 제공한다.
실시예는 이미지 센서를 포함하는 촬상부; 상기 촬상부의 외곽에 배치되는 적어도 하나의 표시부; 상기 촬상부에서 생성한 촬영 홍채 이미지의 상기 이미지 센서에서의 위치를 분석하는 연산부; 및 상기 연산부에서 출력된 결과 값에 상응하여 상기 적어도 하나의 표시부의 구동을 제어하는 제어부; 를 포함하는 홍채 인식 카메라 시스템을 제공할 수 있다.
상기 적어도 하나의 표시부는 복수의 표시부를 포함하며, 상기 복수의 표시부는 적어도 하나의 발광 모듈을 포함할 수 있다.
상기 복수의 표시부는 상기 촬상부를 둘러싸고 상기 촬상부의 상하 및 좌우에 배치될 수 있으며, 상기 상하에 배치된 상기 복수의 표시부는 상기 촬상부를 중심으로 서로 대칭되며, 상기 좌우에 배치된 상기 복수의 표시부는 상기 촬상부를 중심으로 서로 대칭되도록 배치될 수 있다.
상기 적어도 하나의 표시부는 복수의 발광 모듈을 포함할 수 있으며, 상기 복수의 발광 모듈은 상기 촬상부를 둘러싸고 상기 촬상부의 상하 및 좌우에 배치될 수 있다.
상기 복수의 발광 모듈은 각각 별개의 구동부를 가질 수 있다.
실시예는 인증 홍채 이미지를 추출하는 이미지 추출부를 포함할 수 있으며, 기준 홍채 이미지가 저장된 메모리부를 더 포함할 수 있다.
다른 실시예는 상술한 실시예의 홍채 인식 카메라 시스템을 이용한 홍채 인식 방법에 있어서, 촬영 홍채 이미지를 생성하는 단계; 상기 촬영 홍채 이미지의 상기 이미지 센서에서의 위치를 분석하는 단계; 및 상기 분석한 상기 촬영 홍채 이미지의 위치 결과값에 상응하여 상기 표시부를 구동하는 단계; 를 포함하는 홍채 인식 방법을 제공할 수 있다.
상기 이미지 센서에서의 위치를 분석하는 단계는 상기 촬영 홍채 이미지가 상기 이미지 센서의 기준 영역 내에 형성되는지 여부를 판단하는 단계를 포함할 수 있다.
상기 기준 영역은 상기 이미지 센서의 중심을 포함하는 가상의 광학 필드 영역일 수 있다.
상기 홍채 인식 방법의 실시예에서 상기 촬영 홍채 이미지가 상기 기준 영역에서 벗어난 경우 상기 표시부를 구동하는 단계는 상기 홍채의 이동 방향을 표시하는 것일 수 있다.
상기 촬영 홍채 이미지가 상기 기준 영역에 위치하는 경우 상기 촬영 홍채 이미지를 상기 인증 홍채 이미지로 추출하는 단계를 포함할 수 있다.
상기 촬영 홍채 이미지가 상기 기준 영역에 위치하는 경우는 상기 촬영 홍채 이미지에서의 홍채 중심과 상기 이미지 센서의 중심이 일치하는 것일 수 있다.
또한, 실시예에서 상기 인증 홍채 이미지와 상기 기준 홍채 이미지를 비교하는 단계를 포함할 수 있다.
또한, 상기 표시부를 구동하는 단계는 상기 적어도 하나의 표시부가 점멸하도록 구동하는 것일 수 있다.
또 다른 실시예는 상술한 실시예의 홍채 인식 카메라 시스템을 포함하는 단말기를 제공할 수 있으며, 상기 단말기는 적외선 발광 모듈을 더 포함할 수 있다.
실시예에 따른 홍채 인식 카메라 시스템과 이를 이용한 홍채 인식 방법은 촬상부 외곽에 표시부를 포함하여 촬상부에서 촬영되는 홍채의 상대적 위치를 용이하게 외부로 알릴 수 있으며, 이를 이용하여 정확한 홍채 이미지를 획득하여 홍채 인식을 빠르게 실행할 수 있다.
도 1은 일 실시예에 따른 홍채 인식 카메라 시스템의 블록도를 나타낸 도면이고,
도 2는 촬상부의 일 실시예를 나타낸 도면이고,
도 3 내지 도 4는 홍채 인식 카메라 시스템의 일 실시예를 나타낸 도면이고,
도 5는 발광 모듈의 일 실시예를 나타낸 도면이고
도 6은 홍채 인식 카메라 시스템의 일 실시예를 나타낸 도면이고,
도 7은 홍채 인식 방법의 일 실시예를 플로우 차트로 나타낸 도면이고,
도 8은 이미지 센서에서 홍채 이미지가 결상된 예를 나타낸 도면이고,
도 9는 표시부 구동의 일 실시예를 나타낸 도면이고,
도 10은 휴대용 단말기의 일 실시예를 나타낸 도면이다.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 실시예를 첨부한 도면을 참조하여 설명한다.
이하에서 이용되는 "제1" 및 "제2," "상부" 및 "하부" 등과 같은 관계적 용어들은, 그런 실체 또는 요소들 간의 어떠한 물리적 또는 논리적 관계 또는 순서를 반드시 요구하거나 내포하지는 않으면서, 어느 한 실체 또는 요소를 다른 실체 또는 요소와 구별하기 위해서만 이용될 수도 있다.
도면에서 각 구성요소의 두께나 크기는 설명의 편의 및 명확성을 위하여 과장되거나 생략되거나 또는 개략적으로 도시되었다. 또한 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것은 아니다.
도 1은 일 실시예에 따른 홍채 인식 카메라 시스템의 개략적인 구성을 나타낸 블록도이다.
도 1에 도시된 홍채 인식 카메라 시스템(200)은 촬상부(110), 표시부(120), 연산부(140), 제어부(150), 이미지 추출부(160) 및 메모리부(170)를 포함할 수 있다.
촬상부(110)는 이미지 센서를 포함할 수 있다.
도 2는 촬상부(110)의 일 실시예를 나타낸 도면이다.
도 2를 참조하면, 촬상부(110)는 촬영한 홍채의 광학정보를 출력하는 광학부(10) 및 출력된 광학정보를 전기적 신호로 변환하는 이미지 센서(14)를 포함할 수 있다.
광학부(10)는 복수의 렌즈(10a, 10b, 10c, 10d)를 포함할 수 있으며, 피사체에 대한 영상을 획득하기 위하여 외부로부터 입사되는 빛을 흡수하여 이미지 센서(14)로 출력하도록 할 수 있다.
즉, 촬상부(110)는 렌즈를 포함하는 광학부(10)로부터 획득된 홍채의 광학정보를 출력하고 이를 이미지 센서(14)로 전달하여 전기적 신호로 변환함으로써 촬영 홍채 이미지를 생성할 수 있다.
도 2에서는 렌즈 경통(12)에 배치되는 4 개의 렌즈(10a 내지 10d)를 도시하고 있으나, 광학부(10)를 구성하는 렌즈의 개수는 이에 한정하지 않으며, 광학부(10)에는 단수 또는 복수의 렌즈가 배치될 수 있다.
복수의 렌즈(10a 내지 10d)는 순차적으로 적층되어 배치될 수 있으며, 복수의 렌즈들(10a 내지 10d) 사이에는 스페이서(미도시)가 배치될 수 있다. 스페이서는 복수의 렌즈들(10a 내지 10d) 사이를 이격시켜, 렌즈들(10a 내지 10d) 사이의 간격을 유지시킬 수 있다.
렌즈 경통(12)은 원통형 또는 사각형의 형상을 가질 수 있으나, 이에 한정하지 않는다.
또한, 광학부(10)에 포함되는 복수의 렌즈(10a 내지 10d) 중 적어도 하나는 이미지 센서(14)로 광을 집광시키는 것일 수 있다.
이때 렌즈(10a 내지 10d)는 피사체의 한 지점에서부터 많은 양의 빛을 끌어들이고, 끌어드린 빛을 한 지점으로 모을 수 있도록 입사된 빛을 굴절시키는 것일 수 있다.
이렇게 한 지점으로 모아진 빛은 하나의 상을 맺히게 할 수 있으며, 이미지 센서(14)에서 한 점으로 모아져서 하나의 이미지가 형성될 경우 피사체는 렌즈의 초점거리에 위치하는 것이라고 할 수 있다.
광학부(10)로부터 출력된 광학 정보는 이미지 센서(14)로 전달될 수 있다.
이미지 센서(14)는 광학부(10)의 렌즈를 통하여 입사된 피사체의 광학 정보를 수신하여 전기 신호로 광전 변환할 수 있으며, 이미지 센서(14)는 CCD(Charge-Coupled Device) 센서 또는 CMOS(Complementary Metal-Oxide-Semiconductor) 센서일 수 있다.
실시예의 촬상부(110)는 고정 초점 거리를 갖는 렌즈를 포함할 수 있으나 이에 한정하지 않으며, 자동 초점 조절(Auto Focusing) 기능을 갖는 것일 수 있다.
실시예의 홍채 인식 카메라 시스템(200)은 표시부(120)를 포함할 수 있으며, 촬상부(110)를 둘러싸고 촬상부의 외곽에 적어도 하나의 표시부(120)가 배치될 수 있다.
도 3은 홍채 인식 카메라 시스템의 일 실시예를 나타낸 도면으로, 홍채 인식 카메라 시스템(200a)의 정면도를 간략히 나타낸 것이다.
도 3의 도시를 참조하면, 촬상부(110)는 홍채 인식 카메라 시스템(200a)의 중앙에 배치될 수 있으며, 표시부(120a, 120b, 120c, 120d)는 촬상부(110)를 둘러싸고 촬상부(110)의 외곽에 복수로 배치될 수 있다.
복수의 표시부(120a 내지 120d)는 서로 이격되어 배치될 수 있으나, 이에 한정하지 않으며 서로 이웃하여 배치될 수 있다.
예를 들어, 도 3의 홍채 인식 카메라 시스템(200a) 실시예에서는 4 개의 표시부(120a 내지 120d)가 촬상부(110)의 주위에 배치될 수 있으며, 촬상부(110)를 중심으로 표시부(120a 내지 120d)가 상하 및 좌우에 각각 배치될 수 있다.
표시부가 촬상부(110)를 기준으로 상항 및 좌우에 배치될 때, 상하에 배치된 표시부(120a, 120c)는 촬상부(110)를 기준으로 서로 대향하여 배치될 수 있다.
또한, 좌우에 배치되는 표시부(120b, 120d)도 촬상부(110)를 기준으로 서로 대향하여 배치될 수 있다.
도 3의 실시예에서 복수의 표시부(120a 내지 120d)가 촬상부(110)의 상하 및 좌우에 배치되는 것을 도시하였으나 실시예는 이에 한정하지 않으며, 복수의 표시부는 촬상부(110)를 둘러싸도록 대각선 방향으로 배치될 수 있다.
복수의 표시부가 대각선 방향으로 배치될 경우에도 마주보는 두 개의 표시부는 촬상부(110)를 기준으로 서로 대칭되도록 배치될 수 있다.
또한, 도 3에서 4개의 표시부(120a 내지 120d)가 배치된 것을 도시하였으나, 표시부의 개수는 이에 한정하지 않으며 예를 들어 4개 이상의 복수의 표시부가 촬상부(110)를 둘러싸고 배치될 수 있다.
복수의 표시부(120a 내지 120d) 각각은 적어도 하나의 발광 모듈(20)을 포함할 수 있다.
즉, 복수의 표시부(120a 내지 120d)에서 각각의 표시부는 하나 또는 복수의 발광 모듈(20)을 포함할 수 있다.
각 표시부에는 동일한 파장의 광을 방출하는 복수의 발광 모듈(20)을 포함할 수 있으며, 또는 각 표시부에는 서로 다른 파장의 광을 방출하는 복수의 발광 모듈을 포함할 수도 있다.
복수의 표시부(120a 내지 120d)는 각각 별개의 구동부를 가질 수 있으며, 각 표시부는 서로 다른 파장영역의 광을 방출할 수도 있다.
도 4는 홍채 인식 카메라 시스템의 다른 실시예를 나타낸 도면이다.
도 4는 홍채 인식 카메라 시스템(200b)의 정면도를 간략히 나타낸 것으로,실시예의 홍채 인식 카메라 시스템(200b)은 촬상부(110)와 하나의 표시부(120)를 포함할 수 있다.
도 4를 참조하면, 표시부(120)는 촬상부(110)를 둘러싼 하나의 모듈 형태일 수 있다. 예를 들어, 표시부(120)는 촬상부(110)가 중앙에 배치될 수 있도록 도넛 형상을 가질 수 있다.
즉, 표시부(120)는 촬상부(110)를 둘러싸고 원형으로 배치될 수 있다.
도 4의 실시예에서 하나의 모듈 형태로 된 표시부(120)에는 복수의 발광 모듈(20a, 20b, 20c, 20d)을 포함할 수 있다.
또한, 하나의 표시부(120)에 포함된 복수의 발광 모듈(20a 내지 20d)은 각각 별개의 구동부(미도시)를 가질 수 있다.
도 4의 실시예에서 표시부(120)는 4 개의 발광 모듈(20a 내지 20d)을 포함할 수 있으며, 4 개의 발광 모듈(20a 내지 20d)은 촬상부(110)를 기준으로 각각 촬상부(110)의 상하와 좌우에 배치될 수 있다.
복수의 발광 모듈(20a 내지 20d)은 모두 동일한 파장 영역의 광을 방출할 수도 있으며, 또한 서로 다른 파장 영역의 광을 방출할 수도 있다.
또한, 복수의 발광 모듈(20a 내지 20d)은 별개로 구동될 수 있으며, 복수의 발광 모듈(20a 내지 20d)이 동시에 구동될 수 있다.
표시부(120)에 포함되는 복수의 발광 모듈(20a 내지 20d)이 촬상부(110)를 기준으로 상항 및 좌우에 배치될 때, 상하에 배치된 발광 모듈(20a, 20c)은 촬상부(110)를 기준으로 서로 대향하여 배치될 수 있다.
또한, 좌우에 배치되는 발광 모듈(20b, 20d)도 촬상부(110)를 기준으로 서로 대향하여 배치될 수 있다.
도 4의 실시예에서 복수의 발광 모듈(20a 내지 20d)이 촬상부(110)의 상하 및 좌우에 배치되는 것을 도시하였으나 실시예는 이에 한정하지 않으며, 복수의 발광 모듈(20a 내지 20d)은 촬상부(110)를 둘러싸도록 대각선 방향으로 배치될 수 있다.
또한, 도 4에서 4개의 발광 모듈이 배치된 것을 도시하였으나, 발광 모듈의 개수는 이에 한정하지 않으며 예를 들어 4개 이상의 복수의 발광 모듈이 촬상부(110)를 둘러싸고 배치될 수 있다.
도 3 및 도 4의 실시예에서 포함되는 발광 모듈(20)은 발광 소자(Light Emitting Diode) 또는 발광 소자를 몸체에 고정한 발광 소자 패키지 또는 발광 소자 패키지 상에 렌즈를 포함하는 형태일 수 있다.
그러나, 발광 모듈(20)의 형태는 이에 한정하지 않으며, 발광 모듈은 리드 프레임을 포함하거나, 지지 기판을 더 포함하여 형성될 수도 있다.
도 5는 발광 모듈(20)의 일 실시예를 나타낸 도면으로, 실시예에서 발광 모듈(20)은 몸체부(23), 몸체부 상에 형성된 캐비티(27) 및 캐비티 내에 배치되는 발광 소자(21)를 포함할 수 있으며, 몸체부에는 발광 소자와의 전기적 연결을 위한 리드 프레임(25)을 포함할 수 있다.
몸체부(23)는 실리콘 재질, 합성수지 재질 또는 금속 재질을 포함하여 형성될 수 있으며, 몸체는 상부가 개방되고 측면과 바닥면으로 이루어진 캐비티(27)를 가질 수 있다.
몸체부(23)에는 적어도 하나의 리드 프레임(25)을 포함하여 발광 소자와 전기적으로 연결될 수 있다.
캐비티(27)의 바닥면에는 적어도 하나의 발광 소자(21)가 배치될 수 있다.
발광 모듈의 캐비티(27) 내에는 발광 소자(21)를 감싸고 몰딩부가 배치될 수 있다. 몰딩부는 수지층 및 형광체(28)를 포함할 수 있다.
발광 소자(21)는 제1 도전형 반도체층, 활성층, 제2 도전형 반도체층을 포함할 수 있으며, 반도체층의 구성에 따라 발광 파장을 달리할 수 있다.
예를 들어, 발광 소자(21)는 청색광을 방출할 수 있으며, 캐비티(27)에 몰딩부가 배치되고 몰딩부에 형광체(28)를 포함하는 경우에는 포함된 형광체의 종류에 따라 발광 모듈(20)에서 방출된 광의 발광 파장을 달리할 수 있다.
예를 들어, 발광 모듈(20)은 발광 소자 및 발광 소자에서 방출된 광에 의하여 여기 되어 파장 변환되는 형광체에 따라 적색, 황색, 백색 등의 파장을 갖는 빛을 방출할 수 있다.
도 6은 홍채 인식 카메라 시스템의 일 단면을 나타낸 도면이다.
도 6은 도 3의 실시예에서 AA`의 단면을 나타내는 것일 수 있다.
도 6을 참조하면, 촬상부(110)를 둘러싼 표시부(120a, 120c)는 발광 모듈(20)과 발광 모듈을 지지하는 기판(11), 발광 모듈을 보호하는 프론트 커버(Front Cover)(23)를 포함할 수 있다.
기판(11)은 발광 모듈을 구동 하기 위한 PCB 기판일 수 있다. 기판(11)은 발광 모듈(20)과 전기적으로 연결되며 외부 전극과 연결될 수 있다.
예를 들어, PCB 기판은 발광 모듈(20)을 지지하기 위한 하드 타입(Hard type)일 수 있으나 이에 한정하지 않으며, 플렉서블 타입(Flexible type)일 수도 있다.
프론트 커버(23)는 투명한 재질의 플라스틱 또는 유리 재질일 수 있으나 이에 한정하지 않으며, 발광 모듈(20)에서 방출되는 광이 균일하게 발광될 수 있도록 하는 확산판을 더 포함할 수 있다.
도 3 내지 도 4 및 도 6에서 표시부의 배치에 대하여 도면을 통하여 설명하였으나, 홍채 인식 카메라 시스템에서 표시부의 배치나 개수는 이에 한정하지 않으며, 다양한 형상을 갖는 표시부의 배치가 가능하다.
또한 표시부의 개수는 도면의 실시예와 비교하여 작거나 더 많아질 수 있고 각 표시부의 면적은 같거나 또는 서로 다를 수 있다.
도 1의 홍채 인식 카메라 시스템(200) 실시예에서는 촬상부(110)에서 생성한 촬영 홍채 이미지를 분석하는 연산부(140)를 포함할 수 있다.
촬상부(110)에서 촬영한 홍채 이미지는 이미지 센서에서 전기적 신호로 변환되어 연산부(140)에 전달될 수 있다.
연산부(140)는 생성된 촬영 홍채 이미지가 결상(Image Formation)되는 이미지 센서에서의 위치를 분석할 수 있다.
연산부(140)에서 촬영 홍채 이미지의 위치를 분석하는 것은 촬영 홍채 이미지가 이미지 센서 내의 기준 영역에 위치하는지를 분석하는 것일 수 있다.
기준 영역은 홍채 인식 카메라 시스템의 민감도(sensitivity) 성능에 따라 달라질 수 있으며, 예를 들어 기준 영역은 이미지 센서의 광학 필드를 구분할 때 이미지 센서의 중심을 포함하는 광학 필드 영역일 수 있다.
연산부(140)에서 분석한 촬영 홍채 이미지의 위치 결과 값은 제어부(150)로 전달될 수 있다.
제어부(120)는 표시부(120)에 구동 신호를 전달하여 줄 수 있다.
제어부(150)는 연산부(140)에서 출력된 결과 값에 상응하여 적어도 하나의 표시부(120)의 구동을 제어하는 것일 수 있다.
제어부(120)는 표시부(120)에 포함된 발광 모듈의 구동부와 연결될 수 있다.
또한, 제어부(120)는 연산부(140)의 분석 결과 값에 따라 표시부(120)에 포함되는 복수의 발광 모듈 중 적어도 하나를 동작시킬 수 있다. 또한, 홍채 인식 카메라 시스템(200)이 복수의 표시부(120)를 포함하는 경우 적어도 하나의 표시부(120)에 포함된 발광 모듈을 동작시킬 수 있다.
촬영 홍채 이미지가 이미지 센서의 기준 영역에서 벗어나서 위치한다고 분석된 경우 제어부(150)는 분석 결과 값에 상응하여 표시부(120)를 구동하는 신호를 전달하여 줄 수 있다.
예를 들어, 제어부(150)는 촬영 홍채 이미지가 기준 영역에서 벗어난 방향을 분석하고 이동 방향을 외부로 표시하도록 표시부(120)의 구동을 제어할 수 있다.
또한, 생성된 촬영 홍채 이미지가 이미지 센서의 기준 영역에 위치하는 것으로 분석된 경우 제어부(150)는 이에 상응하여 표시부(120)가 구동되도록 신호를 전달할 수 있다.
예를 들어, 제어부(150)는 홍채가 기준 영역에 위치하는 것을 외부로 표시하기 위하여 표시부(120)가 점멸하여 구동되도록 제어할 수 있다.
홍채 인식 카메라 시스템(200)은 이미지 추출부(160)를 포함할 수 있다.
이미지 추출부(160)는 인증 홍채 이미지를 추출하는 것일 수 있다.
인증 홍채 이미지는 홍채 인식에 사용되는 최종 홍채 이미지로 촬영 홍채 이미지 중 기준 영역에 위치하는 것일 수 있다.
즉, 생성된 촬영 홍채 이미지가 이미지 센서의 기준 영역에 위치하는 것으로 분석된 경우 연산부(140)는 이미지 추출부(160)에 신호를 전달하여 줄 수 있다.
이미지 추출부(160)에서는 기준 영역에 위치하는 촬영 홍채 이미지를 캡쳐(capture)하고 이를 확대하여 홍채 인식을 위한 인증 홍채 이미지로 사용하게 할 수 있다. 이미지 추출부(160)에서는 캡쳐한 인증 홍채 이미지를 저장할 수 있다.
실시예의 홍채 인식 카메라 시스템(200)은 기준 홍채 이미지를 저장한 메모리부(170)를 포함할 수 있다.
기준 홍채 이미지는 홍채 인식 카메라 시스템을 이용하여 인증하는 사용자의 홍채 이미지를 저장한 것일 수 있으며, 또한 기준 홍채 이미지는 저장한 홍채 이미지에서 홍채의 특정 패턴을 데이터화한 것일 수 있다.
예를 들어, 기준 홍채 이미지는 사용자의 홍채의 특정 패턴을 분석하여 수치화한 데이터일 수 있다.
이하 상술한 홍채 인식 카메라 시스템(200)을 이용한 홍채 인식 방법과 이를 포함한 휴대용 단말기에 대해 첨부된 도면을 참조하여 다음과 같이 설명하지만, 실시예는 이에 국한되지 않으며 실시예의 홍채 인식 카메라 시스템은 홍채를 촬영하는 다양한 용도로 사용될 수 있다.
도 7은 홍채 인식 방법의 일 실시예를 나타낸 플로우 차트이다.
상술한 실시예의 홍채 인식 카메라 시스템을 이용한 홍채 인식 방법은 촬영 홍채 이미지를 생성하는 단계(S1100), 촬영 홍채 이미지에 대하여 이미지 센서에서의 위치를 분석하는 단계(S1200) 및 분석한 위치 결과값에 상응하여 표시부를 구동하는 단계(S1430, S1450)를 포함할 수 있다.
실시예의 홍채 인식 방법에서 촬영 홍채 이미지를 생성하는 단계(S1100)는 홍채를 촬영하여 광학정보를 획득하는 단계와 획득한 광학정보를 전기적 신호로 변환하는 영상정보 처리 단계를 포함하는 것일 수 있다.
홍채를 촬영하여 광학정보를 획득하는 단계는 홍채 인식 카메라 시스템의 촬상부에서 홍채 이미지에 대한 광 신호를 생성하는 것일 수 있다.
또한, 영상정보를 처리하는 단계는 홍채를 촬영하여 생성된 광 신호를 이미지 센서에서 전달받아 전기적 신호로 광전 변환하는 것일 수 있다. 이미지 센서에서는 광 신호를 전기적신호로 처리하여 촬영 홍채 이미지를 획득할 수 있다.
홍채 인식 방법의 실시예에서, 생성된 촬영 홍채 이미지에 대하여 이미지 센서에서의 위치를 분석하는 단계(S1200)는 이미지센서에서의 위치를 연산하는 것일 수 있다.
또한, 이미지 센서에서의 위치를 분석하는 단계(S1200)는 이미지 센서의 기준영역에 촬영 홍채 이미지가 위치하는지를 판단하는 단계(S1300)를 포함할 수 있다.
이미지센서에서의 위치를 분석하는 단계(S1200)는 촬영 홍채 이미지가 이미지 센서의 기준 영역을 기준으로 어느 영역에 위치하는지를 판단하는 단계일 수 있으며, 이미지 센서의 기준 영역 내에 촬영 홍채 이미지가 형성되는지 여부를 판단하는 단계(S1300)를 포함하는 것일 수 있다.
실시예의 홍채 인식 방법에서 이미지 센서에서의 촬영 홍채 이미지의 위치를 판단하는 단계(S1200)는 홍채 인식 카메라 시스템의 연산부에서 이루어질 수 있다.
연산부에서는 촬영 홍채 이미지의 위치를 분석하고 판단하여 그 결과 값에 따라 홍채의 이동 방향을 결정할 수 있다. 또한, 촬영 홍채 이미지가 이미지 센서의 기준 영역에 위치하는지를 판단한 결과 값에 대한 신호를 표시부에 전달하여 표시부가 구동될 수 있도록 할 수 있다.
한편, 획득한 홍채 이미지가 이미지 센서 상의 기준 영역에 해당되는지는 이미지 센서를 가상의 영역으로 구분하여 판단할 수 있다.
기준 영역은 이미지 센서의 중심을 포함하는 가상의 광학 필드일 수 있다.
예를 들어, 홍채 이미지의 상대적 위치를 파악하는 이미지 센서 상의 기준 영역은 이미지 센서의 중심을 기준으로 한 동심원 형태를 갖는 광학 필드일 수 있다.
도 8은 촬영 홍채 이미지가 결상된 이미지 센서의 일 실시예를 나타낸 도면이다.
도 8을 참조하여 설명하면, 실시예의 이미지 센서(14)는 n개의 광학 필드(f1, f2,…fn)로 구분될 수 있다. n개의 광학 필드를 구분하는 가상의 원은 이미지 센서의 중심점(O)을 기준으로 하는 동심원일 수 있다.
이미지 센서(14)에서의 가상의 영역인 광학 필드는 이미지 센서의 대각선(D1)을 일정한 간격으로 구분할 때, 이미지 센서의 중심점(O)을 기준으로 대칭되는 대각선 상의 두 점 사이의 간격을 지름으로 하는 가상의 동심원으로 구분되는 영역일 수 있다.
예를 들어, 제1 광학필드(f1)는 이미지 센서의 중심(O)으로부터 r1만큼 이격된 점까지의 거리를 반지름으로 하는 가상의 원의 내부일 수 있다.
또한, 제2 광학필드(f2)는 이미지 센서의 중심(O)으로부터 r2만큼 이격된 점까지의 거리를 반지름으로 하는 가상의 원의 내부 영역에서 제1 광학필드(f1)에 해당하는 원의 내부 영역을 제외한 부분일 수 있다.
구분된 광학 필드의 개수는 이미지 센서의 크기 및 이미지 센서를 통하여 획득한 이미지를 사용하는 용도에 따라 달라질 수 있다.
예를 들어, 이미지 센서를 10개의 광학 필드로 나누는 경우에는 제1 광학필드(f1) 안에 홍채 이미지가 결상될 때 이미지 센서의 기준 영역에 홍채 이미지가 위치하는 것으로 판단할 수 있다.
이와 반대로, 기준 영역인 제1 광학필드(f1)의 영역을 벗어난 경우 촬영 홍채 이미지가 이미지 센서의 기준 영역에 결상되지 않은 것으로 판단할 수 있으며, 또한 이미지 센서의 중심을 기준으로 제1 광학필드(f1)에서 어느 방향으로 벗어나 있는지를 판단할 수 있다.
또한, 촬영 홍채 이미지가 기준 영역에 위치하는 경우는 촬영 홍채 이미지(I)에서의 홍채 중심과 이미지 센서의 중심(O)이 일치하는 것일 수 있다.
도 8에서는 결상된 홍채 이미지(I)가 제1 광학 필드(f1)를 벗어나 이미지 센서의 중심(O)에서 우측 상단에 형성되었으므로, 정확한 홍채 이미지를 얻기 위해서는 눈 위치가 홍채 이미지를 획득한 현재의 위치보다 오른쪽 아래로 이동되어야 한다.
예를 들어, 홍채 이미지(I)의 중심과 이미지 센서의 중심(O)이 일치되는 방향으로 홍채의 이동이 필요할 수 있다.
실시예의 홍채 인식 방법은 상술한 바와 같이 획득한 홍채 이미지의 위치를 분석한 후, 이에 상응하여 표시부를 구동하는 단계(S1430, S1450)를 포함할 수 있다.
촬영 홍채 이미지가 이미지 센서의 기준 영역에서 벗어나 위치하는 것으로 분석된 경우, 표시부를 구동하는 단계는 이동 방향을 표시부로 구동하는 단계(S1430)로 진행될 수 있다.
이동 방향을 표시부로 구동하는 단계(S1430)는 홍채 인식 카메라 시스템에서 표시부를 구동하여 사용자에게 이동 방향을 인지하게 하는 것일 수 있다.
예를 들어, 도 9는 4개의 표시부(120a, 120b, 120c. 120d)를 갖는 홍채 인식 카메라 시스템을 이용한 홍채 인식 방법에 있어서 홍채의 이동 방향을 제시하여 주는 일 실시예를 도시한 도면이다.
도 9의 (a)는 촬상부(110)의 상부에 배치된 표시부(120a)가 구동되는 경우를 도시한 것이다. (a)는 생성된 촬영 홍채 이미지가 이미지 센서의 기준 영역의 하단에 있는 경우로서 이동 방향을 표시부로 구동하는 단계(S1430)에서 촬상부(110)의 상부에 배치된 표시부(120a)를 구동 시켜 홍채를 상부로 이동하도록 지시하는 것일 수 있다.
이와 동일한 방법으로, 도 9의 (b), (c), (d)는 각각 홍채를 아래쪽(하), 왼쪽(좌), 오른쪽(우)으로 이동하도록 표시부를 구동하는 단계를 나타내는 것일 수 있다.
또한, 도면에 도시되지는 않았으나, 획득한 홍채 이미지의 위치 분석 결과에 따라 복수의 표시부가 동시에 구동될 수 있다.
예를 들어, 획득한 홍채 이미지가 앞서 설명한 도 8의 도시와 같이 이미지 센서의 기준 영역을 벗어나 이미지 센서의 중심으로부터 우측 상부에 결상된 경우, 사용자에게 홍채를 좌측 아래 방향으로 이동하도록 인지시키기 위하여 촬상부(110)의 좌측과 하부의 표시부(120b, 120c)가 동시에 구동되도록 할 수 있다.
하지만, 도 9의 도시를 참조하여 설명한 표시부의 구동 방법은 이에 한정하지 않으며, 촬상부(110) 외곽에 배치되는 표시부의 개수, 배치된 표시부의 형상 등에 따라 구동 방법을 달리 할 수 있다.
또한, 표시부의 구동 방법은 실시예의 홍채 인식 방법에서 사용하는 알고리즘에 따라 달라질 수 있다. 예를 들어, 적어도 하나의 표시부의 구동은 홍채의 이동 방향이 아닌 기준 영역에 대한 촬영 홍채 이미지의 상대적 위치를 표시하는 것일 수 있다.
표시부에서 홍채의 이동 방향을 표시하면 사용자는 홍채를 지시된 방향으로 이동하며 이후 다시 촬상부에서 홍채 이미지를 생성하는 단계(S1100)를 시행할 수 있다.
이와 달리, 생성된 촬영 홍채 이미지가 이미지 센서의 기준 영역 내에 위치하는 것으로 판단된 경우에는 결상된 홍채 이미지를 인증 홍채 이미지로 추출하는 단계(S1500)를 포함할 수 있다.
또한, 인증 홍채 이미지와 홍채 인식 카메라 시스템의 메모리부에 저장된 기준 홍채 이미지를 비교하는 단계를 포함할 수 있다.
인증 홍채 이미지를 추출하는 단계는 획득한 홍채 이미지에서 홍채의 특징적인 패턴을 이미지 처리 기술을 이용하여 데이터화하는 단계일 수 있다. 그리고, 기준 홍채 이미지와 비교하는 단계는 추출한 인증 홍채 이미지 데이터를 사전에 등록되어 있는 기준 홍채의 패턴 데이터와 대조하여 사용자를 인증하는 것일 수 있다.
한편, 촬영 홍채 이미지가 기준 영역 내에 위치하는 것으로 판단된 경우에 있어서 표시부를 구동하는 단계(S1450)는 적어도 하나의 표시부가 점멸하도록 구동하는 것일 수 있다.
예를 들어, 표시부를 구동하는 단계(1450)는 촬상부 외곽에 배치된 표시부 전체를 점멸하거나 또는 일정 시간 표시부를 구동 시킴으로써 사용자에게 눈동자가 기준 영역에 위치하여 인증을 위한 최종 홍채 이미지를 획득할 것임을 알려주는 것일 수 있다.
또한 표시부를 점멸하도록 구동하는 것은 인증 홍채 이미지 추출 전에 홍채에 빛을 공급하여 주어 홍채 촬영시의 적목현상(red eye effect)을 방지하게 하는 것일 수 있다.
예를 들어, 실시예에서 최종 홍채 이미지 획득을 알리기 위하여 표시부 전체를 점멸하거나 일정 시간 표시부를 구동시킬 수 있으며, 또한 이에 한정되지 않고 기저장된 촬영 알림음으로 최종 홍채 이미지를 획득할 것임을 알릴 수도 있다.
상술한 실시예의 홍채 인식 카메라 시스템 및 이를 이용한 홍채 인식 방법의 경우 촬영한 홍채 이미지를 별도의 디스플레이를 통하여 확인하지 않고 표시부의 동작으로부터 홍채이미지의 상대적 위치를 파악할 수 있으므로, 사용자에게 홍채의 이동방향을 용이하게 제시해줄 수 있어 쉽고 정확하게 홍채 이미지를 획득하여 홍채 인식을 할 수 있는 효과가 있다.
일 실시예의 단말기는 상술한 실시예의 홍채 인식 카메라 시스템을 포함할 수 있다.
단말기는 홍채 인식 카메라 시스템을 정면에 배치하거나 또는 후면에 배치할 수 있다.
예를 들어, 홍채 인식 카메라 시스템을 포함하는 단말기는 휴대용 단말기일 수 있으나, 실시예는 이에 한정하지 않으며, 상술한 실시예의 홍채 인식 카메라 시스템은 고정형 단말기에도 제공될 수 있다.
도 10은 일 실시예의 휴대용 단말기의 정면도를 개략적으로 나타낸 것이다.
휴대용 단말기(300)는 상술한 실시예의 홍채 인식 카메라 시스템(200) 이외에 일반 이미지 촬영을 위한 카메라 시스템(220)을 더 포함할 수 있다.
또한 홍채 촬영을 위한 조명 모듈로서 적외선 발광 모듈(250)을 더 포함할 수 있다.
적외선 발광 모듈(250)은 적외선 파장 영역을 방출하는 발광 소자(Light Emitting Diode)를 포함할 수 있다.
홍채 인식 카메라 시스템(200)으로 획득한 홍채 이미지는 휴대용 단말기의 디스플레이부(270)에 표시될 수 있다.
또한, 홍채 인식 카메라 시스템(200)을 이용하여 획득한 홍채 이미지는 휴대용 단말기의 다른 기능에 이용되도록 제공될 수 있으며, 예를 들어, 휴대용 단말기 보안 시스템에 이용될 수 있으나 이에 한정하지 않는다.
휴대용 단말기를 이용한 홍채 인식의 경우 기준 홍채 이미지에 대한 데이터 정보는 휴대용 단말기의 메모리에 저장될 수 있다.
실시예의 휴대용 단말기의 경우 홍채 인식 카메라 시스템을 포함하여 휴대용 기기에 있어서도 홍채 인식을 이용한 보안 시스템을 이용할 수 있고, 표시부 구동을 통하여 홍채의 위치를 용이하게 파악할 수 있으므로, 홍채 인증을 정확하고 빠르게 실행하는 효과를 가질 수 있다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
실시예에 따른 홍채 인식 카메라 시스템과 이를 포함하는 단말기는 홍채를 인식 하는데 사용될 수 있다.

Claims (20)

  1. 이미지 센서를 포함하는 촬상부;
    상기 촬상부의 외곽에 배치되는 적어도 하나의 표시부;
    상기 촬상부에서 생성한 촬영 홍채 이미지의 상기 이미지 센서에서의 위치를 분석하는 연산부; 및
    상기 연산부에서 출력된 결과 값에 상응하여 상기 적어도 하나의 표시부의 구동을 제어하는 제어부; 를 포함하는 홍채 인식 카메라 시스템.
  2. 제 1항에 있어서, 상기 적어도 하나의 표시부는 복수의 표시부를 포함하며,
    상기 복수의 표시부는 적어도 하나의 발광 모듈을 포함하는 홍채 인식 카메라 시스템.
  3. 제 2항에 있어서, 상기 복수의 표시부는 상기 촬상부를 둘러싸고 상기 촬상부의 상하 및 좌우에 배치되는 홍채 인식 카메라 시스템.
  4. 제 3항에 있어서, 상기 상하에 배치된 상기 복수의 표시부는 상기 촬상부를 중심으로 서로 대칭되며,
    상기 좌우에 배치된 상기 복수의 표시부는 상기 촬상부를 중심으로 서로 대칭되도록 배치된 홍채 인식 카메라 시스템.
  5. 제 1항에 있어서, 상기 적어도 하나의 표시부는 복수의 발광 모듈을 포함하는 홍채 인식 카메라 시스템.
  6. 제 5항에 있어서, 상기 복수의 발광 모듈은 상기 촬상부를 둘러싸고 상기 촬상부의 상하 및 좌우에 배치되는 홍채 인식 카메라 시스템.
  7. 제 5항에 있어서, 상기 복수의 발광 모듈은 각각 별개의 구동부를 갖는 홍채 인식 카메라 시스템.
  8. 제 1항에 있어서, 인증 홍채 이미지를 추출하는 이미지 추출부를 포함하는 홍채 인식 카메라 시스템.
  9. 제 8항에 있어서, 기준 홍채 이미지가 저장된 메모리부를 더 포함하는 홍채 인식 카메라 시스템.
  10. 제 9항의 홍채 인식 카메라 시스템을 이용한 홍채 인식 방법에 있어서,
    촬영 홍채 이미지를 생성하는 단계;
    상기 촬영 홍채 이미지의 상기 이미지 센서에서의 위치를 분석하는 단계; 및
    상기 분석한 상기 촬영 홍채 이미지의 위치 결과 값에 상응하여 상기 표시부를 구동하는 단계; 를 포함하는 홍채 인식 방법.
  11. 제 10항에 있어서, 상기 이미지 센서에서의 위치를 분석하는 단계는 상기 촬영 홍채 이미지가 상기 이미지 센서의 기준 영역 내에 형성되는지 여부를 판단하는 단계를 포함하는 홍채 인식 방법.
  12. 제 11항에 있어서, 상기 기준 영역은 상기 이미지 센서의 중심을 포함하는 가상의 광학 필드 영역인 홍채 인식 방법.
  13. 제 11항에 있어서, 상기 촬영 홍채 이미지가 상기 기준 영역에서 벗어난 경우의 상기 표시부를 구동하는 단계는 상기 홍채의 이동 방향을 표시하는 것인 홍채 인식 방법.
  14. 제 11항에 있어서, 상기 촬영 홍채 이미지가 상기 기준 영역에 위치하는 경우, 상기 촬영 홍채 이미지를 상기 인증 홍채 이미지로 추출하는 단계를 포함하는 홍채 인식 방법.
  15. 제 14항에 있어서, 상기 촬영 홍채 이미지가 상기 기준 영역에 위치하는 경우는 상기 촬영 홍채 이미지에서의 홍채 중심과 상기 이미지 센서의 중심이 일치하는 것인 홍채 인식 방법.
  16. 제 14항에 있어서, 상기 인증 홍채 이미지와 상기 기준 홍채 이미지를 비교하는 단계를 포함하는 홍채 인식 방법.
  17. 제 14항에 있어서, 상기 표시부를 구동하는 단계는 상기 적어도 하나의 표시부가 점멸하도록 구동하는 것인 홍채 인식 방법.
  18. 이미지 센서를 포함하는 촬상부;
    상기 촬상부의 외곽에 배치되는 적어도 하나의 표시부;
    상기 촬상부에서 생성한 촬영 홍채 이미지의 상기 이미지 센서에서의 위치를 분석하는 연산부; 및
    상기 연산부에서 출력된 결과 값에 상응하여 상기 적어도 하나의 표시부의 구동을 제어하는 제어부;를 포함하는 단말기.
  19. 제18항에 있어서,
    상기 적어도 하나의 표시부는 복수의 표시부를 포함하며,
    상기 복수의 표시부는 적어도 하나의 발광 모듈을 포함하는 단말기.
  20. 제19항에 있어서,
    상기 복수의 표시부는 상기 촬상부를 둘러싸고 상기 촬상부의 상하 및 좌우에 배치되는 단말기.
PCT/KR2015/012290 2014-11-17 2015-11-17 홍채 인식 카메라 시스템 및 이를 포함하는 단말기와 그 시스템의 홍채 인식 방법 WO2016080716A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/527,642 US10402669B2 (en) 2014-11-17 2015-11-17 Iris recognition camera system, terminal comprising same, and iris recognition method of system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0159810 2014-11-17
KR1020140159810A KR102305997B1 (ko) 2014-11-17 2014-11-17 홍채 인식 카메라 시스템 및 이를 포함하는 단말기와 그 시스템의 홍채 인식 방법

Publications (1)

Publication Number Publication Date
WO2016080716A1 true WO2016080716A1 (ko) 2016-05-26

Family

ID=56014184

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/012290 WO2016080716A1 (ko) 2014-11-17 2015-11-17 홍채 인식 카메라 시스템 및 이를 포함하는 단말기와 그 시스템의 홍채 인식 방법

Country Status (3)

Country Link
US (1) US10402669B2 (ko)
KR (1) KR102305997B1 (ko)
WO (1) WO2016080716A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018009029A1 (en) * 2016-07-08 2018-01-11 Samsung Electronics Co., Ltd. Electronic device and operating method thereof
EP3367282A1 (en) * 2017-02-27 2018-08-29 Samsung Electronics Co., Ltd. Electronic device for authenticating using biometric information and method of operating electronic device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102334209B1 (ko) * 2015-06-15 2021-12-02 삼성전자주식회사 사용자 인증 방법 및 이를 지원하는 전자장치
US11151375B2 (en) * 2016-01-06 2021-10-19 Lg Innotek Co., Ltd. Lens module and iris recognition camera module comprising same, and iris recognition camera system and terminal comprising same
KR102531670B1 (ko) * 2016-01-11 2023-05-11 엘지이노텍 주식회사 홍채 인식 카메라 시스템 및 이를 포함하는 단말기
CN108734063A (zh) * 2017-04-20 2018-11-02 上海耕岩智能科技有限公司 一种虹膜识别的方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020130961A1 (en) * 2001-03-15 2002-09-19 Lg Electronics Inc. Display device of focal angle and focal distance in iris recognition system
US20060210118A1 (en) * 2005-03-01 2006-09-21 Koji Kobayashi Personal identification apparatus
KR20120068655A (ko) * 2010-12-19 2012-06-27 김인선 무선통신장치를 이용하여 양질의 홍채 및 피사체 영상을 편리하게 촬영하기 위한 방법 및 한 개의 밴드패스필터로 가시광선과 근적외선 일부영역을 투과시키는 카메라 장치
US20130162798A1 (en) * 2007-09-01 2013-06-27 Keith J. Hanna Mobile identity platform
KR20140043109A (ko) * 2014-03-21 2014-04-08 이광희 모바일용 홍채인식 카메라시스템

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002153445A (ja) 2000-11-21 2002-05-28 Oki Electric Ind Co Ltd アイリス認識装置
KR100842501B1 (ko) 2002-02-21 2008-07-01 엘지전자 주식회사 홍채 인식 시스템의 눈위치 표시장치
US20040151491A1 (en) * 2003-02-04 2004-08-05 Motorola, Inc. Apparatus and method concerning a passive multi-indicia visual position indicator
US7377643B1 (en) * 2004-08-13 2008-05-27 Q Step Technologies, Inc. Method and apparatus for eye imaging with position registration and constant pupil size
US20060093192A1 (en) * 2004-11-03 2006-05-04 Bechtel J S Finger guide device
EP2062197A4 (en) * 2006-09-15 2010-10-06 Retica Systems Inc MULTIMODAL BIOMETRIC SYSTEM AND METHOD FOR LARGE DISTANCES
KR100877807B1 (ko) 2007-02-07 2009-01-09 아이리텍 잉크 조명에 의한 노이즈를 최소화한 홍채인식장치 및 방법
US9117119B2 (en) * 2007-09-01 2015-08-25 Eyelock, Inc. Mobile identity platform
WO2012159070A2 (en) * 2011-05-18 2012-11-22 Nextgenid, Inc. Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems
US8798332B2 (en) * 2012-05-15 2014-08-05 Google Inc. Contact lenses
KR101569268B1 (ko) * 2014-01-02 2015-11-13 아이리텍 잉크 얼굴 구성요소 거리를 이용한 홍채인식용 이미지 획득 장치 및 방법
KR102198852B1 (ko) * 2014-03-24 2021-01-05 삼성전자 주식회사 홍채 인식 장치 및 이를 포함하는 모바일 장치
CN105303155B (zh) * 2014-06-03 2019-11-15 虹膜识别***公司 虹膜识别设备及其操作方法
US10262203B2 (en) * 2014-09-02 2019-04-16 Samsung Electronics Co., Ltd. Method for recognizing iris and electronic device therefor
US10350008B2 (en) * 2014-12-02 2019-07-16 X-Nav Technologies, LLC Visual guidance display for surgical procedure
US20160275348A1 (en) * 2015-03-17 2016-09-22 Motorola Mobility Llc Low-power iris authentication alignment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020130961A1 (en) * 2001-03-15 2002-09-19 Lg Electronics Inc. Display device of focal angle and focal distance in iris recognition system
US20060210118A1 (en) * 2005-03-01 2006-09-21 Koji Kobayashi Personal identification apparatus
US20130162798A1 (en) * 2007-09-01 2013-06-27 Keith J. Hanna Mobile identity platform
KR20120068655A (ko) * 2010-12-19 2012-06-27 김인선 무선통신장치를 이용하여 양질의 홍채 및 피사체 영상을 편리하게 촬영하기 위한 방법 및 한 개의 밴드패스필터로 가시광선과 근적외선 일부영역을 투과시키는 카메라 장치
KR20140043109A (ko) * 2014-03-21 2014-04-08 이광희 모바일용 홍채인식 카메라시스템

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018009029A1 (en) * 2016-07-08 2018-01-11 Samsung Electronics Co., Ltd. Electronic device and operating method thereof
AU2017293746B2 (en) * 2016-07-08 2020-01-02 Samsung Electronics Co., Ltd. Electronic device and operating method thereof
US10956734B2 (en) 2016-07-08 2021-03-23 Samsung Electronics Co., Ltd Electronic device providing iris recognition based on proximity and operating method thereof
EP3367282A1 (en) * 2017-02-27 2018-08-29 Samsung Electronics Co., Ltd. Electronic device for authenticating using biometric information and method of operating electronic device
US11030288B2 (en) 2017-02-27 2021-06-08 Samsung Electronics Co., Ltd. Electronic device for authenticating using biometric information and method of operating electronic device

Also Published As

Publication number Publication date
US10402669B2 (en) 2019-09-03
KR102305997B1 (ko) 2021-09-28
KR20160058412A (ko) 2016-05-25
US20170337442A1 (en) 2017-11-23

Similar Documents

Publication Publication Date Title
WO2016080716A1 (ko) 홍채 인식 카메라 시스템 및 이를 포함하는 단말기와 그 시스템의 홍채 인식 방법
WO2017155265A1 (ko) 다중 분광 이미징 디바이스
WO2016036059A1 (en) Photographing apparatus and photographing method
WO2017191920A1 (en) Wearable device and controlling method thereof
WO2019182305A1 (ko) 카메라 모듈 및 이를 포함하는 광학 기기
WO2015016619A1 (en) Electronic apparatus, method of controlling the same, and image reproducing apparatus and method
WO2020171520A1 (en) Electronic device and method for controlling auto focusing thereof
EP3338445A1 (en) Photographing apparatus and method for controlling the same
WO2020153703A1 (ko) 카메라 장치 및 그의 오토포커싱 방법
WO2014051362A1 (ko) 이벤트 기반 비전 센서를 이용한 근접 센서 및 근접 센싱 방법
WO2020141827A1 (ko) 광학계 및 이를 포함하는 카메라 모듈
WO2021133025A1 (en) Electronic device comprising image sensor and method of operation thereof
WO2017119726A2 (ko) 렌즈모듈 및 이를 포함하는 홍채 인식용 카메라모듈, 홍채 인식 카메라 시스템 및 이를 포함하는 단말기
WO2016105074A1 (ko) 렌즈 광학계
WO2016137273A1 (ko) 카메라 모듈 및 이를 이용한 자동 초점 조절 방법
WO2016099165A1 (ko) 이미지 센서, 이를 포함하는 영상 획득 장치 및 그 장치를 포함하는 휴대용 단말기
WO2019088407A1 (ko) 보색관계의 필터 어레이를 포함하는 카메라 모듈 및 그를 포함하는 전자 장치
WO2012057435A1 (en) Camera module and estimation method of auto focus search range thereof
WO2020204404A1 (ko) 전자 장치 및 전자 장치의 광원 출력 제어방법
WO2017023151A1 (ko) 이미지 처리 장치
WO2020171450A1 (ko) 뎁스 맵을 생성하는 전자 장치 및 방법
WO2019059635A1 (ko) 하나의 이미지 센서를 통해 획득된 rgb 이미지와 ir 이미지를 이용하여 기능을 제공하는 전자 장치
WO2020171572A1 (en) Electronic apparatus and controlling method thereof
WO2020067745A1 (ko) 카메라 장치
WO2019164359A1 (ko) 가시광선 대역의 빛을 흡수할 수 있는 렌즈를 포함하는 카메라 모듈을 이용하여 적외선에 대응하는 이미지를 획득하는 방법 및 이를 구현한 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15861496

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15861496

Country of ref document: EP

Kind code of ref document: A1