ES2731898T3 - Dispositivo de adquisición de datos biométricos - Google Patents

Dispositivo de adquisición de datos biométricos Download PDF

Info

Publication number
ES2731898T3
ES2731898T3 ES09841862T ES09841862T ES2731898T3 ES 2731898 T3 ES2731898 T3 ES 2731898T3 ES 09841862 T ES09841862 T ES 09841862T ES 09841862 T ES09841862 T ES 09841862T ES 2731898 T3 ES2731898 T3 ES 2731898T3
Authority
ES
Spain
Prior art keywords
hand
image
unit
user
black line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09841862T
Other languages
English (en)
Inventor
Masaki Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of ES2731898T3 publication Critical patent/ES2731898T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

Dispositivo (10) de adquisición de datos biométricos que comprende: una unidad (122) de obtención de imágenes dispuesta para adquirir, con iluminación de un lado interior de una mano de un usuario mediante una luz de iluminación y sin iluminación del lado interior de la mano del usuario mediante la luz de iluminación, una imagen respectiva del lado interior de la mano del usuario captada en un primer estado en el que el lado interior de la mano del usuario se ha estirado de modo que una superficie del lado interior de la mano es sustancialmente plana, y para adquirir, con iluminación del lado interior de la mano del usuario mediante la luz de iluminación y sin iluminación del lado interior de la mano del usuario mediante la luz de iluminación, una imagen respectiva del lado interior de la mano del usuario captada en un segundo estado en el que el lado interior de la mano del usuario se ha doblado de modo que la superficie del lado interior de la mano es una superficie curvada; una unidad (210) de extracción de región de mano dispuesta para extraer, para cada uno del primer estado y el segundo estado de la mano del usuario, una imagen extraída respectiva de la mano basándose en una diferencia entre las imágenes de la mano en el estado respectivo que se han captado con iluminación del lado interior de la mano del usuario mediante la luz de iluminación y sin iluminación del lado interior de la mano del usuario mediante la luz de iluminación; una unidad (220) de medición de distancia de región de mano dispuesta para medir un primer conjunto de distancias desde un plano en el que existe el módulo (122) de obtención de imágenes hasta puntos respectivos de la mano del usuario en la imagen captada en el primer estado, constituyendo un primer mapa de distancias, y un segundo conjunto de distancias desde el plano en el que existe el módulo (122) de obtención de imágenes hasta puntos respectivos de la mano del usuario en la imagen captada en el segundo estado, constituyendo un segundo mapa de distancias; una unidad (230) de normalización dispuesta para generar una primera imagen normalizada, basándose en el primer conjunto de distancias, aplicando el primer mapa de distancias a un modelo de paraboloide elíptico para transformar puntos en un paraboloide elíptico del modelo de paraboloide elíptico en puntos respectivos en un plano, creando así la primera imagen normalizada, y para generar una segunda imagen normalizada, basándose en el segundo conjunto de distancias, aplicando el segundo mapa de distancias a un modelo de paraboloide elíptico a la imagen extraída de la mano en el segundo estado para transformar puntos en un paraboloide elíptico del modelo de paraboloide elíptico en puntos respectivos en un plano, creando así la segunda imagen normalizada; una unidad (240) de extracción de líneas negras dispuesta para extraer líneas negras de la primera imagen normalizada y la segunda imagen normalizada, respectivamente; una unidad (250) de extracción de características de elementos de líneas negras dispuesta para extraer una densidad y una anchura de la línea negra en la primera imagen normalizada y una densidad y una anchura de la línea negra en la segunda imagen normalizada; y una unidad (260) de determinación de datos de superficie dispuesta para determinar la línea negra como la línea negra derivada de la arruga en la mano con respecto a las líneas negras de la primera imagen normalizada y la segunda imagen normalizada en la misma posición si la densidad extraída de la línea negra de la segunda imagen normalizada es mayor que la densidad extraída de la línea negra de la primera imagen normalizada y la anchura extraída de la línea negra de la segunda imagen normalizada es menor que la anchura extraída de la línea negra de la primera imagen normalizada, y para extraer la línea negra determinada derivada de la arruga en la mano.

Description

DESCRIPCIÓN
Dispositivo de adquisición de datos biométricos
Campo
La presente invención se refiere a un dispositivo de adquisición de datos biométricos y a un dispositivo de autenticación biométrica, que usan una mano.
Antecedentes
Una mano tiene datos de superficie derivados de arrugas en la mano, que se denominan patrón palmar o líneas en la palma de la mano en quiromancia. Además, una articulación interfalángica también tiene datos de superficie de dedos derivados de doblar y estirar el dedo. La siguiente tecnología se muestra a modo de ejemplo como tecnología de adquisición de datos de superficie de la mano.
Existe una tecnología que está dirigida principalmente al dedo y usa dos imágenes, es decir, una imagen captada usando un haz transmitido y una imagen captada usando luz reflejada. Se toma una mayor cantidad de datos de superficie en la imagen captada usando la luz reflejada que en la imagen captada usando la luz transmitida. Siendo éste el caso, los datos de superficie de un objeto pueden especificarse tomando una diferencia entre las dos imágenes.
Además, un objeto que tiene irregularidades (porciones cóncavas/convexas) se ilumina con haces de luz en diferentes direcciones, con el resultado de que se forman diferentes sombras. Se obtienen imágenes de un objeto objetivo aprovechando este fenómeno de una manera que usa una pluralidad de iluminaciones que son diferentes en uno cualquiera o varios elementos entre una intensidad de la luz de iluminación, una dirección de la luz de iluminación, una longitud de onda de la luz de iluminación, una dirección de obtención de imágenes y un periodo de tiempo de obtención de imágenes. Los datos de superficie del objeto objetivo pueden especificarse analizando una diferencia entre estas imágenes captadas.
[Documento de patente 1] Publicación de solicitud de patente japonesa abierta a consulta por el público n.° 2004­ 255212
[Documento de patente 2] Publicación de solicitud de patente japonesa abierta a consulta por el público n.° 2006­ 244234
[Documento de patente 3] Publicación de solicitud de patente japonesa abierta a consulta por el público n.° 2004­ 185276
[Documento de patente 4] Publicación de solicitud de patente japonesa abierta a consulta por el público n.° H04-277874
[Documento de patente 5] Publicación de solicitud de patente japonesa abierta a consulta por el público n.° 2003-50993
[Documento de patente 6] Publicación de solicitud de patente japonesa abierta a consulta por el público n.° 2006-99700
El documento US 2008/0002860 A1 divulga un método para identificar y verificar a una persona usando datos biométricos de la mano con una medida contra la suplantación de identidad. El método comprende adquirir una primera imagen de una mano en una primera configuración, adquirir una segunda imagen de la mano en una de la primera y una segunda configuración para comparación con la primera imagen, determinar si puede identificarse a una persona a partir de al menos una de la primera imagen y la segunda imagen, y determinar a partir de una comparación de la segunda imagen con la primera imagen si la mano es una falsificación.
Sumario
Prevalece que los datos de superficie del objeto objetivo se adquieren irradiando el objeto objetivo con los haces de luz a partir de una pluralidad de iluminaciones. Un dispositivo que incluye la pluralidad de iluminaciones se vuelve complicado en cuanto a una configuración de unidades de iluminación. Por tanto, aumenta el coste para las unidades de iluminación en la fabricación del dispositivo para adquirir los datos de superficie irradiando el objeto objetivo con los haces de luz a partir de la pluralidad de iluminaciones.
Un objetivo de la presente invención es proporcionar un dispositivo de adquisición de datos biométricos que adquiera datos de superficie de una mano con una configuración sencilla.
Un dispositivo de adquisición de datos biométricos de la divulgación adopta los siguientes medios con el fin de resolverlos problemas descritos anteriormente.
La presente invención proporciona un dispositivo de adquisición de datos biométricos según la reivindicación 1, y un dispositivo de autenticación biométrica según la reivindicación 3. En las reivindicaciones dependientes se exponen características opcionales.
Según realizaciones de la invención, resulta viable proporcionar el dispositivo de adquisición de datos biométricos que adquiere los datos de superficie de la mano con la configuración sencilla.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques que ilustra un ejemplo de una configuración de un dispositivo de adquisición de datos biométricos en una realización.
La figura 2 es una vista que ilustra un ejemplo de un estado de mano expandida.
La figura 3 es una vista que ilustra un ejemplo de un estado de mano doblada.
La figura 4 es un diagrama de flujo que ilustra un flujo de funcionamiento del dispositivo de adquisición de datos biométricos completo en la realización.
La figura 5 es un diagrama de flujo que ilustra un flujo de funcionamiento de captar una imagen de la mano. La figura 6 es una vista que ilustra una unidad de sensor de autenticación y un ejemplo de los estados de mano. La figura 7 es un diagrama explicativo que ilustra cómo se calcula una distancia mediante el uso de haces de luz. La figura 8 es un diagrama que ilustra un ejemplo de una imagen captada por una unidad de obtención de imágenes cuando una unidad de medición de distancia irradia los haces de luz.
La figura 9 es un diagrama de flujo que ilustra un ejemplo de un flujo de funcionamiento de calibración de la unidad de sensor de autenticación.
La figura 10 es un diagrama explicativo de cómo se calcula una distancia hasta una región de mano.
La figura 11 es un diagrama explicativo que ilustra la normalización en plano.
La figura 12 es un diagrama gráfico que ilustra un ejemplo de primera derivada basándose en una parte de la línea oscura a lo largo de un determinado eje en la imagen de mano que se somete a la normalización en plano, una intensidad periférica y una posición de la intensidad.
La figura 13 es un diagrama que ilustra un ejemplo de un criterio para determinar datos de superficie.
La figura 14 es un diagrama de bloques que ilustra un ejemplo de un dispositivo de autenticación biométrica.
Lista de signos de referencia
2A mano estirada
2B mano doblada
10 dispositivo de adquisición de datos biométricos
100 unidad de sensor de autenticación
112 unidad de iluminación
114 unidad de control de iluminación
122 unidad de obtención de imágenes
122A lente
122B elemento de obtención de imágenes
124 unidad de control de obtención de imágenes
132 unidad de medición de distancia
134 unidad de control de medición de distancia
150 unidad de adquisición de imágenes
210 unidad de extracción de región de mano
220 unidad de cálculo de distancia de región de mano
230 unidad de normalización en plano de región de mano
240 unidad de extracción de líneas oscuras
250 unidad de extracción de características de elementos de líneas oscuras
260 unidad de determinación de datos de superficie
270 unidad de almacenamiento de datos de cambio biométricos
280 unidad de almacenamiento de características de superficie viva
500 unidad de autenticación de venas
600 unidad de determinación
700 unidad de almacenamiento
1000 dispositivo de autenticación biométrica
Descripción de realizaciones
A continuación en el presente documento se describirá una realización con referencia a los dibujos. Una configuración en la realización es un ejemplo, y la presente invención no se limita a la configuración en la realización.
[Realización]
Se conoce que los datos de superficie de una mano, que se derivan de arrugas en la mano, cambian dependiendo de hábitos y entornos en la vida de una persona. Por consiguiente, resulta difícil usar los datos de superficie de la mano de una persona como información de identificación a lo largo de toda la vida de un individuo.
Por otro lado, normalmente no sucede que los datos de superficie de la mano, aunque son variables, cambien en gran medida en un periodo de tiempo de tan sólo uno o dos días. Por consiguiente, los datos de superficie de la mano pueden usarse, si un intervalo entre el momento de registro y el momento de coincidencia es corto, como datos de autenticación temporalmente utilizables para la autenticación biométrica.
(Configuración)
La figura 1 es un diagrama que ilustra un ejemplo de una configuración de un dispositivo de adquisición de datos biométricos en la realización. Un dispositivo 10 de adquisición de datos biométricos en la figura 1 incluye una unidad 100 de sensor de autenticación, una unidad 210 de extracción de región de mano, una unidad 220 de cálculo de distancia de región de mano, una unidad 230 de normalización en plano de región de mano y una unidad 240 de extracción de líneas oscuras. El dispositivo 10 de adquisición de datos biométricos incluye además una unidad 250 de extracción de características de elementos de líneas oscuras, una unidad 260 de determinación de datos de superficie, una unidad 270 de almacenamiento de datos de cambio biométricos y una unidad 280 de almacenamiento de características de superficie viva.
La unidad 210 de extracción de región de mano, la unidad 220 de cálculo de distancia de región de mano, la unidad 230 de normalización en plano de región de mano, la unidad 240 de extracción de líneas oscuras, la unidad 250 de extracción de características de elementos de líneas oscuras y la unidad 260 de determinación de datos de superficie pueden realizarse mediante hardware y también mediante software.
Dos o más componentes entre estos componentes pueden funcionar como una unidad de procesamiento. El componente individual entre estos componentes puede funcionar como una pluralidad de unidades de procesamiento. Esta disposición se aplica de manera similar a los componentes que se describirán más adelante. La unidad 100 de sensor de autenticación del dispositivo 10 de adquisición de datos biométricos incluye una unidad 112 de iluminación, una unidad 114 de control de iluminación, una unidad 122 de obtención de imágenes, una unidad 124 de control de obtención de imágenes, una unidad 132 de medición de distancia, una unidad 134 de control de medición de distancia y una unidad 150 de adquisición de imágenes. La unidad 100 de sensor de autenticación puede usarse como sensor de autenticación para autenticación de venas.
La unidad 114 de control de iluminación, la unidad 124 de control de obtención de imágenes, la unidad 134 de control de medición de distancia y la unidad 150 de adquisición de imágenes pueden realizarse mediante hardware y también mediante software.
La unidad 122 de obtención de imágenes es capaz de obtener imágenes de la mano de un usuario. La unidad 122 de obtención de imágenes incluye al menos una lente 122A y un elemento 122B de obtención de imágenes. El elemento 122B de obtención de imágenes de la unidad 122 de obtención de imágenes implica usar, por ejemplo, un sensor de imágenes de CCD (sensor de imágenes de dispositivo acoplado por carga), pero no se limita al sensor de imágenes de CCD. El elemento 122B de obtención de imágenes de la unidad 122 de obtención de imágenes también puede implicar usar otros tipos de elementos de obtención de imágenes tales como un sensor de imágenes de CMOS (sensor de imágenes de semiconductor de óxido de metal complementario).
La unidad 124 de control de obtención de imágenes indica a la unidad 122 de obtención de imágenes que capte una imagen de la mano orientada hacia la unidad 122 de obtención de imágenes. La unidad 124 de control de obtención de imágenes puede indicar a la unidad 122 de obtención de imágenes que capte imágenes de la mano en múltiples estados, que está orientada a la unidad 122 de obtención de imágenes.
La figura 2 es una vista que ilustra un estado en el que el lado interior de la mano está expandido. Una mano 2A en la figura 2 representa una mano en el estado en el que el lado interior de la mano está estirado. Tal como en la figura 2, en el estado en el que el lado interior de la mano está expandido (el lado interior de la mano está estirado), una forma de superficie del lado interior de la mano se vuelve sustancialmente plana.
La figura 3 es una vista que representa la mano en un estado en el que el lado interior de la mano está doblado. Una mano 2B en la figura 3 representa una mano en el estado en el que el lado interior de la mano está doblado. Tal como en la figura 3, en el estado en el que el lado interior de la mano está doblado (el estado en el que el lado interior de la mano está flexionado), la forma de superficie del lado interior de la mano es igual a una superficie curvada.
La unidad 112 de iluminación enciende o apaga su luz bajo el control de la unidad 114 de control de iluminación. La unidad 112 de iluminación puede implicar usar una lámpara incandescente, un tubo fluorescente, un LED (diodo emisor de luz), etc., pero no se limita a estos elementos de iluminación. La intensidad de la iluminación de la unidad 112 de iluminación se establece para alcanzar sólo un alcance a corta distancia (que es igual o inferior, por ejemplo, a 10 cm) desde la unidad 112 de iluminación. La unidad 112 de iluminación sólo permite iluminar la mano orientada hacia la unidad 100 de sensor de autenticación con la luz estableciendo la intensidad de la iluminación para alcanzar sólo el alcance a corta distancia desde la unidad 112 de iluminación.
La unidad 114 de control de iluminación controla la unidad 112 de iluminación para encender o apagar su luz cuando se adquiere (capta) la imagen de la mano. Además, la unidad 114 de control de iluminación puede indicar, cuando se mide la distancia hasta la mano, a la unidad 112 de iluminación que apague la luz.
La unidad 134 de control de medición de distancia le indica, cuando se mide la distancia hasta la mano, a la unidad 132 de medición de distancia que irradie la mano con un haz de luz. De ese modo, la unidad 134 de control de medición de distancia puede medir la distancia hasta la mano, al irradiar la unidad 132 de medición de distancia el haz de luz en una dirección predeterminada.
La unidad 132 de medición de distancia irradia la mano, basándose en el control de la unidad 134 de control de medición de distancia, con el haz de luz. La unidad 132 de medición de distancia puede implicar usar una fuente de luz de láser, etc., pero no se limita a esta fuente de luz. La unidad 132 de medición de distancia puede estar configurada como una pluralidad de fuentes de luz de láser o similares. La unidad 132 de medición de distancia se instala de modo que la mano se irradia con al menos una franja de haz de luz. La dirección de haz de luz desde la unidad 132 de medición de distancia puede ser fija y también puede ser variable.
La unidad 150 de adquisición de imágenes le indica a la unidad 114 de control de iluminación, a la unidad 124 de control de obtención de imágenes ya la unidad 134 de control de medición de distancia que adquieran la imagen de la mano o midan la distancia hasta la mano. La unidad 150 de adquisición de imágenes le pide al usuario que oriente el lado interior de la mano hacia la unidad 100 de sensor de autenticación. La unidad 150 de adquisición de imágenes puede pedirle al usuario que oriente el lado interior de la mano hacia la unidad 100 de sensor de autenticación en el estado en el que el lado interior de la mano está estirado y en el estado en el que el lado interior de la mano está doblado. La unidad 150 de adquisición de imágenes recibe la imagen captada a partir de la unidad 124 de control de obtención de imágenes y transmite la imagen a la unidad 210 de extracción de región de mano. Además, la unidad 150 de adquisición de imágenes recibe, a partir de la unidad 122 de obtención de imágenes, la imagen captada por la unidad 122 de obtención de imágenes de una manera que irradia el haz de luz a partir de la unidad 132 de medición de distancia. La unidad 150 de adquisición de imágenes calcula una distancia entre el plano en el que existe la unidad 122 de obtención de imágenes y una posición en la que irradiar el haz de luz, y transmite la distancia a la unidad 220 de cálculo de distancia de región de mano.
La unidad 210 de extracción de región de mano extrae las partes de mano a partir de la imagen recibida a partir de la unidad 150 de adquisición de imágenes. La región de mano puede obtenerse a partir de una diferencia entre la imagen captada aplicando la iluminación a partir de la unidad 112 de iluminación y la imagen captada sin aplicar la iluminación a partir de la unidad 112 de iluminación. La unidad 210 de extracción de región de mano transmite la imagen así extraída de la mano a la unidad 220 de cálculo de distancia de región de mano.
La unidad 210 de extracción de región de mano extrae la región de mano con respecto al estado de lado interior estirado de la mano y el estado de lado interior doblado de la mano, respectivamente.
La unidad 220 de cálculo de distancia de región de mano recibe, a partir de la unidad 210 de extracción de región de mano, la imagen de la mano extraída por la unidad 210 de extracción de región de mano. La unidad 220 de cálculo de distancia de región de mano recibe la distancia entre el plano en el que existe la unidad 122 de obtención de imágenes y la posición en la que irradiar el haz de luz a partir de la unidad 150 de adquisición de imágenes de la unidad 100 de sensor de autenticación. La unidad 220 de cálculo de distancia de región de mano calcula distancias respectivas entre el plano en el que existe la unidad 122 de obtención de imágenes y todos los puntos de la región de mano (partes de mano) en la imagen captada. A partir de estas distancias se reconoce una forma tridimensional de la mano.
La unidad 220 de cálculo de distancia de región de mano calcula las distancias entre el plano en el que existe la unidad 122 de obtención de imágenes y todos los puntos de la mano en la imagen captada con respecto al estado de lado interior estirado de la mano y el estado de lado interior doblado de la mano, respectivamente.
La unidad 230 de normalización en plano de región de mano realiza la normalización en plano aplicando los datos de distancia de la mano calculados por la unidad 220 de cálculo de distancia de región de mano a un modelo apropiado. El modelo que va a aplicarse implica usar un paraboloide elíptico.
La unidad 230 de normalización en plano de región de mano realiza la normalización en plano aplicando los datos de distancia de la mano al modelo apropiado con respecto al estado de lado interior estirado de la mano y el estado de lado interior doblado de la mano.
La unidad 240 de extracción de líneas oscuras extrae líneas oscuras (líneas negras) a partir de la imagen de la mano. Las líneas oscuras de la imagen de la mano representan regiones lineales oscuras de la imagen de la mano. Las líneas oscuras de la imagen de la mano contienen un patrón palmar de una palma de la mano y arrugas de articulaciones interfalángicas.
La unidad 250 de extracción de características de elementos de líneas oscuras extrae características de los elementos de líneas oscuras de la imagen de la mano. Los elementos de líneas oscuras de la imagen de la mano incluyen una anchura y una densidad de la línea oscura.
La unidad 260 de determinación de datos de superficie determina, basándose en las características de los elementos de líneas oscuras de la imagen de la mano que se extraen por la unidad 250 de extracción de características de elementos, tanto si la línea oscura extraída corresponde a los datos de superficie de la mano como si no. La unidad 260 de determinación de datos de superficie puede usar, como criterio para la determinación, los datos almacenados en la unidad 270 de almacenamiento de datos de cambio biométricos. La unidad 260 de determinación de datos de superficie puede determinar si la línea oscura extraída corresponde o no a los datos de superficie de la mano mediante el uso, por ejemplo, de cambios en la anchura y en la densidad de la línea oscura de la imagen de la mano.
En la unidad 270 de almacenamiento de datos de cambio biométricos se almacena el criterio (regla) de determinación usado cuando la unidad 260 de determinación de datos de superficie determina si la línea oscura extraída corresponde o no a los datos de superficie de la mano.
En la unidad 280 de almacenamiento de características de superficie viva se almacena un resultado de la determinación realizada por la unidad 260 de determinación de datos de superficie. Además, en la unidad 280 de almacenamiento de características de superficie viva se almacenan los datos de superficie de la mano.
(Ejemplo de funcionamiento)
La figura 4 es un diagrama de flujo que ilustra un flujo de funcionamiento del dispositivo de adquisición de datos biométricos completo en la realización.
La unidad 150 de adquisición de imágenes de la unidad 100 de sensor de autenticación le indica a la unidad 114 de control de iluminación, a la unidad 124 de control de obtención de imágenes y a la unidad 134 de control de medición de distancia que capten la imagen de la mano. La unidad 150 de adquisición de imágenes le pide al usuario que oriente el lado interior de la mano hacia la unidad 100 de sensor de autenticación. La unidad 150 de adquisición de imágenes puede pedirle al usuario que oriente la mano en la pluralidad de estados hacia la unidad 100 de sensor de autenticación. La unidad 150 de adquisición de imágenes usa la unidad 122 de obtención de imágenes para captar la imagen de la mano de una manera que irradia la mano con el haz de luz emitido a partir de la unidad 132 de medición de distancia. Además, la unidad 150 de adquisición de imágenes usa la unidad 122 de obtención de imágenes para captar la imagen de la mano de una manera que aplica la iluminación sobre la mano a partir de la unidad 112 de iluminación. Todavía adicionalmente, la unidad 150 de adquisición de imágenes usa la unidad 122 de obtención de imágenes para captar la imagen de la mano en un estado de apagar las luces de la unidad 112 de iluminación y de la unidad 132 de medición de distancia (S102).
Además, la unidad 150 de adquisición de imágenes calcula la distancia entre el plano en el que existe la unidad 122 de obtención de imágenes y la posición en la que irradiar el haz de luz.
La unidad 210 de extracción de región de mano recibe, a partir de la unidad 150 de adquisición de imágenes, la imagen captada aplicando la iluminación sobre la mano a partir de la unidad 112 de iluminación. Además, la unidad 210 de extracción de región de mano recibe, a partir de la unidad 150 de adquisición de imágenes, la imagen captada de la mano en el estado de apagar las luces de la unidad 112 de iluminación y de la unidad 132 de medición de distancia. La iluminación a partir de la unidad 112 de iluminación sólo alcanza dentro del alcance a corta distancia, y por tanto porciones (correspondientes a porciones de fondo) distintas de la mano no se iluminan con la luz. Por tanto, la unidad 210 de extracción de región de mano obtiene una diferencia entre ambas imágenes adquiridas, permitiendo así extraer la región de mano.
La unidad 220 de cálculo de distancia de región de mano recibe, a partir de la unidad 210 de extracción de región de mano, la imagen de la mano extraída por la unidad 210 de extracción de región de mano. La unidad 220 de cálculo de distancia de región de mano recibe, a partir de la unidad 150 de adquisición de imágenes de la unidad 100 de sensor de autenticación, la distancia entre el plano en el que existen la unidad 122 de obtención de imágenes y la fuente de haz de luz y la posición en la que irradiar el haz de luz. La unidad 220 de cálculo de distancia de región de mano calcula las distancias entre el plano en el que existen la unidad 122 de obtención de imágenes y la fuente de haz de luz y los puntos respectivos de la región de mano (partes de mano) (S104). La unidad 220 de cálculo de distancia de región de mano transmite, a la unidad 230 de normalización en plano de región de mano, una agregación de las distancias entre el plano en el que existe la unidad 122 de obtención de imágenes y los puntos respectivos de la región de mano como un mapa de distancias de la mano.
La unidad 230 de normalización en plano de región de mano aplica el mapa de distancias de mano recibido a partir de la unidad 220 de cálculo de distancia de región de mano a un modelo. La unidad 230 de normalización en plano de región de mano adopta el paraboloide elíptico como modelo y aplica el mapa de distancias de la mano a este modelo (S106).
La unidad 230 de normalización en plano de región de mano realiza la normalización en plano del paraboloide elíptico al que se aplica el mapa de distancias de la mano (S108). La “normalización en plano” implica cambiar la forma de la imagen para obtener el plano estirando y expandiendo la superficie curvada.
La unidad 240 de extracción de líneas oscuras extrae las líneas oscuras a partir de la imagen de la región de mano que se somete a la normalización en plano en la unidad 230 de normalización en plano de región de mano (S110). Las líneas oscuras corresponden a las porciones lineales que muestran una baja intensidad (brillo) en comparación con una intensidad ambiental en la imagen de la región de mano.
La unidad 250 de extracción de características de elementos de líneas oscuras extrae las características de elementos de líneas oscuras de cada línea oscura extraída por la unidad 240 de extracción de líneas oscuras. Los tipos de las características de elementos de líneas oscuras se muestran a modo de ejemplo por la anchura y la densidad de la línea oscura.
La unidad 250 de extracción de características de elementos de líneas oscuras extrae la anchura de la línea oscura a partir de una anchura de la línea oscura de la imagen de la región de mano (S112). La unidad 250 de extracción de características de elementos de líneas oscuras calcula una variación de la anchura de la línea oscura a partir de la anchura de la línea oscura en el caso de captar la imagen de la mano cuyo lado interior está expandido y a partir de la anchura de la línea oscura en el caso de captar la imagen de la mano cuyo lado interior está doblado (S114). La unidad 250 de extracción de características de elementos de líneas oscuras extrae la densidad de la línea oscura a partir de la intensidad de la línea oscura de la imagen de la región de mano (S122). La unidad 250 de extracción de características de elementos de líneas oscuras calcula una variación de la densidad de la línea oscura a partir de la densidad de la línea oscura en el caso de captar la imagen de la mano cuyo lado interior está expandido y a partir de la densidad de la línea oscura en el caso de captar la imagen de la mano cuyo lado interior está doblado (S124). La unidad 260 de determinación de datos de superficie determina a partir de la variación de la anchura de la línea oscura y a partir de la variación de la densidad de la línea oscura si la línea oscura representa o no los datos de superficie para cada línea oscura (S130). La unidad 260 de determinación de datos de superficie puede usar, cuando se determina si la línea oscura representa o no los datos de superficie, los datos almacenados en la unidad 270 de almacenamiento de datos de cambio biométricos. En la unidad 270 de almacenamiento de datos de cambio biométricos se almacenan los datos que sirven como criterio para determinar si la línea oscura representa o no los datos de superficie.
<Obtención de imágenes>
La figura 5 es un diagrama de flujo que ilustra un ejemplo de un flujo de funcionamiento para obtener imágenes del lado interior de la mano. Se obtienen imágenes del lado interior de la mano mediante el uso de la unidad 100 de sensor de autenticación.
La unidad 150 de adquisición de imágenes le pide al usuario que oriente el lado interior de la mano hacia la unidad 100 de sensor de autenticación. La unidad 150 de adquisición de imágenes le indica al usuario que oriente el lado interior de la mano hacia la unidad 100 de sensor de autenticación para alcanzar dentro del alcance de la distancia predeterminada a partir de la unidad 100 de sensor de autenticación. En este momento, la unidad 150 de adquisición de imágenes permite al usuario especificar la forma de la mano orientada hacia la unidad 100 de sensor de autenticación. La unidad 134 de control de medición de distancia le indica a la unidad 132 de medición de distancia que encienda la luz para irradiar el haz de luz. La unidad 132 de medición de distancia irradia la mano con el haz de luz (S202).
La unidad 124 de control de obtención de imágenes le indica a la unidad 122 de obtención de imágenes que capte una imagen de la mano. La unidad 122 de obtención de imágenes capta la imagen de la mano (S204). En el presente documento, la mano de la que van a obtenerse imágenes se irradia con el haz de luz.
La unidad 134 de control de medición de distancia le indica a la unidad 132 de medición de distancia que apague la luz para irradiar el haz de luz. La unidad 132 de medición de distancia detiene la irradiación del haz de luz (S206). La unidad 114 de control de iluminación le indica a la unidad 112 de iluminación que encienda la iluminación. La unidad 112 de iluminación ilumina la mano con la luz (S208). La intensidad de la iluminación de la unidad 112 de iluminación se establece para alcanzar únicamente dentro del alcance a corta distancia a partir de la unidad 112 de iluminación.
La unidad 124 de control de obtención de imágenes le indica a la unidad 122 de obtención de imágenes que capte la imagen de la mano. La unidad 122 de obtención de imágenes capta la imagen de la mano (S210). En el presente documento, la mano de la que van a obtenerse imágenes se ilumina con la luz.
La unidad 114 de control de iluminación le indica a la unidad 112 de iluminación que apague la iluminación. La unidad 112 de iluminación apaga la iluminación (S212).
La unidad 124 de control de obtención de imágenes le indica a la unidad 122 de obtención de imágenes que capte la imagen de la mano. La unidad 122 de obtención de imágenes capta la imagen de la mano (S214). En el presente documento, ni el haz de luz ni la iluminación se aplican sobre la mano de la que van a obtenerse imágenes.
La unidad 100 de sensor de autenticación capta la imagen de la mano para cada estado de mano. Por ejemplo, la unidad 150 de adquisición de imágenes de la unidad 100 de sensor de autenticación le indica al usuario que oriente el lado interior de la mano en el estado de mano expandida hacia la unidad 100 de sensor de autenticación, y realiza una obtención de imágenes basándose en el flujo de funcionamiento en la figura 5. Además, la unidad 150 de adquisición de imágenes de la unidad 100 de sensor de autenticación le indica al usuario que oriente el lado interior de la mano en el estado de palma de la mano doblada hacia la unidad 100 de sensor de autenticación, y realiza la obtención de imágenes basándose en el flujo de funcionamiento en la figura 5.
Es deseable que el flujo de funcionamiento en la figura 5 se ejecute de manera acelerada. Esto se debe a que el estado de la mano (la forma) se mantiene hasta que se termina la obtención de imágenes desde el comienzo de la obtención de imágenes de la mano en el mismo estado.
Una secuencia de obtención de imágenes de mano no se limita al ejemplo del flujo de funcionamiento en la figura 5. Por ejemplo, la obtención de imágenes realizada en el estado de apagar las luces de la unidad 112 de iluminación y de la unidad 132 de medición de distancia también puede llevarse a cabo al comienzo. Además, la obtención de imágenes en el estado de palma de la mano doblada puede llevarse a cabo antes que la obtención de imágenes en el estado de palma de la mano expandida.
Puede prepararse una pluralidad de fuentes de luz como unidad 132 de medición de distancia. La pluralidad de fuentes de luz se prepara como unidad 132 de medición de distancia, en cuyo caso pueden obtenerse imágenes de la mano mediante las unidades 122 de obtención de imágenes respectivas irradiando el haz de luz en secuencia para cada fuente de luz. Además, la dirección del haz de luz emitido a partir de la unidad 132 de medición de distancia puede ser variable. Si la dirección del haz de luz emitido a partir de la unidad 132 de medición de distancia es variable, pueden obtenerse imágenes de la mano en cada dirección del haz de luz.
La figura 6 es una vista que ilustra la unidad de sensor de autenticación y un ejemplo del estado de la mano. La unidad 100 de sensor de autenticación le pide al usuario que oriente el lado interior de la mano hacia la unidad 100 de sensor de autenticación, y se irradia la mano con los haces de láser emitidos a partir de la unidad 132 de medición de distancia o se ilumina con la luz emitida a partir de la unidad 112 de iluminación y por tanto se obtienen imágenes por la unidad 122 de obtención de imágenes. Alternativamente, las luces de la unidad 132 de medición de distancia y de la unidad 112 de iluminación se apagan, obteniéndose imágenes de la mano por la unidad 122 de obtención de imágenes. La unidad 100 de sensor de autenticación le indica al usuario que oriente la mano en el estado de mano expandida o el estado de mano doblada hacia la unidad 100 de sensor de autenticación.
<Extracción de región de mano>
La unidad 210 de extracción de región de mano recibe, a partir de la unidad 150 de adquisición de imágenes, la imagen de mano captada de una manera que se enciende la iluminación. Además, la unidad 210 de extracción de región de mano recibe, a partir de la unidad 150 de adquisición de imágenes, la imagen de mano captada de una manera que se apaga la iluminación.
La unidad 210 de extracción de región de mano extrae la región de mano a partir de las imágenes de mano captadas encendiendo y apagando la luz de iluminación. La unidad 210 de extracción de región de mano extrae la región de mano tomando una diferencia entre las imágenes de mano captadas de una manera que enciende y apaga la luz de iluminación.
La iluminación no alcanza las regiones distintas de la región de mano. Por tanto, en las imágenes de mano captadas encendiendo y apagando la luz de iluminación, se obtienen imágenes de manera similar de las regiones distintas de la región de mano. Por consiguiente, las regiones distintas de la región de mano se eliminan tomando la diferencia entre las imágenes de mano captadas encendiendo y apagando la luz de iluminación, permitiendo por tanto extraer la región de mano.
La unidad 210 de extracción de región de mano puede determinar, como región de mano, la región en la que la diferencia entre las imágenes de mano captadas encendiendo y apagando la luz de iluminación muestra la intensidad igual o superior al nivel de intensidad predeterminado.
La unidad 210 de extracción de región de mano extrae la región de mano de cada una de la mano en el estado expandido y la mano en el estado doblado.
<Cálculo de la distancia de región de mano>
«Cálculo de distancia usando haz de luz>>
La figura 7 es una vista explicativa de cómo se calcula una distancia mediante el uso del haz de luz. La unidad 150 de adquisición de imágenes calcula una distancia hasta el plano que incluye la posición en la que el haz de luz emitido a partir de la unidad 122 de obtención de imágenes incide sobre la mano de una manera que usa la imagen de mano captada irradiando la mano con el haz de luz.
La fuente de haz de luz, que se define como la unidad 132 de medición de distancia, está dispuesta en una posición separada a una distancia d desde un centro C de la lente 122A dentro de un plano P1 ortogonal a un eje óptico OA de la lente 122A que abarca el centro C de la lente 122A (que es un punto principal de la lente) y también está separada a la distancia d del eje óptico OA de la lente 122A. La dirección del haz de luz de la fuente de haz de luz se dispone dentro del plano que incluye el eje óptico OA y la fuente de haz de luz. La dirección del haz de luz de la fuente de haz de luz está inclinada formando un ángulo 0 con respecto al eje óptico OA de la lente 122A de la unidad 122 de obtención de imágenes. Sea “L” una distancia entre un plano P2 ortogonal al eje óptico de la lente de la unidad 122 de obtención de imágenes que abarca la posición A de la mano sobre la que incide el haz de luz y el centro C de la lente 122A de la unidad 122 de obtención de imágenes. Sea “x” una distancia entre la posición A de la mano sobre la que incide el haz de luz y una intersección B con el plano P2 que incluye la posición en la que incide el haz de luz A y ortogonal al eje óptico OA. Un ángulo de visión del elemento 122B de obtención de imágenes de la unidad 122 de obtención de imágenes se establece a un ángulo 2a . Un ángulo a es la mitad del ángulo de visión (2a ) del elemento 122B de obtención de imágenes de la unidad 122 de obtención de imágenes. Sea “W” una distancia que es la mitad de la distancia en el plano P2, que está abarcada por el ángulo de visión del elemento 122B de obtención de imágenes de la unidad 122 de obtención de imágenes. La distancia W en el plano P2 es una distancia entre el eje óptico OA y una porción más exterior (segmento de línea) abarcada por el ángulo de visión 2a . Sea “a” una distancia entre la posición A y el eje óptico OA.
La figura 8 es una vista que ilustra un ejemplo de la imagen captada por la unidad de obtención de imágenes cuando la unidad de medición de distancia irradia la mano con el haz de luz.
Sea 9 un ángulo formado por el plano que incluye el eje óptico OA de la lente 122A de la unidad 122 de obtención de imágenes y la fuente de haz de luz y por un eje horizontal de la imagen captada por la unidad 122 de obtención de imágenes. El centro de la imagen captada por la unidad 122 de obtención de imágenes corresponde a la posición del eje óptico OA de la lente 122A de la unidad 122 de obtención de imágenes.
En el presente documento, una correlación en el mundo real ilustrada en la figura 7 es igual a una correlación en la imagen captada por la unidad 122 de obtención de imágenes representada en la figura 8. Por tanto, debe establecerse la siguiente fórmula.
[Expresión matemática 1]
a _ d L tm O
~W _ _ _ _ _ _
donde;
[Expresión matemática 2]
/i
W = ---------
senip
[Expresión matemática 3]
a = d x
Esta fórmula se resuelve con respecto a la distancia L, mediante lo cual se obtiene la siguiente fórmula.
[Expresión matemática 4]
Figure imgf000010_0001
La distancia L entre la posición en la que incide el haz de luz A y el plano P1 se obtiene a partir de esta fórmula. La posición en la que incide el haz de luz en la imagen se extrae tomando una diferencia entre la imagen de mano captada irradiando el haz de luz y la imagen de mano captada encendiendo la iluminación. Si la posición en la que incide el haz de luz en la imagen tiene un tamaño, el centro del alcance en el que incide el haz de luz en la imagen puede establecerse como la posición en la que incide el haz de luz en la imagen.
La unidad 150 de adquisición de imágenes puede calcular la distancia usando el haz de luz. La unidad 150 de adquisición de imágenes transmite la distancia calculada L a la unidad 220 de cálculo de distancia de región de mano.
Si existen múltiples tipos de haces de luz, la distancia hasta la posición en la que incide el haz de luz A de la mano desde el plano P1 puede calcularse empleando al menos un tipo cualquiera de haz de luz.
«C alibración»
La figura 9 es un diagrama de flujo que ilustra un flujo de funcionamiento de calibración de la unidad de sensor de autenticación.
La unidad 100 de sensor de autenticación realiza, antes de calcular la distancia hasta la región de mano, la calibración como procesamiento previo.
Un objeto (un plano de calibración P3) que adopta un color uniforme se dispone a una distancia conocida a partir de la unidad 100 de sensor de autenticación (S302). Una suposición es que un coeficiente de reflexión difusa del plano de calibración P3 es uniforme en el plano P3. La unidad 114 de control de iluminación le indica a la unidad 112 de iluminación que encienda la iluminación. La unidad 124 de control de obtención de imágenes le indica a la unidad 122 de obtención de imágenes que capte la imagen del objeto. La unidad 122 de obtención de imágenes capta la imagen del objeto (S304). La unidad 150 de adquisición de imágenes almacena la distancia conocida y la imagen captada en la unidad 220 de cálculo de distancia de región de mano (S306). La intensidad de cada punto en la imagen puede calcularse a partir de la imagen captada.
«Cálculo de la distancia hasta la región de mano>>
La figura 10 es una vista explicativa de cómo se calcula la distancia hasta la región de mano. La unidad 220 de cálculo de distancia de región de mano calcula las distancias entre el plano en el que existen la unidad 122 de obtención de imágenes y la fuente de haz de luz y todos los puntos de la región de mano en la imagen captada. La región de mano se extrae por la unidad 210 de extracción de región de mano.
Sea Zc una distancia entre el centro C de la lente de la unidad 122 de obtención de imágenes y el plano de calibración P3. Se supone que la distancia ZC es un valor conocido. Sea rC un coeficiente de reflexión difusa del plano de calibración P3. El coeficiente de reflexión difusa rC del plano de calibración P3 puede ser o bien un valor conocido o bien un valor desconocido. Si el coeficiente de reflexión difusa rC del plano de calibración P3 no se conoce, el coeficiente de reflexión difusa re del plano de calibración P3 puede calcularse basándose en un punto tal que la intensidad (brillo) se atenúa en proporción inversa al cuadrado de la distancia, mediante el uso de la imagen captada en la calibración. Sea Ee una intensidad, en el plano de calibración P3, de la imagen captada en el momento de la calibración. Generalmente la intensidad Ee difiere dependiendo de la posición en la imagen.
Sea Zf una distancia entre el plano ortogonal al eje óptico de la lente de la unidad 122 de obtención de imágenes y que pasa a través del centro de la lente y un determinado punto que existe en un objeto (el lado interior de la mano). Sea Ef una intensidad en un determinado punto del objeto (el lado interior de la mano). Sea rF un coeficiente de reflexión difusa del objeto (el lado interior de la mano). Se supone que el coeficiente de reflexión difusa rF del objeto (el lado interior de la mano) es uniforme a lo largo del lado interior de la mano.
En este momento, se obtiene una razón del coeficiente de reflexión difusa re del plano de calibración P3 con respecto al coeficiente de reflexión difusa rF del objeto (el lado interior de la mano) de la siguiente manera.
[Expresión matemática 5]
Figure imgf000011_0001
En el presente documento, la distancia y la intensidad se conocen. Para usar la distancia hasta el objeto (el lado interior de la mano) que se calcula como distancia Zf empleando el haz de luz, la intensidad Ef es una intensidad en la misma posición que la posición en la que incide el haz de luz con respecto a la imagen captada irradiando el haz de luz en la imagen captada de una manera que se enciende la luz de la unidad 112 de iluminación. Además, la intensidad Ee que va a usarse en el presente documento es una intensidad en la misma posición que la posición en la que incide el haz de luz con respecto a la imagen captada irradiando el haz de luz en la imagen captada en el momento de la calibración.
Además, la distancia Zf entre el plano ortogonal al eje óptico de la lente de la unidad 122 de obtención de imágenes y que pasa a través del centro de la lente y un punto arbitrario en el objeto (el lado interior de la mano) se obtiene mediante la siguiente fórmula.
[Expresión matemática 6]
Figure imgf000011_0002
La intensidad Ef que va a usarse en el presente documento es una intensidad en el punto arbitrario en la imagen de mano captada encendiendo la luz de la unidad 112 de iluminación. Además, la intensidad Ec que va a usarse en el presente documento es una intensidad en la misma posición que la posición arbitraria en la imagen captada en el momento de la calibración.
Mediante los ajustes descritos anteriormente, se calculan las distancias entre el plano, en el que existen la unidad 122 de obtención de imágenes y la fuente de haz de luz, ortogonal al eje óptico de la lente de la unidad 122 de obtención de imágenes y todos los puntos de la región de mano en la imagen captada. Dicho de otro modo, la unidad 220 de cálculo de distancia de región de mano puede calcular posiciones tridimensionales (mapa de distancias) del punto respectivo de la región de mano.
La unidad 220 de cálculo de distancia de región de mano puede calcular de otro modo la distancia hasta la región de mano.
La unidad 220 de cálculo de distancia de región de mano calcula las distancias hasta la región de mano en el estado de mano expandida y en el estado de mano doblada.
<Normalización en plano de la región de mano>
La unidad 230 de normalización en plano de región de mano realiza la normalización del plano de la región de mano con el fin de realizar una comparación entre las múltiples formas de mano de una persona individual.
<<Aplicación de modelo>>
La unidad 230 de normalización en plano de región de mano realiza la normalización del plano tras aplicar la forma tridimensional de la región de mano al modelo.
La mano es tridimensionalmente irregular (convexa y cóncava) en la superficie. Una variedad de personas tienen una variedad de formas de mano. Lo que se desea es medir las formas de mano de la variedad de personas de manera tridimensional, categorizar las formas de mano y preparar un modelo que represente cada categoría. Es preferible que cada modelo se exprese más específicamente como una agregación de vóxeles. El modelo basado en la expresión más sencilla se muestra a modo de ejemplo como modelo en el que se supone una forma de tipo cuenco para la mano y se expresa la mano mediante el paraboloide elíptico.
En el presente documento, se aplica la forma de la región de mano al paraboloide elíptico. Una fórmula del paraboloide elíptico se expresa de la siguiente manera.
[Expresión matemática 7]
Figure imgf000012_0001
En el presente documento, (X0, Y0, Z0) representa unas coordenadas del centro del paraboloide elíptico. Además, “a” y “b” son coeficientes.
La unidad 230 de normalización en plano de región de mano puede obtener una ecuación del paraboloide elíptico mediante un método de aproximación iterativa, en el que las posiciones tridimensionales de los puntos respectivos de la región de mano que se calculan por la unidad 220 de cálculo de distancia de región de mano se establecen como puntos de muestreo.
Las posiciones tridimensionales de los puntos respectivos de la región de mano que se calculan por la unidad 220 de cálculo de distancia de región de mano sirven como conjunto (agregación) S. La unidad 230 de normalización en plano de región de mano, con el conjunto S definido como punto de muestreo, usa el método de aproximación iterativa mediante el cual puede obtenerse una tupla de a, b, X0 , Y0 , Z0 a partir de la cual se facilita la siguiente fórmula, en la que un centroide de la región de mano viene dado por (X0, Y0 , Z0) y (a, b) calculados a partir de 2 puntos arbitrarios del conjunto S que se usa como valor inicial.
[Expresión matemática 8]
Figure imgf000012_0002
La unidad 230 de normalización en plano de región de mano obtiene la ecuación de paraboloide elíptico aplicada al paraboloide elíptico con respecto a la mano en el estado expandido y la mano en el estado doblado.
<<Normalización en plano>>
La figura 11 es un diagrama explicativo de la normalización en plano. La normalización en plano conlleva cambiar la forma de la imagen de modo que la superficie curvada se estira y se expande para dar un plano.
La figura 11 representa una superficie paralela al eje Z de las coordenadas tridimensionales. El eje de las ordenadas en la figura 11 indica una dirección paralela a la dirección del eje Z. El eje de las abscisas en la figura 11 indica una dirección paralela a una dirección del eje X o del eje Y. El símbolo (a) en la figura 11 representa una sección del paraboloide elíptico. Además, (b) en la figura 11 representa una sección del plano ortogonal al eje Z.
La unidad 230 de normalización en plano de región de mano cambia la forma de la superficie curvada en la que la mano según viene dada por (a) en la figura 11 se aplica al paraboloide elíptico para convertirse en el plano según viene dado por (b) en la figura 11.
(X, Y) en el paraboloide elíptico al que se aplica la mano se transforma en (X', Y') en el plano. En el presente documento una relación entre (X, Y) y (X', Y') se expresa de la siguiente manera.
[Expresión matemática 9]
Figure imgf000013_0001
donde;
[Expresión matemática 10]
Figure imgf000013_0002
En el presente documento, “N” puede establecerse a un número finito correspondiente al rendimiento del ordenador. La unidad 230 de normalización en plano de región de mano lleva a cabo la normalización en plano con respecto a la mano en el estado expandido y la mano en el estado doblado.
«Extracción de líneas oscuras y extracción de características de elementos de líneas oscuras»
La unidad 240 de extracción de líneas oscuras extrae la línea oscura a partir de la región de imagen de mano que se somete a la normalización en plano en la unidad 230 de normalización en plano de región de mano. La línea oscura corresponde a la porción lineal que muestra una baja intensidad en comparación con la intensidad ambiental en la imagen de la región de mano.
La figura 12 es un diagrama gráfico que ilustra un ejemplo de primera derivada basándose en la porción de la línea oscura a lo largo de un determinado eje en la imagen de mano que se somete a la normalización en plano, la intensidad periférica y la posición de la intensidad periférica. El eje de las abscisas del gráfico en la figura 12 representa la posición. El eje de las ordenadas del gráfico en la figura 12 representa la intensidad o la primera derivada de la intensidad.
En la zona de la línea oscura, como en el gráfico superior de la figura 12, una porción de cambio de una intensidad (brillante) estable que muestra un valor relativamente grande a una intensidad (oscura) que muestra un valor relativamente pequeño es adyacente a una porción de cambio de la intensidad que muestra el valor relativamente pequeño a la intensidad que muestra el valor relativamente grande.
La unidad 240 de extracción de líneas oscuras obtiene la diferencia en intensidad entre píxeles adyacentes explorando la imagen de la región de mano en la dirección horizontal o vertical. La unidad 240 de extracción de líneas oscuras busca una porción en la que un valor de acumulación de los valores diferenciales entre las intensidades en una sección de este tipo que tiene una longitud predeterminada que la intensidad cambia de brillante a oscura en la dirección horizontal y también en la dirección vertical, es igual o inferior a un valor predeterminado. La unidad 240 de extracción de líneas oscuras puede detectar, como línea oscura, la porción, separada una distancia dentro de un valor predeterminado en la dirección positiva a partir del pixel de la porción relevante, en la que el valor de acumulación de los valores diferenciales entre las intensidades en una sección de este tipo que tiene la longitud predeterminada que la intensidad cambia de oscura a brillante es igual o superior al valor predeterminado. La unidad 240 de extracción de líneas oscuras puede extraer la línea oscura de otra manera. La unidad 240 de extracción de líneas oscuras extrae la línea oscura con respecto a la mano en el estado expandido y la mano en el estado doblado.
La unidad 250 de extracción de características de elementos de líneas oscuras extrae la característica de elemento de línea oscura de cada línea oscura extraída por la unidad 240 de extracción de líneas oscuras. Los tipos de las características de elementos de líneas oscuras se muestran a modo de ejemplo por la anchura y la densidad de la línea oscura.
La posición de la línea oscura puede expresarse, en puntos de extremo de una sección adyacente de cambio de brillante a oscuro y de otra sección adyacente de cambio de oscuro a brillante, como coordenadas de un punto central de los puntos de extremo cada uno más cerca de otra sección. La anchura de la línea oscura puede expresarse mediante una distancia entre el centro de una sección adyacente de cambio de brillante a oscuro y el centro de otra sección adyacente de cambio de oscuro a brillante. La densidad de la línea oscura puede expresarse con un promedio de valores absolutos de los valores de acumulación de los valores diferenciales entre las intensidades de una sección adyacente de cambio de brillante a oscuro y otra sección adyacente de cambio de oscuro a brillante. La unidad 250 de extracción de características de elementos de líneas oscuras puede extraer las características de elementos de líneas oscuras mediante otros métodos.
La unidad 250 de extracción de características de elementos de líneas oscuras extrae las características de elementos de líneas oscuras con respecto a la mano en el estado expandido y la mano en el estado doblado.
La unidad 250 de extracción de características de elementos de líneas oscuras genera una imagen de una matriz bidimensional (formato de imagen) en la que el pixel en la posición de línea oscura detectada almacena un valor de la densidad de la línea oscura. Además, la unidad 250 de extracción de características de elementos de líneas oscuras genera una imagen de la matriz bidimensional (formato de imagen) en la que el pixel en la posición de línea oscura detectada almacena un valor de la anchura de la línea oscura. La unidad 250 de extracción de características de elementos de líneas oscuras genera las imágenes de la mano en el estado expandido y la mano en el estado doblado.
En el presente documento, se supone que la imagen almacenada con el valor de la densidad de la línea oscura cuando la mano está expandida es una imagen Id1. Se supone que la imagen almacenada con el valor de la anchura de la línea oscura cuando la mano está expandida es una imagen Iw1. Además, se supone que la imagen almacenada con el valor de la densidad de la línea oscura cuando la mano está doblada es una imagen Id2. Se supone que la imagen almacenada con el valor de la anchura de la línea oscura cuando la mano está doblada es una imagen Iw2.
<Determinación de datos de superficie>
La unidad 260 de determinación de datos de superficie determina, a partir de la variación de la anchura de la línea oscura y la variación de la densidad de la línea oscura, si la línea oscura representa o no los datos de superficie para cada línea oscura. Por tanto, la unidad 260 de determinación de datos de superficie puede extraer la línea oscura definida como los datos de superficie de la mano.
El lado interior de la mano se marca con las arrugas doblando el lado interior de la mano de la persona. Un área de superficie en una superficie envolvente de la superficie interna de la mano en el estado doblado es menor que en el estado expandido. La unidad 260 de determinación de datos de superficie es capaz de ajustar los tamaños en el estado de mano expandida y en el estado de mano doblada así como de realizar la alineación.
La unidad 260 de determinación de datos de superficie realiza la alineación y ajusta los tamaños entre las dos imágenes, es decir, la imagen Id1 y la imagen Id2. Se supone que los coeficientes en el momento de aproximarse al paraboloide elíptico cuando la mano está expandida son (a1, b1, X01, Y01, X01) y los coeficientes en el momento de aproximarse al paraboloide elíptico cuando la mano está doblada son (a2, b2, X02, Y02, X02). La unidad 260 de determinación de datos de superficie desplaza la imagen Id2 en -(X02-X01) y -(Y02-Y01) en la dirección del eje de las X y la dirección del eje de las Y. Se supone que la imagen Id2 desplazada de este modo es una imagen Id2'. Sea A1 un área de la región de mano (el número de píxeles contenidos en la región de mano) de la imagen tras realizar la normalización en plano cuando la mano está expandida, y sea A2 un área de la región de mano de la imagen tras realizar la normalización en plano cuando la mano está doblada. La unidad 260 de determinación de datos de superficie realiza un aumento 1 y contracción de (A1/A2) 1/2 veces de la imagen Id2' estando (X01, Y01) centrados. Se supone que la imagen Id2' así ampliada y contraída es una imagen Id2”.
De manera similar, la unidad 260 de determinación de datos de superficie realiza la alineación y ajusta los tamaños entre las dos imágenes, es decir, la imagen Iw1 y la imagen Iw2. La unidad 260 de determinación de datos de superficie obtiene una imagen Iw2' y una imagen Iw2” ejecutando las mismas operaciones que anteriormente.
La unidad 260 de determinación de datos de superficie obtiene una variación de densidad de líneas oscuras Ad = Id2” (x, y)-Id1 (w, y) y una variación de anchura de líneas oscuras Aw = Iw2” (x, y) -Iw1 (w, y) para los píxeles que tienen cada una la salida en las mismas coordenadas (w, y) con respecto a las imágenes Id1, Id2”, Iw1, Iw2”.
La unidad 260 de determinación de datos de superficie lee una condición que se determina que son los datos de superficie a partir de la unidad 270 de almacenamiento de datos de cambio de superficie. En la unidad 270 de almacenamiento de datos de cambio de superficie se almacenan las condiciones para determinar el elemento como la arruga si un cambio en la densidad de la línea oscura es, por ejemplo, positivo y si un cambio en la anchura de la línea oscura es negativo. En este momento, la unidad 260 de determinación de datos de superficie determina, cuando Ad>0 y Aw<0, que la línea oscura son los datos de superficie. Mientras que por otro lado, la unidad 260 de determinación de datos de superficie determina, cuando Ad<0 o Aw>0, que la línea oscura no son los datos de superficie.
La figura 13 es un diagrama que ilustra un ejemplo de un criterio para determinar los datos de superficie. En el ejemplo de la figura 13, si el cambio en la densidad de la línea oscura es en una dirección de densificación y si el cambio en la anchura de la línea oscura es en una dirección de adelgazamiento, se determina que la línea oscura son los datos (datos de superficie) sobre la superficie arruga.
La unidad 260 de determinación de datos de superficie almacena los datos de línea oscura que se determina que son los datos de superficie en la unidad 280 de almacenamiento de características de superficie viva. La unidad 260 de determinación de datos de superficie puede almacenar en la unidad 280 de almacenamiento de características de superficie viva los datos de posición de la línea oscura que se determina que son los datos de superficie.
La unidad 260 de determinación de datos de superficie puede determinar, si la imagen captada de la mano no muestra ninguna existencia de la línea oscura reconocida como los datos de superficie, que la mano de la que se obtienen imágenes es falsa. Esto se debe a que se considera que los datos de superficie de mano derivados de las arruga de mano existen en el caso del organismo vivo.
Los datos de superficie de mano almacenados en la unidad 280 de almacenamiento de características de superficie viva pueden usarse como información de identificación de un individuo en el momento de la autenticación biométrica.
En la unidad 280 de almacenamiento de características de superficie viva pueden almacenarse previamente elementos de datos de superficie de mano de personas conocidas. En este caso, puede identificarse al individuo haciendo coincidir los datos de superficie de la imagen de mano captada con los datos de superficie de mano almacenados en la unidad 280 de almacenamiento de características de superficie viva. En la unidad 280 de almacenamiento de características de superficie viva pueden almacenarse los datos de superficie de mano de una pluralidad de personas y la información de identificación de esas personas de modo que están asociados entre sí. (Ejemplos aplicados)
Los datos de patrón palmar definidos como los datos de superficie de la palma de la mano pueden usarse a modo de autenticación de patrón palmar como una técnica de autenticación biométrica. En el dispositivo de autenticación biométrica que incluye el dispositivo de adquisición de datos biométricos se almacenaron previamente los datos de patrón palmar para cada usuario, y compara los datos de superficie de mano (datos de patrón palmar) adquiridos mediante obtención de imágenes de la mano del usuario con los datos de patrón palmar previamente almacenados, permitiendo así realizar la autenticación biométrica.
Además, el dispositivo de autenticación biométrica puede configurarse combinando la autenticación biométrica basada en los datos de superficie de la palma de la mano con la autenticación de venas de palma de la mano clasificada como autenticación biométrica que va dirigida de manera similar a la palma de la mano. En este caso, la unidad 100 de sensor de autenticación en la realización puede emplearse como sensor de autenticación para la autenticación de venas.
La figura 14 es un diagrama de bloques que ilustra un ejemplo del dispositivo de autenticación biométrica. Un dispositivo 1000 de autenticación biométrica en la figura 14 incluye un dispositivo 10 de adquisición de datos biométricos que tiene una unidad 100 de sensor de autenticación, una unidad 500 de autenticación de venas y una unidad 600 de determinación. El dispositivo 1000 de autenticación biométrica puede incluir además una unidad 700 de almacenamiento.
El dispositivo 10 de adquisición de datos biométricos capta la imagen de la palma de la mano y extrae los datos de superficie de la palma de la mano. El dispositivo 10 de adquisición de datos biométricos lleva a cabo la autenticación biométrica mediante el uso de los datos de superficie extraídos de la palma de la mano. Además, el dispositivo 10 de adquisición de datos biométricos, si se impide que adquiera datos de superficie de la palma de la mano, determina que la palma de la mano de la que se obtienen imágenes es falsa. El dispositivo 10 de adquisición de datos biométricos transmite, a la unidad 600 de determinación, al menos uno de un resultado de la autenticación biométrica basada en los datos de superficie de la palma de la mano y un resultado de determinar si el objeto es un organismo vivo o no. El dispositivo 10 de adquisición de datos biométricos en la figura 14 tiene la misma configuración y la misma función por lo menos que tiene el dispositivo 10 de adquisición de datos biométricos en la figura 1. El dispositivo 10 de adquisición de datos biométricos puede extraer los datos de superficie de palmas de las manos individuales o múltiples, que son similares a los datos de superficie de palma de la mano extraídos a partir de la imagen captada y previamente almacenados en la unidad 280 de almacenamiento de características de superficie viva, etc.
La unidad 500 de autenticación de venas realiza la autenticación biométrica basada en los datos de venas de la palma de la mano de una manera que emplea la palma de la imagen de mano captada por la unidad 100 de sensor de autenticación. La unidad 500 de autenticación de venas puede extraer los datos de venas de la palma de la mano a partir de la imagen de palma de la mano captada por la unidad 100 de sensor de autenticación. La unidad 500 de autenticación de venas transmite el resultado de la autenticación biométrica basada en los datos de venas de la palma de la mano a la unidad 600 de determinación. La unidad 500 de autenticación de venas puede llevar a cabo la autenticación biométrica basada en los datos de venas mediante el uso de la imagen captada en el estado de palma de la mano expandida. La unidad 500 de autenticación de venas puede extraer los datos de venas de la palma de la mano a partir de la imagen captada en el estado de palma de la mano expandida.
En la unidad 500 de autenticación de venas pueden almacenarse previamente los datos de venas de la palma de la mano de una persona conocida. La unidad 500 de autenticación de venas puede realizar la autenticación biométrica haciendo coincidir la información de venas extraída a partir de la imagen captada con los datos de venas almacenados. En la unidad 500 de autenticación de venas pueden almacenarse los datos de venas de las palmas de las manos de la pluralidad de personas y fragmentos de información de identificación de esas personas de modo que están asociados entre sí.
La unidad 500 de autenticación de venas puede ejecutar un procedimiento de hacer coincidir los datos de venas asociados con las palmas de las manos individuales o múltiples que se extraen por el dispositivo 10 de adquisición de datos biométricos con los datos de venas de palma de la mano extraídos a partir de la imagen captada.
La unidad 600 de determinación puede llevar a cabo la autenticación basándose en el resultado de la autenticación biométrica basada en los datos de superficie de palma de la mano, el resultado de determinar a partir de los datos de superficie de palma de la mano si el objeto es un organismo vivo o no y el resultado de la autenticación biométrica basada en los datos de venas de palma de la mano. La unidad 600 de determinación puede autenticar una identidad cuando la autenticación se vuelve satisfactoria (autenticación OK) en la autenticación biométrica basada en los datos de superficie de palma de la mano y cuando la autenticación se vuelve satisfactoria (autenticación OK) en la autenticación biométrica basada en los datos de venas de palma de la mano.
En la unidad 700 de almacenamiento pueden almacenarse los datos de superficie de palma de la mano del usuario, los datos de venas de palma de la mano del usuario y la información de identificación del usuario de modo que están asociados entre sí. En la unidad 700 de almacenamiento pueden almacenarse previamente estos elementos de datos de la pluralidad de usuarios. El dispositivo 10 de adquisición de datos biométricos y la unidad 500 de autenticación de venas pueden adquirir cada uno los datos de superficie de palma de la mano y los datos de venas de palma de la mano a partir de la unidad 700 de almacenamiento. En la unidad 700 de almacenamiento se almacenan los datos de superficie de palma de la mano del usuario, los datos de venas de palma de la mano del usuario y la información de identificación del usuario de modo que están asociados entre sí, en cuyo caso en el dispositivo 10 de adquisición de datos biométricos y la unidad 500 de autenticación de venas pueden no almacenarse estos elementos de datos.
Los datos de patrón palmar son los datos sobre la superficie del cuerpo, y en cambio los datos de venas de palma de la mano son los datos in vivo. Por consiguiente, no existe básicamente ninguna relación entre estas dos categorías de datos. Por tanto, aumenta la cantidad de los datos sobre una persona individual, y el uso de ambas de estas dos categorías de datos permite la realización de la autenticación individual con precisión potenciada adicional de la identificación individual en la autenticación de venas de palma de la mano en este momento. Concretamente, cuando se confirma la identidad de la persona, cuyos datos de patrón palmar y datos de venas de palma de la mano coinciden, aumenta la precisión de la identificación individual.
Además, la autenticación de patrón palmar también puede usarse para reducir el tiempo para la autenticación de venas de palma de la mano. La autenticación de venas de palma de la mano muestra la alta precisión de la identificación individual pero tiene una gran cantidad de datos por cabeza y un periodo de tiempo prolongado para hacer coincidir. Por consiguiente, si los elementos de datos de venas de palma de la mano introducidos para el procedimiento de identificación individual tienen que hacerse coincidir con los datos de todas las personas registradas, se emplean varias decenas de segundos según pueda ser cada caso. Por tanto, en cuanto a una interfaz humana, existe una posibilidad de que una persona pueda sentirse incómoda cuando espera el resultado de autenticación. Siendo éste el caso, se selecciona previamente una pluralidad de personas que tienen datos de patrón palmar (datos de superficie de palma de la mano) similares a partir de todas las personas registradas, y puede aplicarse la autenticación de venas de palma de la mano a esas múltiples personas.
Los datos de patrón palmar tienen una cantidad menor de datos que los datos de venas de palma de la mano, y por tanto la precisión de la identificación individual es inferior si los datos de patrón palmar se usan únicamente para la autenticación biométrica. La autenticación de patrón palmar tiene la pequeña cantidad de datos y por tanto permite reducir el tiempo empleado para hacer coincidir. Por consiguiente, la coincidencia en la autenticación biométrica basada en los datos de patrón palmar y los datos de venas de palma de la mano puede realizarse en un periodo de tiempo más corto que el tiempo de coincidencia en la autenticación sólo de venas de palma de la mano. Además, la autenticación biométrica basada en los datos de patrón palmar y los datos de venas de palma de la mano permite la realización del procedimiento de identificación individual equivalente a la autenticación de venas de palma de la mano.
(Efecto operativo de la realización)
Según la realización, los datos de superficie de palma de la mano pueden extraerse captando la imagen de la palma de la mano en el estado expandido y en el estado doblado. Según la realización, la autenticación biométrica puede llevarse a cabo mediante el uso de los datos de superficie de palma de la mano así extraídos.
Además, según la realización, la autenticación de patrón palmar y la autenticación de venas pueden llevarse a cabo empleando la imagen captada mediante el mismo sensor de autenticación. Según la realización, la autenticación biométrica se lleva a cabo usando los datos de superficie de palma de la mano y los datos de venas de palma de la mano que no están relacionados entre sí, mediante lo cual puede realizarse el procedimiento de identificación individual con una precisión mucho mayor.

Claims (1)

  1. REIVINDICACIONES
    Dispositivo (10) de adquisición de datos biométricos que comprende:
    una unidad (122) de obtención de imágenes dispuesta para adquirir, con iluminación de un lado interior de una mano de un usuario mediante una luz de iluminación y sin iluminación del lado interior de la mano del usuario mediante la luz de iluminación, una imagen respectiva del lado interior de la mano del usuario captada en un primer estado en el que el lado interior de la mano del usuario se ha estirado de modo que una superficie del lado interior de la mano es sustancialmente plana, y para adquirir, con iluminación del lado interior de la mano del usuario mediante la luz de iluminación y sin iluminación del lado interior de la mano del usuario mediante la luz de iluminación, una imagen respectiva del lado interior de la mano del usuario captada en un segundo estado en el que el lado interior de la mano del usuario se ha doblado de modo que la superficie del lado interior de la mano es una superficie curvada;
    una unidad (210) de extracción de región de mano dispuesta para extraer, para cada uno del primer estado y el segundo estado de la mano del usuario, una imagen extraída respectiva de la mano basándose en una diferencia entre las imágenes de la mano en el estado respectivo que se han captado con iluminación del lado interior de la mano del usuario mediante la luz de iluminación y sin iluminación del lado interior de la mano del usuario mediante la luz de iluminación;
    una unidad (220) de medición de distancia de región de mano dispuesta para medir un primer conjunto de distancias desde un plano en el que existe el módulo (122) de obtención de imágenes hasta puntos respectivos de la mano del usuario en la imagen captada en el primer estado, constituyendo un primer mapa de distancias, y un segundo conjunto de distancias desde el plano en el que existe el módulo (122) de obtención de imágenes hasta puntos respectivos de la mano del usuario en la imagen captada en el segundo estado, constituyendo un segundo mapa de distancias;
    una unidad (230) de normalización dispuesta para generar una primera imagen normalizada, basándose en el primer conjunto de distancias, aplicando el primer mapa de distancias a un modelo de paraboloide elíptico para transformar puntos en un paraboloide elíptico del modelo de paraboloide elíptico en puntos respectivos en un plano, creando así la primera imagen normalizada, y para generar una segunda imagen normalizada, basándose en el segundo conjunto de distancias, aplicando el segundo mapa de distancias a un modelo de paraboloide elíptico a la imagen extraída de la mano en el segundo estado para transformar puntos en un paraboloide elíptico del modelo de paraboloide elíptico en puntos respectivos en un plano, creando así la segunda imagen normalizada;
    una unidad (240) de extracción de líneas negras dispuesta para extraer líneas negras de la primera imagen normalizada y la segunda imagen normalizada, respectivamente;
    una unidad (250) de extracción de características de elementos de líneas negras dispuesta para extraer una densidad y una anchura de la línea negra en la primera imagen normalizada y una densidad y una anchura de la línea negra en la segunda imagen normalizada; y
    una unidad (260) de determinación de datos de superficie dispuesta para determinar la línea negra como la línea negra derivada de la arruga en la mano con respecto a las líneas negras de la primera imagen normalizada y la segunda imagen normalizada en la misma posición si la densidad extraída de la línea negra de la segunda imagen normalizada es mayor que la densidad extraída de la línea negra de la primera imagen normalizada y la anchura extraída de la línea negra de la segunda imagen normalizada es menor que la anchura extraída de la línea negra de la primera imagen normalizada, y para extraer la línea negra determinada derivada de la arruga en la mano.
    Dispositivo (10) de adquisición de datos biométricos según la reivindicación 1, en el que dicha unidad (260) de determinación de datos de superficie está dispuesta para determinar, si las líneas negras extraídas de la primera imagen normalizada y la segunda imagen normalizada contienen las líneas negras derivadas de las arrugas formadas basándose en doblar y estirar la mano, que la primera imagen y la segunda imagen se obtienen mediante obtención de imágenes de un organismo vivo.
    Dispositivo (1000) de autenticación biométrica que comprende un dispositivo (10) de adquisición de datos biométricos según la reivindicación 1 o la reivindicación 2, en el que la unidad (260) de determinación de datos de superficie está dispuesta además para ejecutar un procedimiento de hacer coincidir la línea negra extraída derivada de la arruga en la mano con una línea negra previamente registrada derivada de la arruga en la mano que está asociada con el usuario.
    Dispositivo (1000) de autenticación biométrica según la reivindicación 3, que comprende además:
    una unidad (280) de almacenamiento dispuesta para almacenar fragmentos de información de identificación de una pluralidad de usuarios en asociación con datos de superficie de líneas negras derivadas de arrugas formadas basándose en doblar y estirar las manos y datos de venas de las manos de la pluralidad de usuarios,
    en el que la unidad (260) de determinación de datos de superficie está dispuesta para ejecutar el procedimiento de hacer coincidir la línea negra extraída derivada de la arruga en la mano con la línea negra derivada de la arruga en la mano que está almacenada en dicha unidad (280) de almacenamiento, y para extraer los datos de superficie de la línea negra derivada de la arruga en la mano que es similar a la línea negra extraída derivada de la arruga en la mano y almacenada en dicha unidad (280) de almacenamiento, comprendiendo el dispositivo (1000) de autenticación biométrica además:
    una unidad (500) de determinación de datos de venas dispuesta para ejecutar un procedimiento de extraer datos de venas de la mano a partir de la primera imagen normalizada y hacer coincidir los datos de venas extraídos con los datos de venas de mano asociados con los datos de superficie de la línea negra derivada de la arruga en las manos individuales o múltiples que se extraen mediante dicha unidad de determinación de datos de superficie a partir de dicha unidad (280) de almacenamiento; y
    una unidad (600) de determinación dispuesta para autenticar al usuario si un resultado de coincidencia de dicha unidad (500) de determinación de datos de venas resulta ser normal pero no autenticar al usuario si el resultado de coincidencia de dicha unidad (500) de determinación de datos de venas resulta no ser normal. Dispositivo (1000) de autenticación biométrica según la reivindicación 3, que comprende además:
    una unidad (500) de determinación de datos de venas dispuesta para ejecutar un procedimiento de extraer datos de venas de la mano a partir de la primera imagen normalizada y hacer coincidir los datos de venas con datos de venas previamente registrados de la mano que está asociada con el usuario; y
    una unidad (600) de determinación dispuesta para autenticar al usuario si un resultado de coincidencia de dicha unidad (260) de determinación de datos de superficie resulta ser normal y un resultado de coincidencia de dicha unidad (500) de determinación de datos de venas resulta ser normal pero no autenticar al usuario si un resultado de coincidencia de dicha unidad (260) de determinación de datos de superficie resulta no ser normal o un resultado de coincidencia de dicha unidad (500) de determinación de datos de venas resulta no ser normal.
ES09841862T 2009-03-18 2009-03-18 Dispositivo de adquisición de datos biométricos Active ES2731898T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/055352 WO2010106657A1 (ja) 2009-03-18 2009-03-18 生体情報取得装置及び生体認証装置

Publications (1)

Publication Number Publication Date
ES2731898T3 true ES2731898T3 (es) 2019-11-19

Family

ID=42739326

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09841862T Active ES2731898T3 (es) 2009-03-18 2009-03-18 Dispositivo de adquisición de datos biométricos

Country Status (5)

Country Link
US (1) US8692875B2 (es)
EP (1) EP2410486B1 (es)
JP (1) JP5293806B2 (es)
ES (1) ES2731898T3 (es)
WO (1) WO2010106657A1 (es)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6160148B2 (ja) * 2013-03-19 2017-07-12 富士通株式会社 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
EP3051460A4 (en) * 2013-09-24 2017-05-24 Beijing Zhboon Information Technology Co., Ltd. Non-contact palmprint authentication method and device and portable terminal
JP6482816B2 (ja) * 2014-10-21 2019-03-13 Kddi株式会社 生体検知装置、システム、方法及びプログラム
KR102302844B1 (ko) 2014-10-23 2021-09-16 삼성전자주식회사 정맥 패턴을 이용한 사용자 인증 방법 및 장치
JP6604008B2 (ja) 2015-03-13 2019-11-13 富士通株式会社 画像処理装置、画像処理プログラム、及び画像処理方法
CN111242092A (zh) * 2015-07-29 2020-06-05 财团法人工业技术研究院 生物辨识装置与穿戴式载体
US10915725B2 (en) * 2019-07-01 2021-02-09 Thales Dis Usa Inc. Method to generate a slap/fingers foreground mask

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2763830B2 (ja) 1991-03-06 1998-06-11 シャープ株式会社 指紋入力装置
DE4421242B4 (de) 1993-06-17 2005-12-08 Pentax Corp. Bilderfassungseinrichtung für ein Identifikationssystem
JPH0721348A (ja) * 1993-06-21 1995-01-24 Asahi Optical Co Ltd 手相入力装置
US6091838A (en) 1998-06-08 2000-07-18 E.L. Specialists, Inc. Irradiated images described by electrical contact
US20020056812A1 (en) * 1998-06-08 2002-05-16 Kenneth Burrows Irradiated images described by electrical contact in three dimensions
JP2003050993A (ja) 2001-08-06 2003-02-21 Omron Corp 指紋読取方法および指紋読取装置
JP2004185276A (ja) 2002-12-03 2004-07-02 Matsushita Electric Ind Co Ltd 画像撮影装置および光学素子および情報装置ならびに画像補正方法
JP2005182332A (ja) * 2003-12-18 2005-07-07 Hitachi Ltd 個人認証装置
JP4460367B2 (ja) 2004-06-16 2010-05-12 株式会社日立製作所 個人識別装置
WO2006135394A2 (en) * 2004-08-20 2006-12-21 The Regents Of The University Of Colorado, A Body Corporate Biometric signature and identification through the use of projective invariants
JP4544955B2 (ja) 2004-09-30 2010-09-15 セコム株式会社 画像監視装置
JP2006098340A (ja) * 2004-09-30 2006-04-13 Sharp Corp 内部検出装置
JP4851723B2 (ja) 2005-03-04 2012-01-11 富士通株式会社 内部構造画像取得装置、内部構造画像取得方法および内部構造画像取得プログラム
JP4692174B2 (ja) 2005-09-14 2011-06-01 株式会社日立製作所 個人認証装置及びドア開閉システム
JP2007219625A (ja) * 2006-02-14 2007-08-30 Canon Inc 血管画像入力装置、及び個人認証システム
US9042606B2 (en) * 2006-06-16 2015-05-26 Board Of Regents Of The Nevada System Of Higher Education Hand-based biometric analysis
US7983451B2 (en) * 2006-06-30 2011-07-19 Motorola Mobility, Inc. Recognition method using hand biometrics with anti-counterfeiting
JP4659691B2 (ja) * 2006-07-03 2011-03-30 株式会社日立製作所 特徴パターン検出装置
JP4833115B2 (ja) * 2007-03-02 2011-12-07 Kddi株式会社 掌紋認証装置、携帯電話端末、プログラム、および掌紋認証方法
JP4760870B2 (ja) * 2008-08-04 2011-08-31 株式会社日立製作所 個人認証装置及び方法
JP5098973B2 (ja) * 2008-11-27 2012-12-12 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム

Also Published As

Publication number Publication date
EP2410486A4 (en) 2016-05-11
US8692875B2 (en) 2014-04-08
EP2410486A1 (en) 2012-01-25
EP2410486B1 (en) 2019-04-24
WO2010106657A1 (ja) 2010-09-23
JP5293806B2 (ja) 2013-09-18
US20120007976A1 (en) 2012-01-12
JPWO2010106657A1 (ja) 2012-09-20

Similar Documents

Publication Publication Date Title
ES2731898T3 (es) Dispositivo de adquisición de datos biométricos
US10762367B2 (en) Systems and methods of biometric analysis to determine natural reflectivity
TWI224287B (en) Iris extraction method
US11294455B2 (en) Method and device for determining gaze placement, computer readable storage medium
JP4640295B2 (ja) 個人認証装置及び方法
US10417472B2 (en) Device and method for measuring three-dimensional shape
JP2010250466A (ja) 個人認証装置
KR20110063679A (ko) 정맥 패턴 인식 기반 생체인증 시스템 및 그 방법
ES2882498T3 (es) Dispositivo accesorio y dispositivo de formación de imágenes
WO2005002441A1 (ja) 生体眼判定方法および生体眼判定装置
KR102679397B1 (ko) 생체 인증 장치 및 생체 인증 방법
CN102855626A (zh) 光源方向标定及人体信息三维采集方法与装置
JP5982311B2 (ja) 血管画像撮影装置
ES2931975T3 (es) Procedimiento para registrar huellas dactilares
JP2018081469A (ja) 血管画像撮影装置および個人認証システム
US11768926B2 (en) Method of textured contact lens detection
US11531756B1 (en) Apparatus for directing presentation attack detection in biometric scanners
JP2009076092A (ja) 個人認証装置及び方法
KR20150139379A (ko) 홍채 인식 장치 및 그 동작 방법