JP6242726B2 - 生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム - Google Patents

生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム Download PDF

Info

Publication number
JP6242726B2
JP6242726B2 JP2014062775A JP2014062775A JP6242726B2 JP 6242726 B2 JP6242726 B2 JP 6242726B2 JP 2014062775 A JP2014062775 A JP 2014062775A JP 2014062775 A JP2014062775 A JP 2014062775A JP 6242726 B2 JP6242726 B2 JP 6242726B2
Authority
JP
Japan
Prior art keywords
feature amount
segments
feature
image
vein
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014062775A
Other languages
English (en)
Other versions
JP2015185046A5 (ja
JP2015185046A (ja
Inventor
一博 古村
一博 古村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Frontech Ltd filed Critical Fujitsu Frontech Ltd
Priority to JP2014062775A priority Critical patent/JP6242726B2/ja
Priority to PCT/JP2015/059213 priority patent/WO2015147088A1/ja
Publication of JP2015185046A publication Critical patent/JP2015185046A/ja
Publication of JP2015185046A5 publication Critical patent/JP2015185046A5/ja
Priority to US15/266,067 priority patent/US20170000411A1/en
Application granted granted Critical
Publication of JP6242726B2 publication Critical patent/JP6242726B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/478Contour-based spectral representations or scale-space representations, e.g. by Fourier analysis, wavelet analysis or curvature scale-space [CSS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0475Special features of memory means, e.g. removable memory cards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Vascular Medicine (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Artificial Intelligence (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本開示の実施形態では、静脈データを用いて本人であるか否かを判定する生体認証の技術に関する。
既存の生体認証方法として、例えば、利用者を撮影した画像から取得される照合静脈データと予め登録される登録静脈データとでマッチング(照合処理)を行い、そのマッチングにより得られる照合静脈データと登録静脈データとの類似度により本人であるか否かを判定する(1対1認証)。
また、既存の生体認証方法として、1対1認証の他に、照合静脈データと複数の登録静脈データとでそれぞれマッチングを行い、それらマッチングにより得られる複数の類似度のうち最も高い類似度により本人であるか否かを判定するものがある(1対N認証)。
静脈データのようにデータ量の多いマッチングでは、1件ずつの処理に時間を要するため、1対N認証では、登録静脈データの登録件数(N)が増加すればするほど、照合処理に時間がかかってしまう。
そこで、1対N認証において、照合時間を短縮するための方法がある。例えば、照合静脈データから得られる照合特徴量と登録静脈データから得られる登録特徴量との類似度が高い順に複数の登録静脈データをソートし、認証静脈データとソートの上位の登録静脈データとでマッチングを行うものがある(例えば、特許文献1参照)。
特開2007−249339号公報 特許第5363587号公報
また、上述のように特徴量を用いる1対N認証では、静脈データの登録時と認証時とで、撮影環境や利用者の体勢が大きく変動してしまうと、登録特徴量や照合特徴量を精度良く抽出することができないおそれがある。そのため、最も類似度が高い登録静脈データが上位になる確率を上げることが難しくなり、認証精度の低下が懸念される。
そこで、本開示の実施形態では、1対N認証において、照合処理時間の増加を抑えつつ、認証精度の低下を抑えることが可能な生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラムを提供することを目的とする。
本開示の実施形態の生体情報登録方法は、コンピュータが、画像取得部により取得された画像から静脈像を示す静脈データ及び特徴量を抽出し、前記静脈データ及び前記特徴量を記憶部に記憶させる生体情報登録方法であって、前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
本開示の実施形態の生体認証方法は、コンピュータが、画像取得部により取得された画像から静脈像を示す静脈データ及び特徴量を抽出し、前記抽出した特徴量と、記憶部に記憶されている登録特徴量との比較結果により前記記憶部に記憶されている複数の登録静脈データを絞り込み、その絞り込んだ登録静脈データと前記抽出した静脈データとの類似度を求め、前記求めた類似度により本人であるか否かを判定する生体認証方法であって、前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
本開示の実施形態の生体情報登録装置は、画像取得部により取得される画像から静脈像を示す静脈データ及び特徴量を抽出する特徴量抽出部と、前記特徴量抽出部により抽出された静脈データ及び特徴量を記憶部に記憶させる特徴量登録部とを備え、前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
本開示の実施形態の生体認証装置は、画像取得部により取得される画像から静脈像を示す静脈データ及び特徴量を抽出する特徴量抽出部と、前記特徴量抽出部により抽出された特徴量と、記憶部に記憶されている登録特徴量との比較結果により、前記記憶部に記憶されている複数の登録静脈データを絞込み、その絞り込んだ登録静脈データと、前記特徴量抽出部により抽出された静脈データとの類似度を求める照合部と、前記照合部により求められた類似度により本人であるか否かを判定する判定部とを備え、前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
本開示の実施形態のプログラムは、コンピュータに、画像取得部により取得される画像から静脈像を示す静脈データ及び特徴量を抽出し、前記抽出した静脈データ及び特徴量を記憶部に記憶させることを実行させるプログラムであって、前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
また、本開示の実施形態のプログラムは、コンピュータに、画像取得部により取得される画像から静脈像を示す静脈データ及び特徴量を抽出し、前記抽出した特徴量と、記憶部に記憶されている登録特徴量との比較結果により、前記記憶部に記憶されている複数の登録静脈データを絞り込み、その絞り込んだ登録静脈データと、前記特徴量抽出部により抽出された静脈データとの類似度を求め、前記求めた類似度により本人であるか否かを判定することを実行させるプログラムであって、前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
本開示の実施形態によれば、1対N認証において、照合処理時間の増加を抑えつつ、認証精度の低下を抑えることができる。
本開示の実施形態の生体情報登録装置を示す図である。 生体情報登録方法を示すフローチャートである。 撮像画像の一例を示す図である。 静脈データの一例を示す図である。 記憶部に記憶されるデータの一例を示す図である。 本開示の実施形態の生体認証装置を示す図である。 生体認証方法を示すフローチャートである。 静脈データの絞り込み処理を説明する図である。 判定処理を説明する図である。 特徴量抽出処理を示すフローチャートである。 分割パターンの一例を示す図である。 セグメントの一例を示す図である。 特徴量算出処理を示すフローチャートである。 第1の特徴量を説明するための図である。 セグメントの一例を示す図である。 第2の特徴量を説明するための図である。 第3の特徴量を説明するための図である。 第4の特徴量を説明するための図である。 第5の特徴量を説明するための図である。 第6の特徴量を説明するための図である。 第7の特徴量を説明するための図である。 生体情報登録装置又は生体認証装置のハードウェアの一例を示す図である。
図1は、本開示の実施形態の生体情報登録装置を示す図である。
図1に示す生体情報登録装置1は、画像取得部2と、特徴量抽出部3と、特徴量登録部4と、記憶部5とを備える。なお、画像取得部2や記憶部5は、生体情報登録装置1の外部に設けられてもよい。
図2は、生体情報登録方法を示すフローチャートである。
まず、画像取得部2は、利用者の手の撮像画像を取得する(S11)。例えば、画像取得部2は、撮像装置であって、単板の撮像素子とベイヤー配列のRGBの各カラーフィルタにより利用者の手を撮影する。また、画像取得部2は、利用者の手に近赤外線を照射し、その反射光を撮影している。静脈に流れている赤血球の中のヘモグロビンは、近赤外線を吸収するため、例えば、図3に示すように、撮像画像において反射光が弱くなっている静脈像の部分が黒くなる。なお、画像取得部2は、さらに、撮像画像から利用者の手のひらの領域のみの画像を取得してもよい。
次に、特徴量抽出部3は、画像取得部2により取得される画像から静脈像を示す静脈データ及び特徴量を抽出する(S12)。例えば、特徴量抽出部3は、図4に示すような静脈データを抽出する。
そして、特徴量登録部4は、特徴量抽出部3により抽出される静脈データ及び特徴量を記憶部5に記憶させる(S13)。例えば、特徴量登録部4は、特徴量抽出部3により抽出される利用者10人分の静脈データ及びその静脈データに対応する特徴量を、図5に示すように、登録静脈データ01〜10及び登録特徴量01〜10として記憶部5に記憶させる。
図6は、本開示の実施形態の生体認証装置を示す図である。なお、図1に示す構成と同じ構成には同じ符号を付し、その説明を省略する。
図6に示す生体認証装置6は、画像取得部2と、特徴量抽出部3と、記憶部5と、照合部7と、判定部8とを備える。なお、画像取得部2や記憶部5は、生体認証装置6の外部に設けられてもよい。
図7は、生体認証方法を示すフローチャートである。
まず、画像取得部2は、利用者の手の撮像画像を取得する(S21)。
次に、特徴量抽出部3は、画像取得部2により取得される画像から静脈データ及び特徴量を抽出する(S22)。
次に、照合部7は、特徴量抽出部3により抽出される特徴量と予め記憶部5に記憶される登録特徴量との比較結果により、予め記憶部5に記憶されている複数の登録静脈データを絞り込み、その絞り込んだ登録静脈データと特徴量抽出部3により抽出される静脈データとの類似度を求める(S23)。
そして、判定部8は、照合部7により求められる類似度により、本人であるか否かを判定する(S24)。
例えば、照合部7は、特徴量抽出部3により抽出される照合特徴量と、記憶部5に記憶されている登録特徴量との差分の絶対値をスコアとして、対応する登録静脈データとともに記憶部5に記憶させる。図8(a)に示す例では、特徴量抽出部3により抽出される照合特徴量00と記憶部5に記憶されている登録特徴量01との差分の絶対値81がスコアとして登録静脈データ01とともに記憶部5に記憶され、照合特徴量00と登録特徴量02との差分の絶対値67がスコアとして登録静脈データ02とともに記憶部5に記憶され、・・・、照合特徴量00と登録特徴量10との差分の絶対値30がスコアとして登録静脈データ10とともに記憶部5に記憶されている。なお、スコアが小さくなる程、そのスコアに対応する、照合静脈データと登録静脈データとの類似度が大きくなる確率が高くなるものとする。
次に、照合部7は、記憶部5に記憶されているスコアを昇順でソートする。図8(b)に示す例では、ソートの結果、スコアが上から順番に3、4、・・・81となり、そのソートに伴って、登録静脈データが上から順番に登録静脈データ06、07、・・・01と並び替えられている。
次に、照合部7は、登録静脈データの個数を、ソート後の登録静脈データの上位所定%に絞り込む。図8(c)に示す例では、上位30%の登録静脈データ06、07、03に絞り込まれている。
次に、照合部7は、特徴量抽出部3により抽出される照合静脈データと、絞り込んだ登録静脈データとの類似度を求める。図9(a)に示す例では、照合静脈データ00と登録静脈データ06との類似度として90が求められ、照合静脈データ00と登録静脈データ07との類似度として40が求められ、照合静脈データ00と登録静脈データ03との類似度として1000が求められている。
次に、照合部7は、絞り込んだ登録静脈データにそれぞれ対応する類似度のうち、閾値以上の類似度を抽出し、その抽出した類似度を降順でソートする。図9(b)の例では、閾値50以上の類似度90、1000が抽出され、その抽出された類似度90、1000を降順でソートした結果、上から順番に類似度1000、90と並んでいる。
次に、照合部7は、ソート後の類似度のうち、最も大きい類似度を照合用の類似度として求める。図9(c)に示す例では、最も大きい類似度1000が照合用の類似度として求められている。
そして、判定部8は、照合部7により求められる類似度が閾値以上であるとき、本人であると判定する。
次に、図2に示す特徴量抽出処理(S12)や図7に示す特徴量抽出処理(S22)について説明する。
図10は、特徴量抽出処理を示すフローチャートである。
まず、特徴量抽出部3は、画像取得部2により取得される画像を所定の分割パターンにより複数のエリアに分割する(S31)。例えば、特徴量抽出部3は、画像を横方向に3つ、縦方向に2つ分割する場合(分割パターンP1)、図11(a)に示すように、6つのエリアa〜fを取得する。また、特徴量抽出部3は、画像を横方向に2つ、縦方向に3つ分割する場合(分割パターンP2)、図11(b)に示すように、6つのエリアg〜lを取得する。このように画像を分割することにより、分割パターンP1で分割されたエリア間の境界線上にある静脈データは、正しく認識されない可能性があるが、分割パターンP2の境界線上にはならないため、分割パターンP2では正しく認識される。そのため、静脈データの欠落を相互に補完することができる。また、画像を分割して個々のエリアで特徴量を抽出する場合は、画像を分割しないで画像全体において特徴量を抽出する場合に比べて、特徴量が平均化され難いため、特徴量を精度良く抽出することができる。なお、分割パターンは、図11(a)や図11(b)に示すものに限定されない。
次に、特徴量抽出部3は、分割後の複数のエリアのうち、1つのエリアを選択する(S32)。例えば、特徴量抽出部3は、図11(a)に示す6つのエリアa〜fのうち、エリアcを選択する。
次に、特徴量抽出部3は、その選択したエリア内の静脈像をベクトル化して得られる複数のセグメントのうち、着目セグメントを選択するとともに(S33)、ペアセグメントを選択する(S34)。例えば、特徴量抽出部3は、図12に示すように、エリアc内のセグメントc1〜c3のうち、セグメントc1を着目セグメントとして選択し、セグメントc2をペアセグメントとして選択する。
次に、特徴量抽出部3は、特徴量を算出する(S35)。
次に、特徴量抽出部3は、着目セグメントの近傍にもうペアセグメントがないか否かを判断し(S36)、ペアセグメントがあると判断した場合(S36:No)、S34の処理に戻り、ペアセグメントがないと判断した場合(S36:Yes)、選択したエリア内にまだ選択されていない着目セグメントがないか否かを判断する(S37)。例えば、特徴量抽出部3は、図12に示すように、着目セグメントc1とセグメントc3との距離Lが閾値以上であるとき、着目セグメントc1の近傍にもうペアセグメントがないと判断する。
次に、特徴量抽出部3は、未選択の着目セグメントがあると判断した場合(S37:No)、S33の処理へ戻り、未選択の着目セグメントがないと判断した場合(S37:Yes)、未選択のエリアがないか否かを判断する(S38)。例えば、特徴量抽出部3は、図12に示すセグメントc1〜c3をすべて着目セグメントとして選択すると、エリアc内に未選択の着目セグメントがないと判断する。
そして、特徴量抽出部3は、未選択のエリアがあると判断した場合(S38:No)、S32の処理に戻り、未選択のエリアがないと判断した場合(S38:Yes)、特徴量抽出処理を終了する。
次に、図10に示すS35の特徴量算出処理について説明する。
図13は、S35の特徴量算出処理を示すフローチャートである。
まず、特徴量抽出部3は、着目セグメントについて着目分割セグメントを選択する(S41)。
次に、特徴量抽出部3は、ペアセグメントについてペア分割セグメントを選択する(S42)。
次に、特徴量抽出部3は、特徴量として、着目分割セグメントとペア分割セグメントとの関連性を示す特徴量を算出する(S43)。
次に、特徴量抽出部3は、選択可能なペア分割セグメントのうち、最後のペア分割セグメントでないと判断した場合(S44:No)、次のペア分割セグメントを選択し(S42)、着目分割セグメントと次のペア分割セグメントとの関連性を示す特徴量を算出する(S43)。
また、特徴量抽出部3は、選択可能なペア分割セグメントのうち、最後のペア分割セグメントであると判断した場合(S44:Yes)、選択可能な着目分割セグメントのうち、最後の着目分割セグメントであるか否かを判断する(S45)。
次に、特徴量抽出部3は、選択可能な着目分割セグメントのうち、最後の着目分割セグメントでないと判断した場合(S45:No)、次の着目分割セグメントを選択し(S41)、最後のペア分割セグメントになるまでS42〜S44を繰り返す。
そして、特徴量抽出部3は、選択可能な着目分割セグメントのうち、最後の着目分割セグメントであると判断した場合(S45:Yes)、特徴量算出処理を終了する。
例えば、図11(a)に示すように、分割パターンP1により画像が分割され、エリアcが選択され、図12に示すように、セグメントc1が着目セグメントc1として選択され、セグメントc2がペアセグメントc2として選択された場合を考える。
まず、特徴量抽出部3は、図14(a)に示すように、着目セグメントc1のすべての端点及び変曲点を求め、それらの点を点c11〜c16とし、図14(b)に示すように、点c11を点Aとし、点Aから直線距離len離れた着目セグメントc1上の点を点Bとし、点Aと点Bを通る直線ABを着目分割セグメントABとする。
次に、特徴量抽出部3は、図14(a)に示すように、ペアセグメントc2のすべての端点及び変曲点を求め、それらの点を点c21〜c26とし、図14(b)に示すように、点c21を点Cとし、点Cから直線距離len離れたペアセグメントc2上の点を点Dとし、点Cと点Dを通る直線CDをペア分割セグメントCDとする。
次に、特徴量抽出部3は、θ1=acos(AB・CD/|AB||CD|)*(180/π)を演算することにより、図14(b)に示すように、着目分割セグメントABとペア分割セグメントCDがなす角度θ1を算出する。なお、エリアcを2次元座標に置き換えたときの点Aの座標位置を(xa、ya)、点Bの座標位置を(xb、yb)、点Cの座標位置を(xc、yc)、点Dの座標位置を(xd、yd)とする。また、AB・CD=(xb−xa)(xd−xc)+(yb−ya)(yd−yc)とし、|AB|=((xb−xa)+(yb−ya)1/2とし、|CD|=((xd−xc)+(yd−yc)1/2とする。
次に、特徴量抽出部3は、角度θ1についてヒストグラム(度数分布)hist1_P1[Area][n]を求める。なお、P1は分割パターンP1を示し、[Area]は画像分割後のエリアを示し、[n]はヒストグラムの階級数を示している。例えば、180度を6度単位で区切って30個の角度領域(階級)を設定する場合では、その30個の角度領域にそれぞれ対応するカウンタ値sdir(0)〜sdir(29)のうち、角度θ1が含まれる角度領域のカウンタ値をインクリメントし、ヒストグラムhist1_P1[c][30]={sdir(0),sdir(1),…,sdir(29)}を求める。例えば、このとき算出された角度θ1が30度であった場合、特徴量抽出部3は、30度から35度までの角度領域に対応するカウンタ値sdir(5)をインクリメントし、hist1_P1[c][30]={0,0,0,0,0,1,0,…,0}を求める。
次に、特徴量抽出部3は、図14(c)に示すように、次の点c22を点Cとし、点Cから直線距離len離れたペアセグメントc2上の点を点Dとし、点Cと点Dを通る直線CDを次のペア分割セグメントCDとする。
次に、特徴量抽出部3は、着目分割セグメントABと次のペア分割セグメントCDがなす角度θ1を算出する。
次に、特徴量抽出部3は、その角度θ1が含まれる角度領域のカウンタ値をインクリメントし、ヒストグラムhist1_P1[c][30]={sdir(0),sdir(1),…,sdir(29)}を求める。例えば、このとき算出された角度θ1が43度であった場合、特徴量抽出部3は、42度から47度までの角度領域に対応するカウンタ値sdir(7)をインクリメントし、hist1_P1[c][30]={0,0,0,0,0,1,0,1…,0}を求める。
このように、ペアセグメントc2においてペア分割セグメントCDを選択することができなくなるまで、点c11を基準とする着目分割セグメントABとペア分割セグメントCDとがなす角度θ1を繰り返し算出し、それら角度θ1についてそれぞれヒストグラムhist1_P1[c][30]={sdir(0),sdir(1),…,sdir(29)}を求める。
次に、特徴量抽出部3は、次の点c12を点Aとし、点Aから直線距離len離れた着目セグメントc1上の点を点Bとし、点Aと点Bを通る直線ABを次の着目分割セグメントABとし、点c21を点Cとし、点Cから直線距離len離れたペアセグメントc2上の点を点Dとし、点Cと点Dを通る直線CDをペア分割セグメントCDとする。
次に、特徴量抽出部3は、角度θ1を算出し、その角度θ1が含まれる角度領域のカウンタ値をインクリメントし、ヒストグラムhist1_P1[c][30]={sdir(0),sdir(1),…,sdir(29)}を求める。
このように、選択可能な着目分割セグメントABと、選択可能なペア分割セグメントCDとのすべての組合せにおいて、それぞれ、角度θ1を算出し、それら角度θ1についてヒストグラムhist1_P1[c][30]={sdir(0),sdir(1),…,sdir(29)}を求める。
次に、特徴量抽出部3は、同様にして、図11(a)に示す画像の他のエリアa、b、d、e、fについて、それぞれ、ヒストグラムhist1_P1[a][30]、hist1_P1[b][30]、hist1_P1[d][30]、hist1_P1[e][30]、hist1_P1[f][30]を求める。
そして、特徴量抽出部3は、hist1_P1[a][30]〜hist1_P1[f][30]に対して、それぞれ、正規化処理を行う。例えば、特徴量抽出部3は、ヒストグラムhist1_P1[a][30]のsdir(0),sdir(1),…,sdir(29)の合計、hist1_P1[b][30]のsdir(0),sdir(1),…,sdir(29)の合計、・・・、及びhist1_P1[f][30]のsdir(0),sdir(1),…,sdir(29)の合計の総和をALLcnt1とし、以下のように各カウンタ値を総和ALLcnt1で除算して各カウンタ値の比率を整数で表すことにより、正規化処理を行い、正規化後のヒストグラムhist1_P1[a][30]〜hist1_P1[f][30]を、上記照合特徴量又は上記登録特徴量(第1の特徴量)として記憶部5に記憶させる。
hist1_P1[a][30]={sdir(0)/ALLcnt1,sdir(1)/ALLcnt1,…,sdir(29)/ALLcnt1}
hist1_P1[b][30]={sdir(0)/ALLcnt1,sdir(1)/ALLcnt1,…,sdir(29)/ALLcnt1}
hist1_P1[c][30]={sdir(0)/ALLcnt1,sdir(1)/ALLcnt1,…,sdir(29)/ALLcnt1}
hist1_P1[d][30]={sdir(0)/ALLcnt1,sdir(1)/ALLcnt1,…,sdir(29)/ALLcnt1}
hist1_P1[e][30]={sdir(0)/ALLcnt1,sdir(1)/ALLcnt1,…,sdir(29)/ALLcnt1}
hist1_P1[f][30]={sdir(0)/ALLcnt1,sdir(1)/ALLcnt1,…,sdir(29)/ALLcnt1}
また、同様にして、分割パターンP2に対応するヒストグラムhist1_P2[g][30]〜hist1_P2[l][30]を求め、それらヒストグラムhist1_P2[g][30]〜hist1_P2[l][30]に対して、それぞれ、正規化処理を行い、正規化後のヒストグラムhist1_P2[g][30]〜hist1_P2[l][30]を、上記照合特徴量又は上記登録特徴量(第1の特徴量)として記憶部5に記憶させる。
次に、照合部7は、登録特徴量としてのhist1_P1[a][30]と、照合特徴量としてのhist1_P1[a][30]との差分の絶対値、登録特徴量としてのhist1_P1[b][30]と、照合特徴量としてのhist1_P1[b][30]との差分の絶対値、登録特徴量としてのhist1_P1[c][30]と、照合特徴量としてのhist1_P1[c][30]との差分の絶対値、登録特徴量としてのhist1_P1[d][30]と、照合特徴量としてのhist1_P1[d][30]との差分の絶対値、登録特徴量としてのhist1_P1[e][30]と、照合特徴量としてのhist1_P1[e][30]との差分の絶対値、及び登録特徴量としてのhist1_P1[f][30]と、照合特徴量としてのhist1_P1[f][30]との差分の絶対値の合計を、score11とする。
また、照合部7は、登録特徴量としてのhist1_P2[g][30]と、照合特徴量としてのhist1_P2[g][30]との差分の絶対値、登録特徴量としてのhist1_P2[h][30]と、照合特徴量としてのhist1_P2[h][30]との差分の絶対値、登録特徴量としてのhist1_P2[i][30]と、照合特徴量としてのhist1_P2[i][30]との差分の絶対値、登録特徴量としてのhist1_P2[j][30]と、照合特徴量としてのhist1_P2[j][30]との差分の絶対値、登録特徴量としてのhist1_P2[k][30]と、照合特徴量としてのhist1_P2[k][30]との差分の絶対値、及び登録特徴量としてのhist1_P2[l][30]と、照合特徴量としてのhist1_P2[l][30]との差分の絶対値の合計を、score12とする。
そして、照合部7は、score11とscore12の合計を図8に示すスコアとする。
本開示の実施形態の生体認証装置6は、複数の登録静脈データを絞り込んだ後、その絞り込んだ登録静脈データと照合静脈データとの類似度を求めているため、複数の登録静脈データと照合静脈データとのそれぞれの類似度をすべて求める場合に比べて、照合処理時間の増加を抑えることができる。
また、本開示の実施形態の生体情報登録装置1や生体認証装置6は、画像から特徴量を抽出する際、静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントのそれぞれの分割セグメントがなす角度を、2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度のヒストグラムを特徴量(第1の特徴量)としているため、静脈データの登録時と認証時とで、撮影環境や利用者の体勢が変化しても、特徴量の変動を少なくすることができ、登録特徴量や照合特徴量を精度良く抽出することができる。そのため、認証処理の精度の低下を抑えることができる。
ところで、2つのセグメントがなす角度のヒストグラムを特徴量とする場合は、図15(a)に示す2つのセグメントがなす角度と、図15(b)に示す2つのセグメントがなす角度が同じであった場合、図15(a)に示す2つのセグメントと、図15(b)に示す2つのセグメントが同一であると判断されてしまう。
そこで、2つのセグメントがなす角度の方向を求め、その方向のヒストグラム(度数分布)も特徴量とすることが考えられる。
2つのセグメントがなす角度の方向のヒストグラムを特徴量(第2の特徴量)とする場合のその特徴量の算出方法について説明する。
例えば、図11(a)に示すように、分割パターンP1により画像が分割され、エリアcが選択され、図12に示すように、セグメントc1が着目セグメントc1として選択され、セグメントc2がペアセグメントc2として選択された場合を考える。
まず、特徴量抽出部3は、図16(a)に示すように、着目セグメントc1のすべての端点及び変曲点を求め、それらの点を点c11〜c16とし、図16(b)に示すように、点c11を点Aとし、点Aから直線距離len離れた着目セグメントc1上の点を点Bとし、点Aと点Bを通る直線ABを着目分割セグメントABとする。
次に、特徴量抽出部3は、図16(a)に示すように、ペアセグメントc2のすべての端点及び変曲点を求め、それらの点を点c21〜c26とし、図16(b)に示すように、点c21を点Cとし、点Cから直線距離len離れたペアセグメントc2上の点を点Dとし、点Cと点Dを通る直線CDをペア分割セグメントCDとする。
次に、特徴量抽出部3は、着目分割セグメントABとペア分割セグメントCDとのなす角度の方向θ2を求める。すなわち、特徴量抽出部3は、図16(c)に示すように、点Aと点Cが2次元座標の原点と一致するように、着目分割セグメントABとペア分割セグメントCDをそれぞれ平行移動し、原点から平行移動後の点Bと点Dとを通る直線BDへ垂線をのばし、その垂線と直線BDとの交点Hの座標位置を(Hx、Hy)とし、θ2=atan2(Hy,Hx)*(180/π)を演算することにより、原点を中心とする2次元座標のHx軸から垂線までの回転角度θ2を求め、その回転角度θ2を、着目分割セグメントABとペア分割セグメントCDとのなす角度の方向θ2とする。
次に、特徴量抽出部3は、方向θ2についてヒストグラム(度数分布)hist2_P1[Area][n]を求める。なお、P1は分割パターンP1を示し、[Area]は画像分割後のエリアを示し、[n]はヒストグラムの階級数を示している。例えば、360度を8度単位で区切って45個の角度領域(階級)を設定する場合では、その45個の角度領域にそれぞれ対応するカウンタ値ddir(0)〜ddir(44)のうち、方向θ2が含まれる角度領域のカウンタ値をインクリメントし、ヒストグラムhist2_P1[c][45]={ddir(0),ddir(1),…,ddir(44)}を求める。例えば、このとき算出された方向θ2が15度であった場合、特徴量抽出部3は、8度から15度までの角度領域に対応するカウンタ値ddir(1)をインクリメントし、hist2_P1[c][45]={0,1,0,…,0}を求める。
次に、特徴量抽出部3は、次の点c22を点Cとし、点Cから直線距離len離れたペアセグメントc2上の点を点Dとし、点Cと点Dを通る直線CDを次のペア分割セグメントCDとする。
次に、特徴量抽出部3は、着目分割セグメントABとペア分割セグメントCDがなす角度の方向θ2を算出する。
次に、特徴量抽出部3は、その方向θ2が含まれる角度領域のカウンタ値をインクリメントし、ヒストグラムhist2_P1[c][45]={ddir(0),ddir(1),…,ddir(44)}を求める。例えば、このとき算出された方向θ2が23度であった場合、特徴量抽出部3は、16度から23度までの角度領域に対応するカウンタ値ddir(2)をインクリメントし、hist2_P1[c][45]={0,1,1,0…,0}を求める。
このように、ペアセグメントc2においてペア分割セグメントCDを選択することができなくなるまで、点c11を基準とする着目分割セグメントABとペア分割セグメントCDがなす角度の方向θ2を繰り返し算出し、それら方向θ2についてそれぞれヒストグラムhist2_P1[c][45]={ddir(0),ddir(1),…,ddir(44)}を求める。
次に、特徴量抽出部3は、次の点c12を点Aとし、点Aから直線距離len離れた着目セグメントc1上の点を点Bとし、点Aと点Bを通る直線ABを次の着目分割セグメントABとし、点c21を点Cとし、点Cから直線距離len離れたペアセグメントc2上の点を点Dとし、点Cと点Dを通る直線CDをペア分割セグメントCDとする。
次に、特徴量抽出部3は、方向θ2を算出し、その方向θ2が含まれる角度領域のカウンタ値をインクリメントし、ヒストグラムhist2_P1[c][45]={ddir(0),ddir(1),…,ddir(44)}を求める。
このように、選択可能な着目分割セグメントABと、選択可能なペア分割セグメントCDとのすべての組合せにおいて、それぞれ、方向θ2を算出し、それら方向θ2についてヒストグラムhist2_P1[c][45]={ddir(0),ddir(1),…,ddir(44)}を求める。
次に、特徴量抽出部3は、同様にして、図11(a)に示す画像の他のエリアa、b、d、e、fについて、それぞれ、ヒストグラムhist2_P1[a][45]、hist2_P1[b][45]、hist2_P1[d][45]、hist2_P1[e][45]、hist2_P1[f][45]を求める。
そして、特徴量抽出部3は、hist2_P1[a][45]〜hist2_P1[f][45]に対して、それぞれ、正規化処理を行う。例えば、特徴量抽出部3は、ヒストグラムhist2_P1[a][45]のddir(0),ddir(1),…,ddir(44)の合計、hist2_P1[b][45]のddir(0),ddir(1),…,ddir(44)の合計、・・・、及びhist2_P1[f][45]のddir(0),ddir(1),…,ddir(44)の合計の総和をALLcnt1とし、以下のように各カウンタ値を総和ALLcnt1で除算して各カウンタ値の比率を整数で表すことにより、正規化処理を行い、正規化後のヒストグラムhist2_P1[a][45]〜hist2_P1[f][45]を、上記照合特徴量又は上記登録特徴量(第2の特徴量)として記憶部5に記憶させる。
hist2_P1[a][45]={ddir(0)/ALLcnt1,ddir(1)/ALLcnt1,…,ddir(44)/ALLcnt1}
hist2_P1[b][45]={ddir(0)/ALLcnt1,ddir(1)/ALLcnt1,…,ddir(44)/ALLcnt1}
hist2_P1[c][45]={ddir(0)/ALLcnt1,ddir(1)/ALLcnt1,…,ddir(44)/ALLcnt1}
hist2_P1[d][45]={ddir(0)/ALLcnt1,ddir(1)/ALLcnt1,…,ddir(44)/ALLcnt1}
hist2_P1[e][45]={ddir(0)/ALLcnt1,ddir(1)/ALLcnt1,…,ddir(44)/ALLcnt1}
hist2_P1[f][45]={ddir(0)/ALLcnt1,ddir(1)/ALLcnt1,…,ddir(44)/ALLcnt1}
また、同様にして、分割パターンP2に対応するヒストグラムhist2_P2[g][45]〜hist2_P2[l][45]を求め、それらヒストグラムhist2_P2[g][45]〜hist2_P2[l][45]に対して、それぞれ、正規化処理を行い、正規化後のヒストグラムhist2_P2[g][45]〜hist2_P2[l][45]を、上記照合特徴量又は上記登録特徴量(第2の特徴量)として記憶部5に記憶させる。
次に、照合部7は、登録特徴量としてのhist2_P1[a][45]と、照合特徴量としてのhist2_P1[a][45]との差分の絶対値、登録特徴量としてのhist2_P1[b][45]と、照合特徴量としてのhist2_P1[b][45]との差分の絶対値、登録特徴量としてのhist2_P1[c][45]と、照合特徴量としてのhist2_P1[c][45]との差分の絶対値、登録特徴量としてのhist2_P1[d][45]と、照合特徴量としてのhist2_P1[d][45]との差分の絶対値、登録特徴量としてのhist2_P1[e][45]と、照合特徴量としてのhist2_P1[e][45]との差分の絶対値、及び登録特徴量としてのhist2_P1[f][45]と、照合特徴量としてのhist2_P1[f][45]との差分の絶対値の合計を、score21とする。
また、照合部7は、登録特徴量としてのhist2_P2[g][45]と、照合特徴量としてのhist2_P2[g][45]との差分の絶対値、登録特徴量としてのhist2_P2[h][45]と、照合特徴量としてのhist2_P2[h][45]との差分の絶対値、登録特徴量としてのhist2_P2[i][45]と、照合特徴量としてのhist2_P2[i][45]との差分の絶対値、登録特徴量としてのhist2_P2[j][45]と、照合特徴量としてのhist2_P2[j][45]との差分の絶対値、登録特徴量としてのhist2_P2[k][45]と、照合特徴量としてのhist2_P2[k][45]との差分の絶対値、及び登録特徴量としてのhist2_P2[l][45]と、照合特徴量としてのhist2_P2[l][45]との差分の絶対値の合計を、score22とする。
そして、照合部7は、スコア=α×(score11+score12)+β×(score21+score22)を演算することにより、図8に示すスコアを求める。なお、α及びβは重み係数である。
また、スコアを求める際、さらに他の特徴量を用いてもよい。
図17は、第3の特徴量を説明するための図である。
まず、特徴量抽出部3は、画像取得部2により取得される画像から細い静脈像と太い静脈像を除いた後、その静脈像をサイズが異なる画像(例えば、256×256の画像)の中央に展開し、その画像をf(x,y)とする。
次に、特徴量抽出部3は、式1に示すように、画像f(x,y)に対して二次元高速フーリエ変換を行い、空間周波数成分F(u,v)を求める。この二次元高速フーリエ変換は、まず、画像f(x,y)のx方向に各ラインの画素をフーリエ変換し、その後、そのラインの変換結果を、y方向にフーリエ変換する。なお、W1=exp(−j2π/M)、W2=exp(−j2π/N)とし、M,Nは、各々横方向,縦方向の画素数とする。
次に、特徴量抽出部3は、P(u,v)=|F(u,v)|を演算することにより、パワースペクトルP(u,v)を求める。
次に、特徴量抽出部3は、パワースペクトルP(u,v)を極座標形式のパワースペクトルP(r,θ)とし、式2に示す演算を行うことにより、原点を中心としたドーナツ型領域内のエネルギーp´(r)を求める。なお、θは、0〜πの範囲とする。
そして、特徴量抽出部3は、p(r)=10000*p’(r)/Σp’(r)を演算することにより、各周波数のエネルギー比P(r)を第3の特徴量として求める。なお、rは、半径であって、ここでは、r=1〜32とし、10000は、整数型変換のための補正値である。
このように、第3の特徴量は、静脈像の方向性と量を周波数成分で示すものであり、例えば、図17に示すように、極座標系パワースペクトル空間において、原点を中心としたドーナツ型領域のエネルギーの和として表すことができる。ここでは、半径rを1から32まで変化させたときの32個の周波数分{p(1),p(2),…,p(32)}を、上記照合特徴量又は上記登録特徴量(第3の特徴量)として記憶部5に記憶させる。
図18は、第4の特徴量を説明するための図である。
まず、特徴量抽出部3は、第3の特徴量と同様に、画像f(x,y)をフーリエ変換して、空間周波数成分F(u,v)を算出し、この空間周波数成分F(u,v)からパワースペクトルP(u,v)を算出する。
次に、特徴量抽出部3は、パワースペクトルP(u,v)を極座標形式のパワースペクトルP(r,θ)とし、式3に示す演算を行うことにより、角度のエネルギーを求める。なお、wは、P(u,v)の定義域の大きさであり、θは、ここでは、180度を12等分した方向を示している。
そして、特徴量抽出部3は、q(θ)=10000*q’(θ)/Σq’(θ)を演算することにより、各角度のエネルギー比q(θ)を第4の特徴量として求める。すなわち、12等分されたそれぞれの角度範囲におけるエネルギー比が算出される。なお、10000は、整数型変換のための補正値である。
このように、第4の特徴量は、静脈像の方向性と量を角度成分で示すものであって、例えば、図18に示すように、15度ずつの角度範囲におけるエネルギーの和として表すことができる。ここでは、角度θを0から180まで変化させたときの12個の角度成分{q(0),q(1),…,q(11)}を、上記照合特徴量又は上記登録特徴量(第4の特徴量)として記憶部5に記憶させる。
なお、角度成分q(0)は、θが0から14度までの角度のエネルギーであるので、式4により算出され、以下、θを順次変更して12方向分まで算出される。
図19は、第5の特徴量を説明するための図である。
まず、特徴量抽出部3は、例えば、図11(a)に示すように、分割パターンP1により画像を分割し、1つのエリアを選択する。
次に、特徴量抽出部3は、その選択したエリア内の静脈像をベクトル化して得られるセグメントにおいて隣接する2つの分割セグメントの湾曲方向をすべて求め、それら湾曲方向のヒストグラム(度数分布)を示す第5の特徴量を求める。例えば、特徴量抽出部3は、図19(a)に示すように、セグメントc1のすべての端点及び変曲点を求め、それらの点を点c11〜c16とし、図19(b)に示すように、点c11を点Aとし、点Aから直線距離len離れたセグメントc1上の点を点Bとし、点Aと点Bを通る直線ABを分割セグメントABとする。次に、特徴量抽出部3は、図19(b)に示すように、点Bから直線距離len離れた着目セグメントc1上の点を点Cとし、点Bと点Cを通る直線CDを分割セグメントCDとする。次に、特徴量抽出部3は、座標A,B,Cを座標Bが原点になるように平行移動させた時の座標A,B,CをそれぞれA(xa,ya)、B(xb,yb)、C(xc,yc)とし、直線ACとこれに対する点Bからの垂線との交点の座標をH(Hx,Hy)とし、式5、6により座標H(Hx,Hy)を算出し、θ4=atan2(Hy,Hx)*(180/π)を演算することにより、分割セグメントABと分割セグメントCDとがなす角度の湾曲方向θ4を求める。
次に、特徴量抽出部3は、湾曲方向θ4についてヒストグラムhist3_P1[Area][n]を求める。なお、P1は分割パターンP1を示し、[Area]は画像分割後のエリアを示し、[n]はヒストグラムの階級数を示している。例えば、エリアcを選択するとともに、360度を10度単位で区切って36個の角度領域(階級)を設定する場合では、その36個の角度領域にそれぞれ対応するカウンタ値curv(0)〜curv(35)のうち、湾曲方向θ4が含まれる角度領域のカウンタ値をインクリメントし、ヒストグラムhist3_P1[c][36]={curv(0),curv(1),…,curv(35)}を求める。例えば、このとき算出された角度θ1が330度であった場合、特徴量抽出部3は、330度から339度までの角度領域に対応するカウンタ値curv(33)をインクリメントし、hist3_P1[c][36]={0,…,0,1,0,0}を求める。なお、curv(0)は、0度から9度までの角度領域に含まれる湾曲方向θ4が積算された値を示しており、式7によって算出される。
次に、特徴量抽出部3は、図19(d)に示すように、次の点c12を点Aとし、点Aから直線距離len離れたセグメントc1上の点を点Bとし、点Aと点Bを通る直線ABを分割セグメントABとする。
次に、特徴量抽出部3は、図19(d)に示すように、点Bから直線距離len離れた着目セグメントc1上の点を点Cとし、点Bと点Cを通る直線BCを分割セグメントBCとして選択する。
このように、セグメントc1において分割セグメントABを選択することができなくなるまで、湾曲方向θ4を繰り返し算出し、それら湾曲方向θ4についてそれぞれヒストグラムhist3_P1[c][36]={curv(0),curv(1),…,curv(35)}を求める。
このヒストグラムhist3_P1[c][36]の作成は、他のエリアa、b、d、e、fについても同様に行われる。
次に、特徴量抽出部3は、ヒストグラムhist3_P1[a][36]のcurv(0),curv(1),…,curv(35)の合計、hist3_P1[b][36]のcurv(0),curv(1),…,curv(35)の合計、・・・、及びhist3_P1[f][36]のcurv(0),curv(1),…,curv(35)の合計の総和をALLcnt1とし、以下のように各カウンタ値を総和ALLcnt1で除算して各カウンタ値の比率を整数で表すことにより、正規化処理を行い、正規化後のヒストグラムhist3_P1[a][36]〜hist3_P1[f][36]を、上記照合特徴量又は上記登録特徴量(第5の特徴量)として記憶部5に記憶させる。
hist3_P1[a][36]={curv(0)/ALLcnt1,curv(1)/ALLcnt1,…,curv(35)/ALLcnt1}
hist3_P1[b][36]={curv(0)/ALLcnt1,curv(1)/ALLcnt1,…,curv(35)/ALLcnt1}
hist3_P1[c][36]={curv(0)/ALLcnt1,curv(1)/ALLcnt1,…,curv(35)/ALLcnt1}
hist3_P1[d][36]={curv(0)/ALLcnt1,curv(1)/ALLcnt1,…,curv(35)/ALLcnt1}
hist3_P1[e][36]={curv(0)/ALLcnt1,curv(1)/ALLcnt1,…,curv(35)/ALLcnt1}
hist3_P1[f][36]={curv(0)/ALLcnt1,curv(1)/ALLcnt1,…,curv(35)/ALLcnt1}
また、同様にして、分割パターンP2に対応するヒストグラムhist3_P2[g][36]〜hist3_P2[l][36]を求め、それらヒストグラムhist3_P2[g][36]〜hist3_P2[l][36]に対して、それぞれ、正規化処理を行い、正規化後のヒストグラムhist3_P2[g][36]〜hist3_P2[l][36]を、上記照合特徴量又は上記登録特徴量(第5の特徴量)として記憶部5に記憶させる。
図20は、第6の特徴量を説明するための図である。
まず、特徴量抽出部3は、例えば、図11(a)に示すように、分割パターンP1により画像を分割し、1つのエリアを選択する。
次に、特徴量抽出部3は、その選択したエリア内の静脈像をベクトル化して得られるセグメントにおいてすべての分割セグメントの傾きを求め、それら傾きのヒストグラム(度数分布)を示す第6の特徴量を求める。例えば、特徴量抽出部3は、図20(a)に示すように、セグメントc1のすべての端点及び変曲点を求め、それらの点を点c11〜c16とし、図20(b)に示すように、点c11を点Aとし、点Aから直線距離len離れたセグメントc1上の点を点Bとし、点Aと点Bを通る直線ABを分割セグメントABとする。次に、特徴量抽出部3は、点A、Bの座標をそれぞれA(xa,ya)、B(xb,yb)とし、θ5=atan2(yb−ya,xb−xa)*(180/π)を演算することにより、分割セグメントABの傾きθ5を求める。なお、角度がマイナスの場合は、180度を加算し、180度以上の場合は、180度を減算する。これは、例えば、270度やマイナス90度の直線の傾きが90度と同じと見做すためである。次に、特徴量抽出部3は、傾きθ5についてヒストグラムhist4_P1[Area][n]を求める。なお、P1は分割パターンP1を示し、[Area]は画像分割後のエリアを示し、[n]はヒストグラムの階級数を示している。例えば、エリアcを選択するとともに、180度を10度単位で区切って18個の角度領域(階級)を設定する場合では、その18個の角度領域にそれぞれ対応するカウンタ値segdir(0)〜segdir(17)のうち、傾きθ5が含まれる角度領域のカウンタ値をインクリメントし、ヒストグラムhist4_P1[c][18]={segdir(0),segdir(1),…,segdir(17)}を求める。例えば、このとき算出された傾きθ5が45度であった場合、特徴量抽出部3は、40度から49度までの角度領域に対応するカウンタ値segdir(4)をインクリメントし、hist4_P1[c][18]={0,0,0,0,1,0,…,0}を求める。なお、segdir(0)は、0度から9度までの角度領域に含まれる傾きθ5が積算された値を示しており、式8によって算出されるものである。
次に、特徴量抽出部3は、図20(d)に示すように、次の点c12を点Aとし、点Aから直線距離len離れたセグメントc1上の点を点Bとし、点Aと点Bを通る直線ABを分割セグメントABとする。
このように、セグメントc1において分割セグメントABを選択することができなくなるまで、傾きθ5を繰り返し算出し、それら傾きθ5についてそれぞれヒストグラムhist4_P1[c][18]={segdir(0),segdir(1),…,segdir(17)}を求める。
このヒストグラムhist4_P1[c][18]の作成は、他のエリアa、b、d、e、fについても同様に行われる。
次に、特徴量抽出部3は、ヒストグラムhist4_P1[a][18]のsegdir(0),segdir(1),…,segdir(17)の合計、hist4_P1[b][18]のsegdir(0),segdir(1),…,segdir(17)の合計、・・・、及びhist4_P1[f][18]のsegdir(0),segdir(1),…,segdir(17)の合計の総和をALLcnt1とし、以下のように各カウンタ値を総和ALLcnt1で除算して各カウンタ値の比率を整数で表すことにより、正規化処理を行い、正規化後のヒストグラムhist4_P1[a][18]〜hist4_P1[f][18]を、上記照合特徴量又は上記登録特徴量(第6の特徴量)として記憶部5に記憶させる。
hist4_P1[a][18]={segdir(0)/ALLcnt1,segdir(1)/ALLcnt1,…,segdir(17)/ALLcnt1}
hist4_P1[b][18]={segdir(0)/ALLcnt1,segdir(1)/ALLcnt1,…,segdir(17)/ALLcnt1}
hist4_P1[c][18]={segdir(0)/ALLcnt1,segdir(1)/ALLcnt1,…,segdir(17)/ALLcnt1}
hist4_P1[d][18]={segdir(0)/ALLcnt1,segdir(1)/ALLcnt1,…,segdir(17)/ALLcnt1}
hist4_P1[e][18]={segdir(0)/ALLcnt1,segdir(1)/ALLcnt1,…,segdir(17)/ALLcnt1}
hist4_P1[f][18]={segdir(0)/ALLcnt1,segdir(1)/ALLcnt1,…,segdir(17)/ALLcnt1}
また、同様にして、分割パターンP2に対応するヒストグラムhist4_P2[g][18]〜hist4_P2[l][18]を求め、それらヒストグラムhist4_P2[g][18]〜hist4_P2[l][18]に対して、それぞれ、正規化処理を行い、正規化後のヒストグラムhist4_P2[g][18]〜hist4_P2[l][18]を、上記照合特徴量又は上記登録特徴量(第6の特徴量)として記憶部5に記憶させる。
図21(a)及び図21(b)は、第7の特徴量を説明するための図である。
まず、特徴量抽出部3は、例えば、図21(a)に示すように、画像取得部2により取得される画像を分割パターンP1により7×7の49個のエリアに分割するとともに、図21(b)に示すように、画像取得部2により取得される画像を分割パターンP2により8×8の64個のエリアに分割する。なお、分割パターンは、図21(a)及び図21(b)に示すものに限定されない。
次に、特徴量抽出部3は、分割パターンP1により分割した49個の各エリア内の静脈像に対応する画素数seghist1を求める。
次に、特徴量抽出部3は、各エリア内の静脈像の画素数seghist1についてヒストグラムhist5_P1[49]={seghist1(0),seghist1(1),…,seghist1(48)}を作成する。
次に、特徴量抽出部3は、ヒストグラムhist5_P1[49]のseghist1(0),seghist1(1),…,seghist1(48)の総和をALLcnt1とし、以下のように各カウンタ値を総和ALLcnt1で除算して各カウンタ値の比率を整数で表すことにより、正規化処理を行い、正規化後のヒストグラムhist5_P1[49]を、上記照合特徴量又は上記登録特徴量(第7の特徴量)として記憶部5に記憶させる。
hist5_P1[49]={seghist1(0)/ALLcnt1,seghist1(1)/ALLcnt1,…,seghist1(48)/ALLcnt1}
また、同様にして、分割パターンP2に対応するヒストグラムhist5_P2[64]={seghist2(0),seghist2(1),…,seghist2(63)}を求め、そのヒストグラムhist5_P2[64]に対して、正規化処理を行い、正規化後のヒストグラムhist5_P2[64]を、上記照合特徴量又は上記登録特徴量(第7の特徴量)として記憶部5に記憶させる。
次に、照合部7は、登録特徴量としてのp(1)と、照合特徴量としてのp(1)との差分の絶対値、登録特徴量としてのp(2)と、照合特徴量としてのp(2)との差分の絶対値、・・・、登録特徴量としてのp(32)と、照合特徴量としてのp(32)との差分の絶対値の合計を、score3とする。
また、照合部7は、登録特徴量としてのq(0)と、照合特徴量としてのq(0)との差分の絶対値、登録特徴量としてのq(1)と、照合特徴量としてのq(1)との差分の絶対値、・・・、登録特徴量としてのq(11)と、照合特徴量としてのq(11)との差分の絶対値の合計を、score4とする。
また、照合部7は、登録特徴量としてのhist3_P1[a][36]と、照合特徴量としてのhist3_P1[a][36]との差分の絶対値、登録特徴量としてのhist3_P1[b][36]と、照合特徴量としてのhist3_P1[b][36]との差分の絶対値、登録特徴量としてのhist3_P1[c][36]と、照合特徴量としてのhist3_P1[c][36]との差分の絶対値、登録特徴量としてのhist3_P1[d][36]と、照合特徴量としてのhist3_P1[d][36]との差分の絶対値、登録特徴量としてのhist3_P1[e][36]と、照合特徴量としてのhist3_P1[e][36]との差分の絶対値、及び登録特徴量としてのhist3_P1[f][36]と、照合特徴量としてのhist3_P1[f][36]との差分の絶対値の合計を、score51とする。
また、照合部7は、登録特徴量としてのhist3_P2[g][36]と、照合特徴量としてのhist3_P2[g][36]との差分の絶対値、登録特徴量としてのhist3_P2[h][36]と、照合特徴量としてのhist3_P2[h][36]との差分の絶対値、登録特徴量としてのhist3_P2[i][36]と、照合特徴量としてのhist3_P2[i][36]との差分の絶対値、登録特徴量としてのhist3_P2[j][36]と、照合特徴量としてのhist3_P2[j][36]との差分の絶対値、登録特徴量としてのhist3_P2[k][36]と、照合特徴量としてのhist3_P2[k][36]との差分の絶対値、及び登録特徴量としてのhist3_P2[l][36]と、照合特徴量としてのhist3_P2[l][36]との差分の絶対値の合計を、score52とする。
また、照合部7は、登録特徴量としてのhist4_P1[a][18]と、照合特徴量としてのhist4_P1[a][18]との差分の絶対値、登録特徴量としてのhist4_P1[b][18]と、照合特徴量としてのhist4_P1[b][18]との差分の絶対値、登録特徴量としてのhist4_P1[c][18]と、照合特徴量としてのhist4_P1[c][18]との差分の絶対値、登録特徴量としてのhist4_P1[d][18]と、照合特徴量としてのhist4_P1[d][18]との差分の絶対値、登録特徴量としてのhist4_P1[e][18]と、照合特徴量としてのhist4_P1[e][18]との差分の絶対値、及び登録特徴量としてのhist4_P1[f][18]と、照合特徴量としてのhist4_P1[f][18]との差分の絶対値の合計を、score61とする。
また、照合部7は、登録特徴量としてのhist4_P2[g][18]と、照合特徴量としてのhist4_P2[g][18]との差分の絶対値、登録特徴量としてのhist4_P2[h][18]と、照合特徴量としてのhist4_P2[h][18]との差分の絶対値、登録特徴量としてのhist4_P2[i][18]と、照合特徴量としてのhist4_P2[i][18]との差分の絶対値、登録特徴量としてのhist4_P2[j][18]と、照合特徴量としてのhist4_P2[j][18]との差分の絶対値、登録特徴量としてのhist4_P2[k][18]と、照合特徴量としてのhist4_P2[k][18]との差分の絶対値、及び登録特徴量としてのhist4_P2[l][18]と、照合特徴量としてのhist4_P2[l][18]との差分の絶対値の合計を、score62とする。
また、照合部7は、登録特徴量としてのseghist1(0)と、照合特徴量としてのseghist1(0)との差分の絶対値、登録特徴量としてのseghist1(1)と、照合特徴量としてのseghist1(1)との差分の絶対値、・・・、登録特徴量としてのseghist1(48)と、照合特徴量としてのseghist1(48)との差分の絶対値の合計を、score71とする。
また、照合部7は、登録特徴量としてのseghist2(0)と、照合特徴量としてのseghist2(0)との差分の絶対値、登録特徴量としてのseghist2(1)と、照合特徴量としてのseghist2(1)との差分の絶対値、・・・、登録特徴量としてのseghist2(63)と、照合特徴量としてのseghist2(63)との差分の絶対値の合計を、score72とする。
そして、照合部7は、スコア=α×(score11+score12)+β×(score21+score22)+γ(score3)+δ×(score3)+ε×(score4)+ζ×(score51+score52)+λ×(score61+score62)+μ×(score71+score72)を演算することにより、図8に示すスコアを求める。なお、α、β、γ、δ、ε、ζ、λ、及びμは重み係数である。また、第3の特徴量〜第7の特徴量はすべて使用しなくてもよく、第3の特徴量〜第7の特徴量のうちの1以上の特徴量のみを使用してもよい。
このように、本開示の実施形態の生体情報登録装置1や生体認証装置6は、画像取得部2により取得される画像から7種類の特徴量(第1〜第7の特徴量)を抽出し、それら特徴量を登録静脈データの絞り込みに用いることで、その絞り込みの精度を上げることができ、さらに精度良く照合処理を行うことができる。
なお、例えば、図15(c)に示すセグメントに対して求めた第4の特徴量や第5の特徴量と、図15(d)に示すセグメントに対して求めた第4の特徴量や第5の特徴量は、互いに同じものになるおそれがあるが、さらに第1の特徴量及び第2の特徴量を用いることで、図15(c)に示すセグメントに対して求めた特徴量と、図15(d)に示すセグメントに対して求めた特徴量とを互いに区別することができるようになる。
図22は、本開示の実施形態の生体情報登録装置1や生体認証装置6を構成するハードウェアの一例を示す図である。
図22に示すように、生体情報登録装置1や生体認証装置6を構成するハードウェアは、制御部1201と、記憶部1202と、記録媒体読取装置1203と、入出力インタフェース1204と、通信インタフェース1205とを備え、それらがバス1206によってそれぞれ接続されている。なお、画像処理装置1を構成するハードウェアは、クラウドなどを用いて実現してもよい。
制御部1201は、例えば、Central Processing Unit(CPU)、マルチコアCPU、プログラマブルなデバイス(Field Programmable Gate Array(FPGA)、Programmable Logic Device(PLD)など)を用いることが考えられ、図1に示す特徴抽出部3、特徴量登録部4、及び、図6に示す照合部7、判定部8に相当する。
記憶部1202は、図1、図6に示す記憶部5に相当し、例えばRead Only Memory(ROM)、Random Access Memory(RAM)などのメモリやハードディスクなどが考えられる。なお、記憶部1202は、実行時のワークエリアとして用いてもよい。また、生体認証装置1の外部に他の記憶部を設けてもよい。
記録媒体読取装置1203は、制御部1201の制御により、記録媒体1207に記録されるデータを読み出したり、記録媒体1207にデータを書き込んだりする。また、着脱可能な記録媒体1207は、コンピュータで読み取り可能なnon-transitory(非一時的)な記録媒体であって、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどが考えられる。磁気記録装置は、例えば、ハードディスク装置(HDD)などが考えられる。光ディスクは、例えば、Digital Versatile Disc(DVD)、DVD−RAM、Compact Disc Read Only Memory(CD−ROM)、CD−R(Recordable)/RW(ReWritable)などが考えられる。光磁気記録媒体は、例えば、Magneto-Optical disk(MO)などが考えられる。なお、記憶部1202もnon-transitory(非一時的)な記録媒体に含まれる。
入出力インタフェース1204は、入出力部1208が接続され、利用者により入出力部1208から入力された情報をバス1206を介して制御部1201に送る。また、入出力インタフェース1204は、制御部1201から送られてくる情報をバス1206を介して入出力部1208に送る。
入出力部1208は、図1、図6に示す画像取得部2に相当し、例えば、撮像装置などが考えられる。また、入出力部1208は、例えば、キーボード、ポインティングデバイス(マウスなど)、タッチパネル、Cathode Ray Tube(CRT)ディスプレイ、プリンタなどが考えられる。
通信インタフェース1205は、Local Area Network(LAN)接続やインターネット接続を行うためのインタフェースである。また、通信インタフェース1205は必要に応じ、他のコンピュータとの間のLAN接続やインターネット接続や無線接続を行うためのインタフェースとして用いてもよい。
このようなハードウェアを有するコンピュータを用いることによって、生体情報登録装置1や生体認証装置6が行う各種処理機能が実現される。この場合、生体認証装置1が行う各種処理機能の内容を記述したプログラムをコンピュータで実行することにより、上記各処理機能(例えば、特徴抽出部3、特徴量登録部4、照合部7、判定部8)がコンピュータ上で実現される。各種処理機能の内容を記述したプログラムは、記憶部1202や記録媒体1207に格納しておくことができる。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの記録媒体1207が販売される。また、プログラムをサーバコンピュータの記憶装置に記録しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、記録媒体1207に記録されたプログラム、又は、サーバコンピュータから転送されたプログラムを、記憶部1202に記憶する。そして、コンピュータは、記憶部1202からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、記録媒体1207から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
なお、本開示の実施形態では、手のひらの静脈を用いて認証を行う画像処理装置を例示して説明したが、これに限らず、生体のその他の特徴検出部位であればどこでもよい。
たとえば、生体のその他の特徴検出部位は、静脈に限らず、生体の血管像や、生体の紋様、生体の指紋や掌紋、足の裏、手足の指、手足の甲、手首、腕などであってもよい。
なお、認証に静脈を用いる場合、生体のその他の特徴検出部位は、静脈を観察可能な部位であればよい。
なお、生体情報を特定可能な生体のその他の特徴検出部位であれば認証に有利である。たとえば、手のひらや顔などであれば、取得した画像から部位を特定可能である。
また、上述の実施の形態は、実施の形態の要旨を逸脱しない範囲内において種々の変更を加えることができる。さらに、上述の実施の形態は、多数の変形、変更が当業者にとって可能であり、説明した正確な構成および応用例に限定されるものではない。
1 生体情報登録装置
2 画像取得部
3 特徴量抽出部
4 特徴量登録部
5 記憶部
6 生体認証装置
7 照合部
8 判定部
1201 制御部
1202 記憶部
1203 記録媒体読取装置
1204 入出力インタフェース
1205 通信インタフェース
1206 バス
1207 記録媒体
1208 入出力部

Claims (14)

  1. コンピュータが、
    画像取得部により取得された画像から静脈像を示す静脈データ及び特徴量を抽出し、
    前記静脈データ及び前記特徴量を記憶部に記憶させる生体情報登録方法であって、
    前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、
    前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
    ことを特徴とする生体情報登録方法。
  2. 請求項に記載の生体情報登録方法であって、
    前記第1の特徴量は、第1の分割パターンにより前記画像を複数のエリアに分割するときの前記複数のエリアごとに求められる
    ことを特徴とする生体情報登録方法。
  3. 請求項1または請求項2に記載の生体情報登録方法であって、
    前記特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度の方向を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら方向の度数分布を示す第2の特徴量を有する
    こと特徴とする生体情報登録方法。
  4. 請求項に記載の生体情報登録方法であって、
    前記第2の特徴量は、第2の分割パターンにより前記画像を複数のエリアに分割するときの前記複数のエリアごとに求められる
    ことを特徴とする生体情報登録方法。
  5. 請求項1〜の何れか1項に記載の生体情報登録方法であって、
    前記特徴量は、
    前記静脈像の方向性と量を周波数成分で示す第3の特徴量と、
    前記静脈像の方向性と量を角度成分で示す第4の特徴量と、
    記セグメントにおいて隣接する2つの分割セグメントの湾曲方向をすべて求め、それら湾曲方向の度数分布を示す第5の特徴量と、
    前記セグメントにおいてすべての分割セグメントの傾きを求め、それら傾きの度数分布を示す第6の特徴量と、
    第3の分割パターンにより前記画像を複数のエリアに分割するときの前記複数のエリアごとに求められる前記静脈像に対応する画素数の度数分布を示す第7の特徴量と、
    を有する
    ことを特徴とする生体情報登録方法。
  6. コンピュータが、
    画像取得部により取得された画像から静脈像を示す静脈データ及び特徴量を抽出し、
    前記抽出した特徴量と、記憶部に記憶されている登録特徴量との比較結果により前記記憶部に記憶されている複数の登録静脈データを絞り込み、その絞り込んだ登録静脈データと前記抽出した静脈データとの類似度を求め、
    前記求めた類似度により本人であるか否かを判定する生体認証方法であって、
    前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、
    前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
    ことを特徴とする生体認証方法。
  7. 請求項に記載の生体認証方法であって、
    前記第1の特徴量は、第1の分割パターンにより前記画像を複数のエリアに分割するときの前記複数のエリアごとに求められる
    ことを特徴とする生体認証方法。
  8. 請求項6または請求項7に記載の生体認証方法であって、
    前記特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度の方向を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら方向の度数分布を示す第2の特徴量を有する
    こと特徴とする生体認証方法。
  9. 請求項に記載の生体認証方法であって、
    前記第2の特徴量は、第2の分割パターンにより前記画像を複数のエリアに分割するときの前記複数のエリアごとに求められる
    ことを特徴とする生体認証方法。
  10. 請求項の何れか1項に記載の生体認証方法であって、
    前記特徴量は、
    前記静脈像の方向性と量を周波数成分で示す第3の特徴量と、
    前記静脈像の方向性と量を角度成分で示す第4の特徴量と、
    記セグメントにおいて隣接する2つの分割セグメントの湾曲方向をすべて求め、それら湾曲方向の度数分布を示す第5の特徴量と、
    前記セグメントにおいてすべての分割セグメントの傾きを求め、それら傾きの度数分布を示す第6の特徴量と、
    第3の分割パターンにより前記画像を複数のエリアに分割するときの前記複数のエリアごとに求められる前記静脈像に対応する画素数の度数分布を示す第7の特徴量と、
    を有する
    ことを特徴とする生体認証方法。
  11. 画像取得部により取得される画像から静脈像を示す静脈データ及び特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部により抽出された静脈データ及び特徴量を記憶部に記憶させる特徴量登録部と、
    を備え、
    前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、
    前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
    ことを特徴とする生体情報登録装置。
  12. 画像取得部により取得される画像から静脈像を示す静脈データ及び特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部により抽出された特徴量と、記憶部に記憶されている登録特徴量との比較結果により、前記記憶部に記憶されている複数の登録静脈データを絞込み、その絞り込んだ登録静脈データと、前記特徴量抽出部により抽出された静脈データとの類似度を求める照合部と、
    前記照合部により求められた類似度により本人であるか否かを判定する判定部と、
    を備え、
    前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、
    前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
    ことを特徴とする生体認証装置。
  13. コンピュータに、
    画像取得部により取得される画像から静脈像を示す静脈データ及び特徴量を抽出し、
    前記抽出した静脈データ及び特徴量を記憶部に記憶させることを実行させるプログラムであって、
    前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、
    前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
    ことを特徴とするプログラム。
  14. コンピュータに、
    画像取得部により取得される画像から静脈像を示す静脈データ及び特徴量を抽出し、
    前記抽出した特徴量と、記憶部に記憶されている登録特徴量との比較結果により、前記記憶部に記憶されている複数の登録静脈データを絞り込み、その絞り込んだ登録静脈データと、前記抽出された静脈データとの類似度を求め、
    前記求めた類似度により本人であるか否かを判定することを実行させるプログラムであって、
    前記特徴量は、前記静脈像をベクトル化して得られる複数のセグメントのうちの2つのセグメントの関連性を示す第1の特徴量を有し、
    前記第1の特徴量は、前記2つのセグメントのそれぞれの分割セグメントがなす角度を、前記2つのセグメントのそれぞれの分割セグメントのすべての組合せにおいてそれぞれ求め、それら角度の度数分布を示す
    ことを特徴とするプログラム。
JP2014062775A 2014-03-25 2014-03-25 生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム Active JP6242726B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014062775A JP6242726B2 (ja) 2014-03-25 2014-03-25 生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム
PCT/JP2015/059213 WO2015147088A1 (ja) 2014-03-25 2015-03-25 生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム
US15/266,067 US20170000411A1 (en) 2014-03-25 2016-09-15 Biometrics information registration method, biometrics authentication method, biometrics information registration device and biometrics authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014062775A JP6242726B2 (ja) 2014-03-25 2014-03-25 生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム

Publications (3)

Publication Number Publication Date
JP2015185046A JP2015185046A (ja) 2015-10-22
JP2015185046A5 JP2015185046A5 (ja) 2016-04-07
JP6242726B2 true JP6242726B2 (ja) 2017-12-06

Family

ID=54195599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014062775A Active JP6242726B2 (ja) 2014-03-25 2014-03-25 生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム

Country Status (3)

Country Link
US (1) US20170000411A1 (ja)
JP (1) JP6242726B2 (ja)
WO (1) WO2015147088A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6630593B2 (ja) * 2016-02-29 2020-01-15 オムロンヘルスケア株式会社 生体情報測定装置、個人識別装置、個人識別方法、及び、個人識別プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4303410B2 (ja) * 2000-09-29 2009-07-29 富士通株式会社 紋様中心決定装置および紋様方向決定装置並びに紋様位置合わせ装置および紋様照合装置
JP2002222425A (ja) * 2001-01-29 2002-08-09 Canon Inc 情報処理装置及び方法
US6778687B2 (en) * 2001-04-24 2004-08-17 Lockheed Martin Corporation Fingerprint matching system with ARG-based prescreener
JP4937607B2 (ja) * 2006-03-14 2012-05-23 富士通株式会社 生体認証方法及び生体認証装置
US20080298642A1 (en) * 2006-11-03 2008-12-04 Snowflake Technologies Corporation Method and apparatus for extraction and matching of biometric detail
JP5061988B2 (ja) * 2008-03-25 2012-10-31 日本電気株式会社 隆線方向抽出装置および隆線方向抽出プログラムと隆線方向抽出方法
JP5031641B2 (ja) * 2008-03-31 2012-09-19 富士通株式会社 パターンの位置合わせ方法、照合方法及び照合装置
JP5363587B2 (ja) * 2009-10-30 2013-12-11 富士通フロンテック株式会社 生体情報登録方法、生体認証方法および生体認証装置
WO2012014308A1 (ja) * 2010-07-29 2012-02-02 富士通株式会社 生体認証装置、生体認証方法及び生体認証用コンピュータプログラムならびに生体情報登録装置
US20130067545A1 (en) * 2011-09-13 2013-03-14 Sony Computer Entertainment America Llc Website Security
JP6024141B2 (ja) * 2012-03-23 2016-11-09 富士通株式会社 生体情報処理装置、生体情報処理方法、および生体情報処理プログラム
JP6467852B2 (ja) * 2014-10-10 2019-02-13 富士通株式会社 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム

Also Published As

Publication number Publication date
US20170000411A1 (en) 2017-01-05
JP2015185046A (ja) 2015-10-22
WO2015147088A1 (ja) 2015-10-01

Similar Documents

Publication Publication Date Title
US11017210B2 (en) Image processing apparatus and method
JP6639123B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5868231B2 (ja) 医用画像診断支援装置、医用画像診断支援方法ならびにコンピュータプログラム
JP4999163B2 (ja) 画像処理方法および装置ならびにプログラム
JP2018508888A5 (ja)
JP5963609B2 (ja) 画像処理装置、画像処理方法
EP3300000B1 (en) Method, apparatus, and non-transitory computer-readable storage medium for verification process
JP6160148B2 (ja) 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
JP5316017B2 (ja) 画像処理装置、生体認証装置、画像処理方法及びプログラム
US10019619B2 (en) Biometrics authentication device and biometrics authentication method
JP2015094973A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び記録媒体
JP6242726B2 (ja) 生体情報登録方法、生体認証方法、生体情報登録装置、生体認証装置及びプログラム
JP6629150B2 (ja) 手のひら検知装置、掌紋認証装置、手のひら検知方法、及びプログラム
JP6069581B2 (ja) 生体認証装置、生体認証方法、及びプログラム
CN112699907A (zh) 数据融合的方法、装置和设备
JP2019021100A (ja) 画像探索装置、商品認識装置および画像探索プログラム
EP3125192B1 (en) Biometric authentication device, biometric authentication method, and program
JP6175904B2 (ja) 照合対象抽出システム、照合対象抽出方法、照合対象抽出プログラム
JP6946912B2 (ja) 推定プログラム、推定装置、及び推定方法
EP3125195B1 (en) Biometric authentication device, biometric authentication method, and program
Giraldo-Zuluaga et al. Semi-supervised recognition of the Diploglossus millepunctatus lizard species using artificial vision algorithms
JP2017072940A (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP2008250848A (ja) クラスタリング方法、データ処理装置及びプログラム
JP2016095677A (ja) 設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラム
WO2020003510A1 (ja) 特定方法、判定方法、特定プログラム、判定プログラムおよび情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171108

R150 Certificate of patent or registration of utility model

Ref document number: 6242726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150