JP3902473B2 - Identification method using biometric information - Google Patents

Identification method using biometric information Download PDF

Info

Publication number
JP3902473B2
JP3902473B2 JP2002008328A JP2002008328A JP3902473B2 JP 3902473 B2 JP3902473 B2 JP 3902473B2 JP 2002008328 A JP2002008328 A JP 2002008328A JP 2002008328 A JP2002008328 A JP 2002008328A JP 3902473 B2 JP3902473 B2 JP 3902473B2
Authority
JP
Japan
Prior art keywords
image
feature
similar
line
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002008328A
Other languages
Japanese (ja)
Other versions
JP2003208620A (en
Inventor
隆 森原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002008328A priority Critical patent/JP3902473B2/en
Publication of JP2003208620A publication Critical patent/JP2003208620A/en
Application granted granted Critical
Publication of JP3902473B2 publication Critical patent/JP3902473B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、小型のセンサで指紋画像などを採取して本人認証を行う生体情報を用いた本人認証方法、プログラム、記録媒体及び装置に関し、特に、連続的に採取される部分的な指紋画像等から指紋画像を再構成して本人認証を行う生体情報を用いた本人認証方法、プログラム、記録媒体及び装置に関する。
【0002】
【従来の技術】
近年、コンピュータが広範な社会システムの中に導入されるに伴い、セキュリティに関心が集まっている。従来、コンピュータ室への入室や端末利用の際の本人確認手段として、IDカードやパスワードが用いられてきた。しかし、それらはセキュリティの面で多くの課題が残されている。
【0003】
パスワードよりも信頼性の高い本人確認手段として、生体情報を利用した個人照合技術が注目されている。個人固有の生体情報を用いて本人確認をすると、その信頼性は非常に高いものとなる。
【0004】
本人確認に利用できる生体情報の一つに指紋がある。指紋は、『万人不同』・『終生不変』という二大特徴を持つといわれ、本人確認の有力な手段と考えられている。近年では、指紋を用いた個人照合システムに関して多くの研究開発が行われている。
【0005】
指紋を用いた個人照合システムでは、携帯用情報機器や携帯電話への提供が望まれている。これらの機器は、表面を表示デバイスや入力デバイスが占有する面積が大きい。このため、従来と同様の使い勝手を維持しながら、認証技術を適用するために、小型のセンサを利用する方法が提案されてきた。
【0006】
小型のセンサを利用する際の大きな課題となっているのは、小さな面積からいかにして高精度の認証に必要となる特徴を抽出するかという点である。
【0007】
指紋を用いた従来の個人照合システムとしては、例えば特開平8−263631号公報に開示された「指紋入力装置」がある。
【0008】
この先行技術は、回転可能な円筒形導波路を被検体の指との接触媒体に用いて、被検体の指の接する部分を移動可能にし、撮像装置を通して回転走査により指紋全体を入力する。このときの円筒形導波路の回転各を回転角検出手段で検出する。この検出回転角に基づき、画像処理手段の画像処理によって正しい指紋画像として再構成する。このような回転可能な円筒形導波路を指との接触媒体に使用することで、光学部品を小型化して大幅な小型化を実現している。
【0009】
【0010】
【発明が解決しようとする課題】
しかしながら、このような従来の指紋入力装置にあっては、小型のセンサを利用するものであるが、指の移動量を計測し、その結果を元に指紋画像を再構成しているため、指紋画像を採取するセンサ以外に指の移動量を検出する機構が必要となり、装置の小型化と低コスト化を実現しにくいという欠点があった。
【0011】
また、指紋画像を採取するセンサ以外の検出機構を必要としない別の先行技術として、特許第2971296号がある。これは1次元型のセンサから入力される1ラインごとに、既に入力された画像と比較し、特徴量を抽出して、類似する画像を識別し照合に利用している。
【0012】
しかしながら、一次元型センサを使用した指紋画像の採取方法にあっては、指紋の入力状態等の要因により、入力する条件、即ち指の速度の変化、左右へのぶれ、左右の移動量の相違、軌跡のカーブなどが変化した場合に、入力される指紋画像を再構成することが困難となる。
【0013】
この結果、本来の特徴量とは異なる照合データが生成され、本人の指であるのに拒絶される本人受理率が低下する。そこで照合基準を緩めて本人受理率を上げようとすると、他人を本人と誤認識する他人受理率が増加するという問題が発生している。また、入力される画像の各ライン単位に他の画像との比較を行うため、演算量が増加し、高速な処理を実現できない問題もある。
【0014】
本発明の目的は、携帯電話など小型機器向けの小型のセンサにより、連続的に採取される部分的な指紋等の入力画像から全体画像を再構成する処理を高速化して再構成画像の品質を向上する生体情報を用いた本人認証方法、プログラム、記録媒体及び装置を提供することにある。
【0015】
【課題を解決するための手段】
図1は本発明の原理説明図である。
(本人認証方法)
本発明の生体情報を用いた本人認証方法は、図1(A)のように、
読取部に対する相対移動により指紋などの人体部位の部分画像を連続的に入力する画像入力ステップと、
隣接する入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する入力画像の他方から特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の入力画像の特徴領域と他方の入力画像の類似領域が一致するように入力画像を合成して人体部位全体の再構成画像を生成する画像合成ステップと、
再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を備えたことを特徴とする。
【0016】
本発明の本人認証方法におけるより具体的な手順として、
画像入力ステップは、所定数の画素ラインで構成された指紋の2次元部分画像を連続的に入力し、
特徴領域検出ステップは、先頭の入力画像を再構成画像として登録すると共に、次の入力画像の重なり部分を含む所定の参照領域から特徴領域を検出し、
類似領域検出ステップは、現在登録されている再構成画像から特徴領域に最も類似する類似領域を検出し、
画像合成ステップは、入力画像の特徴領域と再構成画像の類似領域が一致するように合成して前記再構成画像を更新し、
以後、入力画像を読み込みながら処理を繰り返して人体部位全体の再構成画像を生成する。
【0017】
このような本発明の本人認証方法によれば、部分画像として採取された複数の入力画像の中の重なりが予想される領域から画像的な特徴部分を合成の基準位置として検出し、この特徴領域に最も類似する領域を再構成画像から合成の基準位置として検出し、基準位置同士を一致するように合成することで、入力画像の一部の画像処理で重なり部分を検出して合成するため、再構成に要する処理時間が短くなり、指紋全体の拘束で再構成して本人認証ができる。
【0018】
ここで特徴領域検出ステップは、に有力画像における重なりが予想される参照領域の中の変化量が最大となる画素ラインを特徴領域として検出する。この場合、参照領域に含まれる複数の画素ラインの中の一部分から特徴領域を検出する。これによりライン全体を処理する場合に比べ高速化できる。また必要とする画像は中央に位置することから、参照領域に含まれる複数の画素ラインの中央部分から特徴領域を検出する。
【0019】
特徴領域検出ステップは、隣接する画素の階調値の差の総和または差の二乗の総和が最大となる画素ラインを特徴領域として検出する。また特徴領域検出ステップは、各画素に隣接するラインの画素の階調値の差の総和または差の二乗の総和が最大となる画素ラインを特徴領域として検出してもよい。
【0020】
類似領域検出ステップは、特徴領域検出ステップで検出された特徴画素ラインと、再構成画像の各画素ラインとの間で各画素の階調値の平均二乗誤差が最小となる画素ラインを類似領域として検出する。また類似領域検出ステップは、特徴領域検出ステップで検出された特徴画素ラインと、再構成画像の各画素ラインとの間で各画素の階調値の差の総和または差の二乗の総和が最小となる画素ラインを類似領域として検出するようにしてもよい。
【0021】
類似領域検出ステップは、特徴領域検出ステップで検出された特徴画素ラインと前記再構成画像の各画素ラインといずれか一方を、所定画素数の範囲でずらしながら比較して類似領域を検出する。このため指の移動に伴い採取された画像に歪みがあっても、重ね合わせの基準位置となると特徴ラインとこれに最も類似する類似ラインを正確に検出して品質の良い再構成画像が生成できる。
(入力画像の分割による本人認証方法)
本発明の別の形態にあっては、入力画像を例えば左右に分割して再構成する生体情報を用いた本人認証方法を提供する。この本人認証方法は、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
入力画像を複数の領域に分割する画像分割ステップと、
隣接する分割入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する分割入力画像の他方から特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の分割入力画像の特徴領域と他方の分割入力画像の類似領域が一致するように分割入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成ステップと、
再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を備えたことを特徴とする。
【0022】
この場合の本人認証方法のより具体的な手順は、
画像入力ステップは、所定数の画素ラインで構成された指紋の2次元部分画像を連続的に入力し、
特徴領域検出ステップは、先頭の分割入力画像を再構成画像として登録すると共に、次の分割入力画像の重なり部分を含む所定の参照領域から特徴領域を検出し、
類似領域検出ステップは、現在登録されている分割再構成画像から特徴領域に最も類似する類似領域を検出し、
画像合成ステップは、前記分割入力画像の特徴領域と分割再構成画像の類似領域が一致するように合成して再構成画像を更新し、
以後、入力画像を読み込みながら処理を繰り返して人体部位全体の再構成画像を生成する。
【0023】
この入力画像を分割して処理する本人認証方法における画像合成ステップは、合成する分割画像の特徴領域と類似領域の位置関係を基準に、分割入力画像を補正して合成することを特徴とする。
【0024】
例えば入力画像を左右に分割して再構成する場合、同じ直線であっても、読取部に対し指輪移動される際に画像に歪みを生じ、直線の位置が左右でずれる場合がある。
【0025】
このとき左右の分割入力画像から検出した特徴ラインの位置が相違しており、再構成画像での左右の類似ラインは同じ位置であった場合、位置ずれを起こしている特徴ラインが同一位置となるように分割入力画像の一方を補正して合成する。これにより画像の歪みを補正した再構成画像が生成され、画像品質が向上する。
【0026】
画像歪みの補正精度を高めるためには、入力画像の分割数を増やせばよいが、処理に時間がかかることから、利用者を折衷した分割数とする。
【0027】
これ以外の特徴は、処理対象が分割入力画像単位に行われる点以外は、分割していない入力画像の処理と同じになる。
【0028】
(プログラム)
本発明は、生体情報を用いた本人認証のためのプログラムを提供する。このプログラムは、コンピュータに、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
隣接する入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する入力画像の他方から特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の入力画像の特徴領域と他方の入力画像の類似領域が一致するように2つの入力画像を合成して人体部位全体の再構成画像を生成する画像合成ステップと、再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を実行させることを特徴とする。
【0029】
また本発明は、入力画像を更に分割して処理する生体情報を用いた本人認証のためのプログラムを提供する。このプログラムは、コンピュータに、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
入力画像を複数の領域に分割する画像分割ステップと、
隣接する分割入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する分割入力画像の他方から特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の分割入力画像の特徴領域と他方の分割入力画像の類似領域が一致するように分割入力画像を合成して人体部位全体の再構成画像を生成する画像合成ステップと、
再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を実行させることを特徴とする。
(記録媒体)
本発明は、生体情報を用いた本人認証のためのプログラムを格納したコンピュータ読取可能な記録媒体を提供する。この記録媒体に格納されたプログラムは、コンピュータに、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
隣接する入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する入力画像の他方から特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の入力画像の特徴領域と他方の入力画像の類似領域が一致するように2つの入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成ステップと、
再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を実行させる。
【0030】
また本発明は、入力画像を更に分割して処理する生体情報を用いた本人認証のためのプログラムを格納したコンピュータ読取可能な記録媒体を提供する。この記録媒体に格納されたプログラムは、コンピュータに、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
入力画像を複数の領域に分割する画像分割ステップと、
隣接する分割入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する分割入力画像の他方から特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の分割入力画像の特徴領域と他方の分割入力画像の類似領域が一致するように分割入力画像を合成して人体部位全体の再構成画像を生成する画像合成ステップと、
再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を実行させる。
【0031】
(本人認証装置)
本発明は、生体情報を用いた本人認証装置を提供する。この本人認証装置は、図1(B)のように、読取部10に対する相対移動により人体部位の部分画像を連続的に入力する画像入力部14と、隣接する入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出部16と、隣接する入力画像の他方から特徴領域に最も類似する類似領域を検出する類似領域検出部18と、一方の入力画像の特徴領域と他方の入力画像の類似領域が一致するように入力画像を合成して人体部位全体の再構成画像を生成する画像合成部20と、再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する指紋照合部24とを備えたことを特徴とする。
【0032】
また本発明は、入力画像を例えば左右に分割して再構成する生体情報を用いた本人認証装置を提供する。この本人認証装置は、読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力部と、入力画像を複数の領域に分割する画像分割部と、隣接する分割入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出部と、隣接する分割入力画像の他方から特徴領域に最も類似する類似領域を検出する類似領域検出部と、一方の分割入力画像の特徴領域と他方の分割入力画像の類似領域が一致するように分割入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成部と、再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合部とを備えたことを特徴とする。
【0033】
なお、本発明によるプログラム、記録媒体及び本人認証装置における他の特チ要は本人認証方法と基本的に同じになる。
【0034】
【発明の実施の形態】
図2は、本発明による生体情報を用いた本人認証装置の機能構成を示したブロック図であり、この実施形態にあっては、生体情報として指紋画像を処理する場合を例にとっている。
【0035】
図2において、本人認証装置は、読取部10、画像入力部14、特徴領域検出部16、類似領域検出部18、画像合成部20、再構成画像格納部22及び指紋照合部24で構成される。
【0036】
このような構成を持つ本発明の本人認証装置は、例えば携帯電話などの小型機器への組込みを予定している。このため読取部10に設けている2次元イメージセンサ12としては、携帯電話などの小型機器向けに適用可能なサイズの小さいものを使用する。
【0037】
2次元イメージセンサ12として、この実施形態にあっては、例えば主走査方向となる横方向に256ドット、副走査方向即ち相対的な指の移動方向となる副走査方向に32ドット配列した(256×32)ドットサイズを使用している。この程度の画素サイズを持つ2次元イメージセンサ12の寸法的な大きさとしては、横10〜15mm程度、縦1〜2mm程度と十分に小さく、携帯電話などの小型機器の読取部10として十分に適用可能である。
【0038】
指紋画像の入力は、携帯機器に設置された読取部10の2次元イメージセンサ12に対応した窓を持つ読取部10に対し、指先の根元側を読取部に当てて手前に押しつけながら引くことで、この指先の動きに対し2次元イメージセンサ12が256×32ドット単位の2次元画像の読取動作を連続的に行い、画像入力部14によって、例えば図3の左側に示す5つに分かれた部分画像としての指紋の入力画像26−1〜26−5を採取することができる。
【0039】
この図3における連続的に採取された5つの部分画像の入力画像26−1〜26−5にあっては、各入力画像の隣接する境界部分において画像が重複する領域を持っている。これは読取部10の2次元イメージセンサ12における縦方向32ドットの撮像幅に対する読取動作速度に対し、この32ドットの幅を動かす指の速度が遅いために、境界部分で重なる領域が生ずる。
【0040】
このようにして読取部10の2次元イメージセンサ12により読み取られた例えば図3の5つの部分画像となる入力画像26−1〜26−5は、画像入力部14にバッファされる。
【0041】
特徴領域検出部16は、隣接する入力画像の一方の重なりが予測される所定の参照領域から画像構成の際の位置合せの基準位置となる特徴領域を検出する。この特徴領域検出部16で検出される特徴領域は、入力画像の参照領域を画像的に見て変化量の大きな主走査方向のラインを特徴ラインとして検出する。
【0042】
類似領域検出部18は、特徴領域検出部16で検出された入力画像の特徴ラインに重なり合う隣接する他の入力画像から、特徴ラインに最も類似する類似ラインを画像構成の際の基準位置とするために検出する。
【0043】
具体的には、特徴領域検出部16で検出する特徴ラインは再構成前の入力画像を対象とするが、類似領域検出部18で検出しようとする類似ラインは既に再構成済の画像を対象とする。
【0044】
画像合成部20は、特徴領域検出部16で検出された特徴ラインと類似領域検出部18で検出された類似ラインとが一致するように、2つの入力画像を合成する。具体的には、類似ラインは合成の済んだ再構成画像から検出されることから、入力画像の特徴ラインを再構成画像の類似ラインに一致するように画像を構成し、再構成画像格納部22の再構成画像を更新する。
【0045】
このような特徴領域検出部16、類似領域検出部18及び画像合成部20による入力画像と再構成画像の合成を、画像入力部14にバッファしている入力画像の順番に繰り返すことで、指紋全体の再構成画像を生成することができる。
【0046】
部分画像として入力された複数の入力画像から指紋全体の再構成画像が生成されて再構成画像格納部22に得られたならば、続いて指紋照合部24で本人認証の照合処理を行う。
【0047】
指紋照合部24にあっては、初期設定となる登録モードにおいて、読取部10から本人の指紋を採取し、部分画像の合成により得られた再構成画像について照合基準画像を予め登録している。したがって初期設定が済んだ後の使用状態にあっては、再構成画像格納部22で得られた読取指紋画像を入力して、予め登録している基準指紋画像と照合することで、本人か否かの認証判断を行っている。
【0048】
図3は、図2の実施形態における部分画像として連続的に採取した入力画像から指紋全体の再構成画像を生成して照合するまでの各段階の画像を表わしている。読取時にあっては、部分画像として例えば5つの入力画像26−1〜26−5が連続的に得られている。
【0049】
この5つの入力画像26−1〜26−5について、まず先頭の入力画像26−1を再構成画像として登録した後、2番目の入力画像26−2の隣接する例えば32ラインの内の4分の1となる8ラインを対象とした参照領域について特徴ラインを検出し、特徴ラインの検出ができたならば、そのときの再構成画像26−1の全ラインとの比較により、最も類似するラインを類似ラインとして検出する。
【0050】
そして、入力画像26−2の特徴ラインと再構成画像26−1の類似ラインとが一致するように2つの入力画像26−1,26−2を合成し、再構成画像とする。
【0051】
このようにして再構成画像が得られたならば、残りの入力画像26−3,26−4,26−5の順番に、同様にして特徴ラインと類似ラインを検出して位置合わせして合成することで、指紋画像全体を表わす再構成画像28を得ることができる。
【0052】
このよう生成された再構成画像28は、2値化処理などにより照合画像30に変換された後、初期設定の登録モードでは照合基準画像として登録され、その後の読取処理では登録している照合基準画像と新たな読込みにより得られた再構成画像から得られた照合画像との比較により、本人か否かを照合判断している。
【0053】
図4は、本発明における入力画像の特徴ラインの検出を行う部分画像となる入力画像の1ラインにおける階調レベルを示している。この1ライン階調レベルにあっては、図3の部分画像となる指紋画像の分布における指紋流線が下のレベルとなり、指紋谷線が上のレベルを表わしている。
【0054】
この階調レベルを見ると、特徴部分25―1,25―2のように、ラインの左右で指紋流線や指紋谷線の周期並びにそれぞれの平坦部の幅などが異なっていることが分かる。このような1ラインの階調レベルの特徴は、隣接するラインとの間でも異なった特徴的な分布を持つことになる。
【0055】
そこで本発明にあっては、入力画像の重なりが予想される例えば境界部分から8ラインの参照領域を対象に、階調値の変化量を特徴として抽出し、抽出した変化量の中で最もラインの変化が激しいライン、即ち画像値の変化量が最も大きいラインを、画像合成の際の基準位置に使用する特徴ラインとして検出する。
【0056】
図5は、本発明による本人認証方法の処理手順を示したフローチャートであり、このフローチャートの手順が本発明による人体情報を用いた本人認証のためのプログラムステップを実現するものである。
【0057】
そこで図5のフローチャートを参照して、図2の特徴領域検出部16、類似領域検出部18及び画像合成部20として実現される画像再構成処理を中心に処理を説明すると、次のようになる。
【0058】
まずステップS1で、例えば図3の指紋部分画像に示すようにして得られた5つの入力画像26−1〜26−5の中から先頭の入力画像26−1を読み込んで、これを図2の再構成画像格納部22に登録する。
【0059】
続いてステップS2で図3の2番目の入力画像26−2を読み込み、ステップS3で入力画像の注目領域から特徴ラインを検出する。この特徴ラインの検出処理は、図6にサブルーチンのフローチャートとして、その詳細を示している。
【0060】
図6の特徴ライン検出処理は、まずステップS1で入力画像の注目領域を選択する。図8(A)は本発明の処理対象となる入力画像26−2であり、図8(B)が、そのとき再構成画像28−1となる入力画像26−1を示している。なお図8にあっては、各画像は縦32ドット、横256ドットであるが、横方向については説明の都合上、幅を圧縮して表わしている。
【0061】
図6のステップS1における入力画像の注目領域の選択にあっては、図8(A)の入力画像26−2について、図8(B)の再構成画像28−1との重なりが予測される下側の4分の1となる8ラインを注目領域32としている。
【0062】
続いてステップS2で、注目領域32に含まれる8ラインの中から変化量が最大となるラインを選択する。この注目領域32のラインにおける変化量の検出は、例えば次の方法がある。
(1)ラインごとに隣接する画素の階調値の差を取り、この差の総和あるいは差の二乗総和が最大となるラインを特徴的なラインとする。
(2)ラインの画素ごとに、隣接するラインの画素との階調値の差を取り、この差の総和あるいは二乗総和が最大となるラインを特徴ラインとする。
(3)ラインの画素の階調値を2値化し、白レベル(0)と黒レベル(1)のそれぞれのラン長の繋がりを特徴量として、最も変化の激しいラインを特徴ラインとする。
【0063】
これ以外の方法としては、階調値を量子化した後に、(1)〜(3)と同様の検出を行ってもよい。また画像の特徴を判断するための手法であれば適宜の方法が利用でき、上記の例に限定されることはない。
【0064】
また注目領域32における特徴ライン34の検出にあっては、図8のように、256ドットのライン幅全体について行う必要はなく、ラインの一部を利用してもよい。一例として、図8のように1ライン256画素中の中心付近の128画素のみを利用して特徴ライン34の検出を行う。これによって特徴ラインの検出対象となる画素数を減らし、処理時間を短縮できる。また採取された指紋画像は、その中央部分に識別に必要な重要な画像部分があることから、中央部分のみに注目すればよく、両側を処理対象から除いても問題はない。
【0065】
再び図5を参照するに、ステップS3で入力画像の注目領域から特徴ラインを検出すると、次のステップS4で、そのときの再構成画像から入力画像の特徴ラインに最も類似する類似ラインを検出する。この類似ラインの検出処理は、図7にサブルーチンのフローチャートとして示している。
【0066】
図7の類似ライン検出処理にあっては、ステップS1で、既に検出された入力画像の特徴ラインを読み込み、次のステップS2で、例えば再構成画像の各ラインと入力画像の特徴ラインとの間で各画素の平均二乗誤差を算出する。
【0067】
このようなステップS2の平均二乗誤差の算出は、例えば図9に示す先頭の入力画像を再構成画像28−1とした最初の処理にあっては、再構成画像28−1における32ラインの全てについて平均二乗誤差を算出する。
【0068】
なお、この実施形態にあっては、入力画像の特徴ラインに最も類似する再構成画像の類似ラインの検出に平均二乗誤差の最小値となるラインを検出しているが、これ例外に次の方法であってもよい。
(1)特徴ラインと再構成画像側ラインの各画素の階調値の差の総和あるいは差
の二乗総和が最小となるラインを類似ラインとする。
(2)特徴ライン及び再構成画像側のラインの階調値をそれぞれ2値化し、黒レベル(0)と白レベル(1)のラン長の繋がりを特徴として、最も類似する
ラインを選択する。
【0069】
もちろん、これ以外にも、階調値を量子化した後に同様の比較処理を行ってもよいし、これ以外の画素類似を判断するための適宜の方法であってもよい。
【0070】
続いてステップS3で、算出された32ライン分の平均二乗誤差のうち最小となるラインを抽出して、類似ラインとして登録する。例えば図8のように、入力画像26−2の注目領域32から検出された特徴ライン34に対し、そのときの再構成画像28−1の中から平均二乗誤差が最小となる類似ライン36が検出される。
【0071】
ここで図7のステップS2における再構成画像の各ラインに対する平均二乗誤差の算出については、図9のように入力画像側の特徴ライン34に対し同じ位置の128画素のライン38−1との間で平均二乗誤差を算出した後、ライン38、38−1〜10及び38−11から38−20のように、左右に1ドットずつ10画素の範囲でずらしながら、それぞれ平均二乗誤差を算出し、その中で最小となる平均二乗誤差の値をライン38の平均二乗誤差として採用する。
【0072】
これによって、入力画像と再構成画像側に画像の歪みによる多少の位置ずれがあっても、正確に特徴ラインに最も類似する再構成画像側の類似ラインを検出することができる。
【0073】
再び図5を参照するに、ステップS4で再構成画像から入力画像の特徴ラインに最も類似する類似ラインが検出できたならば、次のステップS5で、入力画像の特徴ラインが再構成画像の類似ラインに一致するように画像を構成して再構成画像を更新する。
【0074】
なお図5のステップS4で特徴ラインに最も類似する類似ラインが検出できなかった場合には、操作者に対し再読取を指示してもよい。また特徴ラインに最も類似する類似ラインが検出できなかった場合には、特徴ラインと類似ラインの位置合わせをすることなく、そのまま入力画像を合成し、簡略的に再構成するようにしてもよい。
【0075】
そしてステップS6で全入力画像の処理が済んだか否かチェックし、済んでいなければステップS2に戻って、次の入力画像を読み込んで同様な処理を繰り返す。ステップS6で全入力画像の処理が済むと、ステップS7で、再構成した指紋画像を登録し、照合処理を実行する。
【0076】
図10は、図5のフローチャートに従った本発明による指紋画像再構成処理の概略を示している。即ち、部分画像として得られた指紋の入力画像26−1〜26−5を対象に、まず先頭の入力画像26−1を再構成画像28−2として入力26−2との合成を行う。
【0077】
即ち入力画像26−2の参照領域から特徴ラインを検出し、この特徴ラインに最も類似する再構成画像28−2の類似ラインを検出し、特徴ラインと類似ラインが一致するように合成することで、再構成画像28−2を得ている。以下同様に、入力画像26−3,26−4,26−5の順番に、特徴ラインの検出とこれに最も類似する類似ラインの検出による合成で再構成画像28−3,28−4,28−5と更新し、最終的に指紋全体を表わす再構成画像28−5を得ている。
【0078】
図11は、本発明による本人認証装置の他の実施形態を示した装置構成の機能ブロック図である。この実施形態にあっては、読取部10の2次元イメージセンサ12に対する相対的な指の走査で画像入力部14に入力してバッファした図3の入力画像26−1,26−5を、更に画像分割部38で左右の画像に分割して、それ以降の画像結合による再構成画像の生成を行うようにしたことを特徴とする。この実施形態にあっては、画像分割部38において画像入力部14に得られた各入力画像を中心を境界に左右に2分割している。
【0079】
画像分割部38で左右に2分割された各入力画像は、特徴領域検出部16において各分割画像ごとに参照領域から特徴ラインを検出し、続いて類似領域検出部18で各分割画像の特徴ラインのそれぞれに最も類似する分割再構成画像から類似ラインをそれぞれ検出し、分割画像の特徴ラインと分割再構成画像の類似ラインとが一致するように画像合成部20で合成して再構成画像格納部22に登録する更新を繰り返す。
【0080】
図12は、図11の実施形態における複数の入力画像から指紋全体の画像を再構成する処理手順のフローチャートである。このフローチャートにおけるステップS1〜S7の処理は、図5における入力画像を分割しない場合の処理に対応しており、入力画像及び再構成画像が左右に2分割されて、それぞれ特徴ラインと類似ラインを検出して合成している点が相違し、それ以外の点は同じである。
【0081】
また図13は、図12のステップS3の特徴ライン検出処理であり、ステップS1で例えば左分割入力画像を読み込み、ステップS2〜S4で注目領域から特徴ラインを検出して登録し、続いてステップS5で右分割入力画像が未処理であることから、ステップS6で右分割入力画像を読み込み、同様にステップS2〜S4で右分割入力画像について特徴ラインを検出して登録していることになる。
【0082】
更に図14は、図12のステップS4における再構成画像の類似ライン検出処理であり、ステップS1で左右分割再構成画像を読み込み、ステップS2〜S4で、対応する特徴ラインとの間で平均二乗誤差を算出し、最小となるラインを左分割再構成画像の類似ラインとして検出し、ステップS5で右分割再構成画像の処理が済んでいなければ、ステップS6で右分割再構成画像を読み込み、同様にしてステップS2〜S3で類似ラインを検出して登録するようにしている。
【0083】
図15(A),(B)は、入力画像を分割する図12の処理手順において、先頭の入力画像を再構成画像28−1とし、次の入力画像26−2を読み込んで処理している状態の説明図である。
【0084】
この場合にあっては再構成画像28−1は、中央で分割されて左分割再構成画像28−11と右分割再構成画像28−12となっている。また入力画像26−2も中央で分割されて、左分割再構成画像26−21と右分割入力画像26−22となっている。そして入力画像26−2にあっては、左右の各分割画像26−21,26−22のそれぞれについて、参照領域の例えば8ラインの中から特徴ライン34−1,34−2を検出している。
【0085】
特徴ライン34−1,34−2が検出できたならば、左分割再構成画像28−11については対応する左の特徴ライン34−1との間で左各ラインについて例えば各画素の平均二乗誤差を算出し、これが最小となるラインを類似ライン36−1として検出している。
【0086】
同様に右分割再構成画像28−12についても、対応する右の特徴ライン34−2との間で各ラインの画素階調値の平均二乗誤差を算出して、その最小値となるラインを類似ライン36−2としている。
【0087】
図15の場合には、入力画像26−2の左右の特徴ライン34−1,34−2と再構成画像28−1における左右の類似ライン36−1,36−2の相対的な位置関係は同じであることから、特徴ライン34−1と類似ライン36−1を一致するように画像を合成すれば、当然に特徴ライン34−2と類似ライン36−2が一致するように合成できる。
【0088】
図16(A),(B)は、再構成画像280−1に対し入力画像26−2側に歪みを生じた場合の説明図である。入力画像26−2について、左右それぞれについて特徴ラインの検出を行うと、左側の特徴ライン34−1に対し右側の特徴ライン34−2は、画像に歪みがなかった場合の破線の位置に対し、歪みにより特徴ライン34−2の位置がずれている。
【0089】
このような入力画像26−2の左右の特徴ライン34−1,34−2に基づいて、再構成画像28−1の左右の各ラインについて最も類似する類似ライン36−1,36−2を求め、この再構成画像28−1側に歪みがなかったとすると、特徴ラインと類似ラインを比較することで入力画像26−2における歪みの状態が検出できる。
【0090】
即ち、左側の特徴ライン34−1と類似ライン36−1が正しい位置関係にあったとすると、入力画像26−2における右側の特徴ライン34−2は1ライン上側にずれる画像の歪みを生じていることが分かる。
【0091】
そこで、再構成画像28−1における左右の類似ライン36−1,36−2が正しい相対的な位置関係となるように、入力画像26−2の歪みを例えば1ライン間引きする処理を行うことで、特徴ライン34−2を正しい位置の補正特徴ライン40とし、このように入力画像26−2の右分割入力画像26−22の歪みを補正して画像合成を行う。
【0092】
このような左右分割による位置の比較に基づく画像の歪みの補正は、図16における間引き以外に、画素の補間、更には傾きを調整するアファイン変換などを必要に応じて行う。
【0093】
また図15,図16の分割にあっては、画像を左右に2分割した場合を例にとるものであったが、更に分割数を3分割、4分割というように増やすことによって、画像の歪みに対する検出精度を高め、より精密な画像構成による合成が実現できる。しかしながら、分割数が増加すると画像処理に要する負担が増えて処理時間が長くなることから、処理時間に影響のない分割数の範囲とすることが望ましい。
【0094】
また図15,図16の画像を分割した処理にあっては、各画像の1ライン幅全域について特徴ライン及び類似ラインの検出を行っているが、図9の入力画像を分割しない場合と同様、ライン中央の128画素を対象に中心から左右に分割し、中心側の64画素のそれぞれについて特徴ライン及び類似ラインの検出による画像合成を行うようにしてもよい。
【0095】
次に生体情報を用いた本人認証処理のためのプログラムを格納したコンピュータ読み取り可能な記録媒体の実施形態を説明する。
【0096】
本発明による本人認証のためのプログラムが実行される装置は例えば携帯電話などの小型の機器であり、これらの小型の機器にはマイクロプロセッサのチップによりCPU、RAM、ROMのハードウェアが内蔵され、更に通信モジュールによって無線インタフェースが内蔵され、入力手段としてはゲームボタン、機能ボタンなどのスイッチが設けられている。
【0097】
このため本発明の本人認証のためのプログラムは、CD−ROM、フロッピィーディスク(R)、DVDディスク、光磁気ディスク、ICカードなどの可搬型の記憶媒体、モデム、LANインタフェース、無線インタフェースなどの回線を介して接続されたデータベース、更には他のコンピュータシステムのデータベースに格納され、携帯電話などの小型機器のプロセッサにインストールされた後、実行される。
【0098】
このため本発明の本人認証のためのプログラムが格納される記憶媒体としては、CD−ROM、フロッピィーディスク(R)、DVDディスク、光磁気ディスク、ICカードの可搬型記憶媒体、コンピュータシステムの内外に備えられたハードディスクなどの記憶装置、回線を介してプログラムを保持するデータベース、あるいは他のコンピュータシステム並びにそのデータベース、更に回線上の伝送媒体を含むものである。
【0099】
なお上記の実施形態は生体情報として指紋画像を例に取るものであったが、指紋画像以外に顔や光彩など適宜の人体情報を用いたバイオメトリクス認証に適用することができる。
【0100】
また本発明は、その目的と利点を損なわない適宜の変形を含み、更に上記の実施形態に示した数値による限定は受けない。
【0101】
(付記)
(付記1)
生体情報を用いた本人認証方法に於いて、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
隣接する入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する入力画像の他方から前記特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の入力画像の特徴領域と他方の入力画像の類似領域が一致するように2つの入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成ステップと、
前記再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を備えたことを特徴とする本人認証方法。(1)
【0102】
(付記2)
付記1記載の本人認証方法に於いて、
前記画像入力ステップは、所定数の画素ラインで構成された指紋の2次元部分画像を入力し、
前記特徴領域検出ステップは、先頭の入力画像を再構成画像として登録すると共に、次の入力画像の重なり部分を含む所定の参照領域から特徴領域を検出し、
前記類似領域検出ステップは、現在登録されている再構成画像から前記特徴領域に最も類似する類似領域を検出し、
前記画像合成ステップは、前記入力画像の特徴領域と前記再構成画像の類似領域が一致するように合成して前記再構成画像を更新し、
以後、入力画像を読み込みながら前記の処理を繰り返して前記人体部位全体の再構成画像を生成することを特徴とする本人認証方法。
【0103】
(付記3)
付記1記載の本人認証方法に於いて、前記特徴領域検出ステップは、前記参照領域の中の変化量が最大となる画素ラインを特徴領域として検出することを特徴領域として検出することを特徴とする本人認証方法。
【0104】
(付記4)
付記1記載の本人認証方法に於いて、前記特徴領域検出ステップは、前記参照領域に含まれる複数の画素ラインの中の一部分から特徴領域を検出することを特徴領域として検出することを特徴とする本人認証方法。
【0105】
(付記5)
付記1記載の本人認証方法に於いて、前記特徴領域検出ステップは、前記参照領域に含まれる複数の画素ラインの中央部分から特徴領域を検出することを特徴領域として検出することを特徴とする本人認証方法。
【0106】
(付記6)
付記3記載の本人認証方法に於いて、前記特徴領域検出ステップは、隣接する画素の階調値の差の総和または差の二乗の総和が最大となる画素ラインを特徴領域として検出することを特徴とする本人認証方法。
【0107】
(付記7)
付記3記載の本人認証方法に於いて、前記特徴領域検出ステップは、各画素に隣接するラインの画素の階調値の差の総和または差の二乗の総和が最大となる画素ラインを特徴領域として検出することを特徴とする本人認証方法。
【0108】
(付記8)
付記1記載の本人認証方法に於いて、前記類似領域検出ステップは、前記特徴領域検出ステップで検出された特徴画素ラインと、前記再構成画像の各画素ラインとの間で各画素の階調値の平均二乗誤差が最小となる画素ラインを類似領域として検出することを特徴とする本人認証方法。
【0109】
(付記9)
付記1記載の本人認証方法に於いて、前記類似領域検出ステップは、前記特徴領域検出ステップで検出された特徴画素ラインと、前記再構成画像の各画素ラインとの間で各画素の階調値の差の総和または差の二乗の総和が最小となる画素ラインを類似領域として検出することを特徴とすることを特徴とする本人認証方法。
【0110】
(付記10)
付記1記載の本人認証方法に於いて、前記類似領域検出ステップは、前記特徴領域検出ステップで検出された特徴画素ラインと前記再構成画像の各画素ラインといずれか一方を、所定画素数の範囲でずらしながら比較して類似領域を検出することを特徴とする本人認証方法。
【0111】
(付記11)
生体情報を用いた本人認証方法に於いて、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
前記入力画像を複数の領域に分割する画像分割ステップと、
隣接する分割入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する分割入力画像の他方から前記特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の分割入力画像の特徴領域と他方の分割入力画像の類似領域が一致するように分割入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成ステップと、
前記再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を備えたことを特徴とする本人認証方法。(2)
【0112】
(付記12)
付記11記載の本人認証方法に於いて、
前記画像入力ステップは、所定数の画素ラインで構成された指紋の2次元部分画像を入力し、
前記特徴領域検出ステップは、先頭の分割入力画像を再構成画像として登録すると共に、次の分割入力画像の重なり部分を含む所定の参照領域から特徴領域を検出し、
前記類似領域検出ステップは、現在登録されている分割再構成画像から前記特徴領域に最も類似する類似領域を検出し、
前記画像合成ステップは、前記分割入力画像の特徴領域と前記分割再構成画像の類似領域が一致するように合成して前記再構成画像を更新し、
以後、入力画像を読み込みながら前記の処理を繰り返して前記人体部位全体の再構成画像を生成することを特徴とする本人認証方法。
【0113】
(付記13)
付記11記載の本人認証方法に於いて、前記特徴領域検出ステップは、前記参照領域の中の変化量が最大となる画素ラインを特徴領域として検出することを特徴領域として検出することを特徴とする本人認証方法。
【0114】
(付記14)
付記11記載の本人認証方法に於いて、前記特徴領域検出ステップは、前記参照領域に含まれる複数の画素ラインの中の一部分から特徴領域を検出することを特徴領域として検出することを特徴とする本人認証方法。
【0115】
(付記15)
付記1記載の本人認証方法に於いて、前記特徴領域検出ステップは、前記参照領域に含まれる複数の画素ラインの中央部分から特徴領域を検出することを特徴領域として検出することを特徴とする本人認証方法。
【0116】
(付記16)
付記13記載の本人認証方法に於いて、前記特徴領域検出ステップは、隣接する画素の階調値の差の総和または差の二乗の総和が最大となる画素ラインを特徴領域として検出することを特徴とする本人認証方法。
【0117】
(付記17)
付記13記載の本人認証方法に於いて、前記特徴領域検出ステップは、各画素に隣接するラインの画素の階調値の差の総和または差の二乗の総和が最大となる画素ラインを特徴領域として検出することを特徴とする本人認証方法。
【0118】
(付記18)
付記11記載の本人認証方法に於いて、前記類似領域検出ステップは、前記特徴領域検出ステップで検出された特徴画素ラインと、前記分割再構成画像の各画素ラインとの間の各画素の階調値の平均二乗誤差が最小となる画素ラインを類似領域として検出することを特徴とする本人認証方法。
【0119】
(付記19)
付記11記載の本人認証方法に於いて、前記類似領域検出ステップは、前記特徴領域検出ステップで検出された特徴画素ラインと、前記分割再構成画像の各画素ラインとの間の各画素の階調値の差の総和または差の二乗の総和が最小となる画素ラインを類似領域として検出することを特徴とする本人認証方法。
【0120】
(付記20)
付記1記載の本人認証方法に於いて、前記類似領域検出ステップは、前記特徴領域検出ステップで検出された特徴画素ラインと前記分割再構成画像の各画素ラインといずれか一方を、所定画素数の範囲でずらしながら比較して類似領域を検出することを特徴とする本人認証方法。
【0121】
(付記21)
付記1記載の本人認証方法に於いて、前記画像合成ステップは、合成する分割画像の特徴領域と類似領域の位置関係を基準に、分割入力画像を補正して合成することを特徴とする本人認証方法。
【0122】
(付記22)
コンピュータに、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
隣接する入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する入力画像の他方から前記特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の入力画像の特徴領域と他方の入力画像の類似領域が一致するように2つの入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成ステップと、
前記再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合する照合ステップと、
を実行させることを特徴とするプログラム。(3)
【0123】
(付記23)
コンピュータに、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
前記入力画像を複数の領域に分割する画像分割ステップと、
隣接する分割入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する分割入力画像の他方から前記特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の分割入力画像の特徴領域と他方の分割入力画像の類似領域が一致するように分割入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成ステップと、
前記再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を実行させることを特徴とするプログラム。
【0124】
(付記24)
コンピュータに、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
隣接する入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する入力画像の他方から前記特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の入力画像の特徴領域と他方の入力画像の類似領域が一致するように2つの入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成ステップと、
前記再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を実行させるプログラムを格納したコンピュータ読取可能な記録媒体。(4)
【0125】
(付記25)
コンピュータに、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
前記入力画像を複数の領域に分割する画像分割ステップと、
隣接する分割入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
隣接する分割入力画像の他方から前記特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
一方の分割入力画像の特徴領域と他方の分割入力画像の類似領域が一致するように分割入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成ステップと、
前記再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、
を実行させるプログラムを格納したコンピュータ読取可能な記録媒体。
【0126】
(付記26)
生体情報を用いた本人認証装置に於いて、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力部と、
隣接する入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出部と、
隣接する入力画像の他方から前記特徴領域に最も類似する類似領域を検出する類似領域検出部と、
一方の入力画像の特徴領域と他方の入力画像の類似領域が一致するように2つの入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成部と、
前記再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合部と、
を備えたことを特徴とする本人認証装置。(5)
【0127】
(付記27)
生体情報を用いた本人認証装置に於いて、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力部と、
前記入力画像を複数の領域に分割する画像分割部と、
隣接する分割入力画像の一方の重なりが予想される所定の参照領域から特徴領域を検出する特徴領域検出部と、
隣接する分割入力画像の他方から前記特徴領域に最も類似する類似領域を検出する類似領域検出部と、
一方の分割入力画像の特徴領域と他方の分割入力画像の類似領域が一致するように分割入力画像を合成して前記人体部位全体の再構成画像を生成する画像合成部と、
前記再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合部と、
を備えたことを特徴とする本人認証装置。
【0128】
【発明の効果】
以上説明してきたように本発明によれば、部分画像として採取された例えば指紋の複数の入力画像の中から重なりが予想される領域を対象に特徴部分を画像合成の基準位置として検出し、この特徴領域に最も類似する領域を再構成画像から同じく合成の基準位置として検出し、各基準位置同士を一致するように合成することで、部分画像として連続的に読み込んだ入力画像の再構成に要する処理時間が短くて済み、且つ特徴位置を正確に捉えて合成することで、再構成された全体画像の品質を向上し、これによって指紋画像などによる本人認証の精度を高めることができる。
【0129】
また部分画像として連続的に入力された入力画像を例えば左右に分割し、各分割画像ごとに特徴部分を基準位置として検出し、再構成側の最も類似する領域を検出して一致するように合成することで、特徴位置と類似位置の比較により入力画素の歪みを検出して合成の際に補正することができ、読取部に対する指の速度の変化や左右のぶれなどで読取画像に歪みがあっても、この歪みを補正した再構成画像が得られ、再構成画像の品質が向上し、本人認証の精度を更に向上することができる。
【図面の簡単な説明】
【図1】本発明の原理説明図
【図2】本発明の機能構成のブロック図
【図3】本発明における指紋読取による部分入力画像、再構成画像、照合画像の説明図
【図4】図3の部分入力画像の1ラインを取り出した階調レベルの説明図
【図5】本発明による本人認証処理手順のフローチャート
【図6】図5の特徴ライン検出処理のフローチャート
【図7】図5の類似ライン検出処理のフローチャート
【図8】本発明による特徴ライン及び類似ラインの検出処理の説明図
【図9】入力画像の特徴ラインに対し再構成画像のラインをずらして比較する処理の説明図
【図10】本発明による部分入力画像の再構成処理の概略説明図
【図11】入力画像を分割して処理する本発明の機能構成のブロック図
【図12】入力画像を分割して処理する本発明による本人認証処理手順のフローチャート
【図13】図12の特徴ライン検出処理のフローチャート
【図14】図12の類似ライン検出処理のフローチャート
【図15】本発明による分割入力画像についての特徴ライン及び類似ラインの検出処理の説明図
【図16】本発明による分割入力画像についての特徴ライン及び類似ラインの検出と歪み補正の説明図
【符号の説明】
10:読取部
12:2次元イメージセンサ
14:画像入力部
16:特徴領域検出部
18:類似領域検出部
20:画像合成部
22:再構成画像格納部
24:指紋照合部
26−1〜26−5:入力画像(部分画像)
28,28−1〜28−5:再構成画像
30:照合画像
32:注目領域
34,34−1,34−2:特徴ライン
36,36−1,36−2:類似ライン
38:画像分割部
40:補正特徴ライン
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a personal authentication method, a program, a recording medium, and a device using biometric information for performing personal authentication by collecting a fingerprint image with a small sensor, and in particular, a partial fingerprint image collected continuously, etc. The present invention relates to a personal authentication method, a program, a recording medium, and an apparatus using biometric information for reconstructing a fingerprint image from the user and performing personal authentication.
[0002]
[Prior art]
In recent years, with the introduction of computers into a wide range of social systems, security has attracted attention. Conventionally, ID cards and passwords have been used as identity verification means when entering a computer room or using a terminal. However, many problems remain in terms of security.
[0003]
As personal identification means having higher reliability than passwords, personal verification technology using biometric information has attracted attention. When identity verification is performed using personal biometric information, the reliability is very high.
[0004]
One of the biometric information that can be used for identity verification is a fingerprint. Fingerprints are said to have two major characteristics: “everyone's unidentified” and “lifetime unchanged”, and are considered to be a powerful means of identity verification. In recent years, many researches and developments have been made on personal verification systems using fingerprints.
[0005]
In a personal verification system using a fingerprint, provision to a portable information device or a mobile phone is desired. These devices have a large area occupied by display devices and input devices on the surface. For this reason, a method using a small sensor has been proposed in order to apply the authentication technique while maintaining the same usability as before.
[0006]
A major issue when using small sensors is how to extract features necessary for high-accuracy authentication from a small area.
[0007]
As a conventional personal verification system using a fingerprint, for example, there is a “fingerprint input device” disclosed in Japanese Patent Application Laid-Open No. 8-263363.
[0008]
This prior art uses a rotatable cylindrical waveguide as a contact medium with the subject's finger to move the portion of the subject's finger in contact, and inputs the entire fingerprint by rotational scanning through the imaging device. Each rotation of the cylindrical waveguide at this time is detected by a rotation angle detecting means. Based on this detected rotation angle, a correct fingerprint image is reconstructed by image processing of the image processing means. By using such a rotatable cylindrical waveguide as a contact medium with a finger, the optical component is miniaturized and a significant miniaturization is realized.
[0009]
[0010]
[Problems to be solved by the invention]
However, such a conventional fingerprint input device uses a small sensor, but measures the amount of finger movement and reconstructs the fingerprint image based on the result. In addition to the sensor for collecting images, a mechanism for detecting the amount of movement of the finger is required, and it is difficult to reduce the size and cost of the apparatus.
[0011]
Japanese Patent No. 2971296 is another prior art that does not require a detection mechanism other than a sensor for collecting a fingerprint image. This compares each line input from a one-dimensional sensor with an already input image, extracts feature amounts, identifies similar images, and uses them for matching.
[0012]
However, in the fingerprint image collection method using a one-dimensional sensor, depending on factors such as the input state of the fingerprint, the input conditions, i.e., finger speed change, left / right fluctuation, and left / right movement amount are different. When the trajectory curve changes, it becomes difficult to reconstruct the input fingerprint image.
[0013]
As a result, collation data different from the original feature amount is generated, and the person acceptance rate that is rejected even though it is the person's finger is lowered. Therefore, if the verification criteria are relaxed to increase the acceptance rate, there is a problem that the acceptance rate of others who misidentify others as the identity increases. In addition, since the comparison with other images is performed for each line of the input image, there is a problem that the amount of calculation increases and high-speed processing cannot be realized.
[0014]
An object of the present invention is to improve the quality of a reconstructed image by speeding up the process of reconstructing an entire image from input images such as partial fingerprints continuously collected by a small sensor for a small device such as a mobile phone. An object of the present invention is to provide a personal authentication method, a program, a recording medium, and a device using biometric information that improves.
[0015]
[Means for Solving the Problems]
FIG. 1 is a diagram illustrating the principle of the present invention.
(Person authentication method)
The personal authentication method using the biometric information of the present invention is as shown in FIG.
An image input step for continuously inputting a partial image of a human body part such as a fingerprint by relative movement with respect to the reading unit;
A feature region detection step of detecting a feature region from a predetermined reference region where one of adjacent input images is expected to overlap;
A similar region detection step of detecting a similar region most similar to the feature region from the other of the adjacent input images;
An image synthesis step of generating a reconstructed image of the entire human body part by synthesizing the input image so that the feature area of one input image matches the similar area of the other input image;
A collation step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance;
It is provided with.
[0016]
As a more specific procedure in the authentication method of the present invention,
The image input step continuously inputs a two-dimensional partial image of a fingerprint composed of a predetermined number of pixel lines,
The feature region detection step registers the leading input image as a reconstructed image, detects a feature region from a predetermined reference region including an overlapping portion of the next input image,
The similar region detection step detects a similar region most similar to the feature region from the currently registered reconstructed image,
The image composition step updates the reconstructed image by compositing so that the feature region of the input image matches the similar region of the reconstructed image,
Thereafter, the process is repeated while reading the input image to generate a reconstructed image of the entire human body part.
[0017]
According to the identity authentication method of the present invention as described above, an image-like feature portion is detected as a reference position for synthesis from a region expected to overlap among a plurality of input images collected as a partial image, and this feature region In order to detect the overlapping part in the image processing of a part of the input image by detecting the region most similar to the reconstructed image as the reference position of the combination and combining the reference positions so as to match, The processing time required for reconstruction is shortened, and the user can be authenticated by reconstituting the entire fingerprint.
[0018]
Here, the feature region detection step detects a pixel line having the maximum change amount in the reference region where the overlap in the dominant image is expected as the feature region. In this case, the feature region is detected from a part of the plurality of pixel lines included in the reference region. As a result, the processing speed can be increased compared to the case where the entire line is processed. Since the necessary image is located at the center, the feature region is detected from the center portion of the plurality of pixel lines included in the reference region.
[0019]
In the feature region detection step, a pixel line having a maximum sum of differences in gradation values of adjacent pixels or a sum of squares of differences is detected as a feature region. In the feature region detection step, a pixel line having a maximum sum of differences in gradation values or a sum of squares of differences of pixels in a line adjacent to each pixel may be detected as a feature region.
[0020]
In the similar region detection step, a pixel line in which the mean square error of the gradation value of each pixel is minimum between the feature pixel line detected in the feature region detection step and each pixel line of the reconstructed image is set as a similar region. To detect. In the similar region detection step, the sum of the differences in the gradation values of the pixels or the sum of the squares of the differences between the feature pixel line detected in the feature region detection step and each pixel line of the reconstructed image is minimized. The pixel line may be detected as a similar region.
[0021]
The similar region detection step detects a similar region by comparing one of the feature pixel line detected in the feature region detection step and each pixel line of the reconstructed image while shifting within a range of a predetermined number of pixels. For this reason, even if the image collected with the movement of the finger is distorted, it is possible to accurately detect the feature line and the similar line most similar to the feature line and generate a high-quality reconstructed image at the reference position for superposition. .
(Authentication method by dividing the input image)
According to another aspect of the present invention, there is provided a personal authentication method using biometric information that reconstructs an input image by dividing it into, for example, left and right. This identity verification method is
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
An image dividing step for dividing the input image into a plurality of regions;
A feature region detecting step for detecting a feature region from a predetermined reference region where one of adjacent adjacent input images is expected to overlap;
A similar region detecting step of detecting a similar region most similar to the feature region from the other of the adjacent divided input images;
An image synthesis step of generating a reconstructed image of the whole human body part by synthesizing the divided input image so that the feature area of one divided input image and the similar area of the other divided input image match;
A collation step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance;
It is provided with.
[0022]
In this case, the more specific procedure of the authentication method is as follows:
The image input step continuously inputs a two-dimensional partial image of a fingerprint composed of a predetermined number of pixel lines,
The feature region detection step registers the leading divided input image as a reconstructed image, detects a feature region from a predetermined reference region including an overlapping portion of the next divided input image,
The similar region detection step detects a similar region most similar to the feature region from the currently registered divided reconstructed images,
In the image synthesis step, the reconstructed image is updated by synthesizing the feature area of the divided input image and the similar area of the divided reconstructed image,
Thereafter, the process is repeated while reading the input image to generate a reconstructed image of the entire human body part.
[0023]
The image synthesizing step in the personal authentication method that divides and processes the input image is characterized in that the divided input image is corrected and synthesized based on the positional relationship between the feature area and the similar area of the divided image to be synthesized.
[0024]
For example, when the input image is divided into left and right and reconstructed, even if the straight line is the same, the image may be distorted when the ring is moved with respect to the reading unit, and the position of the straight line may be shifted left and right.
[0025]
At this time, when the positions of the feature lines detected from the left and right divided input images are different, and the left and right similar lines in the reconstructed image are at the same position, the feature lines causing the positional shift are the same position. Thus, one of the divided input images is corrected and synthesized. As a result, a reconstructed image in which the distortion of the image is corrected is generated, and the image quality is improved.
[0026]
In order to increase the correction accuracy of the image distortion, the number of divisions of the input image may be increased. However, since the processing takes time, the number of divisions is a compromise of the user.
[0027]
The other features are the same as those of the input image that is not divided except that the processing target is performed in units of the divided input image.
[0028]
(program)
The present invention provides a program for personal authentication using biometric information. This program is on your computer
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
A feature region detection step of detecting a feature region from a predetermined reference region where one of adjacent input images is expected to overlap;
A similar region detection step of detecting a similar region most similar to the feature region from the other of the adjacent input images;
An image composition step for synthesizing two input images so that a feature region of one input image matches a similar region of the other input image to generate a reconstructed image of the entire human body part, and biometric feature information from the reconstructed image And a verification step of authenticating whether or not the person is authentic by comparing with reference information registered in advance,
Is executed.
[0029]
The present invention also provides a program for personal authentication using biometric information for further dividing and processing an input image. This program is on your computer
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
An image dividing step for dividing the input image into a plurality of regions;
A feature region detecting step for detecting a feature region from a predetermined reference region where one of adjacent adjacent input images is expected to overlap;
A similar region detecting step of detecting a similar region most similar to the feature region from the other of the adjacent divided input images;
An image synthesis step of generating a reconstructed image of the entire human body part by synthesizing the divided input image so that the feature area of one divided input image and the similar area of the other divided input image match;
A collation step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance;
Is executed.
(recoding media)
The present invention provides a computer-readable recording medium storing a program for personal authentication using biometric information. The program stored in this recording medium is stored in the computer.
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
A feature region detection step of detecting a feature region from a predetermined reference region where one of adjacent input images is expected to overlap;
A similar region detection step of detecting a similar region most similar to the feature region from the other of the adjacent input images;
An image synthesis step for synthesizing two input images so that a feature area of one input image and a similar area of the other input image match, and generating a reconstructed image of the entire human body part;
A collation step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance;
Is executed.
[0030]
The present invention also provides a computer-readable recording medium storing a program for personal authentication using biometric information for further dividing and processing an input image. The program stored in this recording medium is stored in the computer.
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
An image dividing step for dividing the input image into a plurality of regions;
A feature region detecting step for detecting a feature region from a predetermined reference region where one of adjacent adjacent input images is expected to overlap;
A similar region detecting step of detecting a similar region most similar to the feature region from the other of the adjacent divided input images;
An image synthesis step of generating a reconstructed image of the entire human body part by synthesizing the divided input image so that the feature area of one divided input image and the similar area of the other divided input image match;
A collation step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance;
Is executed.
[0031]
(Personal authentication device)
The present invention provides a personal authentication device using biometric information. As shown in FIG. 1B, this personal authentication device is expected to overlap one of the image input unit 14 that continuously inputs a partial image of a human body part by relative movement with respect to the reading unit 10 and an adjacent input image. A feature region detecting unit 16 that detects a feature region from a predetermined reference region, a similar region detecting unit 18 that detects a similar region most similar to the feature region from the other of the adjacent input images, and a feature region of one input image The image combining unit 20 for generating a reconstructed image of the whole human body part by synthesizing the input image so that the similar regions of the other input image and the other input image match, and extracting the biometric feature information from the reconstructed image, A fingerprint collation unit 24 that authenticates whether or not the person is the person by collating with the information is provided.
[0032]
The present invention also provides a personal authentication device using biometric information that reconstructs an input image by dividing it into, for example, left and right. The personal authentication device includes an image input unit that continuously inputs a partial image of a human body part by relative movement with respect to a reading unit, an image dividing unit that divides an input image into a plurality of regions, and one of adjacent divided input images. A feature region detection unit that detects a feature region from a predetermined reference region that is expected to overlap, a similar region detection unit that detects a similar region most similar to the feature region from the other of the adjacent divided input images, and one divided input An image composition unit that generates a reconstructed image of the whole human body part by synthesizing the divided input image so that the feature region of the image matches the similar region of the other divided input image, and extracts biometric feature information from the reconstructed image And a collation unit that authenticates whether the user is the person by collating with reference information registered in advance.
[0033]
The other features of the program, the recording medium, and the personal authentication apparatus according to the present invention are basically the same as those of the personal authentication method.
[0034]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 2 is a block diagram showing a functional configuration of a personal authentication apparatus using biometric information according to the present invention. In this embodiment, a case where a fingerprint image is processed as biometric information is taken as an example.
[0035]
In FIG. 2, the personal authentication device includes a reading unit 10, an image input unit 14, a feature region detection unit 16, a similar region detection unit 18, an image composition unit 20, a reconstructed image storage unit 22, and a fingerprint collation unit 24. .
[0036]
The personal authentication device of the present invention having such a configuration is scheduled to be incorporated into a small device such as a mobile phone. For this reason, as the two-dimensional image sensor 12 provided in the reading unit 10, a sensor having a small size that can be applied to a small device such as a mobile phone is used.
[0037]
As the two-dimensional image sensor 12, in this embodiment, for example, 256 dots are arranged in the horizontal direction as the main scanning direction, and 32 dots are arranged in the sub-scanning direction, that is, the sub-scanning direction as the relative finger movement direction (256). × 32) A dot size is used. The dimensional size of the two-dimensional image sensor 12 having such a pixel size is sufficiently small, such as about 10 to 15 mm in width and about 1 to 2 mm in length, which is sufficient as the reading unit 10 of a small device such as a mobile phone. Applicable.
[0038]
The fingerprint image is input by pulling the reading unit 10 having a window corresponding to the two-dimensional image sensor 12 of the reading unit 10 installed in the portable device while pressing the base side of the fingertip against the reading unit and pressing it forward. The two-dimensional image sensor 12 continuously performs a reading operation of a two-dimensional image in units of 256 × 32 dots with respect to the movement of the fingertip, and is divided into five parts shown on the left side of FIG. Fingerprint input images 26-1 to 26-5 as images can be collected.
[0039]
In the input images 26-1 to 26-5 of the five partial images collected continuously in FIG. 3, there are regions where the images overlap at adjacent boundary portions of the respective input images. This is because the speed of the finger moving the width of 32 dots is slower than the reading operation speed for the imaging width of 32 dots in the vertical direction in the two-dimensional image sensor 12 of the reading unit 10, so that an overlapping region occurs at the boundary portion.
[0040]
The input images 26-1 to 26-5 that are, for example, the five partial images in FIG. 3 read by the two-dimensional image sensor 12 of the reading unit 10 are buffered in the image input unit 14.
[0041]
The feature region detection unit 16 detects a feature region serving as a reference position for alignment in the image configuration from a predetermined reference region where one of adjacent input images is predicted to overlap. The feature region detected by the feature region detection unit 16 detects a line in the main scanning direction having a large amount of change as a feature line when the reference region of the input image is viewed as an image.
[0042]
The similar region detection unit 18 uses the similar line most similar to the feature line as a reference position in the image configuration from other adjacent input images overlapping the feature line of the input image detected by the feature region detection unit 16. To detect.
[0043]
Specifically, the feature line detected by the feature region detection unit 16 is targeted for the input image before reconstruction, but the similar line to be detected by the similar region detection unit 18 is targeted for the already reconstructed image. To do.
[0044]
The image composition unit 20 synthesizes two input images so that the feature line detected by the feature region detection unit 16 matches the similar line detected by the similar region detection unit 18. Specifically, since the similar line is detected from the synthesized reconstructed image, the reconstructed image storage unit 22 configures the image so that the feature line of the input image matches the similar line of the reconstructed image. Update the reconstructed image.
[0045]
By repeating the synthesis of the input image and the reconstructed image by the feature region detection unit 16, the similar region detection unit 18, and the image synthesis unit 20 in the order of the input image buffered in the image input unit 14, the entire fingerprint is obtained. The reconstructed image can be generated.
[0046]
If a reconstructed image of the entire fingerprint is generated from the plurality of input images input as the partial images and obtained in the reconstructed image storage unit 22, the fingerprint collation unit 24 performs a verification process for personal authentication.
[0047]
In the fingerprint collation unit 24, in the registration mode which is an initial setting, the fingerprint of the person is collected from the reading unit 10, and the collation reference image is registered in advance for the reconstructed image obtained by combining the partial images. Therefore, in the use state after the initial setting is completed, the read fingerprint image obtained in the reconstructed image storage unit 22 is input and collated with a pre-registered reference fingerprint image to determine whether or not the user is the user. Is making an authentication decision.
[0048]
FIG. 3 shows images at respective stages from the generation of the reconstructed image of the entire fingerprint from the input image continuously taken as a partial image in the embodiment of FIG. 2 to collation. At the time of reading, for example, five input images 26-1 to 26-5 are continuously obtained as partial images.
[0049]
For the five input images 26-1 to 26-5, first, the first input image 26-1 is registered as a reconstructed image, and then, for example, four of 32 lines adjacent to the second input image 26-2. If a feature line is detected in the reference area for 8 lines that are 1 and the feature line can be detected, the most similar line is compared by comparison with all the lines of the reconstructed image 26-1 at that time. Are detected as similar lines.
[0050]
Then, the two input images 26-1 and 26-2 are combined so that the feature line of the input image 26-2 matches the similar line of the reconstructed image 26-1 to obtain a reconstructed image.
[0051]
If a reconstructed image is obtained in this way, feature lines and similar lines are similarly detected and aligned in the order of the remaining input images 26-3, 26-4, and 26-5. As a result, a reconstructed image 28 representing the entire fingerprint image can be obtained.
[0052]
The reconstructed image 28 generated in this manner is converted into a collation image 30 by binarization processing or the like, then registered as a collation reference image in the default registration mode, and registered collation reference in the subsequent reading process. By comparing the image with the collation image obtained from the reconstructed image obtained by the new reading, the collation determination is made as to whether or not the user is the person himself / herself.
[0053]
FIG. 4 shows the gradation level in one line of the input image which is a partial image for detecting the feature line of the input image in the present invention. At this one-line gradation level, the fingerprint streamline in the distribution of the fingerprint image that is the partial image of FIG. 3 is at the lower level, and the fingerprint valley line indicates the upper level.
[0054]
Looking at the gradation levels, it can be seen that, like the characteristic portions 25-1 and 25-2, the period of the fingerprint stream line and the fingerprint valley line and the width of each flat part are different on the left and right of the line. Such a characteristic of the gradation level of one line has a different characteristic distribution even between adjacent lines.
[0055]
Accordingly, in the present invention, for example, a change amount of a gradation value is extracted as a feature for a reference area of 8 lines from a boundary portion where an overlap of input images is expected, and the most line among the extracted change amounts. A line having a drastic change, that is, a line having the largest change amount of the image value is detected as a feature line used as a reference position at the time of image synthesis.
[0056]
FIG. 5 is a flowchart showing the processing procedure of the personal authentication method according to the present invention, and the procedure of this flowchart implements the program steps for personal authentication using human body information according to the present invention.
[0057]
Therefore, with reference to the flowchart of FIG. 5, the processing will be described mainly with respect to the image reconstruction processing realized as the feature region detection unit 16, the similar region detection unit 18, and the image composition unit 20 of FIG. 2. .
[0058]
First, in step S1, for example, the first input image 26-1 is read from the five input images 26-1 to 26-5 obtained as shown in the fingerprint partial image of FIG. Register in the reconstructed image storage unit 22.
[0059]
Subsequently, in step S2, the second input image 26-2 in FIG. 3 is read, and in step S3, a feature line is detected from the attention area of the input image. The details of the feature line detection processing are shown as a subroutine flowchart in FIG.
[0060]
In the feature line detection process of FIG. 6, first, a region of interest of the input image is selected in step S1. FIG. 8A shows an input image 26-2 to be processed by the present invention, and FIG. 8B shows an input image 26-1 that becomes the reconstructed image 28-1 at that time. In FIG. 8, each image has 32 dots vertically and 256 dots horizontally, but for the convenience of explanation, the width is represented with a compressed width.
[0061]
In the selection of the attention area of the input image in step S1 in FIG. 6, the overlap of the input image 26-2 in FIG. 8A with the reconstructed image 28-1 in FIG. 8B is predicted. The eight lines, which are the lower quarter, are the attention area 32.
[0062]
Subsequently, in step S2, a line with the maximum amount of change is selected from the 8 lines included in the attention area 32. For example, the following method is used to detect the amount of change in the line of the region of interest 32.
(1) Taking the difference in the gradation values of adjacent pixels for each line, the line having the maximum sum of the differences or the sum of the squares of the differences is taken as a characteristic line.
(2) For each pixel of the line, the difference in gradation value from the pixels of the adjacent line is taken, and the line having the maximum sum or square sum of the differences is defined as the feature line.
(3) The gradation value of the pixel of the line is binarized, and the line with the most rapid change is defined as the feature line with the connection between the run lengths of the white level (0) and the black level (1) as the feature amount.
[0063]
As a method other than this, detection similar to (1) to (3) may be performed after the gradation value is quantized. In addition, any appropriate method can be used as long as it is a method for determining image characteristics, and the present invention is not limited to the above example.
[0064]
Further, the detection of the feature line 34 in the attention area 32 does not need to be performed for the entire line width of 256 dots as shown in FIG. 8, and a part of the line may be used. As an example, the feature line 34 is detected using only 128 pixels near the center of 256 pixels per line as shown in FIG. As a result, the number of pixels to be detected as feature lines can be reduced, and the processing time can be shortened. Further, since the collected fingerprint image has an important image portion necessary for identification at the center portion, it is only necessary to pay attention to the center portion, and there is no problem even if both sides are excluded from the processing target.
[0065]
Referring to FIG. 5 again, when a feature line is detected from the attention area of the input image in step S3, a similar line most similar to the feature line of the input image is detected from the reconstructed image at the next step S4. . This similar line detection process is shown as a subroutine flowchart in FIG.
[0066]
In the similar line detection process of FIG. 7, in step S1, the feature line of the input image that has already been detected is read, and in the next step S2, for example, between each line of the reconstructed image and the feature line of the input image. To calculate the mean square error of each pixel.
[0067]
Such calculation of the mean square error in step S2 is, for example, in the first processing in which the top input image shown in FIG. 9 is the reconstructed image 28-1, all of the 32 lines in the reconstructed image 28-1. Calculate the mean square error for.
[0068]
In this embodiment, a line having the minimum mean square error is detected for detecting the similar line of the reconstructed image that is most similar to the feature line of the input image. It may be.
(1) Sum or difference of gradation values of each pixel of feature line and reconstructed image side line
A line that minimizes the sum of squares is defined as a similar line.
(2) The gradation value of the feature line and the line on the reconstructed image side is binarized, and the most similar, characterized by the connection between the run length of the black level (0) and the white level (1)
Select a line.
[0069]
Of course, in addition to this, the same comparison processing may be performed after the gradation value is quantized, or any other appropriate method for determining pixel similarity may be used.
[0070]
Subsequently, in step S3, the smallest line is extracted from the calculated mean square errors of 32 lines, and is registered as a similar line. For example, as shown in FIG. 8, with respect to the feature line 34 detected from the attention area 32 of the input image 26-2, a similar line 36 having the smallest mean square error is detected from the reconstructed image 28-1 at that time. Is done.
[0071]
Here, the calculation of the mean square error for each line of the reconstructed image in step S2 of FIG. 7 is performed between the line 38-1 of 128 pixels at the same position with respect to the feature line 34 on the input image side as shown in FIG. After calculating the mean square error, the mean square error is calculated while shifting within the range of 10 pixels by 1 dot to the left and right as in lines 38, 38-1 to 10 and 38-11 to 38-20, The smallest mean square error value is adopted as the mean square error of the line 38.
[0072]
As a result, even if there is a slight misalignment between the input image and the reconstructed image due to image distortion, it is possible to accurately detect the similar line on the reconstructed image side that is most similar to the feature line.
[0073]
Referring to FIG. 5 again, if a similar line most similar to the feature line of the input image is detected from the reconstructed image in step S4, the feature line of the input image is similar to the reconstructed image in the next step S5. The image is configured to match the line and the reconstructed image is updated.
[0074]
If the similar line most similar to the feature line cannot be detected in step S4 in FIG. 5, the operator may be instructed to reread. If the similar line most similar to the feature line cannot be detected, the input image may be synthesized as it is without realigning the feature line and the similar line and simply reconstructed.
[0075]
In step S6, it is checked whether all input images have been processed. If not, the process returns to step S2, the next input image is read, and the same processing is repeated. When all input images have been processed in step S6, the reconstructed fingerprint image is registered and collation processing is executed in step S7.
[0076]
FIG. 10 shows an outline of the fingerprint image reconstruction process according to the present invention according to the flowchart of FIG. That is, for the fingerprint input images 26-1 to 26-5 obtained as the partial images, first, the head input image 26-1 is combined with the input 26-2 as the reconstructed image 28-2.
[0077]
That is, a feature line is detected from the reference area of the input image 26-2, a similar line of the reconstructed image 28-2 that is most similar to the feature line is detected, and the feature line and the similar line are combined so as to match. A reconstructed image 28-2 is obtained. In the same manner, the reconstructed images 28-3, 28-4, and 28 are synthesized in the order of the input images 26-3, 26-4, and 26-5 in the order of detection of feature lines and detection of similar lines most similar thereto. As a result, the reconstructed image 28-5 representing the entire fingerprint is finally obtained.
[0078]
FIG. 11 is a functional block diagram of an apparatus configuration showing another embodiment of the personal authentication apparatus according to the present invention. In this embodiment, the input images 26-1 and 26-5 shown in FIG. 3 which are input and buffered in the image input unit 14 by scanning of the finger relative to the two-dimensional image sensor 12 of the reading unit 10 are further included. The image dividing unit 38 divides the image into left and right images, and generates a reconstructed image by combining the subsequent images. In this embodiment, the image dividing unit 38 divides each input image obtained by the image input unit 14 into left and right parts with the center as a boundary.
[0079]
For each input image divided into left and right by the image dividing unit 38, a feature line is detected from the reference region for each divided image by the feature region detecting unit 16, and then a feature line of each divided image is detected by the similar region detecting unit 18. Similar lines are respectively detected from the divided reconstructed images most similar to each of them, and the image composition unit 20 synthesizes them so that the feature lines of the divided images and the similar lines of the divided reconstructed images coincide with each other. 22 to repeat the update to be registered.
[0080]
FIG. 12 is a flowchart of a processing procedure for reconstructing an image of the entire fingerprint from a plurality of input images in the embodiment of FIG. The processing of steps S1 to S7 in this flowchart corresponds to the processing when the input image in FIG. 5 is not divided, and the input image and the reconstructed image are divided into left and right, and feature lines and similar lines are detected respectively. The other points are the same.
[0081]
FIG. 13 shows the feature line detection process in step S3 of FIG. 12. In step S1, for example, the left divided input image is read, in step S2 to S4, the feature line is detected and registered from the attention area, and then in step S5. In step S6, the right divided input image is read. Similarly, in steps S2 to S4, the characteristic line is detected and registered in the right divided input image.
[0082]
Further, FIG. 14 shows similar line detection processing of the reconstructed image in step S4 of FIG. 12. The left and right divided reconstructed images are read in step S1, and the mean square error between the corresponding feature lines in steps S2 to S4. And the smallest line is detected as a similar line of the left divided reconstructed image. If the right divided reconstructed image has not been processed in step S5, the right divided reconstructed image is read in step S6. Thus, similar lines are detected and registered in steps S2 to S3.
[0083]
15A and 15B, in the processing procedure of FIG. 12 for dividing the input image, the top input image is set as the reconstructed image 28-1, and the next input image 26-2 is read and processed. It is explanatory drawing of a state.
[0084]
In this case, the reconstructed image 28-1 is divided at the center into a left divided reconstructed image 28-11 and a right divided reconstructed image 28-12. The input image 26-2 is also divided at the center to become a left divided reconstructed image 26-21 and a right divided input image 26-22. In the input image 26-2, for each of the left and right divided images 26-21 and 26-22, feature lines 34-1 and 34-2 are detected from, for example, 8 lines in the reference area. .
[0085]
If the feature lines 34-1 and 34-2 can be detected, for the left divided reconstructed image 28-11, for example, the mean square error of each pixel for each left line with the corresponding left feature line 34-1 And the line having the smallest value is detected as the similar line 36-1.
[0086]
Similarly, for the right divided reconstructed image 28-12, the mean square error of the pixel gradation value of each line is calculated with the corresponding right feature line 34-2, and the line that is the minimum value is similar. Line 36-2.
[0087]
In the case of FIG. 15, the relative positional relationship between the left and right feature lines 34-1 and 34-2 in the input image 26-2 and the right and left similar lines 36-1 and 36-2 in the reconstructed image 28-1 is as follows. Since they are the same, if the image is synthesized so that the feature line 34-1 and the similar line 36-1 match, it can be synthesized so that the feature line 34-2 and the similar line 36-2 match.
[0088]
FIGS. 16A and 16B are explanatory diagrams when distortion occurs on the input image 26-2 side with respect to the reconstructed image 280-1. When feature lines are detected for the left and right sides of the input image 26-2, the right feature line 34-2 is compared to the left feature line 34-1 with respect to the position of the broken line when the image is not distorted. The position of the feature line 34-2 is shifted due to distortion.
[0089]
Based on the left and right feature lines 34-1 and 34-2 of the input image 26-2, similar lines 36-1 and 36-2 that are most similar for the left and right lines of the reconstructed image 28-1 are obtained. If there is no distortion on the reconstructed image 28-1, the distortion state in the input image 26-2 can be detected by comparing the feature line and the similar line.
[0090]
In other words, if the left feature line 34-1 and the similar line 36-1 are in the correct positional relationship, the right feature line 34-2 in the input image 26-2 is distorted by an image shifted upward by one line. I understand that.
[0091]
Therefore, by performing a process of thinning out, for example, one line of the distortion of the input image 26-2 so that the right and left similar lines 36-1 and 36-2 in the reconstructed image 28-1 have a correct relative positional relationship. The feature line 34-2 is used as the corrected feature line 40 at the correct position, and the image composition is performed by correcting the distortion of the right divided input image 26-22 of the input image 26-2 in this way.
[0092]
Such image distortion correction based on the comparison of positions by left and right division is performed by performing pixel interpolation, affine transformation for adjusting the inclination, and the like, as needed, in addition to the thinning in FIG.
[0093]
15 and 16 exemplify the case where the image is divided into left and right parts. However, by increasing the number of divisions such as three parts and four parts, image distortion can be achieved. The detection accuracy with respect to the image can be improved, and the composition with a more precise image configuration can be realized. However, as the number of divisions increases, the load required for image processing increases and the processing time becomes longer. Therefore, it is desirable that the number of divisions not affect the processing time.
[0094]
In the process of dividing the images of FIGS. 15 and 16, feature lines and similar lines are detected for the entire line width of each image. As in the case where the input image of FIG. 9 is not divided, 128 pixels in the center of the line may be divided from the center to the left and right, and image synthesis may be performed by detecting feature lines and similar lines for each of the 64 pixels on the center side.
[0095]
Next, an embodiment of a computer-readable recording medium storing a program for personal authentication processing using biometric information will be described.
[0096]
An apparatus on which a program for personal authentication according to the present invention is executed is a small device such as a mobile phone, and these small devices incorporate CPU, RAM, and ROM hardware by a microprocessor chip. Further, a wireless interface is built in by the communication module, and switches such as game buttons and function buttons are provided as input means.
[0097]
For this reason, the program for personal authentication of the present invention is a portable storage medium such as a CD-ROM, floppy disk (R), DVD disk, magneto-optical disk, IC card, line for modem, LAN interface, wireless interface, etc. The data is stored in a database connected via a computer, and also in a database of another computer system, and is installed in a processor of a small device such as a mobile phone and then executed.
[0098]
For this reason, the storage medium for storing the personal authentication program of the present invention includes CD-ROM, floppy disk (R), DVD disk, magneto-optical disk, portable storage medium of IC card, and inside and outside the computer system. It includes a storage device such as a hard disk, a database that holds a program via a line, or another computer system and its database, and a transmission medium on the line.
[0099]
In the above embodiment, a fingerprint image is taken as an example of biometric information. However, it can be applied to biometric authentication using appropriate human body information such as a face and a glow in addition to the fingerprint image.
[0100]
The present invention includes appropriate modifications that do not impair the objects and advantages thereof, and is not limited by the numerical values shown in the above embodiments.
[0101]
(Appendix)
(Appendix 1)
In the personal authentication method using biometric information,
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
A feature region detection step of detecting a feature region from a predetermined reference region where one of adjacent input images is expected to overlap;
A similar region detecting step of detecting a similar region most similar to the feature region from the other of the adjacent input images;
An image synthesis step for synthesizing two input images so that a feature area of one input image and a similar area of the other input image match, and generating a reconstructed image of the entire human body part;
A collation step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance;
A personal authentication method characterized by comprising: (1)
[0102]
(Appendix 2)
In the identification method described in Appendix 1,
The image input step inputs a two-dimensional partial image of a fingerprint composed of a predetermined number of pixel lines,
The feature region detection step registers a leading input image as a reconstructed image, detects a feature region from a predetermined reference region including an overlapping portion of the next input image,
The similar region detection step detects a similar region most similar to the feature region from a currently registered reconstructed image,
In the image composition step, the reconstructed image is updated by compositing so that a feature region of the input image matches a similar region of the reconstructed image,
Thereafter, the above process is repeated while reading the input image to generate a reconstructed image of the whole human body part.
[0103]
(Appendix 3)
The identity authentication method according to appendix 1, wherein the feature region detection step detects, as a feature region, a pixel line in which the amount of change in the reference region is maximized. Identification method.
[0104]
(Appendix 4)
The identity authentication method according to attachment 1, wherein the feature region detection step detects a feature region from a part of a plurality of pixel lines included in the reference region as a feature region. Identification method.
[0105]
(Appendix 5)
The identity authentication method according to appendix 1, wherein the feature region detection step detects a feature region from a central portion of a plurality of pixel lines included in the reference region as a feature region. Authentication method.
[0106]
(Appendix 6)
The identity authentication method according to attachment 3, wherein the feature region detection step detects, as a feature region, a pixel line having a maximum sum of differences in gradation values or a sum of squares of differences between adjacent pixels. The person authentication method.
[0107]
(Appendix 7)
In the personal identification method according to attachment 3, in the feature region detecting step, a pixel line having a maximum sum of differences in gradation values or a sum of squares of differences of pixels in a line adjacent to each pixel is set as a feature region. A personal authentication method characterized by detecting.
[0108]
(Appendix 8)
The identity authentication method according to appendix 1, wherein the similar region detection step includes a gradation value of each pixel between the feature pixel line detected in the feature region detection step and each pixel line of the reconstructed image. 2. A method for authenticating a person, wherein a pixel line having a minimum mean square error is detected as a similar region.
[0109]
(Appendix 9)
The identity authentication method according to appendix 1, wherein the similar region detection step includes a gradation value of each pixel between the feature pixel line detected in the feature region detection step and each pixel line of the reconstructed image. 2. A method for authenticating a person, characterized in that a pixel line having a minimum sum of differences or a sum of squares of differences is detected as a similar region.
[0110]
(Appendix 10)
The identity authentication method according to appendix 1, wherein the similar region detection step includes either one of the feature pixel line detected in the feature region detection step and each pixel line of the reconstructed image within a range of a predetermined number of pixels. A method for authenticating a person, wherein a similar region is detected by comparison while shifting.
[0111]
(Appendix 11)
In the personal authentication method using biometric information,
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
An image dividing step of dividing the input image into a plurality of regions;
A feature region detecting step for detecting a feature region from a predetermined reference region where one of adjacent adjacent input images is expected to overlap;
A similar region detecting step of detecting a similar region most similar to the feature region from the other of the adjacent divided input images;
An image synthesis step of generating a reconstructed image of the whole human body part by synthesizing the divided input image so that the feature area of one divided input image and the similar area of the other divided input image match;
A collation step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance;
A personal authentication method characterized by comprising: (2)
[0112]
(Appendix 12)
In the identification method described in appendix 11,
The image input step inputs a two-dimensional partial image of a fingerprint composed of a predetermined number of pixel lines,
The feature region detection step registers a leading divided input image as a reconstructed image, detects a feature region from a predetermined reference region including an overlapping portion of the next divided input image,
The similar region detection step detects a similar region most similar to the feature region from the currently registered divided reconstructed image,
In the image composition step, the reconstructed image is updated by compositing so that a feature region of the divided input image and a similar region of the divided reconstructed image match.
Thereafter, the above process is repeated while reading the input image to generate a reconstructed image of the whole human body part.
[0113]
(Appendix 13)
The identity authentication method according to appendix 11, wherein the feature region detection step detects, as a feature region, a pixel line in which the amount of change in the reference region is maximized. Identification method.
[0114]
(Appendix 14)
The identity authentication method according to attachment 11, wherein the feature region detection step detects a feature region from a part of a plurality of pixel lines included in the reference region as a feature region. Identification method.
[0115]
(Appendix 15)
The identity authentication method according to appendix 1, wherein the feature region detection step detects a feature region from a central portion of a plurality of pixel lines included in the reference region as a feature region. Authentication method.
[0116]
(Appendix 16)
The identity authentication method according to attachment 13, wherein the feature region detecting step detects a pixel line having a maximum sum of differences in gradation values of adjacent pixels or a sum of squares of differences as a feature region. The person authentication method.
[0117]
(Appendix 17)
In the personal identification method according to attachment 13, in the feature region detecting step, a pixel line having a maximum sum of differences in gradation values or a sum of squares of differences of pixels in a line adjacent to each pixel is set as a feature region. A personal authentication method characterized by detecting.
[0118]
(Appendix 18)
The identity authentication method according to appendix 11, wherein the similar region detection step includes a gradation of each pixel between the feature pixel line detected in the feature region detection step and each pixel line of the divided reconstructed image. A person authentication method, wherein a pixel line having a minimum mean square error of values is detected as a similar region.
[0119]
(Appendix 19)
The identity authentication method according to appendix 11, wherein the similar region detection step includes a gradation of each pixel between the feature pixel line detected in the feature region detection step and each pixel line of the divided reconstructed image. A personal authentication method, wherein a pixel line having a minimum sum of difference values or a sum of squares of differences is detected as a similar region.
[0120]
(Appendix 20)
In the identity authentication method according to attachment 1, in the similar region detection step, either one of the feature pixel line detected in the feature region detection step and each pixel line of the divided reconstructed image has a predetermined number of pixels. A personal authentication method, wherein similar regions are detected by comparison while shifting within a range.
[0121]
(Appendix 21)
The identity authentication method according to claim 1, wherein the image composition step corrects and synthesizes the divided input image based on the positional relationship between the feature region and the similar region of the divided image to be synthesized. Method.
[0122]
(Appendix 22)
On the computer,
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
A feature region detection step of detecting a feature region from a predetermined reference region where one of adjacent input images is expected to overlap;
A similar region detecting step of detecting a similar region most similar to the feature region from the other of the adjacent input images;
An image synthesis step for synthesizing two input images so that a feature area of one input image and a similar area of the other input image match, and generating a reconstructed image of the entire human body part;
A collation step of extracting biometric feature information from the reconstructed image and verifying whether the person is authentic by collating with reference information registered in advance.
A program characterized by having executed. (3)
[0123]
(Appendix 23)
On the computer,
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
An image dividing step of dividing the input image into a plurality of regions;
A feature region detecting step for detecting a feature region from a predetermined reference region where one of adjacent adjacent input images is expected to overlap;
A similar region detecting step of detecting a similar region most similar to the feature region from the other of the adjacent divided input images;
An image synthesis step of generating a reconstructed image of the whole human body part by synthesizing the divided input image so that the feature area of one divided input image and the similar area of the other divided input image match;
A collation step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance;
A program characterized by having executed.
[0124]
(Appendix 24)
On the computer,
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
A feature region detection step of detecting a feature region from a predetermined reference region where one of adjacent input images is expected to overlap;
A similar region detecting step of detecting a similar region most similar to the feature region from the other of the adjacent input images;
An image synthesis step for synthesizing two input images so that a feature area of one input image and a similar area of the other input image match, and generating a reconstructed image of the entire human body part;
A collation step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance;
The computer-readable recording medium which stored the program which performs this. (4)
[0125]
(Appendix 25)
On the computer,
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
An image dividing step of dividing the input image into a plurality of regions;
A feature region detecting step for detecting a feature region from a predetermined reference region where one of adjacent adjacent input images is expected to overlap;
A similar region detecting step of detecting a similar region most similar to the feature region from the other of the adjacent divided input images;
An image synthesis step of generating a reconstructed image of the whole human body part by synthesizing the divided input image so that the feature area of one divided input image and the similar area of the other divided input image match;
A collation step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance;
The computer-readable recording medium which stored the program which performs this.
[0126]
(Appendix 26)
In a personal authentication device using biometric information,
An image input unit for continuously inputting a partial image of a human body part by relative movement with respect to the reading unit;
A feature region detection unit for detecting a feature region from a predetermined reference region where one of adjacent input images is expected to overlap;
A similar region detection unit for detecting a similar region most similar to the feature region from the other of the adjacent input images;
An image combining unit that combines two input images so that a feature region of one input image and a similar region of the other input image match, and generates a reconstructed image of the entire human body part;
A collation unit that extracts biometric feature information from the reconstructed image and authenticates whether it is the person by collating with reference information registered in advance;
A personal authentication device comprising: (5)
[0127]
(Appendix 27)
In a personal authentication device using biometric information,
An image input unit for continuously inputting a partial image of a human body part by relative movement with respect to the reading unit;
An image dividing unit for dividing the input image into a plurality of regions;
A feature region detector that detects a feature region from a predetermined reference region where one of adjacent adjacent input images is expected to overlap;
A similar region detection unit that detects a similar region most similar to the feature region from the other of the adjacent divided input images;
An image compositing unit that generates a reconstructed image of the entire human body part by synthesizing the divided input image so that a feature region of one divided input image and a similar region of the other divided input image match;
A collation unit that extracts biometric feature information from the reconstructed image and authenticates whether it is the person by collating with reference information registered in advance;
A personal authentication device comprising:
[0128]
【The invention's effect】
As described above, according to the present invention, for example, a feature portion is detected as a reference position for image synthesis for a region that is expected to overlap from among a plurality of input images of fingerprints collected as partial images. An area most similar to the feature area is also detected from the reconstructed image as a reference position for composition, and is synthesized so that the reference positions coincide with each other. The processing time can be shortened, and the feature position is accurately captured and synthesized, so that the quality of the reconstructed whole image can be improved, thereby improving the accuracy of personal authentication using a fingerprint image or the like.
[0129]
Also, an input image that is continuously input as a partial image is divided into, for example, left and right, a feature portion is detected as a reference position for each divided image, and the most similar region on the reconstruction side is detected and combined so as to match Thus, the distortion of the input pixel can be detected by the comparison of the feature position and the similar position and corrected at the time of synthesis, and the read image is distorted due to a change in the speed of the finger relative to the reading unit or left and right shaking. However, a reconstructed image in which this distortion is corrected can be obtained, the quality of the reconstructed image can be improved, and the accuracy of personal authentication can be further improved.
[Brief description of the drawings]
FIG. 1 illustrates the principle of the present invention
FIG. 2 is a block diagram of the functional configuration of the present invention.
FIG. 3 is an explanatory diagram of a partial input image, a reconstructed image, and a collation image obtained by fingerprint reading according to the present invention.
FIG. 4 is an explanatory diagram of gradation levels obtained by extracting one line of the partial input image of FIG.
FIG. 5 is a flowchart of a personal authentication processing procedure according to the present invention.
6 is a flowchart of the feature line detection process of FIG. 5;
7 is a flowchart of similar line detection processing in FIG. 5;
FIG. 8 is an explanatory diagram of feature line and similar line detection processing according to the present invention;
FIG. 9 is an explanatory diagram of a process of comparing the reconstructed image line with the feature line of the input image by shifting the line.
FIG. 10 is a schematic explanatory diagram of partial input image reconstruction processing according to the present invention.
FIG. 11 is a block diagram of the functional configuration of the present invention for dividing and processing an input image.
FIG. 12 is a flowchart of a personal authentication processing procedure according to the present invention for dividing and processing an input image.
13 is a flowchart of the feature line detection process of FIG.
14 is a flowchart of similar line detection processing in FIG. 12;
FIG. 15 is an explanatory diagram of feature line and similar line detection processing for a divided input image according to the present invention;
FIG. 16 is an explanatory diagram of feature line and similar line detection and distortion correction for a divided input image according to the present invention;
[Explanation of symbols]
10: Reading unit
12: Two-dimensional image sensor
14: Image input unit
16: Feature region detection unit
18: Similar region detection unit
20: Image composition unit
22: Reconstructed image storage unit
24: Fingerprint verification unit
26-1 to 26-5: Input image (partial image)
28, 28-1 to 28-5: Reconstructed image
30: collation image
32: attention area
34, 34-1 and 34-2: Feature lines
36, 36-1, 36-2: Similar lines
38: Image division unit
40: Correction feature line

Claims (1)

生体情報を用いた本人認証方法に於いて、
読取部に対する相対移動により人体部位の部分画像を連続的に入力する画像入力ステップと、
前記入力画像を複数の領域に分割する画像分割ステップと、
先頭の分割入力画像を再構成画像として登録すると共に、次の分割入力画像の重なり部分を含む所定の参照領域から特徴領域を検出する特徴領域検出ステップと、
現在登録されている分割再構成画像から前記特徴領域に最も類似する類似領域を検出する類似領域検出ステップと、
前記分割入力画像の特徴領域と前記分割再構成画像の類似領域が一致するように合成して前記再構成画像を更新し、以後、入力画像を読み込みながら前記の処理を繰り返して前記人体部位全体の再構成画像を生成する画像合成ステップと、
前記再構成画像から生体特徴情報を抽出し、予め登録した基準情報との照合により本人か否か認証する照合ステップと、を備えたことを特徴とする本人認証方法。
In the personal authentication method using biometric information,
An image input step for continuously inputting a partial image of the human body part by relative movement with respect to the reading unit;
An image dividing step of dividing the input image into a plurality of regions;
A feature region detection step of registering the first divided input image as a reconstructed image and detecting a feature region from a predetermined reference region including an overlapping portion of the next divided input image;
A similar region detection step of detecting a similar region most similar to the feature region from the currently registered divided reconstructed image;
The reconstructed image is updated by combining the feature area of the divided input image and the similar area of the divided reconstructed image to coincide with each other, and thereafter the above process is repeated while reading the input image to An image composition step for generating a reconstructed image;
A personal authentication method, comprising: a step of extracting biometric feature information from the reconstructed image and authenticating whether or not the person is authentic by collating with reference information registered in advance.
JP2002008328A 2002-01-17 2002-01-17 Identification method using biometric information Expired - Fee Related JP3902473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002008328A JP3902473B2 (en) 2002-01-17 2002-01-17 Identification method using biometric information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002008328A JP3902473B2 (en) 2002-01-17 2002-01-17 Identification method using biometric information

Publications (2)

Publication Number Publication Date
JP2003208620A JP2003208620A (en) 2003-07-25
JP3902473B2 true JP3902473B2 (en) 2007-04-04

Family

ID=27646622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002008328A Expired - Fee Related JP3902473B2 (en) 2002-01-17 2002-01-17 Identification method using biometric information

Country Status (1)

Country Link
JP (1) JP3902473B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3859673B2 (en) 2002-09-17 2006-12-20 富士通株式会社 Biometric information acquisition device and biometric information authentication device
JP4462988B2 (en) 2004-04-13 2010-05-12 Necインフロンティア株式会社 Fingerprint reading method and fingerprint reading system
JP4411150B2 (en) 2004-06-30 2010-02-10 Necインフロンティア株式会社 Image construction method, fingerprint image construction apparatus and program
JP4411152B2 (en) 2004-07-05 2010-02-10 Necインフロンティア株式会社 Fingerprint reading method, fingerprint reading system and program
JP4339221B2 (en) 2004-09-30 2009-10-07 Necインフロンティア株式会社 Image construction method, fingerprint image construction apparatus and program
KR100745338B1 (en) 2005-06-15 2007-08-02 엘지전자 주식회사 Apparatus and method of fingerprint recognition
JP4427039B2 (en) * 2006-08-18 2010-03-03 富士通株式会社 Biometric information acquisition apparatus and biometric information authentication apparatus
WO2008090608A1 (en) 2007-01-24 2008-07-31 Fujitsu Limited Image reading device, image reading program, and image reading method
KR101082626B1 (en) 2007-11-09 2011-11-10 후지쯔 가부시끼가이샤 Biological information reading device, biological information reading method, and computer-readable recording medium having biological information reading program
JP2009134562A (en) * 2007-11-30 2009-06-18 Oki Semiconductor Co Ltd Image processor
JP2009187429A (en) * 2008-02-08 2009-08-20 Oki Semiconductor Co Ltd Image processor and image processing method
JP5053177B2 (en) * 2008-05-23 2012-10-17 ラピスセミコンダクタ株式会社 Image processing device
JP5040835B2 (en) 2008-07-04 2012-10-03 富士通株式会社 Biological information reader, biological information reading method, and biological information reading program
JP5206218B2 (en) 2008-08-20 2013-06-12 富士通株式会社 Fingerprint image acquisition device, fingerprint authentication device, fingerprint image acquisition method, and fingerprint authentication method
JP6939580B2 (en) * 2018-01-10 2021-09-22 株式会社デンソー Image synthesizer for vehicles

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63273976A (en) * 1987-05-02 1988-11-11 Oki Electric Ind Co Ltd Reading device for fingerprint data
JP3497217B2 (en) * 1993-12-28 2004-02-16 オリンパス株式会社 Image handling apparatus and image composition method
JPH0962840A (en) * 1995-08-30 1997-03-07 Sony Corp Picture collating method and device therefor
FR2749955B1 (en) * 1996-06-14 1998-09-11 Thomson Csf FINGERPRINT READING SYSTEM
JP2980051B2 (en) * 1997-03-12 1999-11-22 日本電気株式会社 Fingerprint detection method and device
JP3738629B2 (en) * 1999-11-25 2006-01-25 三菱電機株式会社 Portable electronic devices
JP3536908B2 (en) * 1999-12-15 2004-06-14 日本電気株式会社 Image composition method, image composition device, recording medium, and fingerprint input device
JP3780830B2 (en) * 2000-07-28 2006-05-31 日本電気株式会社 Fingerprint identification method and apparatus
JP3709344B2 (en) * 2001-01-16 2005-10-26 Necソフト株式会社 Fingerprint image input method, fingerprint image input device, program, portable information device

Also Published As

Publication number Publication date
JP2003208620A (en) 2003-07-25

Similar Documents

Publication Publication Date Title
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US8224043B2 (en) Fingerprint image acquiring device, fingerprint authenticating apparatus, fingerprint image acquiring method, and fingerprint authenticating method
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP3902473B2 (en) Identification method using biometric information
JP3780830B2 (en) Fingerprint identification method and apparatus
AU2017370720B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US6393139B1 (en) Sequence-encoded multiple biometric template security system
US8538095B2 (en) Method and apparatus for processing biometric images
JP4169185B2 (en) Image linking method, program, and apparatus
JP4027118B2 (en) User authentication method, program, and apparatus
US20060023921A1 (en) Authentication apparatus, verification method and verification apparatus
US6757410B1 (en) Fingerprint verification system and fingerprint verifying method
US9220445B2 (en) Information processing apparatus, information processing method and program
JP5930023B2 (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
Ross Information fusion in fingerprint authentication
JPH10275233A (en) Information processing system, pointing device and information processor
EP1162577A2 (en) Biometric identification using pore prints
CA2340501A1 (en) System, method, and program product for authenticating or identifying a subject through a series of controlled changes to biometrics of the subject

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060620

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060821

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060912

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061012

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061228

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140112

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees