JP7327656B2 - 画像処理装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JP7327656B2
JP7327656B2 JP2022512889A JP2022512889A JP7327656B2 JP 7327656 B2 JP7327656 B2 JP 7327656B2 JP 2022512889 A JP2022512889 A JP 2022512889A JP 2022512889 A JP2022512889 A JP 2022512889A JP 7327656 B2 JP7327656 B2 JP 7327656B2
Authority
JP
Japan
Prior art keywords
area
core line
skeleton
core
invalid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022512889A
Other languages
English (en)
Other versions
JPWO2021199141A5 (ja
JPWO2021199141A1 (ja
Inventor
聡 廣川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021199141A1 publication Critical patent/JPWO2021199141A1/ja
Publication of JPWO2021199141A5 publication Critical patent/JPWO2021199141A5/ja
Application granted granted Critical
Publication of JP7327656B2 publication Critical patent/JP7327656B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Description

本発明は、指紋画像の処理に関する。
生体認証の一方法として、指紋認証が知られている。指紋認証では、特定の人物の指紋画像と、その指紋画像から抽出した特徴点のデータとを指紋データベースに記憶しておく。指紋の照合時には、対象となる指紋画像から特徴点を抽出し、指紋データベースに登録されている指紋の特徴点との類似度に基づいて、対象者が特定の人物と一致するか否かを判定する。特許文献1は、指紋画像における特徴点が存在しない領域の面積を芯線安定度として抽出し、指紋の照合に用いる手法を記載している。
特開2003-173445号公報
特定の人物の指紋を登録しておく指紋データベースには、スキャナなどにより得られた指紋画像をそのまま記憶するのではなく、指紋画像に対して芯線の抽出などの必要な修正を行った上で記憶される。指紋データベースに記憶される指紋画像は、対象の指紋との照合に使用されるため、指紋画像の可能な限り広い範囲にわたって芯線の抽出がなされることが好ましい。
本発明の1つの目的は、指紋画像について、可能な限り広い領域で芯線を抽出することが可能な画像処理装置提供することにある。
本発明の一つの観点は、画像処理装置であって、
入力された指紋画像を有効領域と無効領域に分け、前記無効領域では芯線を抽出せず、前記有効領域内で芯線を抽出する第1の芯線抽出手段と、
前記無効領域内で芯線を抽出する第2の芯線抽出手段と、
前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成する統合手段と、
を備える。
本発明の他の観点は、画像処理装置であって、
入力された指紋画像を有効領域と無効領域に分け、前記有効領域内で芯線を抽出する第1の芯線抽出手段と、
前記無効領域内で芯線を抽出する第2の芯線抽出手段と、
前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成する統合手段と、
を備え、
前記第2の芯線抽出手段は、前記無効領域において、当該第2の芯線抽出手段の基準で芯線を抽出可能である抽出可能領域を検出し、当該抽出可能領域において芯線を生成する。
本発明の他の観点は、画像処理方法であって、
入力された指紋画像を有効領域と無効領域に分け、前記無効領域では芯線を抽出せず、前記有効領域内で芯線を抽出し、
前記無効領域内で芯線を抽出し、
前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成する。
本発明の他の観点は、画像処理方法であって、
入力された指紋画像を有効領域と無効領域に分け、前記有効領域内で芯線を抽出する第1の芯線抽出処理を行い、
前記無効領域内で芯線を抽出する第2の芯線抽出処理を行い、
前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成し、
前記第2の芯線抽出処理は、前記無効領域において、当該第2の芯線抽出処理の基準で芯線を抽出可能である抽出可能領域を検出し、当該抽出可能領域において芯線を生成する。
本発明の他の観点は、プログラムは、
入力された指紋画像を有効領域と無効領域に分け、前記無効領域では芯線を抽出せず、前記有効領域内で芯線を抽出し、
前記無効領域内で芯線を抽出し、
前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前
記指紋画像に対応する芯線画像を生成する処理をコンピュータに実行させる。
本発明の他の観点は、プログラムは、
入力された指紋画像を有効領域と無効領域に分け、前記有効領域内で芯線を抽出する第1の芯線抽出処理を行い、
前記無効領域内で芯線を抽出する第2の芯線抽出処理を行い、
前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成し、
前記第2の芯線抽出処理は、前記無効領域において、当該第2の芯線抽出処理の基準で芯線を抽出可能である抽出可能領域を検出し、当該抽出可能領域において芯線を生成する処理をコンピュータに実行させる。
本発明によれば、指紋画像について、可能な限り広い領域で芯線を抽出することが可能となる。
第1実施形態に係る芯線抽出装置を示す。 芯線抽出装置のハードウェア構成を示すブロック図である。 芯線抽出装置の機能構成を示すブロック図である。 指紋画像の無効領域の例である。 芯線抽出処理のフローチャートである。 第2実施形態に係る画像処理装置の機能構成を示すブロック図である。
以下、図面を参照して、本発明の好適な実施形態について説明する。
<第1実施形態>
[芯線抽出装置]
図1は、本発明の第1実施形態に係る芯線抽出装置の概要を示す。芯線抽出装置100は、入力される指紋画像の芯線を抽出し、芯線画像を生成する装置である。「芯線」とは、指紋画像における隆線を一定幅の細線で示したものである。図示のように、芯線抽出装置100は、指紋データベース(以下、「DB」と記す。)3に接続されている。芯線抽出装置100には指紋画像が入力される。入力される指紋画像は、例えば犯罪者など、指紋DB3に登録される人物(以下、「登録者」と呼ぶ。)の指紋である。例えば犯罪捜査においては、現場で採取された遺留指紋を指紋DB3に登録されている多数の指紋と照合し、人物の特定を行う。
スキャナなどを用いて登録者から取得した指紋画像は、そのままではなく、必要な修正が施された後で指紋DB3に登録される。芯線抽出装置100は、登録者から取得した指紋画像から芯線を抽出して芯線画像を生成し、指紋DB3に登録する。指紋DB3は、複数の人物の指紋データを記憶している。指紋データは、その指紋データを識別する識別情報(ID)と、芯線画像を含む指紋画像と、その指紋画像から抽出された特徴点を示す特徴点データとを含む。なお、指紋データは、その指紋の持ち主に関する情報を含んでいてもよい。
[ハードウェア構成]
図2は、芯線抽出装置100のハードウェア構成を示すブロック図である。図示のように、芯線抽出装置100は、入力IF(InterFace)11と、プロセッサ12と、メモリ13と、記録媒体14と、データベース(DB)15と、入力装置16と、表示装置17と、を備える。
入力IF11は、データの入出力を行う。具体的に、入力IF11は、指紋画像を取得するとともに、芯線抽出装置100が生成した芯線画像を指紋DB3に出力する。
プロセッサ12は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などのコンピュータであり、予め用意されたプログラムを実行することにより、芯線抽出装置100の全体を制御する。特に、プロセッサ12は、後述する芯線抽出処理を行う。
メモリ13は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ13は、プロセッサ12により実行される各種のプログラムを記憶する。また、メモリ13は、プロセッサ12による各種の処理の実行中に作業メモリとしても使用される。
記録媒体14は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、芯線抽出装置100に対して着脱可能に構成される。記録媒体14は、プロセッサ12が実行する各種のプログラムを記録している。
DB15は、入力IF11から入力される指紋画像を記憶する。また、DB15には、芯線抽出処理の実行時に使用する芯線抽出モデル、及び、芯線抽出アルゴリズムに関する情報を記憶する。
入力装置16は、例えばキーボード、マウス、タッチパネルなどであり、芯線抽出装置100による処理に関連してユーザが必要な指示、入力を行う際に使用される。表示装置17は例えば液晶ディスプレイなどであり、ユーザの指示に応じて、入力指紋画像や芯線画像などを表示する。
[機能構成]
図3は、芯線抽出装置100の機能構成を示すブロック図である。芯線抽出装置100は、第1の芯線抽出部20と、第2の芯線抽出部30と、統合部40とを備える。指紋画像D1は、第1の芯線抽出部20と、第2の芯線抽出部30とに入力される。第1の芯線抽出部20は、まず入力された指紋画像D1の全領域を有効領域と無効領域に区分する。有効領域とは、指紋画像の品質が高く、隆線が鮮明な領域である。一方、無効領域とは、指紋画像の品質が低く、隆線が不鮮明な領域である。また、第1の芯線抽出部20は、有効領域内において、隆線に基づいて芯線を抽出する。具体的には、第1の芯線抽出部20は、有効領域内の隆線に基づいて、隆線と同じ形状で一定幅を有する芯線を生成する。そして、第1の芯線抽出部20は、有効領域及び無効領域を示す領域情報と、有効領域内で抽出された芯線を示す芯線情報とを含む抽出結果D2を統合部40へ出力する。また、第1の芯線抽出部20は、無効領域を示す情報D3を第2の芯線抽出部30に出力する。
第1の芯線抽出部20は、機械学習により生成された芯線抽出モデルを用いて、指紋画像D1から芯線を抽出する。芯線抽出モデルは、指紋画像を入力データとし、その指紋画像に対して鑑識官などが芯線を描画した指紋画像を正解データとして学習されたモデルである。即ち、学習に使用される正解データは、有効領域と無効領域とが区分され、有効領域内に鑑識官などにより芯線が描画された指紋画像である。鑑識官などは、指紋画像を見て、指紋画像の品質が低い領域を無効領域に指定し、さらに無効領域以外の領域、即ち、有効領域内に芯線を記入して正解データを作成する。そして、元の指紋画像と、それに基づいて作成された正解データとのペアを教師データとして芯線抽出モデルの学習を行う。第1の芯線抽出部20は、鑑識官の入力したデータを学習したモデルを用いることで、装置を導入した現場の傾向に則して形で精度を向上させることができる。
具体的に、学習時には、元の指紋画像を入力データとして芯線抽出モデルに入力する。芯線抽出モデルは、入力データの全体領域を有効領域と無効領域に区分し、有効領域内の芯線を抽出した芯線画像を出力する。芯線抽出モデルが出力した芯線画像は正解データと比較され、それらの誤差に基づいて芯線抽出モデルのパラメータが更新される。こうして、多数の教師データを用いて芯線抽出モデルの学習が行われ、得られた学習済みの芯線抽出モデルが第1の芯線抽出部20に使用される。
通常、正解データを生成する際、鑑識官などは、矩形の指紋画像の周辺部や角部など、指紋の照合に使用しないと判断した領域を無効領域に指定する。芯線抽出モデルは、鑑識官などが作成した正解データに近い出力を生成するように学習されるため、入力された指紋画像の周辺部や角部を無効領域と判定し、無効領域内では芯線を生成しない。しかし、芯線抽出モデルが無効領域と判定した領域にも、実際には隆線が含まれており、その領域においても可能な限り芯線を抽出することが好ましい。そこで、本実施形態では、第1の芯線抽出部20が無効領域と判定した領域において、第2の芯線抽出部30が芯線の抽出を行う。
第2の芯線抽出部30は、機械学習によるモデルを用いない芯線抽出アルゴリズム(以下、単に「アルゴリズム」と呼ぶ。)を使用して無効領域から芯線を抽出する。第2の芯線抽出部30は、予め決められた1つのアルゴリズムを用いてもよく、複数のアルゴリズムを用いてもよい。第2の芯線抽出部30は、第1の芯線抽出部20が無効領域と判定した領域で、自らの基準を用いて芯線の抽出が可能か否かを判定する。そして、第2の芯線抽出部30は、芯線の抽出が可能と判定した領域(以下「芯線抽出可能領域」と呼ぶ。)内で芯線を抽出し、抽出可能領域を示す領域情報と、抽出した芯線を示す芯線情報とを含む抽出結果D4を統合部40へ出力する。このように、第2の芯線抽出部30は、第1の芯線抽出部20の基準とは異なる独自の基準で芯線抽出可能領域を設定して芯線を抽出するので、第1の芯線抽出部20が芯線を抽出しなかった領域においても芯線を抽出することができる。
統合部40は、第1の芯線抽出部20から入力された抽出結果D2と、第2の芯線抽出部30から入力された抽出結果D4とを統合して、最終的な芯線画像D5を出力する。芯線画像D5は、入力された指紋画像における有効領域と無効領域とを示す領域情報と、その指紋画像から抽出された芯線の情報とを含む画像である。具体的に、統合部40は、まず、第1の芯線抽出部20から入力された抽出結果D2が示す有効領域及びその有効領域で抽出された芯線情報を芯線画像に反映する。また、統合部40は、抽出結果D2が示す無効領域内に、第2の芯線抽出部30が芯線抽出可能領域と判定した領域があれば、その領域を有効領域に変更し、第2の芯線抽出部30がその領域内で抽出した芯線情報をその有効領域内の芯線情報として採用する。言い換えると、統合部40は、第1の芯線抽出部20が無効領域と判定して芯線を抽出しなかった領域に、第2の芯線抽出部30が判定した有効領域を設定し、その領域内に芯線を追加する。これにより、第1の芯線抽出部20が無効領域と判定した領域からも芯線の抽出が行われる。なお、第1の芯線抽出部20が複数の領域を無効領域と判定した場合、統合部40は、無効領域毎に、第2の芯線抽出部30により抽出された芯線情報を追加する。
図4(A)は、第1の芯線抽出部20が出力した抽出結果D2の例である。入力された指紋画像に対応する矩形領域において、周囲のグレーの領域は第1の芯線抽出部20が判定した無効領域であり、グレーの無効領域以外は有効領域である。図示のように、有効領域では芯線が抽出されているが、無効領域では芯線が抽出されていない。特に、右上の領域71や左下の領域72などは比較的広い領域であり、このような無効領域においても芯線を抽出できれば、指紋の照合に利用できる。
図4(B)は、統合部40が出力した芯線画像D5の例を示す。図4(A)と比較するとわかるように、グレーの無効領域においても芯線が抽出されている。無効領域における芯線は、第2の芯線抽出部30により抽出され、統合部40により追加されたものである。このように、本実施形態では、機械学習済みの芯線抽出モデルが無効領域と判定した領域においても、可能な限り芯線を抽出して指紋DB3に登録することができる。特に、領域71、72などの比較的広い領域において抽出された芯線は、指紋画像の照合時に有益な情報として使用できる可能性がある。
次に、第2の芯線抽出部30について詳しく説明する。第2の芯線抽出部30は、機械学習されたモデルを用いない、1つ又は複数のアルゴリズムを適用して芯線を抽出する。複数のアルゴリズムを使用する場合、第2の芯線抽出部30には、処理方法や性質の異なるアルゴリズムを用いる。例えば、元の指紋画像における隆線の形状に忠実に芯線を抽出する性質のアルゴリズムや、元の指紋画像において多数の隆線が描く模様全体の傾向を重視して芯線を抽出するアルゴリズムなど、性質の異なる複数のアルゴリズムを用いることができる。
最も単純な例では、複数のアルゴリズムのうち、精度が最も高いアルゴリズムを予め1つ決めておき、第2の芯線抽出部30は、そのアルゴリズムを適用して無効領域から芯線を抽出する。
別の方法では、第2の芯線抽出部30は、第1の芯線抽出部20が判定した無効領域に対して複数のアルゴリズムを適用し、信頼度の最も高いアルゴリズムを選択して使用する。即ち、第1の芯線抽出部20が判定した無効領域に対して、実際に複数のアルゴリズムを適用して領域の判定及び芯線の抽出を行い、その結果の信頼度が最も高いアルゴリズムを選択する。これにより、複数のアルゴリズムを適用して得られる結果のうち、最適な結果を採用することが可能となる。
この場合、信頼度の一例としては、各アルゴリズムが判定した指紋画像の品質評価値を使用することができる。即ち、各アルゴリズムを用いて無効領域内の指紋画像の品質を評価し、最も高い品質評価値を出力したアルゴリズムを選択する。ここで、各アルゴリズムにより処理される無効領域内の指紋画像は同一であるが、各アルゴリズムの特性や隆線の分析方法などに依存して各アルゴリズムによる指紋画像の品質評価値には差が生じる。そして、同じ指紋画像を高い品質と評価できるアルゴリズムは、抽出される芯線の精度も高いと考えられる。そこで、第2の芯線抽出部30は、複数のアルゴリズムを用いて無効領域内の指紋画像の品質を評価し、品質評価値が最も高いアルゴリズムを用いて芯線を抽出する。なお、指紋画像の品質評価方法の一例としては、指紋画像に含まれる隆線の太さの分散値を用いることができる。なお、第2の芯線抽出部30は、指紋画像の品質評価値以外の値や指標を信頼度として用いて、最適なアルゴリズムを選択してもよい。第2の芯線抽出部30に複数のアルゴリズムを適用することにより、指紋画像の特徴や特性に応じた最適なアルゴリズムを用いて芯線を抽出することが可能となる。
[芯線抽出処理]
次に、芯線抽出装置100により実行される芯線抽出処理について説明する。図5は、芯線抽出処理のフローチャートである。この処理は、図2に示すプロセッサ12が予め用意されたプログラムを実行し、図3に示す各要素として動作することにより実現される。
まず、芯線抽出装置100に指紋画像が入力され、第1の芯線抽出部20及び第2の芯線抽出部30が指紋画像D1を取得する(ステップS11)。次に、第1の芯線抽出部20が、芯線抽出モデルを用いて指紋画像を有効領域と無効領域に区分する(ステップS12)。次に、第1の芯線抽出部20は、有効領域内で芯線を抽出し、抽出結果D2を統合部40へ出力する(ステップS13)。また、第1の芯線抽出部20は、無効領域を示す情報D3を第2の芯線抽出部30へ出力する(ステップS14)。
第2の芯線抽出部30は、無効領域を示す情報D3に基づいて指紋画像の無効領域を特定し、無効領域内の抽出可能領域で芯線を抽出し、抽出結果D4を統合部40へ出力する(ステップS15)。統合部40は、第1の芯線抽出部20による抽出結果D2と、第2の芯線抽出部30による抽出結果D4とを統合して芯線画像D5を生成する(ステップS16)。このとき、第1の芯線抽出部20が判定した無効領域内において、第2の芯線抽出部30が芯線を抽出した場合、統合部40は、その領域を有効領域に変更し、抽出された芯線を追加する。そして、統合部40は、生成した芯線画像D5を指紋DB3に保存する(ステップS17)。そして、処理は終了する。
[変形例]
(変形例1)
上記の実施形態では、芯線抽出モデルを用いる第1の芯線抽出部20は、無効領域においては芯線を抽出しないものとしているが、その代わりに、無効領域においても可能な限り芯線を抽出するタイプの芯線抽出モデルを用いてもよい。その場合、統合部40は、上記の実施形態と同様に、無効領域において第2の芯線抽出部30が芯線を抽出した場合、第1の芯線抽出部が抽出した芯線に、第2の芯線抽出部30が抽出した芯線を上書きしてもよい。その代わりに、無効領域において第2の芯線抽出部30が芯線を抽出した場合、統合部40は、第1の芯線抽出部が抽出した芯線と、第2の芯線抽出部30が抽出した芯線との品質や信頼度を比較し、品質や信頼度の高い方の芯線を採用してもよい。
(変形例2)
上記の実施形態では、第2の芯線抽出部30は、機械学習されたモデルを用いないものとしている。その代わりに、第2の芯線抽出部として、第1の芯線抽出部20と異なる基準で機械学習された、第1の芯線抽出部20とは異なるモデルを用いてもよい。
<第2実施形態>
図6は、第2実施形態に係る画像処理装置50の機能構成を示すブロック図である。画像処理装置50は、第1の芯線抽出手段51と、第2の芯線抽出手段52と、統合手段53とを備える。第1の芯線抽出手段51は、入力された指紋画像を有効領域と無効領域に分け、前記有効領域内で芯線を抽出する。第2の芯線抽出手段52は、無効領域内で芯線を抽出する。統合手段53は、有効領域内で抽出された芯線と、無効領域内で抽出された芯線とを統合して指紋画像に対応する芯線画像を生成する。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
入力された指紋画像を有効領域と無効領域に分け、前記有効領域内で芯線を抽出する第1の芯線抽出手段と、
前記無効領域内で芯線を抽出する第2の芯線抽出手段と、
前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成する統合手段と、
を備える画像処理装置。
(付記2)
前記第1の芯線抽出手段は、機械学習により学習済みの芯線生成モデルを用いて芯線を抽出する付記1に記載の画像処理装置。
(付記3)
前記第1の芯線抽出手段は、前記無効領域内では芯線を抽出しないことを特徴とする付記1又は2に記載の画像処理装置。
(付記4)
前記第2の芯線抽出手段は、前記無効領域において、当該第2の芯線抽出手段の基準で芯線を抽出可能である抽出可能領域を検出し、当該抽出可能領域において芯線を生成する付記1乃至3のいずれか一項に記載の画像処理装置。
(付記5)
前記統合手段は、前記無効領域のうち、前記第2の芯線抽出手段が検出した前記抽出可能領域を有効領域に変更する付記4に記載の画像処理装置。
(付記6)
前記第2の芯線抽出手段は、複数のアルゴリズムのいずれかを適用して前記無効領域内で芯線を抽出する付記1乃至5のいずれか一項に記載の画像処理装置。
(付記7)
前記第2の芯線抽出手段は、前記複数のアルゴリズムを適用して前記無効領域内の前記指紋画像の品質評価値を算出し、最も高い品質評価値が得られたアルゴリズムを用いて芯線を生成する付記6に記載の画像処理装置。
(付記8)
前記第2の芯線抽出手段は、前記第1の芯線抽出手段が複数の無効領域を設定した場合、適用するアルゴリズムを前記無効領域毎に決定する付記6又は7に記載の画像処理装置。
(付記9)
入力された指紋画像を有効領域と無効領域に分け、前記有効領域内で芯線を抽出し、
前記無効領域内で芯線を抽出し、
前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成する画像処理方法。
(付記10)
入力された指紋画像を有効領域と無効領域に分け、前記有効領域内で芯線を抽出し、
前記無効領域内で芯線を抽出し、
前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成する処理をコンピュータに実行させるプログラムを記録した記録媒体。
以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
3 指紋データベース(DB)
11 入力IF
12 プロセッサ
13 メモリ
14 記録媒体
15 データベース
16 入力装置
17 表示装置
20 第1の芯線抽出部
30 第2の芯線抽出部
40 統合部
50 画像処理装置
51 第1の芯線抽出手段
52 第2の芯線抽出手段
53 統合手段

Claims (10)

  1. 入力された指紋画像を有効領域と無効領域に分け、前記無効領域では芯線を抽出せず、前記有効領域内で芯線を抽出する第1の芯線抽出手段と、
    前記無効領域内で芯線を抽出する第2の芯線抽出手段と、
    前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成する統合手段と、
    を備える画像処理装置。
  2. 入力された指紋画像を有効領域と無効領域に分け、前記有効領域内で芯線を抽出する第1の芯線抽出手段と、
    前記無効領域内で芯線を抽出する第2の芯線抽出手段と、
    前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成する統合手段と、
    を備え、
    前記第2の芯線抽出手段は、前記無効領域において、当該第2の芯線抽出手段の基準で芯線を抽出可能である抽出可能領域を検出し、当該抽出可能領域において芯線を生成する画像処理装置。
  3. 前記第1の芯線抽出手段は、機械学習により学習済みの芯線生成モデルを用いて芯線を抽出する請求項1又は2に記載の画像処理装置。
  4. 前記統合手段は、前記無効領域のうち、前記第2の芯線抽出手段が検出した前記抽出可能領域を有効領域に変更する請求項に記載の画像処理装置。
  5. 前記第2の芯線抽出手段は、複数のアルゴリズムのいずれかを適用して前記無効領域内で芯線を抽出する請求項1乃至のいずれか一項に記載の画像処理装置。
  6. 前記第2の芯線抽出手段は、前記複数のアルゴリズムを適用して前記無効領域内の前記指紋画像の品質評価値を算出し、最も高い品質評価値が得られたアルゴリズムを用いて芯線を生成する請求項に記載の画像処理装置。
  7. 入力された指紋画像を有効領域と無効領域に分け、前記無効領域では芯線を抽出せず、前記有効領域内で芯線を抽出し、
    前記無効領域内で芯線を抽出し、
    前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成する画像処理方法。
  8. 入力された指紋画像を有効領域と無効領域に分け、前記有効領域内で芯線を抽出する第1の芯線抽出処理を行い、
    前記無効領域内で芯線を抽出する第2の芯線抽出処理を行い、
    前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成し、
    前記第2の芯線抽出処理は、前記無効領域において、当該第2の芯線抽出処理の基準で芯線を抽出可能である抽出可能領域を検出し、当該抽出可能領域において芯線を生成する画像処理方法。
  9. 入力された指紋画像を有効領域と無効領域に分け、前記無効領域では芯線を抽出せず、前記有効領域内で芯線を抽出し、
    前記無効領域内で芯線を抽出し、
    前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成する処理をコンピュータに実行させるプログラム。
  10. 入力された指紋画像を有効領域と無効領域に分け、前記有効領域内で芯線を抽出する第1の芯線抽出処理を行い、
    前記無効領域内で芯線を抽出する第2の芯線抽出処理を行い、
    前記有効領域内で抽出された芯線と、前記無効領域内で抽出された芯線とを統合して前記指紋画像に対応する芯線画像を生成し、
    前記第2の芯線抽出処理は、前記無効領域において、当該第2の芯線抽出処理の基準で芯線を抽出可能である抽出可能領域を検出し、当該抽出可能領域において芯線を生成する処理をコンピュータに実行させるプログラム。
JP2022512889A 2020-03-30 2020-03-30 画像処理装置、画像処理方法、及び、プログラム Active JP7327656B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/014512 WO2021199141A1 (ja) 2020-03-30 2020-03-30 画像処理装置、画像処理方法、及び、記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021199141A1 JPWO2021199141A1 (ja) 2021-10-07
JPWO2021199141A5 JPWO2021199141A5 (ja) 2022-11-08
JP7327656B2 true JP7327656B2 (ja) 2023-08-16

Family

ID=77927826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022512889A Active JP7327656B2 (ja) 2020-03-30 2020-03-30 画像処理装置、画像処理方法、及び、プログラム

Country Status (3)

Country Link
US (1) US11922719B2 (ja)
JP (1) JP7327656B2 (ja)
WO (1) WO2021199141A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018165911A (ja) 2017-03-28 2018-10-25 日本電気株式会社 識別システム、識別方法及びプログラム
JP2019191913A (ja) 2018-04-25 2019-10-31 日本電気株式会社 情報処理システム、情報処理方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3827567B2 (ja) 2001-12-05 2006-09-27 日本電気株式会社 指紋照合方法および装置
US20160379038A1 (en) * 2015-06-29 2016-12-29 Qualcomm Incorporated Valid finger area and quality estimation for fingerprint imaging
US11080546B2 (en) * 2017-10-13 2021-08-03 Fingerprint Cards Ab Method and system for fingerprint image enhancement
JP2019109619A (ja) * 2017-12-15 2019-07-04 富士通株式会社 生体認証装置、生体認証方法、および生体認証プログラム
US10970509B1 (en) * 2020-01-13 2021-04-06 Novatek Microelectronics Corp. Fingerprint recognition apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018165911A (ja) 2017-03-28 2018-10-25 日本電気株式会社 識別システム、識別方法及びプログラム
JP2019191913A (ja) 2018-04-25 2019-10-31 日本電気株式会社 情報処理システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JPWO2021199141A1 (ja) 2021-10-07
US20230147716A1 (en) 2023-05-11
US11922719B2 (en) 2024-03-05
WO2021199141A1 (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
US11971924B2 (en) Liveness test method and apparatus
JPWO2007088926A1 (ja) 画像処理、画像特徴抽出、および画像照合の装置、方法、およびプログラム並びに画像照合システム
Chen et al. Data-driven facial beauty analysis: prediction, retrieval and manipulation
WO2006012132A2 (en) Generation of directional field information in the context of image processing
JP4253498B2 (ja) 画像検索プログラム、そのプログラムを記憶した記憶媒体、画像検索装置及び画像検索方法
KR20190070179A (ko) 사용자 등록 장치 및 방법
CN108875549A (zh) 图像识别方法、装置、***及计算机存储介质
JP7327656B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
CN112445846A (zh) 医疗项目识别方法、装置、设备及计算机可读存储介质
JP2909136B2 (ja) 指紋画像処理装置
JP3254622B2 (ja) パターン照合装置
CN111753722B (zh) 一种基于特征点类型的指纹识别方法及装置
JPH1063847A (ja) パターン照合装置
JP7029726B2 (ja) 判定システム、判定方法及びプログラム
JPH0757092A (ja) 指紋照合装置
Goranin et al. Evolutionary Algorithms Application Analysis in Biometric Systems.
WO2021161375A1 (ja) 画像処理装置、画像処理方法、及び、記録媒体
JP7414124B2 (ja) 指紋照合装置、指紋照合方法、及び、プログラム
Yang et al. Automatic hair extraction from 2D images
WO2023281571A1 (ja) 情報処理システム、情報処理方法、生体照合システム、生体照合方法及び記憶媒体
WO2022176294A1 (ja) 情報処理装置、情報処理方法、照合システム、プログラム及び記録媒体
WO2023058091A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記録媒体
JP3263913B2 (ja) パターン照合装置
JP2868909B2 (ja) 指紋照合装置
CN117475044A (zh) 一种通过收集用户喜好自动生成数字人风格的方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230717

R151 Written notification of patent or utility model registration

Ref document number: 7327656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151