CN107169471A - 一种基于图像融合的指纹识别*** - Google Patents

一种基于图像融合的指纹识别*** Download PDF

Info

Publication number
CN107169471A
CN107169471A CN201710421000.2A CN201710421000A CN107169471A CN 107169471 A CN107169471 A CN 107169471A CN 201710421000 A CN201710421000 A CN 201710421000A CN 107169471 A CN107169471 A CN 107169471A
Authority
CN
China
Prior art keywords
mrow
msup
msub
image
mtd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710421000.2A
Other languages
English (en)
Other versions
CN107169471B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hui Gu Artificial Intelligence Studies Institute Nanjing co Ltd
Original Assignee
Shenzhen City Creative Industry Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen City Creative Industry Technology Co Ltd filed Critical Shenzhen City Creative Industry Technology Co Ltd
Priority to CN201710421000.2A priority Critical patent/CN107169471B/zh
Publication of CN107169471A publication Critical patent/CN107169471A/zh
Application granted granted Critical
Publication of CN107169471B publication Critical patent/CN107169471B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供了一种基于图像融合的指纹识别***,包括指纹采集模块、数模转换模块、指纹图像处理模块、指纹数据库模块和结果验证模块,所述指纹采集模块用于采集目标指纹的红外图像与紫外图像;所述数模转换模块用于对目标指纹的红外图像与紫外图像分别进行数模转换;所述指纹图像处理模块用于对目标指纹的红外图像与紫外图像进行去噪、分解和合成处理,得到目标指纹图像;所述指纹数据库模块中存储有标准的指纹图像;所述结果验证模块将目标指纹图像与标准的指纹图像进行对比验证,得到指纹验证结果,并对结果进行显示。本发明将目标指纹的红外图像与紫外图像进行融合,利用融合后的指纹图像来进行指纹识别,提高指纹识别的精确度。

Description

一种基于图像融合的指纹识别***
技术领域
本发明涉及指纹识别领域,具体涉及一种基于图像融合的指纹识别***。
背景技术
现有技术中的指纹识别***通常采用单摄像头或单个传感器对目标指纹进行采集,单摄像头或单个传感器的指纹识别***能够满足一些精度要求不是十分高的应用场景,例如指纹开锁、指纹打卡、指纹门禁等,但是对于一些精确度要是十分高的,且指纹不完整的应用场景,采用单摄像头或单个传感器的指纹识别***常常不能应对。
发明内容
针对上述问题,本发明旨在提供一种基于图像融合的指纹识别***。
本发明的目的采用以下技术方案来实现:
一种基于图像融合的指纹识别***,包括指纹采集模块、数模转换模块、指纹图像处理模块、指纹数据库模块和结果验证模块,所述指纹采集模块用于采集目标指纹的红外图像与紫外图像;所述数模转换模块用于对目标指纹的红外图像与紫外图像分别进行数模转换;所述指纹图像处理模块用于对目标指纹的红外图像与紫外图像进行去噪、分解和合成处理,得到目标指纹图像;所述指纹数据库模块中存储有标准的指纹图像;所述结果验证模块将目标指纹图像与标准的指纹图像进行对比验证,得到指纹验证结果,并对结果进行显示。
本发明的有益效果为:本发明将目标指纹的红外图像与紫外图像进行融合,利用融合后的指纹图像来进行指纹识别,可大大提高指纹识别的精确度。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1是本发明的框架结构图;
图2是本发明的指纹图像处理模块的框架结构图。
附图标记:
指纹采集模块1、数模转换模块2、指纹图像处理模块3、指纹数据库模块4、结果验证模块5、指纹图像预处理子模块31、指纹图像分解处理子模块32和指纹图像融合子模块33。
具体实施方式
结合以下应用场景对本发明作进一步描述。
参见图1,包括指纹采集模块1、数模转换模块2、指纹图像处理模块3、指纹数据库模块4和结果验证模块5,所述指纹采集模块1后方连接所述数模转换模块2,用于采集目标指纹的红外图像与紫外图像;所述数模转换模块2用于对目标指纹的红外图像与紫外图像分别进行数模转换;所述指纹图像处理模块3用于对目标指纹的红外图像与紫外图像进行去噪、分解和合成处理,得到目标指纹图像;所述指纹数据库模块4中存储有标准的指纹图像;所述结果验证模块5与所述指纹图像处理模块3和所述指纹数据库模块4连接,用于将目标指纹图像与标准的指纹图像进行对比验证,得到指纹验证结果,并对结果进行显示。
优选地,所述指纹采集模块对目标指纹的红外图像和紫外图像进行采集时,采用红外COMS成像镜头对目标指纹的红外图像进行采集,采用紫外CCD成像镜头对目标指纹的紫外图像进行采集,紫外CCD成像镜头前方连接有LED激励器件,后方连接有紫外图像增强器,最后连接红外COMS成像镜头,所有镜头光路同轴且平行放置。
优选地,所述红外COMS成像镜头和紫外CCD成像镜头皆为双色集成式结构。
本发明上述实施例,将目标指纹的红外图像与紫外图像进行融合,利用融合后的指纹图像来进行指纹识别,可大大提高指纹识别的精确度。
优选地,如图2所示,所述指纹图像处理模块包括指纹图像预处理子模块、指纹图像分解处理子模块和指纹图像融合子模块;所述指纹图像预处理子模块将带噪声的红外图像和紫外图像进行小波变换处理,得到相应的小波系数,此时得到的小波系数包括无噪声小波系数以及噪声小波系数,然后利用改进的小波阈值函数对目标指纹的红外图像和紫外图像进行去噪处理,具体为:
(1)采用改进的阈值函数将得到的小波系数进行阈值化处理,以滤除噪声小波系数,得到无噪声小波系数,采用的改进的阈值函数为:
式中,表示无噪声小波系数,ψ为带噪声的红外图像和紫外图像进行小波变换处理后得到的小波系数,sgn(·)为符号函数,i为符号函数的变量,p和q为可调参数,υ为小波系数阈值,ε为噪声标准差;
当p=0或q=∞时,此改进的阈值函数为硬阈值函数,当p=1且q=1时,此改进的阈值函数为软阈值函数;
(2)利用阈值化处理后得到无噪声小波系数进行对目标指纹的红外图像和紫外图像进行重构,得到无噪声红外图像和无噪声紫外图像。
本发明上述实施例,通过改进的阈值函数对指纹图像的红外图像和紫外图像经过小波变换处理后得到的小波系数中的带噪声小波系数进行滤除,然后利用滤除带噪声小波系数后的小波系数进行图像重构,得到边无噪声红外图像和紫外图像,进行指纹图像预处理滤除指纹图像中的噪声,以便在目标指纹图像融合时能够得到高质量的目标指纹图像图像,且改进后的阈值函数能够通过调节p和q的值,使改进的阈值函数介于软、硬阈值函数之间,增强对小波系数滤除时的灵活性。
优选地,所述指纹图像分解处理子模块首先对经过所述指纹图像预处理模块处理后,得到的无噪声红外图像X1和无噪声紫外图像X2采用非下采样Contourlet变换(NSCT)分别进行分解处理,得到各自的一个低频子带系数和一系列的高频子带系数,即 X1LOW(j,k)和X2LOW(j,k)分别表示无噪声红外图像X1和无噪声紫外图像X2在像素点(j,k)处的低频子带系数,表示无噪声红外图像X1和无噪声紫外图像X2在像素点(j,k)处的第m个尺度的第n个方向的高频子带系数,M为尺度数,m表示第m个尺度,n为第n个方向,nm为第m个尺度下的方向数;
然后将(j,k)处像素点经过NSCT进行分解处理后得到的子带系数与周围4个像素点的子带系数值进行比较,用自定义活跃度计算公式逐点计算两幅无噪声图像像素点的活跃度,利用无噪声红外图像X1和无噪声紫外图像X2的高频子带系数进行活跃度计算,得到像素点(j,k)的高频子带活跃度,自定义活跃度计算公式为:
式中,分别表示无噪声红外图像X1和无噪声紫外图像X2中(j,k)处像素点第m个尺度的第n个方向的高频子带活跃度,表示无噪声红外图像X1和无噪声紫外图像X2在(j,k)处的第m个尺度第n个方向的高频子带系数, 分别表示无噪声红外图像X1和无噪声紫外图像X2与(j,k)处像素点的上、下、左、右4个方向相邻的像素点的第m个尺度第n个方向的高频子带系数;
同样地,将高频子带系数换成低频子带系数,利用自定义活跃度计算公式,对两幅无噪声图像的低频子带的活跃度进行计算,得到无噪声红外图像X1和无噪声紫外图像X2在(j,k)处像素点的低频子带的活跃度W1 Low(j,k)和W2 Low(j,k)。
本发明上述实施例,通过自定义活跃度计算公式逐点计算出无噪声红外图像和无噪声紫外图像中像素点的活跃度,以活跃度来反映像素点的清晰程度,像素点的活跃度越高则该点的清晰度越高,根据活跃度对红外图像和紫外图像融合时,有利于选取到清晰度更高的像素点,得到质量更高的、包含细节特征更多的融合后的目标指纹图像。
优选地,所述指纹图像融合子模块首先对无噪声红外图像X1和无噪声紫外图像X2在点(j,k)处的活跃度进行比较,得到相应的活跃度比较结果,根据活跃度比较结果,对子带系数进行重新取值,得到新的高频子带系数与新的低频子带系数,并将新的子带系数作为融合后的目标指纹图像的子带系数,具体为:
式中,X(j,k)为融合后的目标指纹图像在点(j,k)处重新取值后的子带系数,X1(j,k)和X2(j,k)分别为无噪声红外图像X1和无噪声紫外图像X2在点(j,k)处的子带系数,W1(j,k)和W2(j,k)分别为无噪声红外图像X1和无噪声紫外图像X2中(j,k)处像素点的活跃度,W1(j,k)包括W1 Low(j,k)和W2(j,K)包括W2 Low(j,k)和X1(j,k)包括X1 Low(j,k)和X2(j,k)包括X2 Low(j,k)和当X1(j,k)=X1 Low(j,k)时,X2(j,k)=X2 Low(j,k),W1(j,k)=W1 Low(j,k),W2(j,k)=W2 Low(j,k),当时, 为调整阈值,设定为0.5,X1 Low(j,k)和X2 Low(j,k)分别表示无噪声红外图像X1和无噪声紫外图像X2在像素点(j,k)处的低频子带系数,表示无噪声红外图像X1和无噪声紫外图像X2在像素点(j,k)处的第m个尺度的第n个方向的高频子带系数,J和K分别表示两幅无噪声图像的宽度和高度;
利用新的高频子带系数与新的低频子带系数作为合成图像的高频子带系数与低频子带系数,通过NSCT逆变换重构图像,得到融合后的目标指纹图像,并进行输出。
本发明上述实施例,对无噪声红外图像和无噪声紫外图像像素点活跃度大小比较,根据比较结果,对融合后的目标指纹图像子带系数取不同的值,有利于噪声红外图像和无噪声紫外图像的细节互补,使得融合后的目标指纹图像能够包含两幅图像的细节特征,在进行指纹识别验证时,大大提高识别精度。
最后应当说明的是,以上实施例仅用以说明本发明的技术方案,而非对本发明保护范围的限制,尽管参照较佳实施例对本发明作了详细地说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的实质和范围。

Claims (6)

1.一种基于图像融合的指纹识别***,其特征是,包括指纹采集模块、数模转换模块、指纹图像处理模块、指纹数据库模块和结果验证模块,所述指纹采集模块用于采集目标指纹的红外图像与紫外图像;所述数模转换模块用于对目标指纹的红外图像与紫外图像分别进行数模转换;所述指纹图像处理模块用于对目标指纹的红外图像与紫外图像进行去噪、分解和合成处理,得到目标指纹图像;所述指纹数据库模块中存储有标准的指纹图像;所述结果验证模块将目标指纹图像与标准的指纹图像进行对比验证,得到指纹验证结果,并对结果进行显示。
2.根据权利要求1所述的一种基于图像融合的指纹识别***,其特征是,所述指纹采集模块对目标指纹的红外图像和紫外图像进行采集时,采用红外COMS成像镜头对目标指纹的红外图像进行采集,采用紫外CCD成像镜头对目标指纹的紫外图像进行采集,紫外CCD成像镜头前方连接有LED激励器件,后方连接有紫外图像增强器,最后连接红外COMS成像镜头,所有镜头光路同轴且平行放置。
3.根据权利要求2所述的一种基于图像融合的指纹识别***,其特征是,所述红外COMS成像镜头和紫外CCD成像镜头皆为双色集成式结构。
4.根据权利要求3所述的一种基于图像融合的指纹识别***,其特征是,所述指纹图像处理模块包括指纹图像预处理子模块、指纹图像分解处理子模块和指纹图像融合子模块;所述指纹图像预处理子模块将带噪声的红外图像和紫外图像进行小波变换处理,得到相应的小波系数,此时得到的小波系数包括无噪声小波系数以及噪声小波系数,然后利用改进的小波阈值函数对目标指纹的红外图像和紫外图像进行去噪处理,具体为:
(1)采用改进的阈值函数将得到的小波系数进行阈值化处理,以滤除噪声小波系数,得到无噪声小波系数,采用的改进的阈值函数为:
<mrow> <mover> <mi>&amp;psi;</mi> <mo>~</mo> </mover> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mi>g</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>&amp;psi;</mi> <mo>)</mo> </mrow> <mo>&amp;lsqb;</mo> <mi>&amp;psi;</mi> <mo>-</mo> <mo>|</mo> <mfrac> <mrow> <mi>p</mi> <mi>&amp;upsi;</mi> </mrow> <mi>&amp;psi;</mi> </mfrac> <msup> <mo>|</mo> <mrow> <mi>q</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>+</mo> <msqrt> <mrow> <mn>2</mn> <mi>l</mi> <mi>n</mi> <mi>&amp;epsiv;</mi> </mrow> </msqrt> <mo>&amp;rsqb;</mo> </mrow> </mtd> <mtd> <mrow> <mi>&amp;psi;</mi> <mo>&amp;GreaterEqual;</mo> <mi>&amp;upsi;</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>&amp;psi;</mi> <mo>&lt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
<mrow> <mi>s</mi> <mi>g</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mi>i</mi> <mo>&gt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mo>&lt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
式中,表示无噪声小波系数,ψ为带噪声的红外图像和紫外图像进行小波变换处理后得到的小波系数,sgn(·)为符号函数,i为符号函数的变量,p和q为可调参数,v为小波系数阈值,ε为噪声标准差;
(2)利用阈值化处理后得到无噪声小波系数进行对目标指纹的红外图像和紫外图像进行重构,得到无噪声红外图像和无噪声紫外图像。
5.根据权利要求4所述的一种基于图像融合的指纹识别***,其特征是,所述指纹图像分解处理子模块首先对经过所述指纹图像预处理模块处理后,得到的无噪声红外图像X1和无噪声紫外图像X2采用非下采样Contourlet变换(NSCT)分别进行分解处理,得到各自的一个低频子带系数和一系列的高频子带系数,即 和X2Low(j,k),X2m,nHigh(j,k)(1≤m≤M,1≤n≤nm),X1Low(j,k)和X2Low(j,k)分别表示无噪声红外图像X1和无噪声紫外图像X2在像素点(j,k)处的低频子带系数,表示无噪声红外图像X1和无噪声紫外图像X2在像素点(j,k)处的第m个尺度的第n个方向的高频子带系数,M为尺度数,m表示第m个尺度,n为第n个方向,nm为第m个尺度下的方向数;
然后将(j,k)处像素点经过NSCT进行分解处理后得到的子带系数与周围4个像素点的子带系数值进行比较,用自定义活跃度计算公式逐点计算两幅无噪声图像像素点的活跃度,利用无噪声红外图像X1和无噪声紫外图像X2的高频子带系数进行活跃度计算,得到像素点(j,k)的高频子带的活跃度,自定义活跃度计算公式为:
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <msub> <mi>W</mi> <msub> <mn>1</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>&amp;lsqb;</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>1</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>1</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>|</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>1</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>1</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>|</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>1</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>1</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>|</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>1</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>1</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>|</mo> <msup> <mo>&amp;rsqb;</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> </msup> </mrow> </mtd> </mtr> </mtable> </mfenced>
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <msub> <mi>W</mi> <msub> <mn>2</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>&amp;lsqb;</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>2</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>2</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>|</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>2</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>2</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>|</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>2</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>2</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>|</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mo>|</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>2</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msup> <msub> <mi>X</mi> <msub> <mn>2</mn> <mrow> <mi>m</mi> <mo>,</mo> <mi>n</mi> </mrow> </msub> </msub> <mrow> <mi>H</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> </mrow> </msup> <mo>(</mo> <mi>j</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>k</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>|</mo> <msup> <mo>&amp;rsqb;</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> </msup> </mrow> </mtd> </mtr> </mtable> </mfenced>
式中,分别表示无噪声红外图像X1和无噪声紫外图像X2中(j,k)处像素点第m个尺度的第n个方向的高频子带活跃度,表示无噪声红外图像X1和无噪声紫外图像X2在(j,k)处的第m个尺度第n个方向的高频子带系数, 分别表示无噪声红外图像X1和无噪声紫外图像X2与(j,k)处像素点的上、下、左、右4个方向相邻的像素点的第m个尺度第n个方向的高频子带系数;
同样地,将高频子带系数换成低频子带系数,利用自定义活跃度计算公式,对两幅无噪声图像的低频子带的活跃度进行计算,得到无噪声红外图像X1和无噪声紫外图像X2在(j,k)处像素点的低频子带的活跃度W1 Low(j,k)和W2 Low(j,k)。
6.根据权利要求5所述的一种基于图像融合的指纹识别***,其特征是,所述指纹图像融合子模块首先对无噪声红外图像X1和无噪声紫外图像X2在点(j,k)处的活跃度进行比较,得到相应的活跃度比较结果,根据活跃度比较结果,对子带系数进行重新取值,得到新的高频子带系数与新的低频子带系数,并将新的子带系数作为融合后的目标指纹图像的子带系数,具体为:
式中,X(j,k)为融合后的目标指纹图像在点(j,k)处重新取值后的子带系数,X1(j,k)和X2(j,k)分别为无噪声红外图像X1和无噪声紫外图像X2在点(j,k)处的子带系数,W1(j,k)和W2(j,k)分别为无噪声红外图像X1和无噪声紫外图像X2中(j,k)处像素点的活跃度,W1(j,k)包括W1 Low(j,k)和W2(j,k)包括W2 Low(j,k)和X1(j,k)包括X1 Low(j,k)和X2(j,k)包括X2 Low(j,k)和当X1(j,k)=X1 Low(j,k)时,X2(j,k)=X2 Low(j,k),W1(j,k)=W1 Low(j,k),W2(j,k)=W2 Low(j,k),当时, 为调整阈值,X1 Low(j,k)和X2 Low(j,k)分别表示无噪声红外图像X1和无噪声紫外图像X2在像素点(j,k)处的低频子带系数,表示无噪声红外图像X1和无噪声紫外图像X2在像素点(j,k)处的第m个尺度的第n个方向的高频子带系数,J和K分别表示两幅无噪声图像的宽度和高度;
利用新的高频子带系数与新的低频子带系数作为合成图像的高频子带系数与低频子带系数,通过NSCT逆变换重构图像,得到融合后的目标指纹图像,并进行输出。
CN201710421000.2A 2017-06-07 2017-06-07 一种基于图像融合的指纹识别*** Expired - Fee Related CN107169471B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710421000.2A CN107169471B (zh) 2017-06-07 2017-06-07 一种基于图像融合的指纹识别***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710421000.2A CN107169471B (zh) 2017-06-07 2017-06-07 一种基于图像融合的指纹识别***

Publications (2)

Publication Number Publication Date
CN107169471A true CN107169471A (zh) 2017-09-15
CN107169471B CN107169471B (zh) 2018-10-12

Family

ID=59825411

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710421000.2A Expired - Fee Related CN107169471B (zh) 2017-06-07 2017-06-07 一种基于图像融合的指纹识别***

Country Status (1)

Country Link
CN (1) CN107169471B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038937A (zh) * 2017-11-22 2018-05-15 同观科技(深圳)有限公司 一种迎宾信息的展示方法、装置、终端设备和存储介质
CN108932492A (zh) * 2018-06-28 2018-12-04 福州昌宇五金锁具制品有限公司 一种基于非采样剪切波变换的图像指纹提取方法
CN109946308A (zh) * 2019-04-22 2019-06-28 深圳市阿赛姆电子有限公司 一种电子元器件外观检测装置
CN111052141A (zh) * 2019-08-02 2020-04-21 深圳市汇顶科技股份有限公司 指纹检测装置和电子设备
CN112986169A (zh) * 2021-03-11 2021-06-18 广东新一代工业互联网创新技术有限公司 一种基于采样轮廓波变换的紫外光谱污染物分类检测方法
US11531430B2 (en) 2019-07-12 2022-12-20 Shenzhen GOODIX Technology Co., Ltd. Fingerprint detection apparatus and electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101510007A (zh) * 2009-03-20 2009-08-19 北京科技大学 一种红外光图像与可见光图像实时摄取与自适应融合装置
US8073234B2 (en) * 2007-08-27 2011-12-06 Acushnet Company Method and apparatus for inspecting objects using multiple images having varying optical properties
CN104834895A (zh) * 2015-04-03 2015-08-12 南京理工大学 紫外与可见光双波段融合便携式指纹探测器
CN104866845A (zh) * 2015-06-11 2015-08-26 武汉华炬光电有限公司 一种紫外、红外led指纹检测***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8073234B2 (en) * 2007-08-27 2011-12-06 Acushnet Company Method and apparatus for inspecting objects using multiple images having varying optical properties
CN101510007A (zh) * 2009-03-20 2009-08-19 北京科技大学 一种红外光图像与可见光图像实时摄取与自适应融合装置
CN104834895A (zh) * 2015-04-03 2015-08-12 南京理工大学 紫外与可见光双波段融合便携式指纹探测器
CN104866845A (zh) * 2015-06-11 2015-08-26 武汉华炬光电有限公司 一种紫外、红外led指纹检测***

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038937A (zh) * 2017-11-22 2018-05-15 同观科技(深圳)有限公司 一种迎宾信息的展示方法、装置、终端设备和存储介质
CN108038937B (zh) * 2017-11-22 2021-01-29 同观科技(深圳)有限公司 一种迎宾信息的展示方法、装置、终端设备和存储介质
CN108932492A (zh) * 2018-06-28 2018-12-04 福州昌宇五金锁具制品有限公司 一种基于非采样剪切波变换的图像指纹提取方法
CN109946308A (zh) * 2019-04-22 2019-06-28 深圳市阿赛姆电子有限公司 一种电子元器件外观检测装置
US11531430B2 (en) 2019-07-12 2022-12-20 Shenzhen GOODIX Technology Co., Ltd. Fingerprint detection apparatus and electronic device
CN111052141A (zh) * 2019-08-02 2020-04-21 深圳市汇顶科技股份有限公司 指纹检测装置和电子设备
WO2021022425A1 (zh) * 2019-08-02 2021-02-11 深圳市汇顶科技股份有限公司 指纹检测装置和电子设备
US11776301B2 (en) 2019-08-02 2023-10-03 Shenzhen GOODIX Technology Co., Ltd. Fingerprint detection apparatus and electronic device
CN112986169A (zh) * 2021-03-11 2021-06-18 广东新一代工业互联网创新技术有限公司 一种基于采样轮廓波变换的紫外光谱污染物分类检测方法

Also Published As

Publication number Publication date
CN107169471B (zh) 2018-10-12

Similar Documents

Publication Publication Date Title
CN107169471A (zh) 一种基于图像融合的指纹识别***
Schuckers et al. On techniques for angle compensation in nonideal iris recognition
CN106504222B (zh) 一种基于仿生视觉机理的水下偏振图像融合***
Xiao-Hui et al. Fusion algorithm for remote sensing images based on nonsubsampled contourlet transform
CN102005037B (zh) 结合多尺度双边滤波与方向滤波的多模图像融合方法
CN109801250A (zh) 基于adc-scm与低秩矩阵表达的红外与可见光图像融合方法
CN104683767A (zh) 透雾图像生成方法及装置
CN110223242A (zh) 一种基于时空域残差生成对抗网络的视频湍流移除方法
Kwan et al. Pansharpening of Mastcam images
Sutthiwichaiporn et al. Adaptive boosted spectral filtering for progressive fingerprint enhancement
CN104809734A (zh) 一种基于引导滤波的红外图像与可见光图像融合的方法
CN113837147B (zh) 一种基于transformer的假视频检测方法
CN107918748A (zh) 一种多光谱二维码识别装置及方法
CN102968781B (zh) 基于nsct和稀疏表示的图像融合方法
CN109191416A (zh) 基于稀疏字典学习和剪切波的图像融合方法
CN106204601A (zh) 一种基于波段扫描形式的活体高光谱序列图像并行配准方法
Bhateja et al. Medical image fusion in wavelet and ridgelet domains: a comparative evaluation
Yang Multiresolution Image Fusion Based on Wavelet Transform By Using a Novel Technique for Selection Coefficients.
CN109816617A (zh) 基于导向滤波和图论显著性的多模态医学图像融合方法
CN108198163A (zh) 一种基于离散余弦变换的全色与多光谱图像融合方法
Lan et al. Multimodal medical image fusion using wavelet transform and human vision system
CN106780398B (zh) 一种基于噪声预测的图像去噪方法
CN113628148B (zh) 红外图像降噪方法和装置
CN114998708A (zh) 一种基于图谱信号的茶叶种类识别方法和装置
CN113592758A (zh) 一种基于局部对比度预处理的图像融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20180830

Address after: 210012 room 1601-1604, 3 building, Yun Mi Cheng, 19 ningshuang Road, Yuhuatai District, Nanjing, Jiangsu, China

Applicant after: Hui Gu artificial intelligence studies institute(Nanjing)Co., Ltd.

Address before: 518000 West Tower 1708, Nanshan Software Park, Nanshan Digital Culture Industry Base, 10128 Shennan Avenue, Nanshan Street, Nanshan District, Shenzhen City, Guangdong Province

Applicant before: SHENZHEN CHUANGYI INDUSTRIAL TECHNOLOGY CO.,LTD.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181012