CN108053218A - 一种安全的移动支付方法 - Google Patents
一种安全的移动支付方法 Download PDFInfo
- Publication number
- CN108053218A CN108053218A CN201711468123.8A CN201711468123A CN108053218A CN 108053218 A CN108053218 A CN 108053218A CN 201711468123 A CN201711468123 A CN 201711468123A CN 108053218 A CN108053218 A CN 108053218A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- msubsup
- munderover
- prime
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 230000001815 facial effect Effects 0.000 claims abstract description 64
- 238000012795 verification Methods 0.000 claims abstract description 14
- 210000003462 vein Anatomy 0.000 claims description 40
- 230000010355 oscillation Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 7
- 210000005069 ears Anatomy 0.000 claims description 6
- 210000004709 eyebrow Anatomy 0.000 claims description 5
- 210000000162 simple eye Anatomy 0.000 claims description 5
- 210000001367 artery Anatomy 0.000 claims description 2
- 210000004209 hair Anatomy 0.000 abstract description 2
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/316—User authentication by observing the pattern of computer usage, e.g. typical user behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Software Systems (AREA)
- Accounting & Taxation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Game Theory and Decision Science (AREA)
- Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
Abstract
本发明涉及一种安全的移动支付方法,用于实现移动终端的安全支付,建立合法用户的面部特征参数数据库,得到针对当前合法用户的面部识别参数;利用用户发所出声音时的音频数据平均振幅值和音频数据功耗值特征得到针对当前合法用户的音频识别匹配参数;预先设置支付时的倾斜度参数、以该预先设置的倾斜角度的正弦值作为移动终端的合法数字支付密码;通过在预设验证时间段内对操作者的面部图像和现场采集的音频识别,避免非法人员寄希望于仅仅通过借助合法用户的面部图像试图通过移动终端的身份验证;构建移动终端的合法用户输入支付密码时所对应的手指触控支付压力数据库,得到合法用户的手指触控支付波动因子,确保移动支付安全。
Description
技术领域
本发明涉及移动支付领域,尤其涉及一种安全的移动支付方法。
背景技术
随着智能手机、平板电脑等移动终端的逐渐普及,基于这些移动终端所实现的移动支付慢慢受到人们的喜爱。人们通过携带移动终端就可以在不需要支付现金的情况下完成购物以及购票等支付操作,非常便捷,这也使得人们进入了移动支付的新时代。
然而,面对移动支付给人们所带来的便利,现有移动支付方法也面临着安全风险:由于现有的移动支付只需要操作者利用移动终端准确地输入支付秘密即可,至于是否为该移动终端的真正合法用户输入却无法进行识别;一旦用户丢失自己的移动终端,难免非法者利用非法途径获取的支付密码对被丢失的该移动终端进行支付操作,从而造成该移动终端真正合法用户的财产损失。
发明内容
本发明所要解决的技术问题是针对上述现有技术提供一种移动终端流量监控处理方法。
本发明解决上述技术问题所采用的技术方案为:一种安全的移动支付方法,用于实现移动终端的安全支付,其特征在于,包括如下步骤1至步骤13:
步骤1,设置预设采集时间段和预设采集频率,由移动终端在所述预设采集时间段内按照所述预设采集频率采集其合法用户的面部图像,得到当前合法用户的多幅面部图像,并由移动终端在所述预设采集时间段内按照预设采集位置采集其合法用户面部的红外温度数据,得到合法用户的面部红外温度数据库;
其中,所述预设采集时间段标记为T,所述预设采集频率标记为f,所述面部图像数据库标记为JPG,所述面部图像数据库JPG内的面部图像总个数为M,所述面部图像数据库JPG内的第i个面部图像标记为JPGi;所述合法用户的面部红外温度数据库标记为Infrared,面部红外温度数据库Infrared内的面部红外温度数据总个数同样为M,面部红外温度数据库Infrared内的第i个面部红外温度数据标记为infraredi;1≤i≤M;
步骤2,所述移动终端根据建立的面部图像数据库,提取、得到各幅面部图像中所述当前合法用户的面部特征参数集合,构建当前合法用户的面部特征参数数据库,并计算得到当前合法用户的面部识别匹配参数;
其中,在针对当前用户的所述M幅面部图像中,所述面部特征参数集合包括有当前该幅面部图中的面部总面积值、眉间距数值、双耳间距数值、嘴部面积值以及单眼面积值;标记面部图像JPGi中的面部总面积值为眉间距数值为双耳间距数值为嘴部面积值为单眼面积值为
标记当前合法用户的面部识别匹配参数为σFace:
步骤3,所述移动终端在预设采集时间段内按照预设采集频率采集其合法用户的音频数据,得到当前合法用户的多段音频数据以及合法用户对应各段音频的功耗值,并在移动终端内建立针对当前合法用户的音频数据库;
其中,所述音频数据库标记为Voice,所述音频数据库Voice内音频的总段数为N,所述音频数据库Voice内的第j段音频标记为Voicej,所述音频数据Voicej的平均振幅值标记为所述音频数据Voicej的功耗值为1≤j≤N;
步骤4,所述移动终端根据建立的音频数据库,计算得到当前合法用户的音频识别匹配参数;其中,标记所述当前合法用户的音频识别匹配参数为σVoice:
步骤5,在移动终端内预先设置支付时的倾斜度参数,并以所述预先设置的倾斜度所对应的正弦值作为所述移动终端的合法数字支付密码;其中,标记所述预先设置的倾斜角度为θ0,所述倾斜角度θ0所对应的正弦值为sinθ0;
步骤6,所述移动终端存储所述合法用户的面部识别匹配参数、合法用户的音频识别匹配参数以及所述合法数字支付密码,移动终端在检测到有操作人员启动支付程序进行支付时,所述移动终端发送身份验证要求界面给当前操作者,并且只有在所述当前操作者的合法身份验证通过后,移动终端呈现支付界面给所述当前操作者,否则,所述移动支付终端强制关闭该支付程序;其中,所述身份验证要求界面上具有要求当前操作者拍摄面部图像以及采集音频数据的预设验证时间段;
步骤7,在所述预设验证时间段内,所述移动终端判断接收到当前操作者拍摄的面部图像且采集到当前操作者的音频数据后,移动终端转至针对当前操作者的身份验证阶段,转入步骤8;否则,在所述预设验证时间段内,所述移动终端未接收到当前操作者拍摄的面部图像或未采集到当前操作者的音频数据,所述移动终端强制关闭该支付程序;
其中,设定所述移动终端接收到当前操作者拍摄的面部图像总个数为M',移动终端接收到的当前操作者拍摄的第r个面部图像标记为JPGr';1≤r≤M';
设定所述移动终端采集到当前操作者的音频的总段书为N',所述N'段音频中的第k段音频标记为Voice'k,所述音频Voice'k的平均振幅值标记为所述音频Voice'k的功耗值为1≤j≤N;
步骤8,移动终端在预设的支付习惯采集时间段内获取其合法用户利用手指触摸移动终端屏幕来输入支付密码时的支付触控压力,构建其合法用户通过触控输入支付密码时所对应的手指触控支付压力数据库,并得到所述合法用户的手指触控支付波动因子;
其中,标记所述合法用户所对应的手指触控支付压力数据库标记为Suser_Finger,手指触控支付压力数据库Suser_Finger内的支付触控压力数据数目为G,手指触控支付压力数据库Suser_Finger内的第g个支付触控压力数据标记为1≤g≤G;
其中,标记所述合法用户的手指触控支付波动因子为χuser_Finger:
步骤9,移动终端根据所构建的其合法用户的面部红外温度数据库,得到所述合法用户的面部红外温度波动指数;
移动终端按照预设采集周期,获取其合法用户的眼框静脉图像,建立所述合法用户的眼框静脉图像数据库,并得到所述合法用户的眼框静脉特征参数;其中,标记所述合法用户的面部红外温度波动指数为ξInfrared:
其中,infraredi为所述面部红外温度数据库Infrared内的第i个面部红外温度数据;
所述合法用户的眼框静脉图像数据库标记为JPGUser_EyeBox,所述合法用户的眼框静脉特征参数标记为ψUser_EyeBox;所述眼框静脉图像数据库JPGUser_EyeBox内对应的图像个数为Y;所述眼框静脉图像数据库JPGUser_EyeBox内的第y个眼框静脉图像标记为jpgUser_EyeBox,y,眼框静脉图像jpgUser_EyeBox,y的长度值标记为LjpgUser_EyeBox,y,眼框静脉图像jpgUser_EyeBox,y的宽度值标记为WjpgUser_EyeBox,y;
步骤10,移动终端构建当前操作者利用手指触摸移动终端屏幕来输入支付密码时的支付触控压力数据库、获取当前操作者面部的面部红外温度数据库以及眼框静脉图像数据库,对应计算得到针对当前操作者的手指触控支付波动因子、面部红外温度波动指数以及眼框静脉特征参数;
移动终端判断当前操作者与所述合法用户的手指触控支付波动因子、面部红外温度波动指数、眼框静脉特征参数均对应相等时,转入步骤11;否则,移动终端强制关闭该支付程序;
步骤11,所述移动终端分别提取得到当前操作者的面部识别匹配参数以及音频识别匹配参数;其中,所述当前操作者的面部识别匹配参数标记为σ'Face,所述当前操作者的音频识别匹配参数标记为σ'Voice:
其中,标记当前操作者的面部图像JPGr'中的面部总面积值为眉间距数值为双耳间距数值为嘴部面积值为单眼面积值为
其中,所述当前操作者的第k段音频标记为Voice'k,所述音频Voice'k的平均振幅值标记为所述音频Voice'k的功耗值为1≤k≤N';
步骤12,所述移动终端将存储的所述合法用户的面部识别匹配参数及音频识别匹配参数分别对应地与所述当前操作者的面部识别匹配参数及音频识别匹配参数做匹配判断,以判断当前操作者的合法身份:
当所述合法用户的面部识别匹配参数σFace与所述当前操作者的面部识别匹配参数σ'Face相等,且所述合法用户的音频识别匹配参数σVoice与所述当前操作者的音频识别匹配参数σ'Voice相等时,所述移动终端判断当前操作者为其合法用户,并转入步骤13;否则,所述移动终端强制关闭当前的支付程序;
步骤13,所述移动终端检测其当前的倾斜角度,并且判断当前倾斜角度与移动终端预先设置的倾斜角度相等时,所述移动终端自动将预先设置的倾斜角度所对应的正弦值作为支付密码,以安全地完成支付操作。
与现有技术相比,本发明的优点在于:
首先,本发明通过建立合法用户的面部特征参数数据库,得到针对当前合法用户的面部识别参数,通过提取用户面部图像中的面部总面积值、眉间距数值、双耳间距数值、嘴部面积值以及单眼面积值等生物特征参数,实现基于多重生物特征对用户合法身份的验证识别,提高了针对用户合法身份的识别效果;
其次,本发明中的移动终端通过建立针对当前合法用户音频数据库,利用用户发所出声音时的音频数据平均振幅值和音频数据功耗值特征得到针对当前合法用户的音频识别匹配参数,从而作为识别用户身份的识别特征参数,实现保证移动终端只接受其合法用户进行支付操作的安全,避免非合法用户操作移动终端的支付风险;另外,通过预先设置支付时的倾斜度参数,以该预先设置的倾斜角度的正弦值作为移动终端的合法数字支付密码,更能保证操作该移动终端的支付动作是由移动终端的真正合法用户发出,从而在支付的关键时刻确保用户的支付安全;
再次,通过在预设验证时间段内对操作者的面部图像和现场采集的音频进行识别,以避免非法人员寄希望于仅仅通过借助合法用户的面部图像去试图通过移动终端的身份验证,从而更好地保证了移动终端的支付操作只接受其合法用户的操控,提高了移动支付的安全性;
最后,通过构建移动终端的合法用户输入支付密码时所对应的手指触控支付压力数据库,得到合法用户的手指触控支付波动因子,从而借助于移动终端所采集的一定数量的手指触控支付压力来辨别当前输入支付密码的身份情况,确保移动支付安全。
附图说明
图1为发明实施例中安全的移动支付方法的流程示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
如图1所示,本实施例中安全的移动支付方法,用于实现移动终端的安全支付,该移动支付方法包括如下步骤1至步骤13:
步骤1,设置预设采集时间段和预设采集频率,由移动终端在设置的该预设采集时间段内按照预设采集频率采集其合法用户的面部图像,从而得到当前合法用户的多幅面部图像,并由移动终端在该预设采集时间段内按照预设采集位置采集其合法用户面部的红外温度数据,得到合法用户的面部红外温度数据库;例如,针对此处的预设采集位置可以是用户面部的嘴部、腮部或者额头等主要位置;
其中,预设采集时间段标记为T,预设采集频率标记为f,当前合法用户的面部图像数据库标记为JPG,面部图像数据库JPG内的面部图像总个数为M,面部图像数据库JPG内的第i个面部图像标记为JPGi;
针对提前设定好的预设采集位置,合法用户的面部红外温度数据库标记为Infrared,面部红外温度数据库Infrared内的面部红外温度数据总个数同样为M,面部红外温度数据库Infrared内的第i个面部红外温度数据标记为infraredi;1≤i≤M;
步骤2,移动终端根据建立的面部图像数据库,提取、得到各幅面部图像中当前合法用户的面部特征参数集合,构建当前合法用户的面部特征参数数据库,并计算得到当前合法用户的面部识别匹配参数;
具体地,在针对当前用户的M幅面部图像中,面部特征参数集合包括有当前该幅面部图中的面部总面积值、眉间距数值、双耳间距数值、嘴部面积值以及单眼面积值;标记面部图像JPGi中的面部总面积值为眉间距数值为双耳间距数值为嘴部面积值为单眼面积值为
当前合法用户的面部识别匹配参数标记为σFace,面部识别匹配参数σFace的计算公式如下:
本发明将面部作为不同用户进行身份区分的特征参数,通过提取用户面部图像中的面部总面积值、眉间距数值、双耳间距数值、嘴部面积值以及单眼面积值等生物特征参数,实现基于多重生物特征对用户合法身份的验证识别,提高了针对用户合法身份的识别效果,即只用通过多重验证的操作者才能够利用该移动终端进行支付操作,从而保证了用户操作移动终端进行支付时的安全;
步骤3,移动终端在预设采集时间段内按照预设采集频率采集其合法用户的音频数据,得到当前合法用户的多段音频数据以及合法用户对应各段音频的功耗值,并在移动终端内建立针对当前合法用户的音频数据库;
其中,音频数据库标记为Voice,音频数据库Voice内音频的总段数为N,音频数据库Voice内的第j段音频标记为Voicej,音频数据Voicej的平均振幅值标记为音频数据Voicej的功耗值为1≤j≤N;
步骤4,移动终端根据建立的音频数据库,计算得到当前合法用户的音频识别匹配参数;其中,标记当前合法用户的音频识别匹配参数为σVoice:
本发明中的移动终端通过将所采集用户的音频数据建立针对当前合法用户音频数据库,以利用用户发所出声音时的音频数据平均振幅值和音频数据功耗值特征得到针对当前合法用户的音频识别匹配参数,从而作为识别用户身份的识别特征参数,进一步实现了保证移动终端只接受其合法用户进行支付操作的安全,避免了非合法用户操作移动终端的支付风险;
步骤5,在移动终端内预先设置支付时的倾斜度参数,并以预先设置的倾斜度所对应的正弦值作为移动终端的合法数字支付密码;其中,在该实施例中,预先设置的倾斜角度标记为θ0,该倾斜角度θ0所对应的正弦值为sinθ0;
由于每一个操作者在利用自己的移动终端进行支付操作时,基于操作者自己的个人习惯,操作者通常都会习惯将移动终端摆出一定的姿势来进行支付,也正是基于这一特点,本发明通过预先设置支付时的倾斜度参数,以该预先设置的倾斜角度θ0的正弦值sinθ0作为移动终端的合法数字支付密码,更能保证操作该移动终端的支付动作是由移动终端的真正合法用户发出,从而在支付的关键时刻确保用户的支付安全;
步骤6,移动终端存储合法用户的面部识别匹配参数、合法用户的音频识别匹配参数以及合法数字支付密码,移动终端在检测到有操作人员启动支付程序进行支付时,移动终端发送身份验证要求界面给当前操作者,并且只有在当前操作者的合法身份验证通过后,移动终端呈现支付界面给该当前操作者;否则,移动支付终端强制关闭该支付程序;
其中,在身份验证要求界面上具有要求当前操作者拍摄面部图像以及采集音频数据的预设验证时间段;也就是说,此时移动终端要求当前操作者在该预设验证时间段内供该移动终端采取操作者的面部图像以及由该当前操作者发出声音,以验证移动终端所采集面部图像的用户为具有生命体征的人员,而不是照片;这样,可以避免非法人员寄希望于仅仅通过借助合法用户的面部图像去试图通过移动终端的身份验证,从而更好地保证了移动终端的支付操作只接受其合法用户的操控,提高了移动支付的安全性;
步骤7,在预设验证时间段内,移动终端判断接收到当前操作者拍摄的面部图像且采集到当前操作者的音频数据后,表明移动终端采取操作者的面部图像所对应的用户为具有生命体征的人员,此时移动终端转至针对当前操作者的身份验证阶段,转入步骤8;否则,在预设验证时间段内,移动终端未接收到当前操作者拍摄的面部图像或未采集到当前操作者的音频数据,表明移动终端采取操作者的面部图像所对应的用户不具有生命体征,移动终端强制关闭该支付程序;
其中,设定移动终端接收到当前操作者拍摄的面部图像总个数为M',移动终端接收到的当前操作者拍摄的第r个面部图像标记为JPGr';1≤r≤M';
设定移动终端采集到当前操作者的音频的总段书为N',在所采集当前操作者的这N'段音频中的第k段音频标记为Voice'k,音频Voice'k的平均振幅值标记为音频Voice'k的功耗值为1≤j≤N;
步骤8,移动终端在预设的支付习惯采集时间段内获取其合法用户利用手指触摸移动终端屏幕来输入支付密码时的支付触控压力,构建其合法用户通过触控输入支付密码时所对应的手指触控支付压力数据库,并得到合法用户的手指触控支付波动因子;
其中,合法用户所对应的手指触控支付压力数据库标记为Suser_Finger,手指触控支付压力数据库Suser_Finger内的支付触控压力数据数目为G,手指触控支付压力数据库Suser_Finger内的第g个支付触控压力数据标记为1≤g≤G;
其中,合法用户的手指触控支付波动因子标记为χuser_Finger:
由于在利用移动终端屏幕输入支付密码时,不同用户利用手指施加给移动终端屏幕上的支付触控压力是不一样的,那么,本实施例的该步骤8中就通过构建移动终端的合法用户在输入支付密码时所对应的手指触控支付压力数据库,以及得到合法用户的手指触控支付波动因子,从而可以借助于移动终端所采集的一定数量的手指触控支付压力来辨别当前输入支付密码的身份情况;
另外,即便是该移动终端的合法用户仅仅是因无意触碰到移动终端的支付密码输入界面时,本发明也可以通过已经所得的合法用户的手指触控支付波动因子来判断此时属于合法用户误操作,从而不至于造成合法用户的经济损失;
步骤9,移动终端根据所构建的其合法用户的面部红外温度数据库,得到合法用户的面部红外温度波动指数;移动终端按照预设采集周期,获取其合法用户的眼框静脉图像,建立合法用户的眼框静脉图像数据库,并得到合法用户的眼框静脉特征参数;其中,合法用户的面部红外温度波动指数标记为ξInfrared:
其中,infraredi为面部红外温度数据库Infrared内的第i个面部红外温度数据;合法用户的眼框静脉图像数据库标记为JPGUser_EyeBox,合法用户的眼框静脉特征参数标记为ψUser_EyeBox;眼框静脉图像数据库JPGUser_EyeBox内对应的图像个数为Y;
眼框静脉图像数据库JPGUser_EyeBox内的第y个眼框静脉图像标记为jpgUser_EyeBox,y,眼框静脉图像jpgUser_EyeBox,y的长度值标记为LjpgUser_EyeBox,y,眼框静脉图像jpgUser_EyeBox,y的宽度值标记为WjpgUser_EyeBox,y;1≤y≤Y;
步骤10,移动终端构建当前操作者利用手指触摸移动终端屏幕来输入支付密码时的支付触控压力数据库、获取当前操作者面部的面部红外温度数据库以及眼框静脉图像数据库,对应计算得到针对当前操作者的手指触控支付波动因子、面部红外温度波动指数以及眼框静脉特征参数;
其中,针对当前操作者的手指触控支付波动因子、面部红外温度波动指数以及眼框静脉特征参数的计算过程与针对合法用户的对应参数计算过程相同,仅仅需要将相应合法用户的参数替换为当前操作者的对应参数即可;
移动终端判断当前操作者与合法用户的手指触控支付波动因子、面部红外温度波动指数、眼框静脉特征参数均对应相等时,转入步骤11;否则,表明当前操作的身份存在非法嫌疑,有可能存在支付风险,此时移动终端强制关闭该支付程序;
步骤11,移动终端分别提取得到当前操作者的面部识别匹配参数以及音频识别匹配参数;其中,当前操作者的面部识别匹配参数标记为σ'Face,当前操作者的音频识别匹配参数标记为σ'Voice:
其中,当前操作者的面部图像JPGr'中的面部总面积值标记为眉间距数值为双耳间距数值为嘴部面积值为单眼面积值为
其中,当前操作者的第k段音频标记为Voice'k,当前操作者音频Voice'k的平均振幅值标记为音频Voice'k的功耗值为1≤k≤N';
步骤12,移动终端将存储的合法用户的面部识别匹配参数及音频识别匹配参数分别对应地与当前操作者的面部识别匹配参数及音频识别匹配参数做匹配判断,以判断当前操作者的合法身份:
当合法用户的面部识别匹配参数σFace与当前操作者的面部识别匹配参数σ'Face相等,且合法用户的音频识别匹配参数σVoice与当前操作者的音频识别匹配参数σ'Voice相等时,移动终端判断当前操作者为其合法用户,此时操作者的身份安全可信,并转入步骤13;否则,移动终端判断当前操作者不是其合法用户,存在支付风险,移动终端强制关闭当前的支付程序,以确保其合法用户的资金安全;
步骤13,移动终端检测其当前的倾斜角度,并且判断当前倾斜角度与移动终端预先设置的倾斜角度相等时,说明移动终端的其合法用户输入了正确的支付密码,移动终端自动将预先设置的倾斜角度所对应的正弦值作为支付密码,以安全地完成支付操作。
尽管以上详细地描述了本发明的优选实施例,但是应该清楚地理解,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种安全的移动支付方法,用于实现移动终端的安全支付,其特征在于,包括如下步骤1至步骤13:
步骤1,设置预设采集时间段和预设采集频率,由移动终端在所述预设采集时间段内按照所述预设采集频率采集其合法用户的面部图像,得到当前合法用户的多幅面部图像,并由移动终端在所述预设采集时间段内按照预设采集位置采集其合法用户面部的红外温度数据,得到合法用户的面部红外温度数据库;
其中,所述预设采集时间段标记为T,所述预设采集频率标记为f,所述面部图像数据库标记为JPG,所述面部图像数据库JPG内的面部图像总个数为M,所述面部图像数据库JPG内的第i个面部图像标记为JPGi;所述合法用户的面部红外温度数据库标记为Infrared,面部红外温度数据库Infrared内的面部红外温度数据总个数同样为M,面部红外温度数据库Infrared内的第i个面部红外温度数据标记为infraredi;1≤i≤M;
步骤2,所述移动终端根据建立的面部图像数据库,提取、得到各幅面部图像中所述当前合法用户的面部特征参数集合,构建当前合法用户的面部特征参数数据库,并计算得到当前合法用户的面部识别匹配参数;
其中,在针对当前用户的所述M幅面部图像中,所述面部特征参数集合包括有当前该幅面部图中的面部总面积值、眉间距数值、双耳间距数值、嘴部面积值以及单眼面积值;标记面部图像JPGi中的面部总面积值为眉间距数值为双耳间距数值为嘴部面积值为单眼面积值为
标记当前合法用户的面部识别匹配参数为σFace:
<mrow>
<msub>
<mi>&sigma;</mi>
<mrow>
<mi>F</mi>
<mi>a</mi>
<mi>c</mi>
<mi>e</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<mo>|</mo>
<msubsup>
<mi>D</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
<mn>2</mn>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>W</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
<mn>2</mn>
</msubsup>
<mo>|</mo>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<mo>|</mo>
<mfrac>
<msubsup>
<mi>S</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
<mo>&prime;</mo>
</msubsup>
<msub>
<mi>S</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
</msub>
</mfrac>
<mo>|</mo>
<mo>+</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<mo>|</mo>
<mfrac>
<msubsup>
<mi>S</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<msub>
<mi>S</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
</msub>
</mfrac>
<mo>|</mo>
</mrow>
</mfrac>
<mo>&CenterDot;</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<msqrt>
<mrow>
<mo>(</mo>
<mo>(</mo>
<msub>
<mi>D</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>W</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
</msub>
<mo>)</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mi>M</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<mo>(</mo>
<msub>
<mi>D</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>W</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
</msub>
<mo>)</mo>
<mo>)</mo>
</mrow>
</msqrt>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<msqrt>
<mrow>
<mo>(</mo>
<mo>(</mo>
<msubsup>
<mi>S</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
<mo>&prime;</mo>
</msubsup>
<mo>&CenterDot;</mo>
<msubsup>
<mi>S</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<mo>)</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mi>M</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<mo>(</mo>
<msubsup>
<mi>S</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
<mo>&prime;</mo>
</msubsup>
<mo>&CenterDot;</mo>
<msubsup>
<mi>S</mi>
<mrow>
<msub>
<mi>JPG</mi>
<mi>i</mi>
</msub>
</mrow>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<mo>)</mo>
<mo>)</mo>
</mrow>
</msqrt>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
步骤3,所述移动终端在预设采集时间段内按照预设采集频率采集其合法用户的音频数据,得到当前合法用户的多段音频数据以及合法用户对应各段音频的功耗值,并在移动终端内建立针对当前合法用户的音频数据库;
其中,所述音频数据库标记为Voice,所述音频数据库Voice内音频的总段数为N,所述音频数据库Voice内的第j段音频标记为Voicej,所述音频数据Voicej的平均振幅值标记为所述音频数据Voicej的功耗值为1≤j≤N;
步骤4,所述移动终端根据建立的音频数据库,计算得到当前合法用户的音频识别匹配参数;其中,标记所述当前合法用户的音频识别匹配参数为σVoice:
<mrow>
<msub>
<mi>&sigma;</mi>
<mrow>
<mi>V</mi>
<mi>o</mi>
<mi>i</mi>
<mi>c</mi>
<mi>e</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>|</mo>
<msub>
<mi>A</mi>
<mrow>
<msub>
<mi>Voice</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>Voice</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
<mo>|</mo>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>|</mo>
<mfrac>
<msub>
<mi>A</mi>
<mrow>
<msub>
<mi>Voice</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>Voice</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
</mfrac>
<mo>|</mo>
<mo>+</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>|</mo>
<mfrac>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>Voice</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
<msub>
<mi>A</mi>
<mrow>
<msub>
<mi>Voice</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
</mfrac>
<mo>|</mo>
</mrow>
</mfrac>
<mo>&CenterDot;</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msqrt>
<mrow>
<mo>(</mo>
<mo>(</mo>
<msub>
<mi>A</mi>
<mrow>
<msub>
<mi>Voice</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>Voice</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
<mo>)</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>(</mo>
<msub>
<mi>A</mi>
<mrow>
<msub>
<mi>Voice</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>Voice</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
<mo>)</mo>
<mo>)</mo>
</mrow>
</msqrt>
<mo>;</mo>
</mrow>
步骤5,在移动终端内预先设置支付时的倾斜度参数,并以所述预先设置的倾斜度所对应的正弦值作为所述移动终端的合法数字支付密码;其中,标记所述预先设置的倾斜角度为θ0,所述倾斜角度θ0所对应的正弦值为sinθ0;
步骤6,所述移动终端存储所述合法用户的面部识别匹配参数、合法用户的音频识别匹配参数以及所述合法数字支付密码,移动终端在检测到有操作人员启动支付程序进行支付时,所述移动终端发送身份验证要求界面给当前操作者,并且只有在所述当前操作者的合法身份验证通过后,移动终端呈现支付界面给所述当前操作者,否则,所述移动支付终端强制关闭该支付程序;其中,所述身份验证要求界面上具有要求当前操作者拍摄面部图像以及采集音频数据的预设验证时间段;
步骤7,在所述预设验证时间段内,所述移动终端判断接收到当前操作者拍摄的面部图像且采集到当前操作者的音频数据后,移动终端转至针对当前操作者的身份验证阶段,转入步骤8;否则,在所述预设验证时间段内,所述移动终端未接收到当前操作者拍摄的面部图像或未采集到当前操作者的音频数据,所述移动终端强制关闭该支付程序;
其中,设定所述移动终端接收到当前操作者拍摄的面部图像总个数为M',移动终端接收到的当前操作者拍摄的第r个面部图像标记为JPG′r;1≤r≤M';
设定所述移动终端采集到当前操作者的音频的总段书为N',所述N'段音频中的第k段音频标记为Voice'k,所述音频Voice'k的平均振幅值标记为所述音频Voice'k的功耗值为1≤j≤N;
步骤8,移动终端在预设的支付习惯采集时间段内获取其合法用户利用手指触摸移动终端屏幕来输入支付密码时的支付触控压力,构建其合法用户通过触控输入支付密码时所对应的手指触控支付压力数据库,并得到所述合法用户的手指触控支付波动因子;
其中,标记所述合法用户所对应的手指触控支付压力数据库标记为Suser_Finger,手指触控支付压力数据库Suser_Finger内的支付触控压力数据数目为G,手指触控支付压力数据库Suser_Finger内的第g个支付触控压力数据标记为1≤g≤G;
其中,标记所述合法用户的手指触控支付波动因子为χuser_Finger:
<mrow>
<msub>
<mi>&chi;</mi>
<mrow>
<mi>u</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>F</mi>
<mi>i</mi>
<mi>n</mi>
<mi>g</mi>
<mi>e</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<mfrac>
<mn>1</mn>
<mi>G</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>g</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>G</mi>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>Pre</mi>
<mrow>
<mi>u</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>F</mi>
<mi>i</mi>
<mi>n</mi>
<mi>g</mi>
<mi>e</mi>
<mi>r</mi>
</mrow>
<mi>g</mi>
</msubsup>
<mo>-</mo>
<mover>
<mrow>
<msub>
<mi>Pre</mi>
<mrow>
<mi>u</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>F</mi>
<mi>i</mi>
<mi>n</mi>
<mi>g</mi>
<mi>e</mi>
<mi>r</mi>
</mrow>
</msub>
</mrow>
<mo>&OverBar;</mo>
</mover>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>;</mo>
</mrow>
<mrow>
<mover>
<mrow>
<msub>
<mi>Pre</mi>
<mrow>
<mi>u</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>F</mi>
<mi>i</mi>
<mi>n</mi>
<mi>g</mi>
<mi>e</mi>
<mi>r</mi>
</mrow>
</msub>
</mrow>
<mo>&OverBar;</mo>
</mover>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>G</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>g</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>G</mi>
</munderover>
<msubsup>
<mi>Pre</mi>
<mrow>
<mi>u</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>F</mi>
<mi>i</mi>
<mi>n</mi>
<mi>g</mi>
<mi>e</mi>
<mi>r</mi>
</mrow>
<mi>g</mi>
</msubsup>
<mo>;</mo>
</mrow>
步骤9,移动终端根据所构建的其合法用户的面部红外温度数据库,得到所述合法用户的面部红外温度波动指数;
移动终端按照预设采集周期,获取其合法用户的眼框静脉图像,建立所述合法用户的眼框静脉图像数据库,并得到所述合法用户的眼框静脉特征参数;其中,标记所述合法用户的面部红外温度波动指数为ξInfrared:
<mrow>
<msub>
<mi>&xi;</mi>
<mrow>
<mi>I</mi>
<mi>n</mi>
<mi>f</mi>
<mi>r</mi>
<mi>a</mi>
<mi>r</mi>
<mi>e</mi>
<mi>d</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mi>M</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>M</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<msub>
<mi>infrared</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<mover>
<mrow>
<mi>inf</mi>
<mi>r</mi>
<mi>a</mi>
<mi>r</mi>
<mi>e</mi>
<mi>d</mi>
</mrow>
<mo>&OverBar;</mo>
</mover>
</mrow>
<mrow>
<msub>
<mi>infrared</mi>
<mrow>
<mi>i</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>infrared</mi>
<mi>i</mi>
</msub>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>;</mo>
<mover>
<mrow>
<mi>inf</mi>
<mi>r</mi>
<mi>a</mi>
<mi>r</mi>
<mi>e</mi>
<mi>d</mi>
</mrow>
<mo>&OverBar;</mo>
</mover>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mi>M</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>M</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<msub>
<mi>infrared</mi>
<mi>i</mi>
</msub>
<mo>;</mo>
</mrow>
其中,infraredi为所述面部红外温度数据库Infrared内的第i个面部红外温度数据;
所述合法用户的眼框静脉图像数据库标记为JPGUser_EyeBox,所述合法用户的眼框静脉特征参数标记为ψUser_EyeBox;所述眼框静脉图像数据库JPGUser_EyeBox内对应的图像个数为Y;所述眼框静脉图像数据库JPGUser_EyeBox内的第y个眼框静脉图像标记为jpgUser_EyeBox,y,眼框静脉图像jpgUser_EyeBox,y的长度值标记为LjpgUser_EyeBox,y,眼框静脉图像jpgUser_EyeBox,y的宽度值标记为WjpgUser_EyeBox,y;
<mrow>
<msub>
<mi>&psi;</mi>
<mrow>
<mi>U</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>E</mi>
<mi>y</mi>
<mi>e</mi>
<mi>B</mi>
<mi>o</mi>
<mi>x</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<mo>&lsqb;</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>Y</mi>
</munderover>
<mrow>
<mo>(</mo>
<msub>
<mi>L</mi>
<mrow>
<msub>
<mi>jpg</mi>
<mrow>
<mi>U</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>E</mi>
<mi>y</mi>
<mi>e</mi>
<mi>B</mi>
<mi>o</mi>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
</msub>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>W</mi>
<mrow>
<msub>
<mi>jpg</mi>
<mrow>
<mi>U</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>E</mi>
<mi>y</mi>
<mi>e</mi>
<mi>B</mi>
<mi>o</mi>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
</msub>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>Y</mi>
</munderover>
<msub>
<mi>L</mi>
<mrow>
<msub>
<mi>jpg</mi>
<mrow>
<mi>U</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>E</mi>
<mi>y</mi>
<mi>e</mi>
<mi>B</mi>
<mi>o</mi>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
</msub>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>+</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>Y</mi>
</munderover>
<mrow>
<mo>(</mo>
<msub>
<mi>L</mi>
<mrow>
<msub>
<mi>jpg</mi>
<mrow>
<mi>U</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>E</mi>
<mi>y</mi>
<mi>e</mi>
<mi>B</mi>
<mi>o</mi>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
</msub>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>W</mi>
<mrow>
<msub>
<mi>jpg</mi>
<mrow>
<mi>U</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>E</mi>
<mi>y</mi>
<mi>e</mi>
<mi>B</mi>
<mi>o</mi>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
</msub>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>y</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>Y</mi>
</munderover>
<msub>
<mi>W</mi>
<mrow>
<msub>
<mi>jpg</mi>
<mrow>
<mi>U</mi>
<mi>s</mi>
<mi>e</mi>
<mi>r</mi>
<mo>_</mo>
<mi>E</mi>
<mi>y</mi>
<mi>e</mi>
<mi>B</mi>
<mi>o</mi>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
</msub>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>&rsqb;</mo>
<mo>;</mo>
</mrow>
步骤10,移动终端构建当前操作者利用手指触摸移动终端屏幕来输入支付密码时的支付触控压力数据库、获取当前操作者面部的面部红外温度数据库以及眼框静脉图像数据库,对应计算得到针对当前操作者的手指触控支付波动因子、面部红外温度波动指数以及眼框静脉特征参数;
移动终端判断当前操作者与所述合法用户的手指触控支付波动因子、面部红外温度波动指数、眼框静脉特征参数均对应相等时,转入步骤11;否则,移动终端强制关闭该支付程序;
步骤11,所述移动终端分别提取得到当前操作者的面部识别匹配参数以及音频识别匹配参数;其中,所述当前操作者的面部识别匹配参数标记为σ'Face,所述当前操作者的音频识别匹配参数标记为σ'Voice:
<mrow>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>F</mi>
<mi>a</mi>
<mi>c</mi>
<mi>e</mi>
</mrow>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>M</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<mo>|</mo>
<msubsup>
<mi>D</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
<mn>2</mn>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>W</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
<mn>2</mn>
</msubsup>
<mo>|</mo>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>M</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<mo>|</mo>
<mfrac>
<msubsup>
<mi>s</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
<mo>&prime;</mo>
</msubsup>
<msub>
<mi>s</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
</mfrac>
<mo>|</mo>
<mo>+</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>M</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<mo>|</mo>
<mfrac>
<msubsup>
<mi>s</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<msub>
<mi>s</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
</mfrac>
<mo>|</mo>
</mrow>
</mfrac>
<mo>&CenterDot;</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>M</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<msqrt>
<mrow>
<mo>(</mo>
<mo>(</mo>
<msub>
<mi>D</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>W</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<mo>)</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<msup>
<mi>M</mi>
<mo>&prime;</mo>
</msup>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>M</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<mo>(</mo>
<msub>
<mi>D</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>W</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<mo>)</mo>
<mo>)</mo>
</mrow>
</msqrt>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>M</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<msqrt>
<mrow>
<mo>(</mo>
<mo>(</mo>
<msubsup>
<mi>s</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
<mo>&prime;</mo>
</msubsup>
<mo>&CenterDot;</mo>
<msubsup>
<mi>s</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<mo>)</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<msup>
<mi>M</mi>
<mo>&prime;</mo>
</msup>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>M</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<mo>(</mo>
<msubsup>
<mi>s</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
<mo>&prime;</mo>
</msubsup>
<mo>&CenterDot;</mo>
<msubsup>
<mi>s</mi>
<mrow>
<msubsup>
<mi>JPG</mi>
<mi>r</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<mo>)</mo>
<mo>)</mo>
</mrow>
</msqrt>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
其中,标记当前操作者的面部图像JPG′r中的面部总面积值为眉间距数值为双耳间距数值为嘴部面积值为单眼面积值为
<mrow>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>V</mi>
<mi>o</mi>
<mi>i</mi>
<mi>c</mi>
<mi>e</mi>
</mrow>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>N</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<mo>|</mo>
<msub>
<mi>A</mi>
<mrow>
<msubsup>
<mi>Voice</mi>
<mi>k</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>E</mi>
<mrow>
<msubsup>
<mi>Voice</mi>
<mi>k</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<mo>|</mo>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>N</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<mo>|</mo>
<mfrac>
<msub>
<mi>A</mi>
<mrow>
<msubsup>
<mi>Voice</mi>
<mi>k</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<msub>
<mi>E</mi>
<mrow>
<msubsup>
<mi>Voice</mi>
<mi>k</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
</mfrac>
<mo>|</mo>
<mo>+</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>N</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<mo>|</mo>
<mfrac>
<msub>
<mi>E</mi>
<mrow>
<msubsup>
<mi>Voice</mi>
<mi>k</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<msub>
<mi>A</mi>
<mrow>
<msubsup>
<mi>Voice</mi>
<mi>k</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
</mfrac>
<mo>|</mo>
</mrow>
</mfrac>
<mo>&CenterDot;</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>N</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<msqrt>
<mrow>
<mo>(</mo>
<mo>(</mo>
<msub>
<mi>A</mi>
<mrow>
<msubsup>
<mi>Voice</mi>
<mi>k</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>E</mi>
<mrow>
<msubsup>
<mi>Voice</mi>
<mi>k</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<mo>)</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<msup>
<mi>N</mi>
<mo>&prime;</mo>
</msup>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>N</mi>
<mo>&prime;</mo>
</msup>
</munderover>
<mo>(</mo>
<msub>
<mi>A</mi>
<mrow>
<msubsup>
<mi>Voice</mi>
<mi>k</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>E</mi>
<mrow>
<msubsup>
<mi>Voice</mi>
<mi>k</mi>
<mo>&prime;</mo>
</msubsup>
</mrow>
</msub>
<mo>)</mo>
<mo>)</mo>
</mrow>
</msqrt>
<mo>;</mo>
</mrow>
其中,所述当前操作者的第k段音频标记为Voice'k,所述音频Voice'k的平均振幅值标记为所述音频Voice'k的功耗值为1≤k≤N';
步骤12,所述移动终端将存储的所述合法用户的面部识别匹配参数及音频识别匹配参数分别对应地与所述当前操作者的面部识别匹配参数及音频识别匹配参数做匹配判断,以判断当前操作者的合法身份:
当所述合法用户的面部识别匹配参数σFace与所述当前操作者的面部识别匹配参数σ'Face相等,且所述合法用户的音频识别匹配参数σVoice与所述当前操作者的音频识别匹配参数σ'Voice相等时,所述移动终端判断当前操作者为其合法用户,并转入步骤13;否则,所述移动终端强制关闭当前的支付程序;
步骤13,所述移动终端检测其当前的倾斜角度,并且判断当前倾斜角度与移动终端预先设置的倾斜角度相等时,所述移动终端自动将预先设置的倾斜角度所对应的正弦值作为支付密码,以安全地完成支付操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711468123.8A CN108053218A (zh) | 2017-12-29 | 2017-12-29 | 一种安全的移动支付方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711468123.8A CN108053218A (zh) | 2017-12-29 | 2017-12-29 | 一种安全的移动支付方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108053218A true CN108053218A (zh) | 2018-05-18 |
Family
ID=62129145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711468123.8A Pending CN108053218A (zh) | 2017-12-29 | 2017-12-29 | 一种安全的移动支付方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108053218A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109286831A (zh) * | 2018-10-08 | 2019-01-29 | 宁波大学 | 一种智能视频无线安全接入控制方法 |
CN109408087A (zh) * | 2018-10-08 | 2019-03-01 | 宁波大学 | 一种移动智能终端注册中心升级方法 |
CN112258193A (zh) * | 2019-08-16 | 2021-01-22 | 创新先进技术有限公司 | 一种支付方法及装置 |
WO2021128847A1 (zh) * | 2019-12-25 | 2021-07-01 | 深圳壹账通智能科技有限公司 | 终端交互方法、装置、计算机设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103164645A (zh) * | 2011-12-09 | 2013-06-19 | 康佳集团股份有限公司 | 一种信息安全管理方法及移动终端 |
CN103679451A (zh) * | 2012-09-18 | 2014-03-26 | 上海语联信息技术有限公司 | 基于特定人语音的实时在线支付技术及其应用 |
CN104134029A (zh) * | 2014-07-31 | 2014-11-05 | 中山市品汇创新专利技术开发有限公司 | 一种基于声音识别验证的多通道网银安全认证方法 |
CN104200366A (zh) * | 2014-09-15 | 2014-12-10 | 长沙市梦马软件有限公司 | 一种语音支付认证方法及*** |
CN105023155A (zh) * | 2015-07-29 | 2015-11-04 | 广东欧珀移动通信有限公司 | 一种支付方法、网络设备及终端设备 |
CN105160530A (zh) * | 2015-07-31 | 2015-12-16 | 努比亚技术有限公司 | 一种移动终端及信息处理方法 |
CN105761074A (zh) * | 2016-02-03 | 2016-07-13 | 浙江万里学院 | 基于nfc支付的商务物流商品自取管理方法 |
CN105989497A (zh) * | 2016-03-07 | 2016-10-05 | 李明 | 一种支付方法及*** |
CN107516071A (zh) * | 2017-07-31 | 2017-12-26 | 芜湖市振华戎科智能科技有限公司 | 用于安检的人脸识别*** |
-
2017
- 2017-12-29 CN CN201711468123.8A patent/CN108053218A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103164645A (zh) * | 2011-12-09 | 2013-06-19 | 康佳集团股份有限公司 | 一种信息安全管理方法及移动终端 |
CN103679451A (zh) * | 2012-09-18 | 2014-03-26 | 上海语联信息技术有限公司 | 基于特定人语音的实时在线支付技术及其应用 |
CN104134029A (zh) * | 2014-07-31 | 2014-11-05 | 中山市品汇创新专利技术开发有限公司 | 一种基于声音识别验证的多通道网银安全认证方法 |
CN104200366A (zh) * | 2014-09-15 | 2014-12-10 | 长沙市梦马软件有限公司 | 一种语音支付认证方法及*** |
CN105023155A (zh) * | 2015-07-29 | 2015-11-04 | 广东欧珀移动通信有限公司 | 一种支付方法、网络设备及终端设备 |
CN105160530A (zh) * | 2015-07-31 | 2015-12-16 | 努比亚技术有限公司 | 一种移动终端及信息处理方法 |
CN105761074A (zh) * | 2016-02-03 | 2016-07-13 | 浙江万里学院 | 基于nfc支付的商务物流商品自取管理方法 |
CN105989497A (zh) * | 2016-03-07 | 2016-10-05 | 李明 | 一种支付方法及*** |
CN107516071A (zh) * | 2017-07-31 | 2017-12-26 | 芜湖市振华戎科智能科技有限公司 | 用于安检的人脸识别*** |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109286831A (zh) * | 2018-10-08 | 2019-01-29 | 宁波大学 | 一种智能视频无线安全接入控制方法 |
CN109408087A (zh) * | 2018-10-08 | 2019-03-01 | 宁波大学 | 一种移动智能终端注册中心升级方法 |
CN109286831B (zh) * | 2018-10-08 | 2021-04-16 | 宁波大学 | 一种智能视频无线安全接入控制方法 |
CN109408087B (zh) * | 2018-10-08 | 2021-10-26 | 宁波大学 | 一种移动智能终端注册中心升级方法 |
CN112258193A (zh) * | 2019-08-16 | 2021-01-22 | 创新先进技术有限公司 | 一种支付方法及装置 |
CN112258193B (zh) * | 2019-08-16 | 2024-01-30 | 创新先进技术有限公司 | 一种支付方法及装置 |
WO2021128847A1 (zh) * | 2019-12-25 | 2021-07-01 | 深圳壹账通智能科技有限公司 | 终端交互方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI676947B (zh) | 基於人臉識別和hce的支付認證方法及認證系統 | |
CN108875491B (zh) | 人脸解锁认证的数据更新方法、认证设备和***以及非易失性存储介质 | |
JP4862447B2 (ja) | 顔認識システム | |
CN108053218A (zh) | 一种安全的移动支付方法 | |
CN102722696B (zh) | 基于多生物特征的身份证与持有人的同一性认证方法 | |
US20130275309A1 (en) | Electronic-payment authentication process with an eye-positioning method for unlocking a pattern lock | |
CN110313008A (zh) | 适用于逐步指纹登记的方法和智能卡 | |
CN103310339A (zh) | 身份识别装置和方法以及支付***和方法 | |
CN104462922A (zh) | 基于生物识别的授权验证方法 | |
CN105975837B (zh) | 计算设备、生物特征识别方法和模板注册方法 | |
CN103699995A (zh) | 一种基于指纹和指静脉的支付认证方法 | |
CN106056054A (zh) | 一种进行指纹识别的方法和终端 | |
TWI785292B (zh) | 認證系統、認證裝置、認證方法、及程式產品 | |
CN111095246B (zh) | 用于认证用户的方法和电子设备 | |
CN109858220A (zh) | 电子合同签署方法、装置、终端设备及存储介质 | |
CN111815833A (zh) | 一种基于智能识别与加密技术的酒店门禁认证*** | |
CN106022754B (zh) | 移动钱包近场通信刷卡支付方法 | |
KR101853270B1 (ko) | 지문인식방법을 채용한 휴대용 보안인증기의 보안 인증방법 | |
CN109960907A (zh) | 一种用户身份识别方法和设备 | |
Prasanthi et al. | Palm vein biometric technology: An approach to upgrade security in ATM transactions | |
KR101960801B1 (ko) | 생체인증정보 등록기능을 구비한 스마트 디바이스 등록장치와 이에 의한 생체정보 등록방법 | |
CN205680188U (zh) | Atm装置 | |
CN106295297A (zh) | 一种身份识别方法、电子设备以及穿戴设备 | |
CN109213889A (zh) | 一种客户信息合并的方法及装置 | |
Betab et al. | Fingerprints in automated teller Machine-A survey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180518 |
|
RJ01 | Rejection of invention patent application after publication |