TW202018627A - 核身方法及裝置 - Google Patents

核身方法及裝置 Download PDF

Info

Publication number
TW202018627A
TW202018627A TW108128088A TW108128088A TW202018627A TW 202018627 A TW202018627 A TW 202018627A TW 108128088 A TW108128088 A TW 108128088A TW 108128088 A TW108128088 A TW 108128088A TW 202018627 A TW202018627 A TW 202018627A
Authority
TW
Taiwan
Prior art keywords
core body
nuclear
pass rate
product
model
Prior art date
Application number
TW108128088A
Other languages
English (en)
Other versions
TWI761695B (zh
Inventor
付大鵬
聞飆 趙
金宏
Original Assignee
香港商阿里巴巴集團服務有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 香港商阿里巴巴集團服務有限公司 filed Critical 香港商阿里巴巴集團服務有限公司
Publication of TW202018627A publication Critical patent/TW202018627A/zh
Application granted granted Critical
Publication of TWI761695B publication Critical patent/TWI761695B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/88Detecting or preventing theft or loss
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Mathematical Analysis (AREA)
  • Strategic Management (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Mathematical Optimization (AREA)
  • Marketing (AREA)
  • Social Psychology (AREA)
  • Finance (AREA)
  • Technology Law (AREA)
  • Accounting & Taxation (AREA)
  • Educational Administration (AREA)
  • Computational Linguistics (AREA)

Abstract

本申請提供一種核身方法及裝置,其中所述核身方法包括:獲取使用者的屬性特徵;將使用者的屬性特徵輸入至訓練好的核身安全模型,並根據輸出的結果得到與該使用者的屬性特徵相對應的第一核身產品以及第一核身產品的第一核身通過率;將第一核身產品的任意兩個生成第一核身產品組合,計算第一核身產品組合的第二核身通過率,將第二核身通過率大於第一閾值的第一核身產品組合作為第二核身產品組合,得到第二核身產品組合中的第二核身產品;將第二核身產品以及使用者的屬性特徵輸入至訓練好的核身適用模型,得到第二核身產品的第三核身通過率;計算得到所述第二核身產品組合的第四核身通過率;輸出第四核身通過率大於第二閾值的第二核身產品組合。

Description

核身方法及裝置
本申請案涉及資訊處理技術領域,特別涉及一種核身方法及裝置、計算設備和儲存媒介。
對於金融類的應用程式,基於盜用風險防控的原因,可能會對某些場景下的部分使用者輸出某種核實身份的方式,用來核實使用者的真實身份,降低用戶的帳號被盜用的風險。 現有技術中,核身方式一般為一種單一固定的方式。這種核身方式存在兩種弊端:一是單一的核身方式可能存在被壞人突破的危險;二是單一核身對於風險低的用戶可能存在不適用的情況,例如某個使用者可能偏好人臉校驗的核身方式,如果推送一個基於使用者記憶的動態問捲進行核身,可能導致該用戶的核身不能通過,因而影響用戶體驗。
有鑑於此,本說明書的一個或多個實施例提供了一種核身方法及裝置、計算設備和儲存媒介,以解決現有技術中存在的技術缺陷。 本說明書的一實施例揭示了一種核身方法,所述核身方法包括: 獲取使用者的屬性特徵; 將使用者的屬性特徵輸入至訓練好的核身安全模型,並根據輸出的結果得到與該使用者的屬性特徵相對應的第一核身產品以及第一核身產品的第一核身通過率; 將第一核身產品的任意兩個生成第一核身產品組合,並根據第一核身產品的第一核身通過率計算所述第一核身產品組合的第二核身通過率,得到第二核身通過率大於第一閾值的所述第一核身產品組合中的第二核身產品; 將第二核身產品以及使用者的屬性特徵輸入至訓練好的核身適用模型,得到所述第二核身產品的第三核身通過率; 根據第二核身產品的第三核身通過率計算得到所述第二核身產品組合的第四核身通過率; 輸出第四核身通過率大於第二閾值的第二核身產品組合。 本說明書的一實施例揭示了一種核身安全模型的生成方法,所述方法包括: 獲取核身安全樣本和第一標籤,所述核身安全樣本包括歷史突破事件、該歷史突破事件對應的核身產品和使用者的歷史屬性特徵,所述第一標籤為所述歷史突破事件對應的核身產品核身通過或不通過; 建立核身安全模型,將核身安全樣本和第一標籤輸入至所述核身安全模型進行訓練; 保存所述核身安全模型。 本說明書的一實施例公開了一種核身適用模型的生成方法,包括: 獲取核身適用樣本和第二標籤,所述核身適用樣本包括歷史非突破事件、該歷史非突破事件對應的核身產品和使用者的歷史屬性特徵,所述第二標籤為所述歷史非突破事件對應的核身產品核身通過或不通過; 建立核身適用模型,將核身適用樣本和第二標籤輸入至所述核身適用模型進行訓練; 保存所述核身適用模型。 本說明書一實施例公開了一種核身裝置,所述裝置包括: 屬性特徵獲取模組,被配置為獲取使用者的屬性特徵; 第一核身安全處理模組,被配置為將使用者的屬性特徵輸入至訓練好的核身安全模型,並根據輸出的結果得到與該使用者的屬性特徵相對應的第一核身產品以及第一核身產品的第一核身通過率; 第二核身安全處理模組,被配置為將第一核身產品的任意兩個生成第一核身產品組合,並根據第一核身產品的第一核身通過率計算所述第一核身產品組合的第二核身通過率,得到第二核身通過率大於第一閾值的所述第一核身產品組合中的第二核身產品; 第一核身適用處理模組,被配置為將第二核身產品以及使用者的屬性特徵輸入至訓練好的核身適用模型,得到所述第二核身產品的第三核身通過率; 第二核身適用處理模組,被配置為根據第二核身產品的第三核身通過率計算得到所述第二核身產品組合的第四核身通過率,並輸出第四核身通過率大於第二閾值的第二核身產品組合。 本說明書的一實施例揭示了一種核身安全模型的生成裝置,包括: 第一獲取模組,被配置為獲取核身安全樣本和第一標籤,所述核身安全樣本包括歷史突破事件、該歷史突破事件對應的核身產品和使用者的歷史屬性特徵,所述第一標籤為所述歷史突破事件對應的核身產品核身通過或不通過; 第一訓練模組,被配置為建立核身安全模型,將核身安全樣本和第一標籤輸入至所述核身安全模型進行訓練; 第一儲存模組,被配置為保存所述核身安全模型。 本說明書一實施例公開了一種核身適用模型的生成裝置,包括: 第二獲取模組,被配置為獲取核身適用樣本和第二標籤,所述核身適用樣本包括歷史非突破事件、該歷史非突破事件對應的核身產品和使用者的歷史屬性特徵,所述第二標籤為所述歷史非突破事件對應的核身產品核身通過或不通過; 第二訓練模組,被配置為建立核身適用模型,將核身適用樣本和第二標籤輸入至所述核身適用模型進行訓練; 第二儲存模組,被配置為保存所述核身適用模型。 本說明書的一實施例揭示了一種計算設備,包括記憶體、處理器及儲存在記憶體上並可在處理器上運行的電腦指令,所述處理器執行所述指令時實現該指令被處理器執行時實現如前所述核身方法或核身安全模型的生成方法或核身適用模型的生成方法的步驟。 本說明書的一實施例揭示了一種電腦可讀儲存媒介,其儲存有電腦指令,該指令被處理器執行時實現如前所述核身方法或核身安全模型的生成方法或核身適用模型的生成方法的步驟。 本說明書提供的核身方法及裝置、計算設備和儲存媒介,在獲取使用者的屬性特徵後,依次輸入訓練好的核身安全模型和核身適用模型,並最終輸出第四核身通過率大於第二閾值的任意兩個第二核身產品生成的第二核身產品組合,從而提高了安全性,提升了用戶體驗。
在下面的描述中闡述了很多具體細節以便於充分理解本申請。但是本申請能夠以很多不同於在此描述的其它方式來實施,本領域技術人員可以在不違背本申請內涵的情況下做類似推廣,因此本申請不受下面揭露的具體實施的限制。 在本說明書的一個或多個實施例中使用的術語是僅僅出於描述特定實施例的目的,而非旨在限制本說明書的一個或多個實施例。在本說明書的一個或多個實施例和所附申請專利範圍中所使用的單數形式的“一種”、“所述”和“該”也旨在包括多數形式,除非上下文清楚地表示其他含義。還應當理解的是,本說明書的一個或多個實施例中使用的術語“和/或”是指並包含一個或多個相關聯的列出專案的任何或所有可能組合。 應當理解的是,儘管在本說明書的一個或多個實施例中可能採用術語第一、第二等來描述各種資訊,但這些資訊不應限於這些術語。這些術語僅用來將同一類型的資訊彼此區分開。例如,在不脫離本說明書的一個或多個實施例範圍的情況下,第一也可以被稱為第二,類似地,第二也可以被稱為第一。取決於語境,如在此所使用的詞語“如果”可以被解釋成為“在……時”或“當……時”或“回應於確定”。 首先,對本發明的一個或多個實施例涉及的名詞術語進行解釋。 核身:即核實身份的簡稱,為了保證用戶帳號的安全,在使用者使用應用程式時進行的身份驗證。例如金融類的應用程式,為了防止盜用風險,在用戶登錄或者支付時進行的身份驗證。 核身產品:用於進行核實身份的產品。例如基於資訊的核身產品包括:隱私問題、預留資訊等;基於PKI(Public Key Infrastructure,公開金鑰基礎建設)技術的核身產品:支付盾、數位憑證等;基於OTP(One-time Password,一次性密碼)技術的核身產品:手機寶令、一鍵確認、動態簡訊校驗碼等;基於生物特徵的核身產品:指紋等;基於行為特徵的核身產品:筆跡等。 瑪律可夫鏈蒙特卡羅(Markov Chain Monte Carlo,MCMC):為貝葉斯理論框架下,藉由電腦進行類比的蒙特卡羅模型。該模型的演算法為將瑪律科夫(Markov)過程引入到蒙特卡羅(Monte Carlo)模擬中,實現抽樣分佈隨模擬的進行而改變的動態類比,彌補了傳統的蒙特卡羅積分只能靜態類比的缺陷。 隨機森林(Random Decision Forests):在機器學習中,隨機森林是一個包含多個分類樹的分類器。把分類樹組合成隨機森林,即在變數(列)的使用和資料(行)的使用上進行隨機化,生成很多分類樹,再匯總分類樹的結果。 突破事件:應當被攔截卻未攔截的事件,例如被盜用事件。 在本說明書中,提供了一種核身方法及裝置、計算設備和電腦可讀儲存媒介,在下面的實施例中逐一進行詳細說明。 圖1是示出了根據本說明書的一實施例的計算設備100的結構方塊圖。該計算設備100的部件包括但不限於記憶體110和處理器120。處理器120與記憶體110通過匯流排130相連接,資料庫150用於保存資料,網路160用於接收資料庫150儲存的資料。 計算設備100還包括接入設備140,接入設備140使得計算設備100能夠經由一個或多個網路160通信。這些網路的示例包括公用交換電話網(PSTN)、區域網路(LAN)、廣域網路(WAN)、個人區域網路(PAN)或諸如網際網路的通信網路的組合。接入設備140可以包括有線或無線的任何類型的網路介面(例如,網路介面卡(NIC))中的一個或多個,諸如IEEE802.11無線區域網路(WLAN)無線介面、全球微波互聯接入(Wi-MAX)介面、乙太網介面、通用序列匯流排(USB)介面、蜂窩網路介面、藍牙介面、近場通信(NFC)介面,等等。 在本說明書的一個實施例中,計算設備100的上述以及圖1中未示出的其他部件也可以彼此相連接,例如通過匯流排。應當理解的是,圖1所示的計算設備結構方塊圖僅僅是出於示例的目的,而不是對本說明書範圍的限制。本領域技術人員可以根據需要,增添或替換其他部件。 計算設備100可以是任何類型的靜止或行動計算裝置,包括移動電腦或行動計算裝置(例如,平板電腦、個人數位助理、膝上型電腦、筆記本電腦、上網本(netbook)等)、行動電話(例如,智慧手機)、可佩戴的計算設備(例如,智慧手錶、智慧眼鏡等)或其他類型的移動設備,或者諸如桌上型電腦或PC的靜止計算設備。計算設備100還可以是移動式或靜止式的伺服器。 其中,處理器120可以執行圖2所示方法中的步驟。圖2是示出了根據本說明書的一個或多個實施例的核身方法的示意性流程圖,包括步驟202至步驟212: 202、獲取使用者的屬性特徵。 具體地,使用者的屬性特徵可以包括多種,例如使用者資訊,包括性別、年齡、城市、註冊時長、綁卡、等級等;使用者層次,包括學歷、職業、財富、信用、消費、房產、車輛等;用戶行為,包括歷史核身、購買行為、安全意識等;使用者偏好,包括網路偏好、無線偏好等;使用者設備,包括品牌、通訊錄、版本資訊、系統等;用戶場景,包括家庭、公共場合、公司、酒店、打車、掃碼、轉帳等。 204、將使用者的屬性特徵輸入至訓練好的核身安全模型,並根據輸出的結果得到與該使用者的屬性特徵相對應的第一核身產品以及第一核身產品的第一核身通過率。 其中,核身安全模型在訓練時,使用的訓練樣本均為歷史突破事件。所以,將使用者的屬性特徵輸入至核身安全模型,其實質上是假定該用戶進行的操作事件為突破事件,然後得到該用戶對應的第一核身產品的第一核身通過率,以確定適用於該使用者的核身產品。 具體地,參見圖3,本步驟204包括: 2042、將使用者的屬性特徵輸入至訓練好的核身安全模型,得到與該使用者的屬性特徵相對應的第一核身產品的第五核身通過率。 2044、統計目標時間範圍內的與該使用者的屬性特徵相對應的第一核身產品的第六核身通過率。 具體地,步驟2044中統計目標時間範圍內的與該使用者的屬性特徵相對應的第一核身產品的第六核身通過率,包括: 將目標時間範圍內的風險分為風險群組; 統計每個風險群組的與所述第一核身產品對應的核身通過率,將各個風險群組的所述核身通過率加權,得到第一核身產品的第六核身通過率。 目標時間範圍可以根據需求設定,例如設定目標時間範圍為最近十天。 第五核身通過率和第六核身通過率不同,第五核身通過率是表徵第一核身產品的長期風險,第六核身通過率是表徵第一核身產品的短期風險。設置第五核身通過率和第六核身通過率的原因是由於現有的資料體系難以覆蓋所有的事件,例如用戶與黑產分子(black market members)線上下溝通並深度被騙,使用者主動洩露資訊的場景。通過統計第五核身通過率和第六核身通過率,以提高核身安全模型的性能。 其中,第一核身產品的第六核身通過率通過統計得到。在統計第一核身產品的第六核身通過率時,需要根據不同的第一核身產品的容易被突破的因素,設計第六核身通過率所對應的風險,並根據風險得分計算得到第六核身通過率。表1中列舉了幾種不同的第一核身產品的突破因素,表2中列舉了根據不同的第一核身產品的突破因素設計的風險統計。表2中,將風險按照行為、設備、環境、使用者和交易進行分類,再統計每種第一核身產品的所對應的風險得分,進而統計出第一核身產品的第六核身通過率。 表1
Figure 108128088-A0304-0001
表2
Figure 108128088-A0304-0002
2046、將第一核身產品的第五核身通過率和第六核身通過率進行比較,取較大值作為第一核身產品的第一核身通過率。 例如在一個具體實施方案中,藉由計算第五核身通過率和第六核身通過率,得到第一核身產品的第五核身通過率為0.8,第六核身通過率為0.9。那麼,第六核身通過率要比第五核身通過率大。將第一核身產品的第六核身通過率0.9作為輸出的第一核身產品的第一核身通過率進行後續的計算,從而可以避免近期較大的批量風險。 206、將第一核身產品的任意兩個生成第一核身產品組合,並根據第一核身產品的第一核身通過率計算所述第一核身產品組合的第二核身通過率,將第二核身通過率大於第一閾值的所述第一核身產品組合作為第二核身產品組合,得到第二核身產品組合中的第二核身產品。 需要注意的是,第二核身產品組合為第一核身產品組合的子集,在理想情況下,第一核身產品組合和第二核身產品組合相同。第二核身產品為第一核身產品的子集,在理想情況下,第一核身產品和第二核身產品的個數相等。 具體地,所述第一核身產品組合的第二核身通過率通過以下公式計算: P(A+B)=1-(1-P(A))*(1-P(B)) 其中,P(A+B)為第一核身產品組合的第二核身通過率; P(A)、P(B)分別為第一核身產品A和B的第一核身通過率。 本步驟中,將第二核身通過率大於第一閾值的第一核身產品組合作為第二核身產品組合輸出,與輸出單個第一核身產品的技術方案相比,可以提高核身的安全性。 本步驟中,第一閾值可以根據實際需求而設置,例如設置第一閾值為0.8,取第二核身通過率大於0.8的第一核身產品組合中的第一核身產品作為第二核身產品。 可選地,在得到第二核身產品組合中的第二核身產品後,還包括: 根據預先設置的安全管控策略,對得到的第二核身產品進行篩選,並將篩選後的第二核身產品輸入至訓練好的核身適用模型。 安全管控策略為預先設置,以過濾掉對該用戶不匹配的第二核身產品。 例如,使用者的移動設備較舊,沒有前置攝像頭,那麼人臉驗證的核身產品對於該使用者便不適用。 208、將第二核身產品以及使用者的屬性特徵輸入至訓練好的核身適用模型,得到第二核身產品的第三核身通過率。 本實施例中,將第二核身產品輸入至核身適用模型,可以確定第二核身產品是否對於使用者適用。 本步驟中,核身適用模型可以為多種,例如隨機森林演算法模型,然後得到F1 Score、KS、AUC的分值,進而得出第二核身產品組合中的第二核身產品的第三核身通過率。 210、根據第二核身產品的第三核身通過率計算得到所述第二核身產品組合的第四核身通過率。 本步驟中,在得到第二核身產品的第三核身通過率後,藉由公式計算得到第二核身產品組合的第四核身通過率。 具體地,第二核身產品組合的第四核身通過率通過以下公式計算: P(C+D)=1-(1-P(C))*(1-P(D)) 其中,P(C+D)為第二核身產品組合的第四核身通過率; P(C)、P(D)分別為第二核身產品的第三核身通過率。 212、輸出第四核身通過率大於第二閾值的第二核身產品組合。 本步驟中,第二閾值可以根據實際需求而設置,例如設置第二閾值為0.9,輸出第四核身通過率大於0.9的第二核身產品組合。 例如第二核身產品包括人臉驗證和簡訊驗證,人臉驗證的第三核身通過率為0.6,簡訊驗證的第三核身通過率0.8,可以計算得到人臉驗證+簡訊驗證的第二核身產品組合的第四核身通過率為0.92。那麼,輸出人臉驗證+簡訊驗證的第二核身產品組合。 本說明書提供的核身方法,在獲取使用者的屬性特徵後,依次輸入訓練好的核身安全模型和核身適用模型,並最終輸出第四核身通過率大於第二閾值的任意兩個第二核身產品生成的第二核身產品組合,進而提高了安全性,提升了用戶體驗。 並且,通過核身安全模型,在假定使用者的事件為安全事件的情形下,獲取與該用戶對應的第一核身產品的第一核身通過率,因而可以得到適用於該用戶的核身安全性較高的第一核身產品以及第一核身產品組合。 藉由核身適用模型,在假定使用者的事件為非安全事件的情況下,獲取與該用戶對應的第二核身產品的第三核身通過率,進而可以得到適用於該用戶的核身適用性較高的第二核身產品以及第二核身產品組合。 為了便於理解本說明書記載的技術方案,下面以一個具體實例進行說明。參見圖4a和圖4b。其中,圖4b示出了本實施例的核身方法的核身通過率的結果展示。 參見圖4a,本實施例的核身方法包括: 402、設置安全管控策略。 404、獲取使用者的屬性特徵。 406、藉由核身安全模型獲取第一核身產品的第一核身通過率。 本實施例中,該用戶對應的第一核身產品包括:人臉、簡訊、基於知識的身份驗證(KBA)和安保。 參見圖4b,經過計算,得到人臉的第一核身通過率為0.7,簡訊的第一核身通過率為0.6,KBA的第一核身通過率為0.5,安保的第一核身通過率為0.4。 408、計算第一核身產品組合的第二核身通過率。 參見上述實施例,根據第一核身產品的第一核身通過率計算所述第一核身產品組合的第二核身通過率。 參見圖4b,經過計算,得到人臉+簡訊的第二核身通過率為0.88,KBA+安保的第二核身通過率為0.7,簡訊+安保的第二核身通過率為0.76,KBA+簡訊的第二核身通過率為0.8。 410、將第二核身通過率大於第一閾值的所述第一核身產品組合作為第二核身產品組合,得到第二核身產品組合中的第二核身產品。 本實施例中,選擇第一閾值為0.7,將第二核身通過率大於0.7的第一核身產品組合作為第二核身產品組合,得到第二核身產品組合中的第二核身產品。 根據上述結果,第二核身產品組合包括:人臉+簡訊、簡訊+安保、KBA+簡訊。其中的第二核身產品包括:人臉、簡訊、KBA、安保。 412、藉由核身適用模型得到第二核身產品的第三核身通過率。 步驟410得到的第二核身產品還需要經過步驟402的安全管控策略的過濾,然後得到輸入至核身適用模型的第二核身產品。 參見圖4b,經過計算,得到人臉的第三核身通過率為0.5,簡訊的第三核身通過率為0.5,KBA的第三核身通過率為0.6,安保的第三核身通過率為0.7。 414、計算得到核第二身產品組合的第四核身通過率,輸出第四核身通過率大於第二閾值的第二核身產品組合。 參見圖4b,根據上述第二核身產品的第三核身通過率,計算人臉+簡訊的第四核身通過率為0.75、簡訊+安保的第四核身通過率為0.85、KBA+簡訊的第四核身通過率為0.8。 本實施例中,選擇第二閾值為0.75。輸出第四核身通過率大於0.75的第二核身產品組合包括:簡訊+安保的組合以及KBA+簡訊的組合,以供使用者選擇。 如果用戶選擇簡訊+安保的第二核身產品組合,便在使用者使用應用程式的過程中,載入簡訊+安保的第二核身產品組合進行核身。 本說明書一實施例還揭示了一種核身安全模型的生成方法,參見圖5,包括: 502、獲取核身安全樣本和第一標籤,所述核身安全樣本包括歷史突破事件、該歷史突破事件對應的核身產品和使用者的歷史屬性特徵,所述第一標籤為所述歷史突破事件對應的核身產品核身通過或不通過。 由本步驟可見,核身安全性模型的樣本,包括黑樣本,即核身通過的歷史突破事件;以及白樣本,即核身不通過的歷史突破事件。 504、建立核身安全模型,將核身安全樣本和第一標籤輸入至所述核身安全模型進行訓練; 506、保存所述核身安全模型。 實際使用時,單個核身產品的安全性的衡量,需要解決樣本量小的問題:一個問題是黑白樣本都少,不足以支撐使用常規的機器學習模型方法;另一個問題是黑樣本少,資料量級不足以支撐使用常規的機器學習模型方法。那麼,本實施例中,使用安全模型為瑪律可夫鏈蒙特卡羅MCMC模型,可以解決樣本量小的問題,具體處理過程如下: 1)對已有核身安全樣本進行分析,得到樣本分佈。 假定五個參數(回歸係數)相互獨立,並服從均值為0、標準差為X的先驗常態分佈。 2)定義非標準的對數後驗發佈概率密度(即先驗函數與擬然函數相乘)。 3)產生亂數據,類比核身安全模型的後驗分佈。 也就是說,MCMC模型的樣本要通過從後驗分佈中進行取樣而獲得。 4)調整proposal(建議分佈)的scale參數(即隨機遊走MH演算法的方差)來獲得一個更合理的接受概率。 改變scale參數,參數值越大,那麼瑪律可夫鏈狀態轉移就越明顯(樣本自相關性減弱),但同時接受概率就越低,所以這是一個需要兼顧兩者的選擇。 5)找到了適合接受概率的scale值,按此參數增加模擬次數,然後觀察結果是否收斂,在結果收斂的情況下,獲得類比出來的樣本。 類比出來的樣本,其資料量級要比初始的核身安全樣本的資料量級大,從而可以滿足MCMC模型訓練的需要。 6)基於類比出來的樣本進行訓練,得到初始核身安全性模型。 在後期,依據上線後不斷新增的樣本,對該核身安全模型進行優化。 藉由本實施例生成的核身安全模型,在獲知突破事件後,可以在輸入獲知該突破事件對應的第一核身產品以及第一核身產品的第一核身通過率,從而確定與適用於判斷該突破事件的核身安全性較高的核身產品。 並且,藉由核身安全模型,可以在假定使用者的事件為安全事件的情形下,獲取與該用戶對應的第一核身產品的第一核身通過率,進而可以得到適用於該用戶的核身安全性較高的第一核身產品以及第一核身產品組合。 本說明書的一實施例還揭示了一種核身適用模型的生成方法,參見圖6,包括: 602、獲取核身適用樣本和第二標籤,所述核身適用樣本包括歷史非突破事件、該歷史非突破事件對應的核身產品和使用者的歷史屬性特徵,所述第二標籤為所述歷史非突破事件對應的核身產品核身通過或不通過。 由本步驟可見,核身適用性模型的樣本,包括黑樣本,即核身通過的歷史非突破事件;以及白樣本,即核身不通過的歷史非突破事件。 604、建立核身適用模型,將核身適用樣本和第二標籤輸入至所述核身適用模型進行訓練。 606、保存所述核身適用模型。 本實施例中,生成的核身適用性模型可以用於判斷輸入事件所對應的核身產品與使用者的歷史屬性特徵是否相匹配。 本實施例中,核身適用模型可以為隨機森林演算法模型。 在機器學習中,隨機森林演算法由許多的決策樹組成,因為這些決策樹的形成採用了隨機的方法,因此也叫做隨機決策樹。隨機森林演算法模型中的樹之間是沒有關聯的。當測試資料進入隨機森林演算法模型時,其實就是讓每一顆決策樹進行分類,最後取所有決策樹中分類結果最多的那類為最終的結果。因此隨機森林演算法模型是一個包含多個決策樹的分類器,並且其輸出的類別是由個別樹輸出的類別的眾數而定。隨機森林演算法模型既可以處理屬性為離散值的量,如ID3演算法,也可以處理屬性為連續值的量,比如C4.5演算法。 隨機森林演算法模型的構造過程如下: 1)假如有N個樣本,則有放回的隨機選擇N個樣本(每次隨機選擇一個樣本,然後返回繼續選擇)。這選擇好了的N個樣本用來訓練一個決策樹,作為決策樹根節點處的樣本。 2)當每個樣本有M個屬性時,在決策樹的每個節點需要***時,隨機從這M個屬性中選取出m個屬性,滿足條件m<<M。然後從這m個屬性中採用某種策略(比如說資訊增益)來選擇1個屬性作為該節點的***屬性。 3)決策樹形成過程中每個節點都要按照步驟2來***(很容易理解,如果下一次該節點選出來的那一個屬性是剛剛其父節點***時用過的屬性,則該節點已經達到了葉子節點,無須繼續***了)。一直到不能夠再***為止。注意整個決策樹形成過程中沒有進行剪枝。 4)按照步驟1~3建立大量的決策樹,這樣就構成了隨機森林模型。 本實施例中,生成的核身適用性模型可以用於判斷輸入事件所對應的核身產品與使用者的歷史屬性特徵是否相匹配。 藉由核身適用模型,在假定使用者的事件為非安全事件的情況下,獲取與該用戶對應的第二核身產品的第三核身通過率,進而可以得到適用於該用戶的核身適用性較高的第二核身產品以及第二核身產品組合。 本說明書的一實施例還提供一種核身裝置,參見圖7,包括: 屬性特徵獲取模組702,被配置為獲取使用者的屬性特徵; 第一核身安全處理模組704,被配置為將使用者的屬性特徵輸入至訓練好的核身安全模型,並根據輸出的結果得到與該使用者的屬性特徵相對應的第一核身產品以及第一核身產品的第一核身通過率; 第二核身安全處理模組706,被配置為將第一核身產品的任意兩個生成第一核身產品組合,並根據第一核身產品的第一核身通過率計算所述第一核身產品組合的第二核身通過率,將第二核身通過率大於第一閾值的所述第一核身產品組合作為第二核身產品組合,得到第二核身產品組合中的第二核身產品; 第一核身適用處理模組708,被配置為將第二核身產品以及使用者的屬性特徵輸入至訓練好的核身適用模型,得到第二核身產品的第三核身通過率; 第二核身適用處理模組710,被配置為根據第二核身產品的第三核身通過率計算得到所述第二核身產品組合的第四核身通過率,並輸出第四核身通過率大於第二閾值的第二核身產品組合。 可選地,所述第一核身安全處理模組704包括: 第五核身通過率獲取模組7042,被配置為將使用者的屬性特徵輸入至訓練好的核身安全模型,得到與該使用者的屬性特徵相對應的第一核身產品的第五核身通過率; 第六核身通過率獲取模組7044,被配置為統計目標時間範圍內的與該使用者的屬性特徵相對應的第一核身產品的第六核身通過率; 第一核身通過率確定模組7046,被配置為將第一核身產品的第五核身通過率和第六核身通過率進行比較,取較大值作為第一核身產品的第一核身通過率。 可選地,第六核身通過率獲取模組7044被配置為將目標時間範圍內的風險分為風險群組;統計每個風險群組的與所述第一核身產品對應的核身通過率,將各個風險群組的所述核身通過率加權,得到第一核身產品的第六核身通過率。 可選地,在所述第二核身安全處理模組706得到第二核身產品組合中的第二核身產品後,還包括: 篩選模組,被配置為根據預先設置的安全管控策略,對得到的第二核身產品進行篩選,並將篩選後的第二核身產品輸入至訓練好的核身適用模型。 可選地,所述第二核身安全處理模組706藉由以下公式計算所述第一核身產品組合的第二核身通過率: P(A+B)=1-(1-P(A))*(1-P(B)) 其中,P(A+B)為第一核身產品組合的第二核身通過率; P(A)、P(B)分別為第一核身產品的第一核身通過率。 所述第二核身適用處理模組710藉由以下公式計算第二核身產品組合的第四核身通過率: P(C+D)=1-(1-P(C))*(1-P(D)) 其中,P(C+D)為第二核身產品組合的第四核身通過率; P(C)、P(D)分別為第二核身產品的第三核身通過率。 本說明書提供的核身裝置,在獲取使用者的屬性特徵後,依次輸入訓練好的核身安全模型和核身適用模型,並最終輸出第四核身通過率大於第二閾值的任意兩個第二核身產品生成的第二核身產品組合,進而提高了安全性,提升了用戶體驗。 本說明書的一實施例還提供一種核身安全模型的生成裝置,參見圖8,包括: 第一獲取模組802,被配置為獲取核身安全樣本和第一標籤,所述核身安全樣本包括歷史突破事件、該歷史突破事件對應的核身產品和使用者的歷史屬性特徵,所述第一標籤為所述歷史突破事件對應的核身產品核身通過或不通過; 第一訓練模組804,被配置為建立核身安全模型,將核身安全樣本和第一標籤輸入至所述核身安全模型進行訓練; 第一儲存模組806,被配置為保存所述核身安全模型。 上述為本實施例的一種核身安全模型的生成裝置的示意性方案。需要說明的是,該生成裝置的技術方案與上述的核身安全模型的生成方法的技術方案屬於同一構思,該生成裝置的技術方案未詳細描述的細節內容,均可以參見上述核身安全模型的生成方法的技術方案的描述。 本說明書的一實施例揭示了一種核身適用模型的生成裝置,參見圖9,包括: 第二獲取模組902,被配置為獲取核身適用樣本和第二標籤,核身適用樣本包括歷史非突破事件、該歷史非突破事件對應的核身產品和使用者的歷史屬性特徵,所述第二標籤為所述歷史非突破事件對應的核身產品核身通過或不通過; 第二訓練模組904,被配置為建立核身適用模型,將核身適用樣本和第二標籤輸入至所述核身適用模型進行訓練; 第二儲存模組906,被配置為保存所述核身適用模型。 上述為本實施例的一種核身適用模型的生成裝置的示意性方案。需要說明的是,該生成裝置的技術方案與上述的核身適用模型的生成方法的技術方案屬於同一構思,該生成裝置的技術方案未詳細描述的細節內容,均可以參見上述核身適用模型的生成方法的技術方案的描述。 本說明書的一實施例還提供一種計算設備,包括記憶體、處理器及儲存在記憶體上並可在處理器上運行的電腦指令,所述處理器執行所述指令時實現該指令被處理器執行時實現如前所述核身方法或核身安全模型的生成方法或核身適用模型的生成方法的步驟。 本說明書的一實施例還提供一種電腦可讀儲存媒介,其儲存有電腦指令,該指令被處理器執行時實現如前所述核身方法或核身安全模型的生成方法或核身適用模型的生成方法的步驟。 上述為本實施例的一種電腦可讀儲存媒介的示意性方案。需要說明的是,該儲存媒介的技術方案與上述的核身方法或核身安全模型的生成方法或核身適用模型的生成方法的技術方案屬於同一構思,儲存介質的技術方案未詳細描述的細節內容,均可以參見上述核身方法或核身安全模型的生成方法或核身適用模型的生成方法的技術方案的描述。 所述電腦指令包括電腦程式碼,所述電腦程式碼可以為原始程式碼形式、目標碼形式、可執行檔或某些中間形式等。所述電腦可讀媒介可以包括:能夠攜帶所述電腦程式碼的任何實體或裝置、記錄媒介、U盤、行動硬碟、磁碟、光碟、電腦記憶體、唯讀記憶體(ROM,Read-Only Memory)、隨機存取記憶體(RAM,Random Access Memory)、電載波信號、電信信號以及軟體分發媒介等。需要說明的是,所述電腦可讀媒介包含的內容可以根據司法管轄區內立法和專利實踐的要求進行適當的增減,例如在某些司法管轄區,根據立法和專利實踐,電腦可讀媒介不包括電載波信號和電信信號。 需要說明的是,對於前述的各方法實施例,為了簡便描述,故將其都表述為一系列的動作組合,但是本領域技術人員應該知悉,本申請並不受所描述的動作順序的限制,因為依據本申請,某些步驟可以採用其它順序或者同時進行。其次,本領域技術人員也應該知悉,說明書中所描述的實施例均屬於較佳實施例,所涉及的動作和模組並不一定都是本申請所必須的。 在上述實施例中,對各個實施例的描述都各有側重,某個實施例中沒有詳述的部分,可以參見其它實施例的相關描述。 以上公開的本申請的較佳實施例只是用於幫助闡述本申請。可選實施例並沒有詳盡敘述所有的細節,也不限制該發明僅為所述的具體實施方式。顯然,根據本說明書的內容,可作很多的修改和變化。本說明書選取並具體描述這些實施例,是為了更好地解釋本申請的原理和實際應用,進而使所屬技術領域技術人員能很好地理解和利用本申請。本申請僅受申請專利範圍及其全部範圍和等效物的限制。
100:計算設備 110:記憶體 120:處理器 130:匯流排 150:資料庫 160:網路 140:接入設備 702:屬性特徵獲取模組 704:第一核身安全處理模組 706:第二核身安全處理模組 708:第一核身適用處理模組 710:第二核身適用處理模組 7042:第五核身通過率獲取模組 7044:第六核身通過率獲取模組 7046:第一核身通過率確定模組 706:第二核身安全處理模組 802:第一獲取模組 804:第一訓練模組 806:第一儲存模組 902:第二獲取模組 904:第二訓練模組 906:第二儲存模組
圖1是本說明書一個或多個實施例的計算設備的結構示意圖; 圖2是本說明書一個或多個實施例的核身方法的流程示意圖; 圖3是本說明書一個或多個實施例的核身方法的流程示意圖; 圖4a是本說明書一個或多個實施例的核身方法的流程示意圖; 圖4b是本說明書一個或多個實施例的核身方法的核身通過率的結果展示圖; 圖5是本說明書一個或多個實施例的核身安全模型的生成方法的流程示意圖; 圖6是本說明書一個或多個實施例的核身適用模型的生成方法的流程示意圖; 圖7是本說明書一個或多個實施例的核身裝置的結構示意圖; 圖8是本說明書一個或多個實施例的核身安全模型的生成裝置的結構示意圖; 圖9是本說明書一個或多個實施例的核身適用模型的生成裝置的結構示意圖。

Claims (22)

  1. 一種核身方法,其特徵在於,所述核身方法包含: 獲取使用者的屬性特徵; 將使用者的屬性特徵輸入至訓練好的核身安全模型,並根據輸出的結果得到與該使用者的屬性特徵相對應的第一核身產品以及第一核身產品的第一核身通過率; 將第一核身產品的任意兩個生成第一核身產品組合,並根據第一核身產品的第一核身通過率計算所述第一核身產品組合的第二核身通過率,將第二核身通過率大於第一閾值的所述第一核身產品組合作為第二核身產品組合,得到第二核身產品組合中的第二核身產品; 將第二核身產品以及使用者的屬性特徵輸入至訓練好的核身適用模型,得到所述第二核身產品的第三核身通過率; 根據第二核身產品的第三核身通過率計算得到所述第二核身產品組合的第四核身通過率; 輸出第四核身通過率大於第二閾值的第二核身產品組合。
  2. 如申請專利範圍第1項所述的方法,其中,將使用者的屬性特徵輸入至訓練好的核身安全模型,並根據輸出的結果得到與該使用者的屬性特徵相對應的第一核身產品的第一核身通過率,包括: 將使用者的屬性特徵輸入至訓練好的核身安全模型,得到與該使用者的屬性特徵相對應的第一核身產品的第五核身通過率; 統計目標時間範圍內的與該使用者的屬性特徵相對應的第一核身產品的第六核身通過率; 將第一核身產品的第五核身通過率和第六核身通過率進行比較,取較大值作為第一核身產品的第一核身通過率。
  3. 如申請專利範圍第2項所述的方法,其中,統計目標時間範圍內的與該使用者的屬性特徵相對應的第一核身產品的第六核身通過率,包括: 將目標時間範圍內的風險分為風險群組; 統計每個風險群組的與所述第一核身產品對應的核身通過率,將各個風險群組的所述核身通過率加權,得到第一核身產品的第六核身通過率。
  4. 如申請專利範圍第1項所述的方法,其中,在得到第二核身產品組合中的第二核身產品後,還包括: 根據預先設置的安全管控策略,對得到的第二核身產品進行篩選,並將篩選後的第二核身產品輸入至訓練好的核身適用模型。
  5. 如申請專利範圍第1項所述的方法,其中,所述第一核身產品組合的第二核身通過率係藉由以下公式計算: P(A+B)=1-(1-P(A))*(1-P(B)) 其中,P(A+B)為第一核身產品組合的第二核身通過率; P(A)、P(B)分別為第一核身產品A和B的第一核身通過率。
  6. 如申請專利範圍第1項所述的方法,其中,所述第二核身產品組合的第四核身通過率係藉由過以下公式計算: P(C+D)=1-(1-P(C))*(1-P(D)) 其中,P(C+D)為第二核身產品組合的第四核身通過率; P(C)、P(D)分別為第二核身產品的第三核身通過率。
  7. 一種核身安全模型的生成方法,其特徵在於,所述方法包含: 獲取核身安全樣本和第一標籤,所述核身安全樣本包括歷史突破事件、該歷史突破事件對應的核身產品和使用者的歷史屬性特徵,所述第一標籤為所述歷史突破事件對應的核身產品核身通過或不通過; 建立核身安全模型,將核身安全樣本和第一標籤輸入至所述核身安全模型進行訓練; 保存所述核身安全模型。
  8. 如申請專利範圍第7項所述的方法,其中,所述核身安全模型為瑪律可夫鏈蒙特卡羅MCMC模型。
  9. 一種核身適用模型的生成方法,其特徵在於,包含: 獲取核身適用樣本和第二標籤,所述核身適用樣本包括歷史非突破事件、該歷史非突破事件對應的核身產品和使用者的歷史屬性特徵,所述第二標籤為所述歷史非突破事件對應的核身產品核身通過或不通過; 建立核身適用模型,將核身適用樣本和第二標籤輸入至所述核身適用模型進行訓練; 保存所述核身適用模型。
  10. 如申請專利範圍第9項所述的方法,其中,所述核身適用模型為隨機森林演算法模型。
  11. 一種核身裝置,其特徵在於,所述裝置包含: 屬性特徵獲取模組,被配置為獲取使用者的屬性特徵; 第一核身安全處理模組,被配置為將使用者的屬性特徵輸入至訓練好的核身安全模型,並根據輸出的結果得到與該使用者的屬性特徵相對應的第一核身產品以及第一核身產品的第一核身通過率; 第二核身安全處理模組,被配置為將第一核身產品的任意兩個生成第一核身產品組合,並根據第一核身產品的第一核身通過率計算所述第一核身產品組合的第二核身通過率,將第二核身通過率大於第一閾值的所述第一核身產品組合作為第二核身產品組合,得到第二核身產品組合中的第二核身產品; 第一核身適用處理模組,被配置為將第二核身產品以及使用者的屬性特徵輸入至訓練好的核身適用模型,得到所述第二核身產品的第三核身通過率; 第二核身適用處理模組,被配置為根據第二核身產品的第三核身通過率計算得到所述第二核身產品組合的第四核身通過率,並輸出第四核身通過率大於第二閾值的第二核身產品組合。
  12. 如申請專利範圍第11項所述的裝置,其中,所述第一核身安全處理模組包括: 第五核身通過率獲取模組,被配置為將使用者的屬性特徵輸入至訓練好的核身安全模型,得到與該使用者的屬性特徵相對應的第一核身產品的第五核身通過率; 第六核身通過率獲取模組,被配置為統計目標時間範圍內的與該使用者的屬性特徵相對應的第一核身產品的第六核身通過率; 第一核身通過率確定模組,被配置為將第一核身產品的第五核身通過率和第六核身通過率進行比較,取較大值作為第一核身產品的第一核身通過率。
  13. 如申請專利範圍第12項所述的裝置,其中,所述第六核身通過率獲取模組被配置為將目標時間範圍內的風險分為風險群組,統計每個風險群組的與所述第一核身產品對應的核身通過率,將各個風險群組的所述核身通過率加權,得到第一核身產品的第六核身通過率。
  14. 如申請專利範圍第11項所述的裝置,還包括: 篩選模組,被配置為根據預先設置的安全管控策略,對得到的第二核身產品進行篩選,並將篩選後的第二核身產品輸入至訓練好的核身適用模型。
  15. 如申請專利範圍第11項所述的裝置,其中,所述第二核身安全處理模組係藉由以下公式計算所述第一核身產品組合的第二核身通過率: P(A+B)=1-(1-P(A))*(1-P(B)) 其中,P(A+B)為第一核身產品組合的第二核身通過率; P(A)、P(B)分別為第一核身產品的第一核身通過率。
  16. 如申請專利範圍第11所述的裝置,其特徵在於,所述第二核身適用處理模組通過以下公式計算所述第二核身產品組合的第四核身通過率: P(C+D)=1-(1-P(C))*(1-P(D)) 其中,P(C+D)為第二核身產品組合的第四核身通過率; P(C)、P(D)均為第二核身產品的第三核身通過率。
  17. 一種核身安全模型的生成裝置,其特徵在於,包含: 第一獲取模組,被配置為獲取核身安全樣本和第一標籤,所述核身安全樣本包括歷史突破事件、該歷史突破事件對應的核身產品和使用者的歷史屬性特徵,所述第一標籤為所述歷史突破事件對應的核身產品核身通過或不通過; 第一訓練模組,被配置為建立核身安全模型,將核身安全樣本和第一標籤輸入至所述核身安全模型進行訓練; 第一儲存模組,被配置為保存所述核身安全模型。
  18. 如申請專利範圍第17項所述的裝置,其中,所述核身安全模型為瑪律可夫鏈蒙特卡羅MCMC模型。
  19. 一種核身適用模型的生成裝置,其特徵在於,包含: 第二獲取模組,被配置為獲取核身適用樣本和第二標籤,所述核身適用樣本包括歷史非突破事件、該歷史非突破事件對應的核身產品和使用者的歷史屬性特徵,所述第二標籤為所述歷史非突破事件對應的核身產品核身通過或不通過; 第二訓練模組,被配置為建立核身適用模型,將核身適用樣本和第二標籤輸入至所述核身適用模型進行訓練; 第二儲存模組,被配置為保存所述核身適用模型。
  20. 如申請專利範圍第19項所述的裝置,其中,所述核身適用模型為隨機森林演算法模型。
  21. 一種計算設備,包括記憶體、處理器及儲存在記憶體上並可在處理器上運行的電腦指令,其特徵在於,所述處理器執行所述指令時實現該指令被處理器執行時實現申請專利範圍第1至6項或第7至8項或第9至10項中任一項所述方法的步驟。
  22. 一種電腦可讀儲存媒介,其儲存有電腦指令,其特徵在於,該指令被處理器執行時實現申請專利範圍第1至6項或第7至8項或第9至10項中任一項所述方法的步驟。
TW108128088A 2018-11-05 2019-08-07 核身方法及裝置與其核身安全模型的生成方法與裝置及其計算設備與電腦可讀儲存媒體 TWI761695B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811308672.3 2018-11-05
CN201811308672.3A CN110059457B (zh) 2018-11-05 2018-11-05 一种核身方法及装置

Publications (2)

Publication Number Publication Date
TW202018627A true TW202018627A (zh) 2020-05-16
TWI761695B TWI761695B (zh) 2022-04-21

Family

ID=67315521

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108128088A TWI761695B (zh) 2018-11-05 2019-08-07 核身方法及裝置與其核身安全模型的生成方法與裝置及其計算設備與電腦可讀儲存媒體

Country Status (6)

Country Link
US (1) US11120115B2 (zh)
EP (1) EP3879418B1 (zh)
CN (1) CN110059457B (zh)
SG (1) SG11202100495TA (zh)
TW (1) TWI761695B (zh)
WO (1) WO2020093817A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059457B (zh) * 2018-11-05 2020-06-30 阿里巴巴集团控股有限公司 一种核身方法及装置
CN110879865B (zh) * 2019-10-31 2022-08-12 支付宝(杭州)信息技术有限公司 核身产品的推荐方法和装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067340A (ja) * 2001-08-28 2003-03-07 Mitsubishi Electric Corp 認証の選択システム、認証システム
TW200842733A (en) * 2007-04-17 2008-11-01 Univ Nat Chiao Tung Object image detection method
JP5446544B2 (ja) * 2009-07-27 2014-03-19 株式会社リコー 画像形成装置、画像処理装置、画像配信システム、及び認証処理方法
CN101742497B (zh) * 2009-12-24 2013-03-20 中兴通讯股份有限公司 接入认证的实现方法和客户端
US8776055B2 (en) * 2011-05-18 2014-07-08 Vmware, Inc. Combining profiles based on priorities
CN102955950A (zh) * 2011-08-16 2013-03-06 索尼公司 用于在线训练分类器的装置和在线训练分类器的方法
US9355234B1 (en) * 2013-09-27 2016-05-31 Emc Corporation Authentication involving selection among different biometric methods dynamically
CN104376231B (zh) * 2014-12-10 2017-11-17 福州大学 基于改进近似贝叶斯计算的损伤识别方法
US10282598B2 (en) * 2017-03-07 2019-05-07 Bank Of America Corporation Performing image analysis for dynamic personnel identification based on a combination of biometric features
KR101756058B1 (ko) * 2017-03-17 2017-07-10 이진혁 가변적 생체정보 기반의 인증 시스템 및 이를 이용한 인증 방법
CN107506628B (zh) * 2017-07-24 2019-12-06 Oppo广东移动通信有限公司 生物识别方法及相关产品
CN107450708B (zh) * 2017-07-28 2020-03-24 Oppo广东移动通信有限公司 解锁控制方法及相关产品
US20190311114A1 (en) * 2018-04-09 2019-10-10 Zhongan Information Technology Service Co., Ltd. Man-machine identification method and device for captcha
CN108491714A (zh) * 2018-04-09 2018-09-04 众安信息技术服务有限公司 验证码的人机识别方法
CN108650098B (zh) * 2018-05-08 2021-04-20 创新先进技术有限公司 用户自定义验证方式的方法及装置
CN110059457B (zh) * 2018-11-05 2020-06-30 阿里巴巴集团控股有限公司 一种核身方法及装置
US11275819B2 (en) * 2018-12-05 2022-03-15 Bank Of America Corporation Generative adversarial network training and feature extraction for biometric authentication

Also Published As

Publication number Publication date
CN110059457A (zh) 2019-07-26
TWI761695B (zh) 2022-04-21
CN110059457B (zh) 2020-06-30
EP3879418A1 (en) 2021-09-15
WO2020093817A1 (zh) 2020-05-14
EP3879418A4 (en) 2022-07-20
US11120115B2 (en) 2021-09-14
SG11202100495TA (en) 2021-02-25
EP3879418B1 (en) 2024-01-03
US20210150012A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
WO2022126971A1 (zh) 基于密度的文本聚类方法、装置、设备及存储介质
WO2021174944A1 (zh) 基于目标对象活跃度的消息推送方法及相关设备
WO2022095352A1 (zh) 基于智能决策的异常用户识别方法、装置及计算机设备
TWI752349B (zh) 風險識別方法及裝置
CN108681970A (zh) 基于大数据的理财产品推送方法、***及计算机存储介质
US11586815B2 (en) Method, system and computer program product for generating artificial documents
Schnebly et al. Random forest twitter bot classifier
CN110069545B (zh) 一种行为数据评估方法及装置
CN108564393A (zh) 潜在客户评分方法、装置和***
WO2021169659A1 (zh) 资源信息推送方法、装置、服务器及存储介质
US20210056199A1 (en) Password security warning system
TWI761695B (zh) 核身方法及裝置與其核身安全模型的生成方法與裝置及其計算設備與電腦可讀儲存媒體
CN110197426B (zh) 一种信用评分模型的建立方法、装置及可读存储介质
WO2021068626A1 (zh) 异常交易识别方法和装置
US20160315944A1 (en) System and method for dynamic network data validation
Gong Deep Belief Network‐Based Multifeature Fusion Music Classification Algorithm and Simulation
US11475019B2 (en) Contact graph scoring system
CN113011966A (zh) 基于深度学习的信用评分方法及装置
CN109241249B (zh) 一种确定突发问题的方法及装置
CN111047146A (zh) 一种企业用户的风险识别方法、装置及设备
Mao et al. Information system construction and research on preference of model by multi-class decision tree regression
CN113724064B (zh) 基于人工智能的参数确定方法、装置、电子设备
CN107665443B (zh) 获取目标用户的方法及装置
CN113256404A (zh) 数据处理方法及装置
CN115545088A (zh) 模型构建方法、分类方法、装置和电子设备