JP7347750B2 - 照合装置、学習装置、方法、及びプログラム - Google Patents

照合装置、学習装置、方法、及びプログラム Download PDF

Info

Publication number
JP7347750B2
JP7347750B2 JP2019077513A JP2019077513A JP7347750B2 JP 7347750 B2 JP7347750 B2 JP 7347750B2 JP 2019077513 A JP2019077513 A JP 2019077513A JP 2019077513 A JP2019077513 A JP 2019077513A JP 7347750 B2 JP7347750 B2 JP 7347750B2
Authority
JP
Japan
Prior art keywords
signature information
local feature
time
feature vector
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019077513A
Other languages
English (en)
Other versions
JP2020177318A (ja
Inventor
小萌 武
昭悟 木村
邦夫 柏野
誠一 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, Nippon Telegraph and Telephone Corp filed Critical Kyushu University NUC
Priority to JP2019077513A priority Critical patent/JP7347750B2/ja
Publication of JP2020177318A publication Critical patent/JP2020177318A/ja
Application granted granted Critical
Publication of JP7347750B2 publication Critical patent/JP7347750B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

本発明は、照合装置、学習装置、方法、及びプログラムに係り、特に、時系列データを照合するための照合装置、学習装置、方法、及びプログラムに関する。
近年、本人以外の第三者が認証されることを防止するために、セキュリティ、電子政府、医療、教育、銀行、保険等の分野で生体認証技術の需要が高まっている。声紋や指紋に依存する従来の生体認証方法を補完ないし代用するものとして、体調などの不確定要因に影響されにくく、また認証対象者に大きな心理的負担を与えず、認証対象者にとって比較的平易な方法であり、しかも安価で個人認証を行うことができる、手書きの署名を用いる個人認証の技術が期待されている。広く使われている署名認証技術は、例えばタブレット端末上のディスプレイに電子ペンによって署名を入力するような署名収集装置を用い、当該装置から収集された電子ペンの先端の位置情報(座標)や筆圧情報等の多変数時系列データを、署名情報として扱う。認証の際には、入力された署名情報(認証対象署名)とデータベースに予め登録された1個以上の署名情報(テンプレート署名)と比較して認証結果を出力する。当該技術における特に重要な課題として、署名情報の照合方法すなわち認証対象署名とテンプレート署名との距離を測定する方法が挙げられる。
非特許文献1には、大域的特徴に基づく署名情報の代表的な照合方法が記述されている。当該方法では、署名情報は、筆跡の継続時間やペンアップ・ダウンの時刻等の時間的特徴と、筆跡の座標の一次・二次時間導関数から算出される速度・加速度特徴と、筆跡の方向ヒストグラム等の方向特徴と、筆跡全体や各ストロークから抽出される幾何学的特徴と、を含む1個の多次元特徴ベクトルによって記述される。認証対象署名とテンプレート署名との距離は、それぞれの特徴ベクトル間のマハラノビス距離によって定義される。しかし、図9が示しているように、大域的特徴の多くは、人手又はNNによる特徴抽出に伴い署名の時刻情報が消失するため、特徴ベクトル間の距離を測定する際に署名の時刻情報の一貫性(時間的一貫性)を制約として課すことが困難である。その結果、他人の署名(他人署名)や他人が悪意をもって真似をした署名(クローン署名)が認証対象署名として入力された時に、それとテンプレート署名として登録された本人署名と誤って一致と判定する確率(他人受入率)が高い。
例えば、図10が示している2個の時系列データを考える。これらの時系列データは、異なる人物の署名情報である、すなわち一致と判定してはいけない、と仮定する。しかし、図10が示しているように、これらの時系列データは局所的に類似する部分が非常に多い。局所的に類似している断片同士の対応関係(図10の破線)において、断片の時刻が同一でなければならない、という時間的一貫性を制約として課さない場合、前記署名情報を誤って一致と判定する確率が高い。
一方で、同じ非特許文献1には、局所的特徴に基づく署名情報の代表的な照合方法も記述されている。当該方法では、署名情報の各時刻において、その周辺を包含する局所的断片は、筆跡や筆圧等から算出される複数の離散時間関数の値やそれらの一次・二次時間導関数の値等を含む1個の多次元特徴ベクトルによって記述される。従って、署名情報全体は、複数の特徴ベクトルによって構成される特徴ベクトルのシーケンスによって記述される。認証対象署名とテンプレート署名との距離は、それらの特徴ベクトルのシーケンスに対して、時刻や速度の変動に対処可能なDynamic Time Warping(DTW)や隠れマルコフモデルを適用することによって測定される。このような局所的な特徴ベクトルのシーケンスは、署名の時刻情報を含んでいるため、DTW等のような時間的一貫性の制約を課す距離測定方法を用いることによって、他人署名やクローン署名が入力された時に、他人受入率をより低く抑えることが可能である。しかし、このような局所的特徴は、人手によって設計されたものであるため、必ずしも手元の署名認証目的に最適であるとは限らない。特により複雑な特徴表現が必要な場合、性能が不十分である。
署名特徴を人手によって設計するのではなく、データから直接学習する代表的な署名認証方法として、非特許文献2が挙げられる。当該方法では、署名情報は、Recurrent Neural Network(RNN)によって抽出される1個の多次元特徴ベクトルによって記述される。認証対象署名とテンプレート署名との距離は、それぞれの特徴ベクトルの間の内積によって定義される。RNNのパラメータは、多数の訓練データを用いた学習によって決定される。当該方法では、署名情報をRNNに入力した時に、RNNの最後の隠れ層では、複数の多次元特徴ベクトルを含んで構成される1個のシーケンスが算出される。当該シーケンスの各特徴ベクトルは、入力署名の各時刻に対応している。その後、1)シーケンスの最後の時刻にある特徴ベクトルないし2)シーケンス全体の平均特徴ベクトルが、入力署名の特徴ベクトルとして算出される。前記のどの方法を用いても、ここでの処理に伴い署名の時刻情報が消失するため、前記大域的特徴と同様に、特徴ベクトル間の距離を測定する際に時間的一貫性を制約として課すことが困難である。その結果、他人署名やクローン署名が認証対象署名として入力された時に、他人受入率が高い。
Marcos Martinez-Diaz, Julian Fierrez, Ram P. Krish, and Javier Galbally. Mobile signature verication: Feature robustness and performance comparison. IET Biometrics, Vol. 3, No. 4, pp. 267-277, 2014 Wenjie Pei. Models for supervised learning in sequence data. PhD thesis, Delft University of Technology, Netherlands, 2018.
前記の通り、大域的特徴やニューラルネットワークに基づく署名情報の照合方法の先行技術では、特徴抽出に伴い署名の時刻情報が消失するため、特徴ベクトル間の距離を測定する際に時間的一貫性を制約として課すことが困難である。その結果、他人署名やクローン署名が認証対象署名として入力された時に、他人受入率が高い。
一方で、局所的特徴に基づく署名情報の照合方法の先行技術では、署名情報の特徴は人手によって設計されたものであるため、必ずしも手元の署名認証目的に最適であるとは限らない。特により複雑な特徴表現が必要な場合、性能が不十分である。
先行技術では、前記課題を同時に解決可能な署名認証方法は未だにない。
本発明は、上記課題を解決するために成されたものであり、2つの時系列データが、同一対象に関する入力であるか否かを精度良く判定することができる照合装置、学習装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第一の態様に係る照合装置は、入力手段による入力位置の時系列データである第1の署名情報及び第2の署名情報を受け付ける入力部と、前記第1の署名情報及び前記第2の署名情報の各々について、同一人物に関する署名であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付けるように予め学習された、前記局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、前記局所的特徴ベクトルを抽出する局所的特徴計算部と、前記第1の署名情報について抽出された各時刻の局所的特徴ベクトルと、前記第2の署名情報について抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であるか否かを判定する照合部と、を含んで構成されている。
第二の態様に係る照合装置は、入力手段による入力に応じた第1の時系列データ及び第2の時系列データを受け付ける入力部と、前記第1の時系列データ及び前記第2の時系列データの各々について、同一対象に関する入力であるか否かが予め付与された時系列データのペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付けるように予め学習された、前記局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出する局所的特徴計算部と、前記第1の時系列データについて抽出された各時刻の局所的特徴ベクトルと、前記第2の時系列データについて抽出された各時刻の局所的特徴ベクトルとの距離に基づいて、前記第1の時系列データ及び前記第2の時系列データが、同一対象に関する入力であるか否かを判定する照合部と、を含んで構成されている。
第三の態様に係る学習装置は、同一対象に関する入力であるか否かを示す訓練ラベルが予め付与された、入力手段による入力に応じた時系列データのペアに基づいて、局所的特徴ベクトルを抽出する抽出モデルを学習する学習装置であって、前記ペアの時系列データの各々について、前記抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出する局所的特徴計算部と、前記時系列データのペアの一方の前記時系列データから抽出された各時刻の局所的特徴ベクトルと、他方の前記時系列データから抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、各時刻での局所的特徴ベクトルの距離、及び前記時系列データのペアに付与された前記訓練ラベルを用いて表される損失関数の値を最適化するように、前記抽出モデルを学習する学習部と、を含んで構成されている。
第四の態様に係る照合方法は、入力部が、入力手段による入力位置の時系列データである第1の署名情報及び第2の署名情報を受け付け、局所的特徴計算部が、前記第1の署名情報及び前記第2の署名情報の各々について、同一人物に関する署名であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付けるように予め学習された、前記局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、前記局所的特徴ベクトルを抽出し、照合部が、前記第1の署名情報について抽出された各時刻の局所的特徴ベクトルと、前記第2の署名情報について抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であるか否かを判定する。
第五の態様に係るプログラムは、コンピュータに、入力手段による入力位置の時系列データである第1の署名情報及び第2の署名情報を受け付け、前記第1の署名情報及び前記第2の署名情報の各々について、同一人物に関する署名であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付けるように予め学習された、前記局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、前記局所的特徴ベクトルを抽出し、前記第1の署名情報について抽出された各時刻の局所的特徴ベクトルと、前記第2の署名情報について抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であるか否かを判定することを実行させるためのプログラムである。
本発明の一態様に係る照合装置、学習装置、方法、及びプログラムによれば、2つの時系列データが、同一対象に関する入力であるか否かを精度良く判定することができる、という効果が得られる。
時系列データの時刻情報の順番に沿って同じ時刻の局所的断片の相違を評価する方法を説明するための図である。 時系列データの時刻情報の順番に沿って同じ時刻の局所的断片の相違を評価する方法を説明するための図である。 2つの時系列データの距離を求める処理の概要を示す図である。 本発明の実施の形態に係る照合装置の構成を示すブロック図である。 本発明の実施の形態に係る照合装置の時間的整合部、局所的特徴抽出部、及び局所的距離計算部の具体的構成を示すブロック図である。 本発明の実施の形態に係る学習装置の構成を示すブロック図である。 照合装置及び学習装置として機能するコンピュータの一例の概略ブロック図である。 本発明の実施の形態に係る学習装置における学習処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る照合装置における照合処理ルーチンを示すフローチャートである。 従来技術での2つの時系列データの距離を求める処理の概要を示す図である。 2つの時系列データにおいて局所的に類似している断片同士の対応関係を示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態の概要>
本発明の実施の形態では、前記課題を同時に解決可能な署名の照合方法、すなわち、署名情報の局所的特徴をデータから直接学習し、署名情報間の距離を測定する際に時間的一貫性を制約として課すことが可能な照合方法を提案する。
署名情報間の距離を測定する際に時間的一貫性を制約として課すためには、図10が示しているような、異なる人物の署名情報であるが、局所的に類似している部分が多い時系列データに対して、図1A、図1Bが示しているように、時系列データの時刻情報の順番に沿って局所的断片の対応関係を特定し、同じ時刻の局所的断片の相違を評価する必要がある。これにより、署名情報を誤って一致と判定する確率が低い。なお、破線及び一点鎖線は、同じ時刻の局所的断片の対応関係を示しており、破線は類似しているもの、一点鎖線は類似していないものを示している。
そのためには、署名情報の各時刻において、そこもしくはその周辺を包含する局所的断片から、局所的特徴すなわち局所的な多次元特徴ベクトルを抽出する必要がある。本発明の実施の形態では、この局所的特徴をデータから直接学習するために、時間軸に沿った畳み込みを用いた1次元の畳み込みニューラルネットワーク、もしくは、双方向のLong Short‐Term Memory(LSTM)や双方向のGated Recurrent Unit(GRU)等のRNNを用い、前記局所的特徴を抽出する。このようなニューラルネットワークのパラメータは、多数の訓練データを用いた学習によって決定される。
本発明の実施の形態では、署名情報から、図2の右上が示しているような多次元特徴ベクトル(縦方向)のシーケンス(横方向)が、局所的特徴シーケンスとして抽出される。当該シーケンスの各特徴ベクトルは、入力署名の各時刻に対応している。その後、2個の局所的特徴シーケンスにおいて、各時刻について、同じ時刻にある2個の特徴ベクトルの間の距離(例えば、ユークリッド距離)を局所的距離として計算する。結果として、署名情報間の局所的距離のシーケンスが算出される。
図2では、各時刻にある局所的距離は1個の実数値になっているが、前記局所的距離を計算する方法によって、1個以上の実数値を持つような距離ベクトルになる場合もある。その場合、前記局所的距離シーケンスは、多次元の距離ベクトルのシーケンスになる。
署名認証を実施する段階(認証段階)では、前記局所的距離シーケンスに含まれる距離値を全て統合し、1個の距離値を算出し、署名情報間の距離とする。これによって、図10が示しているように、時間的一貫性を持っていない局所的断片の対応関係が多数表れるような、異なる人物の署名情報に対して、図1A、図1Bが示しているように、署名情報間の局所的な相違(図1A、図1Bの破線参照)を漏れなく特定することが可能になる。更に、全ての局所的距離を統合することによって、署名情報間の局所的な相違を強調した、署名情報全体の距離値をより正確に算出することが可能になる。なお、本実施例では署名間で1個の距離を算出することとしているが、対応する時刻毎の距離をそのまま用いてもよい。つまり、対応する時刻毎の距離を時系列距離データとし、該時系列距離データそのものを距離としてもよい。要は、該時系列距離データを用いて最終的に照合元の署名と照合先の署名が一致するかを出力すればよい。例えば、該時系列距離データを時刻毎に所定の閾値に基づいて二値化してもよい。言い換えると、時系列情報が保持された距離に基づき、署名間の距離を定義できればよい。
前記ニューラルネットワークのパラメータを学習する段階(訓練段階)では、前記局所的距離シーケンスから算出される損失関数の値を最小化することによって、前記パラメータを学習する。この損失関数は、関数値の最小化によって、同一人物の署名情報間の局所的距離が小さくなり、異なる人物の署名情報間の局所的距離が大きくなる、という性質を持っていなければならない。そのために、本発明では、同一人物の署名情報の場合に局所的距離が大きいほど損失関数値が大きくなり、そうでない場合に局所的距離が小さいほど損失関数値が大きくなる、というような損失関数を定義し、学習に用いる。これによって学習されたニューラルネットワークは、署名情報全体の相違だけでなく、時系列データの時刻の順番に沿った時に、同じ時刻にある局所的断片の相違をも正確に測定することが可能になる。
また、同一人物の署名情報でも局所的な変移や速度の変化等、非線形の時間的変動が生じる場合が多い。認証段階でも訓練段階でも、時系列データの時刻情報の順番に沿って局所的断片の対応関係を正しく特定しなければならないため、前記非線形時間的変動の影響を抑制する必要がある。そのために、本発明の実施の形態では、前記ニューラルネットワークの前に、前記非線形時間的変動を補償し、2個の署名情報を時間軸に沿って整合する時間的整合部を追加する。
<本発明の実施の形態に係る照合装置の構成>
次に、本発明の実施の形態に係る照合装置の構成について説明する。図3に示すように、本発明の実施の形態に係る照合装置100は、CPUと、RAMと、後述する照合処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この照合装置100は、機能的には図3に示すように、入力部10と、演算部20と、出力部50とを備えている。
入力部10は、ペンタブレットなどの入力手段による入力位置の時系列データである、第1の署名情報を受け付ける。
また、入力部10は、予め用意された、署名した人物が既知の、入力手段による入力位置の時系列データである、第2の署名情報の入力を受け付ける。例えば、テンプレート署名として、1個以上の第2の署名情報の入力を受け付ける。
演算部20は、時間的整合部22と、局所的特徴抽出部24と、照合部26とを備えている。
照合部26は、局所的距離計算部30と、局所的距離統合部32と、判定部34とを備えている。
<時間的整合部>
時間的整合部22は、時系列データである第1の署名情報と、時系列データである第2の署名情報とに対して、時間軸に沿った整合を行い、第1の整合済署名情報と、第2の整合済署名情報とを出力する。
具体的には、時間的整合部22は、2個の署名情報の間における非線形時間的変動を補償し、2個の署名情報を時間軸に沿って整合する。
例えば、2個の署名情報(図4の例ではSignatureと表現)を時間軸に沿って整合するために用いる局所的特徴シーケンスを抽出する。具体的に、非特許文献1の方法を用いて、各署名情報の各時刻において、当該時刻の周辺を包含する局所的断片から、筆跡座標を用いて1個の7次元の特徴ベクトルを抽出する。結果として、各署名情報において、全ての時刻から抽出された特徴ベクトルを含む1個の局所的特徴シーケンスが算出される。また、別の実施例として、各署名情報をそのまま1個の局所的特徴シーケンスとして用いることも可能である。
次に、局所的特徴シーケンスの各次元において、その次元における全ての要素の平均が0、分散が1になるよう、前記全ての要素を正規化する(図4の例ではChannel‐Wise Standardizationと表現)。
次に、2個の署名情報から算出された、2個の正規化された局所的特徴シーケンスに対して、Dynamic Time Warping(DTW)を適用し、2個の署名情報の間における時刻の対応関係を表す、1個のワーピングパス(Warping Path)を計算する。また、DTWの代わりに、Edit Distanceを利用した方法等、2個の署名情報の間における非線形時間的変動を補償可能な任意の整合方法を用いることが可能である。
前記ワーピングパスを用いて、前記2個の正規化された局所的特徴シーケンスを時間軸に沿って整合する。整合された、2個の正規化された局所的特徴シーケンスを、2個の整合済の署名情報として出力する。また、別の実施例として、前記ワーピングパスを用いて、2個の署名情報を時間軸に沿って整合することも可能である。その場合、整合された、2個の署名情報を、2個の整合済署名情報として出力することとなる。
なお、時間的整合部22による署名情報の整合では、2個の署名情報を変更せずに、2個の署名情報の間における時刻の対応関係を計算するのみとしてもよい。
<局所的特徴量抽出部>
局所的特徴抽出部24は、第1の整合済署名情報と、第2の整合済署名情報とを入力とし、同一人物に関する署名情報であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを時刻毎に関連付けるように予め学習された、局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出し、2個の局所的特徴シーケンスを出力する。
具体的には、局所的特徴抽出部24は、第1の整合済署名情報と、第2の整合済署名情報とのそれぞれに対し、各時刻において、当該時刻もしくは当該時刻の周辺を包含する局所的断片から1個の特徴ベクトルを抽出し、全ての時刻から抽出された特徴ベクトルを含む1個の局所的特徴シーケンスを出力する。
ここで言う局所的特徴シーケンスは、時間的整合部22において2個の署名情報を時間軸に沿って整合するために用いる局所的特徴シーケンスとは別物である。
例えば、第1の整合済署名情報と、第2の整合済署名情報とのそれぞれに対して、畳み込みニューラルネットワークを用いて、以下の処理を実施する。
まず、第1の整合済署名情報及び第2の整合済署名情報の各々のサイズをあらかじめ定めた一定の長さ(本実施の形態では1024)に変更する(図4の例ではResizeと表現)。これは、後述する学習装置200で、畳み込みニューラルネットワークのパラメータの学習にバッチ学習やミニバッチ学習を用いるために、整合済署名情報のサイズをあらかじめ定めた一定の長さに変更する処理に対応して行われるものである。
次に、時間的整合部22で実施された正規化を、サイズの変更された整合済署名情報に対して再度実施する(図4の例ではChannel‐Wise Standardizationと表現)。ここで、正規化された、サイズの変更された整合済の署名情報を、1×1024×7のテンソルとみなす。1024は時間的長さ、7は次元数である。このテンソルを入力とする畳み込みニューラルネットワークは、1層の1×7の畳み込み層と、1層のMax Pooling層と、2層の1×3の畳み込み層と、を含んで構成される。全ての畳み込み層(図4の例ではConvと表現)の出力は、次元数を64に設定する。1×7の畳み込み層とMax Pooling層では、ストライド(Stride)を2に設定することによって、それぞれの出力の時間的長さがそれぞれの入力の時間的長さの半分になるよう、ダウンサンプリングを実施する(図4の例では「/2」と表現)。また、各畳み込み層の直後にBatch Normalization層(参考文献1)を用いて、続いて、ReLU層を活性化関数として用いる。最後のReLU層に続いて、その出力の各時刻において、その位置の全ての要素のL2ノルムが1になるよう、前記全ての要素を正規化する(図4の例ではLocation‐Wise L2 Normと表現)。全ての時刻において正規化が完了したものを局所的特徴シーケンスとして出力する。前記ダウンサンプリングは合計2回実施されたため、前記局所的特徴シーケンスの時間的長さは256である。その次元数は64である。
また、別の実施例として、前記1×7の畳み込み層から最後のReLU層までのニューラルネットワークを、最後の出力となる隠れユニットの値の集合が局所的な特徴ベクトルのシーケンスと解釈可能で十分の時間的長さを持つような、任意のニューラルネットワークに替えることが可能である。当該条件を満たすニューラルネットワークの典型的な例として、畳み込みニューラルネットワークがあるが、そのほかにもRecurrent Neural Network(RNN)や双方向のRNN等がある。例えば、Long Short‐Term Memory(LSTM)を利用した、1層目のLSTMは(正規化された、サイズの変更された)整合済署名情報の最初の時刻からスタートして時間軸に沿って前進し、2層目のLSTMは(正規化された、サイズの変更された)整合済署名情報の最後の時刻からスタートして時間軸に沿って後退する、双方向のLSTMを用いることが可能である。また、前記LSTMを全てGated Recurrent Unit(GRU)に替えた、双方向のGRUを用いることも可能である。
[参考文献1]Sergey Ioffe and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift. In ICML, pp. 448-456, 2015.
<局所的距離計算部>
局所的距離計算部30は、第1の整合済署名情報について抽出された各時刻の局所的特徴ベクトルと、第2の整合済署名情報について抽出された各時刻の局所的特徴ベクトルとの間の局所的距離を、時刻毎に計算する。
具体的には、入力である2個の署名情報を

とし、出力である署名情報間の距離を

とする。

から算出された、局所的特徴抽出部24の出力である2個の局所的特徴シーケンスを、それぞれXとYとする。XとYは、W×Kの実数行列とし、すなわち、

とする。ここで、W は時間的長さ、K は次元数である。
例えば、図4の例では、W = 256、K = 64 となる。XとYにおいて、それぞれのi 番目の時刻にある特徴ベクトルを、それぞれ

とする。また、XとYにおいて、それぞれのi 番目の時刻及びj 番目の次元にある要素を、それぞれxijとyij とする。
局所的距離計算部30は、局所的特徴抽出部24の出力である2個の局所的特徴シーケンスを入力とし、1個の局所的距離シーケンスを出力とする。局所的距離計算部30は、2個の局所的特徴シーケンスの各時刻において、同じ時刻にある2個の特徴ベクトルの間の距離を計算し、全ての時刻から算出された距離を含む1個の局所的距離シーケンスを出力する。本実施の形態では、前記2個の特徴ベクトルの間のユークリッド距離を計算することによって、前記局所的距離シーケンスを算出する。ここで、前記2個の特徴ベクトルを

とし、2個の特徴ベクトルの間の距離を

とする。

を式(1)によって計算する。

(1)
局所的距離統合部32は、1個の局所的距離シーケンスを入力とし、1個の署名情報間の距離を出力とする。
具体的には、局所的距離統合部32は、局所的距離シーケンスに含まれる距離を全て統合し、1個の署名情報間の距離を計算する。本実施の形態では、局所的距離シーケンスに含まれる全ての距離の平均を計算し、前記署名情報間の距離とする。ここで、前記署名情報間の距離を

とし、式(2)によって計算する。

(2)
<判定部>
判定部34は、署名情報間の距離に基づいて、第1の署名情報及び第2の署名情報が、同一人物に関する署名情報であるか否かを判定する。
具体的には、1個以上のテンプレート署名として入力された第2の署名情報の各々について、認証対象署名として入力された第1の署名情報と前記第2の署名情報との距離を局所的距離統合部32によって計算し、全ての第2の署名情報において計算された前記距離の平均を計算し、1個のスコアを算出する。当該スコアをあらかじめ定めた閾値と比較し、スコアが閾値より小さい場合に、認証対象署名がテンプレート署名と同一人物の署名情報と判定し、そうでない場合に異なる人物の署名情報と判定する。ここで、認証対象署名を

とし、1個以上のテンプレート署名の集合を

とする。距離の平均は、例えば、式(3)もしくは式(4)によって計算できる。

(3)

(4)
<本発明の実施の形態に係る学習装置の構成>
次に、本発明の実施の形態に係る学習装置の構成について説明する。図5に示すように、本発明の実施の形態に係る学習装置200は、CPUと、RAMと、後述する学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この学習装置200は、機能的には図5に示すように、入力部110と、演算部120とを備えている。
入力部110は、同一人物に関する署名情報であるか否かを示す訓練ラベルが予め付与された、ペンタブレットなどの入力手段による入力位置の時系列データである署名情報のペアの入力を受け付ける。
演算部120は、時間的整合部122と、局所的特徴抽出部124と、学習部126とを備えている。
学習部126は、局所的距離計算部130と、損失関数値計算部132と、更新部134とを備えている。
図5が示しているように、学習装置200では、時系列データである署名情報のペアとそれらが同一人物の署名情報か否かを示す1個の訓練ラベルとの1組を、1組の訓練データとして入力として受け付け、1個の損失関数値に基づいて、抽出モデルを更新する。
<時間的整合部>
時間的整合部122は、署名情報のペアのうちの第1の署名情報と、署名情報のペアのうちの第2の署名情報とに対して、時間的整合部22と同様に、時間軸に沿った整合を行い、第1の整合済署名情報と、第2の整合済署名情報とを出力する。
<局所的特徴量抽出部>
局所的特徴抽出部124は、第1の整合済署名情報と、第2の整合済署名情報とを入力とし、局所的特徴抽出部24と同様に、局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出し、2個の局所的特徴シーケンスを出力する。
<局所的距離計算部>
局所的距離計算部130は、局所的距離計算部30と同様に、第1の整合済署名情報について抽出された各時刻の局所的特徴ベクトルと、第2の整合済署名情報について抽出された各時刻の局所的特徴ベクトルとの間の局所的距離を、時刻毎に計算し、1個の局所的距離シーケンスを出力する。
<損失関数値計算部>
損失関数値計算部132は、第1の整合済署名情報から抽出された各時刻の局所的特徴ベクトルと、第2の整合済署名情報から抽出された各時刻の局所的特徴ベクトルとの距離、及び当該時系列データのペアに付与された訓練ラベルを用いて表される損失関数の値を計算する。
具体的には、1個の局所的距離シーケンスと1個の訓練ラベルを入力とし、同一人物の署名情報の場合に局所的距離が大きいほど損失関数値が大きくなり、そうでない場合に局所的距離が小さいほど損失関数値が大きくなる、というような1個の損失関数値を計算する。
損失関数値計算部132に関して以下に2つの実施例を説明する。
<実施例1>
本実施例では、まず、局所的距離シーケンスの各時刻において、同一人物の署名情報の場合に局所的距離が大きいほど値が大きくなり、そうでない場合に局所的距離が小さいほど値が大きくなる、というような1個の局所的損失関数値を計算する。次に、全ての時刻から算出された局所的損失関数値の平均を計算し、損失関数値計算部132の出力である損失関数値とする。なお、本実施例では局所的損失関数値の平均としているが、局所的損失関数値の総和としてもよい。要は、得られた局所的損失関数値全てを用いて1つの値を出せればよい。また、上記損失関数値は、(1)時系列に係る特徴を残しつつ、(2)ヒューリスティックに決定された手法よりも学習データに応じた値であることが期待される。ここで、損失関数値計算部132の出力である損失関数値をLとし、訓練ラベルをzとする。z∈{0,1}とし、同一人物の署名情報の場合にz = 1、そうでない場合にz = 0 とする。Lを式(5)によって計算する。式(5)中のτ はハイパーパラメータで、τ∈[0,√2]とする。

(5)
式(5)によって、同一人物の署名情報の場合に局所的距離

が大きいほど損失関数値Lが大きくなり、そうでない場合に局所的距離

が小さいほど損失関数値Lが大きくなる。
<実施例2>
本実施例の損失関数値計算部132では、式(2)によって計算される署名情報間距離

を用いて、同一人物の署名情報の場合に

が大きいほど値が大きくなり、そうでない場合に

が小さいほど値が大きくなる、というような1個の損失関数値を計算し、損失関数値計算部132の出力とする。ここで、前記損失関数値をLとし、式(6)によって計算する。

(6)
同一人物の署名情報の場合に、式(2)によって、前記局所的距離

が大きいほど、前記署名情報間距離

が大きくなる。それに伴い、式(6)によって、損失関数値L が大きくなる。そうでない場合に、式(2)によって、前記局所的距離

が小さいほど、前記署名情報間距離

が小さくなる。それに伴い、式(6)によって、損失関数値L が大きくなる。
<更新部>
更新部134は、損失関数の値を最適化するように、抽出モデルのパラメータを更新する。
更新部134に関して、以下に、損失関数値計算部132の2つの実施例に対応する2つの実施例を説明する。
<実施例1>
本実施例では、更新部134は、以下の式(7)に従って、微分法を用いて抽出モデルのパラメータを更新する。

(7)
式(7)は、損失関数値L における、局所的特徴シーケンスXの各要素xijに関する偏微分係数を示している。式(7)中の

は、各局所的距離

のxijに関する偏微分係数であり、

によって計算され、xijの時刻i によって異なる値を持つ。そのため、微分法を用いて抽出モデルを構成するニューラルネットワークのパラメータを学習する際に、局所的特徴シーケンスの各要素xij は、その時刻iによって適応的に更新されることとなる。
また、

と同様に、式(7)中の

も、xijの時刻i によって異なる値を持つ。従って、上記非特許文献2等のような、学習の時に局所的特徴シーケンスの各要素が全ての時刻において均一的に更新される先行技術とは異なり、本発明の実施の形態では、学習の時に局所的特徴シーケンスの各要素が、その時刻によって適応的に更新されるため、より識別力の高い局所的な特徴表現をより効果的に学習することが可能になる。
<実施例2>
本実施例では、更新部134は、以下の式(8)に従って、微分法を用いて抽出モデルのパラメータを更新する。
(8)
式(8)は、損失関数値L における、局所的特徴シーケンスX の各要素xij に関する偏微分係数を示している。実施例1と同様に、式(8)中の

は、xijの時刻i によって異なる値を持つ。微分法を用いて抽出モデルを構成するニューラルネットワークのパラメータを学習する際に、局所的特徴シーケンスの各要素xij は、その時刻i によって適応的に更新されることとなる。従って、より識別力の高い局所的な特徴表現をより効果的に学習することが可能になる。
一方で、実施例1とは異なり、式(8)中の

は、xijの時刻i によらず、全ての時刻において均一的な値を持つ。それによって、比較的に少量の訓練データしか使用できない場合、学習の時に局所的特徴シーケンスの各要素においてその更新のその時刻に対する依存性が適切に抑制され、過学習の悪影響を軽減することが可能になる。
本発明の実施の形態では、署名認証は署名情報間の局所的距離

にも依存するが、最終的には署名情報間距離

にも依存する。実施例1は、局所的距離に依存する損失関数を用いている一方で、実施例2は、局所的距離と署名情報間距離の両方に依存する損失関数を用いている。そのため、実施例2の方が、局所的な特徴表現の効果的な学習と過学習抑制において、その間のバランスがよりうまく取れた実施例であると考えられる。
照合装置100及び学習装置200の各々は、一例として、図6に示すコンピュータ84によって実現される。コンピュータ84は、CPU86、メモリ88、プログラム82を記憶した記憶部92、モニタを含む表示部94、及びキーボードやマウスを含む入力部96を含んでいる。CPU86、メモリ88、記憶部92、表示部94、及び入力部96はバス98を介して互いに接続されている。
記憶部92はHDD、SSD、フラッシュメモリ等によって実現される。記憶部92には、コンピュータ84を照合装置100又は学習装置200として機能させるためのプログラム82が記憶されている。CPU86は、プログラム82を記憶部92から読み出してメモリ88に展開し、プログラム82を実行する。なお、プログラム82をコンピュータ可読媒体に格納して提供してもよい。
<本発明の実施の形態に係る学習装置の作用>
次に、本発明の実施の形態に係る学習装置200の作用について説明する。入力部110によって、訓練ラベルが予め付与された署名情報のペアを、複数ペアを受け付けると、学習装置200は、図7に示す学習処理ルーチンを実行する。
まず、ステップS100では、署名情報のペアに含まれる第1の署名情報及び第2の署名情報に対して、時間軸に沿った整合を行い、第1の整合済署名情報と、第2の整合済署名情報とを出力する。
ステップS102では、局所的特徴抽出部124は、第1の整合済署名情報と、第2の整合済署名情報とを入力とし、局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出し、2個の局所的特徴シーケンスを出力する。
ステップS104では、局所的距離計算部130は、第1の整合済署名情報について抽出された各時刻の局所的特徴ベクトルと、第2の整合済署名情報について抽出された各時刻の局所的特徴ベクトルとの間の局所的距離を、時刻毎に計算し、1個の局所的距離シーケンスを出力する。
そして、ステップS106では、損失関数値計算部132は、第1の整合済署名情報から抽出された各時刻の局所的特徴ベクトルと、第2の整合済署名情報から抽出された各時刻の局所的特徴ベクトルとの距離、及び当該時系列データのペアに付与された訓練ラベルを用いて表される損失関数の値を計算する。
ステップS108では、更新部134は、損失関数の値を最適化するように、抽出モデルのパラメータを更新する。
ステップS110では、すべてのペアについて上記ステップS100~S108の処理を実行したか否かを判定する。上記ステップS100~S108の処理を実行していないペアが存在する場合には、上記ステップS100へ戻り、当該ペアについて、上記ステップS100~S108の処理を繰り返す。一方、全てのペアについて、上記ステップS100~S108の処理を実行した場合には、学習処理ルーチンを終了する。
<本発明の実施の形態に係る照合装置の作用>
次に、本発明の実施の形態に係る照合装置100の作用について説明する。
まず、入力部10によって、ペンタブレットなどの入力手段による入力位置の時系列データである第1の署名情報を受け付ける。そして、入力部10によって、テンプレート署名として、1個以上の第2の署名情報の入力を受け付けると、照合装置100は、図8に示す照合処理ルーチンを実行する。
まず、ステップS120では、時間的整合部22は、1個以上の第2の署名情報毎に、第1の署名情報と、当該第2の署名情報とに対して、時間軸に沿った整合を行い、第1の整合済署名情報と、第2の整合済署名情報とを出力する。
ステップS122では、局所的特徴抽出部24は、1個以上の第2の署名情報毎に、第1の整合済署名情報と、第2整合済署名情報とを入力とし、学習装置200により学習された抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出し、2個の局所的特徴シーケンスを出力する。
ステップS124では、局所的距離計算部30は、1個以上の第2の署名情報毎に、第1の整合済署名情報について抽出された各時刻の局所的特徴ベクトルと、第2の整合済署名情報について抽出された各時刻の局所的特徴ベクトルとの間の局所的距離を、時刻毎に計算する。
そして、ステップS126では、局所的距離統合部32は、1個以上の第2の署名情報毎に、局所的距離シーケンスに含まれる距離を全て統合し、1個の署名情報間の距離を計算する。
ステップS128では、判定部34は、1個以上の第2の署名情報毎に計算された署名情報間の距離に基づいて、第1の署名情報及び第2の署名情報が、同一人物に関する署名情報であるか否かを判定し、照合処理ルーチンを終了する。
<実験結果>
上記の実施の形態で説明した手法の効果を確認するために行った実験の結果について説明する。署名情報のテストデータが、本物の署名情報か、偽造者によって模倣された署名情報であるかを判定する実験を行った。署名情報のデータセットとして、MCYT(参考文献2)、BiosecurID SONOF(参考文献3)、およびSUSIG visual and blind sub-corpuses(参考文献4)の4つのデータセットを用いた。
[参考文献2]J. Ortega-Garcia, J. Fierrez-Aguilar, D. Simon, et al., “MCYT baseline corpus: A bimodal biometric database,” IEE Proceedings- Vision, Image and Signal Processing, vol. 150, no. 6, pp.395-401, 2003.
[参考文献3]J. Galbally, M. D. Cabrera, M. A. Ferrer-Ballester, et al., “Online signature recognition through the combination of real dynamic data and synthetically generated static data,” Pattern Recognition, vol. 48, no. 9, pp. 2921-2934, 2015.
[参考文献4]A. Kholmatov and B. A. Yanikoglu, “SUSIG: An on-line signature database, associated protocols and benchmark results,” Pattern Anal. Appl., vol. 12, no. 3, pp. 227-236, 2009.
また、4つのベースラインとして、参考文献5に記載の関数にDTWを適用したもの、Siamese network(SN)を用いたもの、Siamese network(SN)にDTWを適用したもの、DTWを適用せずにSiamese network(SN)に上記実施例1を適用したものを採用した。
[参考文献5]M. Martinez-Diaz, J. Fierrez, R. P. Krish, and J. Galbally, “Mobile signature verification: Feature robustness and performance comparison,” IET Biometrics, vol. 3, no. 4, pp. 267-277, 2014.
また、評価指標として、EER(%)を用いて、比較した結果を表1に示す。
表1において、PWは、時間的整合を行うことを示し、LEは、上記実施例1、2の損失関数を用いることを示す。
また、MCYT(90 / 80 / 70%)は、MCYTの最初の90/80/70%を訓練データとして使用し、残りをテストデータとすることを示す。また、FULLは、4つのデータセットすべてを結合し、各データセットの最初の90%を訓練データとして抽出して結合し、残りすべてをテストデータとした。
また、PSN w/ sequence-wise local embedding lossは、上記実施の形態における実施例2の方法を示し、PSN w/ location-wise local embedding lossは、上記実施の形態における実施例1の方法を示す。
上記表1により、本実施の形態の方法は、すべてのベースラインより優れていることがわかった。
以上説明したように、本発明に実施の形態に係る照合装置は、同一人物に関する署名であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを時刻毎に関連付けるように予め学習された抽出モデルを用いて、各時刻で、前記局所的特徴ベクトルを抽出し、各時刻での局所的特徴ベクトルの距離を計算し、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であるか否かを判定する。これにより、2つの署名情報が、同一人物に関する署名情報であるか否かを精度良く判定することができる。
また、本発明の実施の形態に係る学習装置は、訓練ラベルが予め付与された署名情報のペアについて、抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出し、各時刻での局所的特徴ベクトルの距離を計算し、各時刻での局所的特徴ベクトルの距離、及び訓練ラベルを用いて表される損失関数の値を最適化するように、抽出モデルを学習する。これにより、2つの署名情報が、同一人物に関する署名情報であるか否かを精度良く判定するための局所的特徴ベクトルを抽出する抽出モデルを学習することができる。
また、本発明の実施の形態によれば、署名情報間の距離を測定する際に時間的一貫性を制約として課す機能(認証段階)と、署名情報の局所的特徴をデータから直接学習する機能(訓練段階) と、を同時に実現することが可能になる。その結果、他人署名やクローン署名が認証対象の署名情報として入力された時に、他人受入率をより低く抑えると同時に、手元の署名認証目的に最適な署名特徴表現が可能になるため、より高い署名認証精度を実現することが可能になる。
また、時間的整合部を用いることによれば、同一人物の署名情報間に生じうる時刻や速度の変動等の非線形時間的変動を吸収し、局所的特徴をデータから直接学習するにあたって重要である局所的断片の対応関係を正確に特定することが可能になる。その結果、本人署名が認証対象署名として入力された時に、それとテンプレート署名とを不一致と判定する確率(本人拒否率)をより低く抑えることが可能である。
<変形例>
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、局所的距離計算部と局所的距離統合部を、以下の実施例のように構成することができる。
本実施例では、局所的距離計算部と局所的距離統合部において、上記の実施例1と実施例2のように人手によって設計された距離測定方法と統合方法を用いるのではなく、その距離測定方法と統合方法も学習を用いて決定する。それによって、十分な量の訓練データが使用可能な時には、より効果的に署名情報の特徴ベクトルを学習し、2個の署名情報をより正確に照合することが可能になる。
具体的には、局所的距離計算部は、まず、局所的特徴抽出部から出力された、2個の局所的特徴シーケンスの差分、すなわち、X-Yを計算する。計算されたX-Yを、1×W×K のテンソルとみなす。W は時間的長さ、K は次元数であり、例えば、図4が示している実施例では、W = 256、K = 64 となる。次に、ニューラルネットワークを用いて、テンソルX-Yを入力とし、十分な時間的長さを持つ、次元数が1以上の局所的距離シーケンスを算出し出力とする。例えば、2層の1×1の畳み込み層を用いて、その両方の出力の次元数を64、ストライドを1に設定し、各畳み込み層の直後にBatch Normalization層とReLU層を用いる、というような畳み込みニューラルネットワークを用いることが可能である。この場合、出力される局所的距離シーケンスは、時間的長さが256、次元数が64、すなわち、1×256×64のテンソルとなる。また、畳み込みニューラルネットワークの代わりに、双方向のLSTMや双方向のGRUを用いることも可能である。
また、別の実施例として、前記2個の局所的特徴シーケンスにおいて、その差分ではなく、その両方を次元の方向に沿って結合し、結合されたシーケンスを前記ニューラルネットワークの入力とし、同じニューラルネットワークを用いて、前記局所的距離シーケンスを算出しても良い。前記2個の局所的特徴シーケンスをそれぞれ1×W×Kのテンソルとみなすと、前記結合されたシーケンスは1×W×2Kのテンソルとなる。前記ニューラルネットワークは、先に述べた実施例と同様に、畳み込みニューラルネットワークや双方向のLSTM、双方向のGRUを用いることが可能である。
局所的距離統合部では、ニューラルネットワークを用いて、前記局所的距離シーケンスを入力とし、1個の署名情報間の距離を出力とする。前記ニューラルネットワークの例として、出力の次元数を1に設定した1層の全結合層と1層のSigmoid層を含んで構成されるニューラルネットワークが挙げられる。ここで、算出された署名情報間の距離を

とする。前記ニューラルネットワークを用いる場合、

となる。
訓練段階では、局所的距離計算部と局所的距離統合部のニューラルネットワークのパラメータは、前記局所的特徴抽出部の抽出モデルのパラメータと同様かつ同時に、多数の訓練データを用いた学習によって決定される。損失関数値計算部では、まず、前記局所的距離シーケンスを入力とし、前記局所的距離統合部と同じニューラルネットワークを用いて、1個の署名情報間の距離を算出する。次に、前記署名情報間の距離

と前記訓練ラベルz を用いて、例えば、式(9)によって1個の損失関数値L を計算する。

(9)
同一人物の署名情報の場合に、前記局所的距離が大きいほど、前記署名情報間距離

が大きくなり、式(9)によって、損失関数値L が大きくなる。そうでない場合に、前記局所的距離が小さいほど、前記署名情報間距離

が小さくなり、式(9)によって、損失関数値L が大きくなる。
また、署名情報を照合する照合装置に本発明を適用する場合を例に説明したがこれに限定されるものではなく、他の種類の時系列データを照合する照合装置に適用してもよい。例えば、入力手段をセンサとし、センサによる入力に応じた時系列データである指紋情報を照合する照合装置に適用してもよい。この指紋情報は、指のどの部分から先にどのような圧力でセンサに触れられるかを表す時系列データであり、指紋情報を照合して、同一人物による指紋情報であるか否かを判定する。
また、対象とする時系列データによっては、時間的なずれが生じない場合があり、このような場合には、時間的整合部を省略してもよい。
10、110 入力部
20、120 演算部
22、122 時間的整合部
24、124 局所的特徴抽出部
26 照合部
30、130 局所的距離計算部
32 局所的距離統合部
34 判定部
50 出力部
82 プログラム
84 コンピュータ
100 照合装置
126 学習部
132 損失関数値計算部
134 更新部
200 学習装置

Claims (4)

  1. 入力手段による入力位置の時系列データである第1の署名情報及び第2の署名情報であって、各々異なる前記第1の署名情報及び前記第2の署名情報を受け付ける入力部と、
    前記第1の署名情報について各時刻から抽出される特徴ベクトルを含む局所的特徴シーケンスと、前記第2の署名情報について各時刻から抽出される特徴ベクトルを含む局所的特徴シーケンスとに対して、時刻の対応関係を計算し、前記時刻の対応関係を用いて、前記第1の署名情報の局所的特徴シーケンス及び前記第2の署名情報の局所的特徴シーケンスを時間軸に沿って整合する時間的整合部と、
    前記整合された前記第1の署名情報の局所的特徴シーケンス及び前記第2の署名情報の局所的特徴シーケンスの各々について、同一人物に関する署名であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付け、かつ、同一人物に関する署名の前記局所的特徴ベクトルが対応するように予め学習された、前記局所的特徴ベクトルを抽出する畳み込みニューラルネットワークである抽出モデルの中間層の出力を用いて、各時刻で、前記局所的特徴ベクトルを抽出する局所的特徴計算部と、
    前記第1の署名情報について抽出された各時刻の局所的特徴ベクトルと、前記第2の署名情報について抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記距離に応じたスコアが閾値より小さい場合に、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であると判定し、前記距離に応じたスコアが閾値以上である場合に、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名でないと判定する照合部と、
    を含み、
    前記局所的特徴計算部は、前記整合された前記第1の署名情報の局所的特徴シーケンスと、前記第2の署名情報の局所的特徴シーケンスとに基づいて、前記第1の署名情報の局所的特徴シーケンスから得られる各時刻の特徴ベクトルを表す1×T×D(Tは時間的長さであり、Dは特徴ベクトルの次元数である。)の第1テンソル、及び前記第2の署名情報の局所的特徴シーケンスから得られる各時刻の特徴ベクトルを表す1×T×Dの第2テンソルを生成し、前記第1テンソルを前記抽出モデルに入力して、前記第1の署名情報について各時刻の局所的特徴ベクトルを抽出し、前記第2テンソルを前記抽出モデルに入力して、前記第2の署名情報について各時刻の局所的特徴ベクトルを抽出する
    照合装置。
  2. 同一人物に関する署名であるか否かを示す訓練ラベルが予め付与された、入力手段による入力位置の時系列データである第1の署名情報及び第2の署名情報であって、各々異なる前記第1の署名情報及び前記第2の署名情報のペアに基づいて、局所的特徴ベクトルを抽出する畳み込みニューラルネットワークである抽出モデルを学習する学習装置であって、
    前記ペアの前記第1の署名情報について各時刻から抽出される特徴ベクトルを含む局所的特徴シーケンスと前記第2の署名情報について各時刻から抽出される特徴ベクトルを含む局所的特徴シーケンスとに対して、時刻の対応関係を計算し、前記時刻の対応関係を用いて、前記第1の署名情報の局所的特徴シーケンス及び前記第2の署名情報の局所的特徴シーケンスを時間軸に沿って整合する時間的整合部と、
    前記整合された前記ペアの署名情報の各々の局所的特徴シーケンスについて、前記抽出モデルの中間層の出力を用いて、各時刻で、局所的特徴ベクトルを抽出する局所的特徴計算部と、
    前記ペアの一方の前記署名情報から抽出された各時刻の局所的特徴ベクトルと、他方の前記署名情報から抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記訓練ラベルが、同一人物に関する署名であることを示す場合、前記距離が大きいほど、損失関数値が大きくなり、前記訓練ラベルが、同一人物に関する署名でないことを示す場合、前記距離が小さいほど損失関数値が大きくなるように、各時刻での局所的特徴ベクトルの距離、及び前記ペアに付与された前記訓練ラベルを用いて表される損失関数の値を最適化するように、前記抽出モデルを学習する学習部と、
    を含み、
    前記局所的特徴計算部は、前記整合された前記第1の署名情報の局所的特徴シーケンスと、前記第2の署名情報の局所的特徴シーケンスとに基づいて、前記第1の署名情報の局所的特徴シーケンスから得られる各時刻の特徴ベクトルを表す1×T×D(Tは時間的長さであり、Dは特徴ベクトルの次元数である。)の第1テンソル、及び前記第2の署名情報の局所的特徴シーケンスから得られる各時刻の特徴ベクトルを表す1×T×Dの第2テンソルを生成し、前記第1テンソルを前記抽出モデルに入力して、前記第1の署名情報について各時刻の局所的特徴ベクトルを抽出し、前記第2テンソルを前記抽出モデルに入力して、前記第2の署名情報について各時刻の局所的特徴ベクトルを抽出する
    学習装置。
  3. 入力部が、入力手段による入力位置の時系列データである第1の署名情報及び第2の署名情報であって、各々異なる前記第1の署名情報及び前記第2の署名情報を受け付け、
    時間的整合部が、前記第1の署名情報について各時刻から抽出される特徴ベクトルを含む局所的特徴シーケンスと、前記第2の署名情報について各時刻から抽出される特徴ベクトルを含む局所的特徴シーケンスとに対して、時刻の対応関係を計算し、前記時刻の対応関係を用いて、前記第1の署名情報の局所的特徴シーケンス及び前記第2の署名情報の局所的特徴シーケンスを時間軸に沿って整合し、
    局所的特徴計算部が、前記整合された前記第1の署名情報の局所的特徴シーケンス及び前記第2の署名情報の局所的特徴シーケンスの各々について、同一人物に関する署名であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付け、かつ、同一人物に関する署名の前記局所的特徴ベクトルが対応するように予め学習された、前記局所的特徴ベクトルを抽出する畳み込みニューラルネットワークである抽出モデルの中間層の出力を用いて、各時刻で、前記局所的特徴ベクトルを抽出し、
    照合部が、前記第1の署名情報について抽出された各時刻の局所的特徴ベクトルと、前記第2の署名情報について抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記距離に応じたスコアが閾値より小さい場合に、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であると判定し、前記距離に応じたスコアが閾値以上である場合に、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名でないと判定する
    ことを含み、
    前記局所的特徴計算部は、前記整合された前記第1の署名情報の局所的特徴シーケンスと、前記第2の署名情報の局所的特徴シーケンスとに基づいて、前記第1の署名情報の局所的特徴シーケンスから得られる各時刻の特徴ベクトルを表す1×T×D(Tは時間的長さであり、Dは特徴ベクトルの次元数である。)の第1テンソル、及び前記第2の署名情報の局所的特徴シーケンスから得られる各時刻の特徴ベクトルを表す1×T×Dの第2テンソルを生成し、前記第1テンソルを前記抽出モデルに入力して、前記第1の署名情報について各時刻の局所的特徴ベクトルを抽出し、前記第2テンソルを前記抽出モデルに入力して、前記第2の署名情報について各時刻の局所的特徴ベクトルを抽出する
    照合方法。
  4. コンピュータに、
    入力手段による入力位置の時系列データである第1の署名情報及び第2の署名情報であって、各々異なる前記第1の署名情報及び前記第2の署名情報を受け付け、
    前記第1の署名情報について各時刻から抽出される特徴ベクトルを含む局所的特徴シーケンスと、前記第2の署名情報について各時刻から抽出される特徴ベクトルを含む局所的特徴シーケンスとに対して、時刻の対応関係を計算し、前記時刻の対応関係を用いて、前記第1の署名情報の局所的特徴シーケンス及び前記第2の署名情報の局所的特徴シーケンスを時間軸に沿って整合し、
    前記整合された前記第1の署名情報の局所的特徴シーケンス及び前記第2の署名情報の局所的特徴シーケンスの各々について、同一人物に関する署名であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付け、かつ、同一人物に関する署名の前記局所的特徴ベクトルが対応するように予め学習された、前記局所的特徴ベクトルを抽出する畳み込みニューラルネットワークである抽出モデルの中間層の出力を用いて、各時刻で、前記局所的特徴ベクトルを抽出し、
    前記第1の署名情報について抽出された各時刻の局所的特徴ベクトルと、前記第2の署名情報について抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記距離に応じたスコアが閾値より小さい場合に、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であると判定し、前記距離に応じたスコアが閾値以上である場合に、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名でないと判定する
    ことを実行させるためのプログラムであって、
    前記局所的特徴ベクトルを抽出することでは、前記整合された前記第1の署名情報の局所的特徴シーケンスと、前記第2の署名情報の局所的特徴シーケンスとに基づいて、前記第1の署名情報の局所的特徴シーケンスから得られる各時刻の特徴ベクトルを表す1×T×D(Tは時間的長さであり、Dは特徴ベクトルの次元数である。)の第1テンソル、及び前記第2の署名情報の局所的特徴シーケンスから得られる各時刻の特徴ベクトルを表す1×T×Dの第2テンソルを生成し、前記第1テンソルを前記抽出モデルに入力して、前記第1の署名情報について各時刻の局所的特徴ベクトルを抽出し、前記第2テンソルを前記抽出モデルに入力して、前記第2の署名情報について各時刻の局所的特徴ベクトルを抽出する
    プログラム。
JP2019077513A 2019-04-16 2019-04-16 照合装置、学習装置、方法、及びプログラム Active JP7347750B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019077513A JP7347750B2 (ja) 2019-04-16 2019-04-16 照合装置、学習装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077513A JP7347750B2 (ja) 2019-04-16 2019-04-16 照合装置、学習装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020177318A JP2020177318A (ja) 2020-10-29
JP7347750B2 true JP7347750B2 (ja) 2023-09-20

Family

ID=72935561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077513A Active JP7347750B2 (ja) 2019-04-16 2019-04-16 照合装置、学習装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7347750B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114996688B (zh) * 2022-05-26 2023-11-21 华南理工大学 一种基于软动态时间规整的联机签名认证***和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6346359B1 (ja) * 2017-08-02 2018-06-20 株式会社エヌ・ティ・ティ・データ 署名照合システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Takashi Ito;Wataru Ohyama;Tetsushi Wakabayashi;Fumitaka Kimura,Combination of Signature Verification Techniques by SVM,2012 International Conference on Frontiers in Handwriting Recognition,米国,IEEE,2012年,pp.430-433,URL,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6424431

Also Published As

Publication number Publication date
JP2020177318A (ja) 2020-10-29

Similar Documents

Publication Publication Date Title
CN109145766B (zh) 模型训练方法、装置、识别方法、电子设备及存储介质
US20190213314A1 (en) Verifying Identity Based on Facial Dynamics
US10963685B2 (en) Generating variations of a known shred
US20210350346A1 (en) System and method for using passive multifactor authentication to provide access to secure services
CN112395979B (zh) 基于图像的健康状态识别方法、装置、设备及存储介质
Ghosh et al. A dempster–shafer theory based classifier combination for online signature recognition and verification systems
US20170076152A1 (en) Determining a text string based on visual features of a shred
WO2021031817A1 (zh) 情绪识别方法、装置、计算机装置及存储介质
US11545154B2 (en) Method and apparatus with registration for speaker recognition
Xiao et al. Multi-sensor data fusion for sign language recognition based on dynamic Bayesian network and convolutional neural network
US20190205589A1 (en) Latent fingerprint ridge flow map improvement
CN110717407A (zh) 基于唇语密码的人脸识别方法、装置及存储介质
TW202125323A (zh) 利用人工智慧模組學習臉部辨識的處理方法
Mohammad et al. Contour-based character segmentation for printed Arabic text with diacritics
JP7347750B2 (ja) 照合装置、学習装置、方法、及びプログラム
TWI325568B (en) A method for face varification
Kumar et al. Face and Iris‐Based Secured Authorization Model Using CNN
CN113762005B (zh) 特征选择模型的训练、对象分类方法、装置、设备及介质
CN112084944B (zh) 一种动态演化表情的识别方法与***
CN113378852A (zh) 关键点检测方法、装置、电子设备及存储介质
US11574641B2 (en) Method and device with data recognition
US11847401B2 (en) Method and apparatus for recognizing handwriting inputs in multiple-user environment
JP7174382B2 (ja) 学習装置、照合装置、学習方法、照合方法及びプログラム
Sucharta et al. A survey on various pattern recognition methods for the identification of a Different types of images
US10546179B2 (en) Distorted fingerprint matching using pose and minutia grouping

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230830

R150 Certificate of patent or registration of utility model

Ref document number: 7347750

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150