JP2019185135A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2019185135A
JP2019185135A JP2018071118A JP2018071118A JP2019185135A JP 2019185135 A JP2019185135 A JP 2019185135A JP 2018071118 A JP2018071118 A JP 2018071118A JP 2018071118 A JP2018071118 A JP 2018071118A JP 2019185135 A JP2019185135 A JP 2019185135A
Authority
JP
Japan
Prior art keywords
unit
authentication key
neural network
weight
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018071118A
Other languages
English (en)
Other versions
JP6906469B2 (ja
Inventor
和英 福島
Kazuhide Fukushima
和英 福島
清良 披田野
Seira Hidano
清良 披田野
清本 晋作
Shinsaku Kiyomoto
晋作 清本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018071118A priority Critical patent/JP6906469B2/ja
Publication of JP2019185135A publication Critical patent/JP2019185135A/ja
Application granted granted Critical
Publication of JP6906469B2 publication Critical patent/JP6906469B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】学習モデルの出所を特定することができる技術を提供する。【解決手段】情報処理装置1において、重み取得部30は、目的タスクを検出するため複数の層を備えるニューラルネットワークの各層の重みを取得する。特徴量生成部31は、重みを所定の規則に従って縮約した縮約重みに基づいて特徴量を生成する。鍵生成部32は、特徴量をファジーエクストラクタ(Fuzzy Extractors)に入力して得られた認証鍵を、ニューラルネットワークの出所を検証するための認証鍵として生成する。認証鍵管理部33は、ニューラルネットワークと認証鍵とを紐づけて記憶部に記憶させる。【選択図】図2

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)の高速化、メモリの大容量化、及び機械学習技術が急速に進んできている。このため、数十万から百万といったオーダーの学習データを用いる機械学習が可能となり、精度の高い識別技術や分類技術が確立されつつある(非特許文献1参照)。
Yangqing Jia, Evan Shelhamer, Jeff Donahue, Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama, and Trevor Darrell. Caffe: Convolutional architecture for fast feature embedding. In Proceedings of the 22nd ACM international conference on Multimedia (pp. 675-678). ACM.
大量の学習データに基づく機械学習を実行するためには大量の計算コストがかかる。また、大量の学習データを用意すること、及び用意した学習データを機械学習に用いるために加工する前処理にも膨大な労力を要する。一方で、機械学習によって生成された学習モデルはデジタルデータであり、その複製は容易である。さらに、一般に学習モデル生成に用いられた学習データを、学習モデル自体から推測することは難しい。
このため、学習モデルを生成した者は、その学習モデルが第三者によって不正に利用されたとしても、不正を立証することが難しい。収集した学習データと、学習データに基づいて生成された学習モデルとはそれぞれ労力をかけて取得した価値あるものであり、不正利用から学習モデルを守ることが望まれている。
本発明はこれらの点に鑑みてなされたものであり、学習モデルの出所を特定することができる技術を提供することを目的とする。
本発明の第1の態様は、情報処理装置である。この装置は、目的タスクを検出するため複数の層を備えるニューラルネットワークの各層の重みを取得する重み取得部と、前記重みを所定の規則に従って縮約した縮約重みに基づいて特徴量を生成する特徴量生成部と、前記特徴量をファジーエクストラクタ(Fuzzy Extractors)に入力して得られた認証鍵を、前記ニューラルネットワークの出所を検証するための認証鍵として生成する鍵生成部と、前記ニューラルネットワークと前記認証鍵とを紐づけて記憶部に記憶させる認証鍵管理部と、を備える。
前記特徴量生成部は、前記重みの絶対値が所定の丸め閾値未満の重みを0に置換する丸め部と、前記丸め部が置換した後の重みである丸め重みを複数のクラスタにクラスタリングするクラスタリング部と、前記複数のクラスタそれぞれに含まれる丸め重みの統計量を並べたベクトルを前記特徴量として生成する統計量算出部と、を備えてもよい。
前記鍵生成部は、前記特徴量を入力とする所定のハッシュ関数の出力値を前記認証鍵として生成するハッシュ値生成部と、誤り訂正符号を発生させて前記特徴量との排他的論理和である補助データを生成する補助データ生成部と、を備えてもよく、前記認証鍵管理部は、前記ニューラルネットワーク、前記認証鍵、及び前記補助データを紐づけて前記記憶部に記憶させてもよい。
前記鍵生成部は、異なるニューラルネットワーク毎に異なるシードを割り当てるシード割り当て部をさらに備えてもよく、前記ハッシュ値生成部は、前記特徴量と前記シードとの排他的論理和を入力とする前記ハッシュ関数の出力値を前記認証鍵として生成してもよく、前記認証鍵管理部は、前記ニューラルネットワーク、前記認証鍵、前記補助データに、さらに前記シードを紐づけて前記記憶部に記憶させてもよい。
前記鍵生成部は、認証対象とするニューラルネットワークの各層の重みに基づいて生成した特徴量と前記補助データとの排他的論理和に誤り訂正処理を実行する誤り訂正部をさらに備えてもよく、前記ハッシュ値生成部は、前記誤り訂正部の出力と、前記記憶部に記憶されているシードとの排他的論理和を入力とする前記ハッシュ関数の出力値を認証用の認証鍵として出力してもよく、前記情報処理装置は、前記ハッシュ関数が出力した前記認証用の認証鍵と、前記記憶部に記憶されている認証鍵とが一致する場合、認証対象とするニューラルネットワークと、前記記憶部に記憶されている認証鍵に紐づけられているニューラルネットワークとが同一であると認証する認証部をさらに備えてもよい。
本発明の第2の態様は、情報処理方法である。この方法において、プロセッサが、目的タスクを検出するため複数の層を備えるニューラルネットワークの各層の重みを取得するステップと、前記重みを所定の規則に従って縮約した縮約重みに基づいて特徴量を生成するステップと、前記ニューラルネットワークの出所を検証するための認証鍵を前記特徴量からファジーエクストラクタを用いて生成するステップと、前記ニューラルネットワークと前記認証鍵とを紐づけて記憶部に記憶させるステップと、を実行する。
本発明の第3の態様は、プログラムである。このプログラムは、コンピュータに、目的タスクを検出するため複数の層を備えるニューラルネットワークの各層の重みを取得する機能と、前記重みを所定の規則に従って縮約した縮約重みに基づいて特徴量を生成する機能と、前記ニューラルネットワークの出所を検証するための認証鍵を前記特徴量からファジーエクストラクタを用いて生成する機能と、前記ニューラルネットワークと前記認証鍵とを紐づけて記憶部に記憶させる機能と、を実現させる。
本発明によれば、学習モデルの出所を特定することができる。
実施の形態の概要を説明するための図である。 実施の形態に係る情報処理装置の機能構成を模式的に示す図である。 実施の形態に係る特徴量生成部の機能構成を模式的に示す図である。 実施の形態に係る特徴量生成部が実行する特徴量生成処理を説明するための図である。 実施の形態に係る鍵生成部の機能構成を模式的に示す図である。 鍵生成部と認証鍵管理部とによって構成されるファジーエクストラクタの機能構成を模式的に示す図である。 実施の形態に係る情報処理装置が実行する認証価値の登録処理の流れを説明するためのフローチャートである。 鍵生成部と認証鍵管理部とによって構成されるファジーエクストラクタの機能構成の別の例を示す模式図である。
<実施の形態の概要>
図1は、実施の形態の概要を説明するための図である。図1を参照して、実施の形態の概要を述べる。
実施の形態に係る情報処理装置の好適な処理対象は、ニューラルネットワークを用いて生成した学習モデルである。ニューラルネットワークのモデルパラメータは、例えばそのモデルパラメータを不正に入手した第三者がファインチューニングを施すことにより、学習モデルの性能をほとんど変えることなくモデルパラメータの値を改変することができる。このため、例えばバイナリコンペア等の単純な手法を用いて正当なモデルパラメータと不正利用が疑われるモデルパラメータとを比較しただけでは、モデルパラメータの作成者は、他者が用いているモデルパラメータが不正利用であることを立証するのは難しい。
そこで、実施の形態に係る情報処理装置は、まず学習モデルを構成するモデルパラメータから、改変に対してロバストな特徴量を抽出する。詳細は後述するが、実施の形態に係る情報処理装置は、モデルパラメータを縮約することによってパラメータ間の変動を丸めることにより、改変に対してロバストな特徴量を抽出する。
続いて、実施の形態に係る情報処理装置は、抽出した特徴量を既知のファジーエクストラクタに入力することにより、各学習モデルに固有の認証鍵を生成する。ファジーエクストラクタは生体情報等のノイズの多い信号から認証鍵を生成する技術である。実施の形態に係る情報処理装置は改変にロバストな特徴量をノイズ耐性が高いファジーエクストラクタに入力して認証鍵を生成するため、ファインチューニング等によってモデルパラメータの値が改変されたとしても、学習モデルの出所を精度高く検出することができる。
<実施の形態に係る情報処理装置1の機能構成>
図2は、実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。情報処理装置1は、記憶部2と制御部3とを備える。
記憶部2は、情報処理装置1を実現するコンピュータのBIOS(Basic Input Output System)等を格納するROM(Read Only Memory)や情報処理装置1の作業領域となるRAM(Random Access Memory)、OS(Operating System)やアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置である。
制御部3は、情報処理装置1のCPUやGPU等のプロセッサであり、記憶部2に記憶されたプログラムを実行することによって重み取得部30、特徴量生成部31、鍵生成部32、認証鍵管理部33、認証部34として機能する。なお、詳細は後述するが、鍵生成部32と認証鍵管理部33とは、ファジーエクストラクタを構成する。
図2は、情報処理装置1が単一の装置で構成されている場合の例を示している。しかしながら、情報処理装置1は、例えばクラウドコンピューティングシステムのように複数のプロセッサやメモリ等の計算リソースによって実現されてもよい。この場合、制御部3を構成する各部は、複数の異なるプロセッサの中の少なくともいずれかのプロセッサがプログラムを実行することによって実現される。
重み取得部30は、目的タスクを検出するため複数の層を備えるニューラルネットワークの各層の重みを取得する。ニューラルネットワークの学習モデルにおいては、ニューラルネットワークの各層の重みがモデルパラメータとなる。
特徴量生成部31は、重み取得部30が取得した重みを所定の規則に従って縮約した縮約重みを生成する。なお、「所定の規則」の詳細は後述する。特徴量生成部31は、生成した縮約重みに基づいて特徴量を生成する。鍵生成部32は、特徴量生成部31が生成した特徴量をファジーエクストラクタに入力して得られた認証鍵を、ニューラルネットワークの出所を検証するための認証鍵として生成する。認証鍵管理部33は、ニューラルネットワークと認証鍵とを紐づけて記憶部2に記憶させる。これにより、情報処理装置1は、ニューラルネットワークの出所を精度よく特定するための認証鍵を生成することができる。
図3は、実施の形態に係る特徴量生成部31の機能構成を模式的に示す図である。特徴量生成部31は、丸め部310、クラスタリング部311、及び統計量算出部312を含む。以下、図3を参照して、特徴量生成部31が重みを縮約する際の「所定の規則」について説明する。
丸め部310は、重み取得部30が取得した重みの絶対値が所定の丸め閾値未満である重みを0に置換する。ここで、「所定の丸め閾値」とは、丸め部310が重みを縮約する際に参照する縮約対象判定閾値である。所定の丸め閾値の値は、縮約対象の重みの平均値及び標準偏差等を勘案して実験により定めればよい。
図4(a)−(d)は、実施の形態に係る特徴量生成部31が実行する特徴量生成処理を説明するための図である。図4(a)−(b)は、1から3までの3つの番号が振られた3つのノードを含む層と、4から6までの3つの番号が振られた3つのノードを含む層との2層のネットワークを示している。以下、1から3までの3つの番号が振られた3つのノードを含む層を「第1層」、4から6までの3つの番号が振られた3つのノードを含む層を「第2層」と呼ぶ。
図4(a)において、第1層と第2層とは全層結合している。図4(a)には、各ノード間の重みwij(i=1,2,3、j=4,5,6)を表形式で図示している。ここで「ノード間の重み」とは、第1層のノードの出力を第2層のノードの入力に変換する際に乗じられる係数である。例えば、第1層のノードの出力をx、第2層の入力をyとすると、yは以下の式(1)で表される。
Figure 2019185135
図4(b)は、丸め部310が丸め閾値を1.0として重みwijを丸めた結果を示している。丸め部310に丸められた結果、w15、w16、w24、w25、及びw36が削除されている。なお、図4(a)に示す重みwijのうち、値にアンダーラインが付された重みwijは、丸め部310が丸める対象とした重みwijである。また、図4(a)において、ノード間のつながりを破線で示している個所は、丸め部310が丸める対象とした個所を示している。
このように、丸め部310が重みwijを閾値処理することにより、丸め閾値以下の小さな重みwijの変動は全て刈り取られることになる。これにより、重みwijの変動に対するロバスト性を高めることができる。
特徴量生成部31中のクラスタリング部311は、丸め部310が置換した後の重みである丸め重みを複数のクラスタにクラスタリングする。図4(c)は、クラスタリング部311によるクラスタリングの結果を示すための模式図である。クラスタリング部311は、丸め部310が丸めの対象としなかったw14、w26、w34、及びw35の4つの重みをクラスタリングの対象とする。なお、クラスタリング部311は、例えばk−means法などの既知のクラスタリング手法を用いて丸め重みをクラスタリングすればよい。
図4(c)は、クラスタリング部311が、重みwijを、w14とw26とを含む第1クラスタC1、w34を含む第2クラスタC2、及びw35を含む第3クラスタc3の3つのクラスタに分類した場合の例を示している。
統計量算出部312は、クラスタリング部311がクラスタリングした複数のクラスタそれぞれに含まれる丸め重みの統計量を並べたベクトルを特徴量として生成する。図4(d)は、統計量算出部312が特徴量を生成するための統計量として、各クラスタに含まれる丸め重みの平均値を採用した場合の各クラスタの特徴量を示している。
なお、統計量算出部312は、各クラスタに含まれる重みwijを代表するための値であれば、平均値以外の統計量を採用してもよい。例えば、統計量算出部312は、平均値に変えて、例えば最頻値や中央値を、特徴量を生成するための統計量として採用してもよい。
このように、クラスタリング部311が重みwijをクラスタリングすることにより、重みwijに多少の変動があったとしても、重みwijは概ね同じクラスタにクラスタリングされる。さらに、統計量算出部312が各クラスタの統計量を特徴量とすることにより、重みwijに変動があったとしても統計処理によって丸められる。これにより、統計量算出部312は、重みwijの変動に対するロバスト性の高い特徴量を生成できる。
以上より、特徴量生成部31は、ニューラルネットワークの各層の重みに基づいて特徴量を生成することができる。
続いて、認証鍵の生成及び認証鍵を用いた認証について説明する。
図5は、実施の形態に係る鍵生成部32の機能構成を模式的に示す図である。鍵生成部32は、ハッシュ値生成部320、補助データ生成部321、シード割り当て部322、及び誤り訂正部323を含む。
シード割り当て部322は、異なるニューラルネットワーク毎に異なるシードを割り当てる。ハッシュ値生成部320は、まず、特徴量生成部31が生成した特徴量と、シード割り当て部322が割り当てたシードとの排他的論理和を生成する。続いて、ハッシュ値生成部320は、生成した排他的論理和を入力とする所定のハッシュ関数の出力値を、認証鍵として生成する。ハッシュ関数は、MD5(Message Digest Algorithm 5)やSHA−2(Secure Hash Algorithm 2)等、既知のハッシュ関数を用いて実現できる。
補助データ生成部321は、まず、誤り訂正符号を発生させる。続いて、補助データ生成部321は、発生させた誤り訂正符号と、特徴量生成部31が生成した特徴量との排他的論理和を生成する。補助データ生成部321が生成した誤り訂正符号と特徴量との排他的論理和は、ニューラルネットワークの出所を検証する際の補助データとして使用される。
認証鍵管理部33は、特徴量生成の元となったニューラルネットワーク、ハッシュ値生成部320が生成した認証鍵、補助データ生成部321が生成した補助データ、及びシード割り当て部322が割り当てたシードを紐づけて記憶部2に記憶させる。以上より、鍵生成部32は、ニューラルネットワーク毎に異なる認証鍵を生成し、記憶部2に登録することができる。
続いて、ニューラルネットワークの認証時の動作について説明する。
誤り訂正部323は、認証対象とするニューラルネットワークの各層の重みに基づいて生成した特徴量と、記憶部2から読み出した補助データとの排他的論理和に誤り訂正処理を実行する。ハッシュ値生成部320は、誤り訂正部323の出力と、記憶部2に記憶されているシードとの排他的論理和を入力とするハッシュ関数の出力値を認証用の認証鍵として出力する。
認証部34は、ハッシュ関数が出力した認証用の認証鍵と、記憶部2に記憶されている認証鍵とが一致することを条件として、認証対象とするニューラルネットワークの正当性を認証する。これにより、情報処理装置1は、学習モデルの出所を特定することができる。
上述したように、実施の形態に係る情報処理装置1における鍵生成部32と認証鍵管理部33とは、ファジーエクストラクタを構成している。
図6(a)−(b)は、鍵生成部32と認証鍵管理部33とによって構成されるファジーエクストラクタの機能構成を模式的に示す図である。具体的には、図6(a)は認証鍵の生成時の機能構成を示す図であり、図6(b)は、認証時の機能構成を模式的に示す図である。
図6(a)に示すように、認証鍵の登録時には、ニューラルネットワークから抽出された特徴量とシードとの排他的論理和がハッシュ関数に入力され、その出力が認証鍵となる。また、特徴量と誤り訂正符号との排他的論理和が補助データとなる。シード、認証鍵、及び補助データがニューラルネットワークと紐づけて記憶部2に登録される。
図6(b)に示すように、認証鍵を用いた認証時には、認証対象のニューラルネットワークから抽出された特徴量と、記憶部2から読み出された補助データとの排他的論理和が、誤り訂正器に入力される。誤り訂正された排他的論理和と補助データとの排他的論理和に対し、さらに記憶部2から読み出されたシードとの排他的論理和が生成され、ハッシュ関数の入力となる。ハッシュ関数が出力した認証鍵が、記憶部2に登録されている認証鍵と一致する場合、認証部34は、認証対象のニューラルネットワークは、記憶部2に登録されているニューラルネットワークと一致すると判定する。
このように、実施の形態に係る情報処理装置1において、ファジーエクストラクタの内部で誤り訂正処理が実行されるため、ノイズ耐性のある認証を実行することができる。また、ファジーエクストラクタに入力する特徴量も、閾値処理とクラスタリングによる代表値抽出とを用いてロバスト性を上げている。これにより、情報処理装置1は、ファインチューニング等によって学習モデルのモデルパラメータが改変されたとしても、学習モデルの出所を特定できる確率を高めることができる。
<情報処理装置1が実行する学習方法の処理フロー>
図7は、実施の形態に係る情報処理装置1が実行する認証価値の登録処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1が起動したときに開始する。
重み取得部30は、目的タスクを検出するため複数の層を備えるニューラルネットワークの各層の重みを取得する(S2)。特徴量生成部31は、重み取得部30が取得した重みを所定の規則に従って縮約し、縮約重みを生成する(S4)。特徴量生成部31は、生成した縮約重みに基づいて特徴量を生成する(S6)。
鍵生成部32は、特徴量生成部31が生成した特徴量をファジーエクストラクタに入力して得られた認証鍵を、特徴量のニューラルネットワークの出所を検証するための認証鍵として生成する(S8)。認証鍵管理部33は、ニューラルネットワークと認証鍵とを紐づけて記憶部2に記憶させる(S10)。
認証鍵管理部33がニューラルネットワークと認証鍵とを紐づけて記憶部2に記憶させると、本フローチャートにおける処理は終了する。
<実施の形態に係る情報処理装置1が奏する効果>
以上説明したように、実施の形態に係る情報処理装置1によれば、学習モデルの出所を特定することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。
<変形例>
上記では、鍵生成部32がシード割り当て部322を備える場合、すなわちファジーエクストラクタがシードを利用する場合について説明した。ニューラルネットワーク毎に異なるシードを生成して登録することにより、認証の信頼性を高められる点で効果がある。しかしながら、ニューラルネットワークの出所を検証するという目的に対しては、シードは必ずしも必要ではない。
図8(a)−(b)は、鍵生成部32と認証鍵管理部33とによって構成されるファジーエクストラクタの機能構成の別の例を示す模式図であり、シードを利用しない場合の例を示す図である。具体的には、図8(a)は、シードを用いない場合の認証鍵の生成時の機能構成を示す図である。また、図8(b)は、シードを利用しない場合の認証時の機能構成を模式的に示す図である。
図8(a)に示すように、認証鍵の登録時において、ハッシュ値生成部320は、特徴量を入力とする所定のハッシュ関数の出力値を認証鍵として生成する。補助データ生成部321は、誤り訂正符号と特徴量との排他的論理和を補助データとして生成する。なお、認証鍵管理部33は、ニューラルネットワーク、認証鍵、及び補助データを紐づけて記憶部2に記憶させる。
図8(b)に示すように、認証時には、認証対象のニューラルネットワークから抽出された特徴量と、記憶部2から読み出された補助データとの排他的論理和が、誤り訂正器に入力される。誤り訂正された排他的論理和と補助データとの排他的論理和が、ハッシュ関数の入力となる。ハッシュ関数が出力した認証鍵が、記憶部2に登録されている認証鍵と一致する場合、認証部34は、認証対象のニューラルネットワークは、記憶部2に登録されているニューラルネットワークと一致すると判定する。
このように、ファジーエクストラクタ内でシードの割り当てをしなくても、ニューラルネットワークの出所を検証するための認証鍵の登録と、出所を検証するための認証を実施することができる。シードを利用する場合と比較して、登録に必要なデータを削減でき、また、認証時の演算を減らして高速化できる点で効果がある。
1・・・情報処理装置
2・・・記憶部
3・・・制御部
30・・・重み取得部
31・・・特徴量生成部
310・・・丸め部
311・・・クラスタリング部
312・・・統計量算出部
32・・・鍵生成部
320・・・ハッシュ値生成部
321・・・補助データ生成部
322・・・シード割り当て部
323・・・誤り訂正部
33・・・認証鍵管理部
34・・・認証部

Claims (7)

  1. 目的タスクを検出するため複数の層を備えるニューラルネットワークの各層の重みを取得する重み取得部と、
    前記重みを所定の規則に従って縮約した縮約重みに基づいて特徴量を生成する特徴量生成部と、
    前記特徴量をファジーエクストラクタ(Fuzzy Extractors)に入力して得られた認証鍵を、前記ニューラルネットワークの出所を検証するための認証鍵として生成する鍵生成部と、
    前記ニューラルネットワークと前記認証鍵とを紐づけて記憶部に記憶させる認証鍵管理部と、
    を備える情報処理装置。
  2. 前記特徴量生成部は、
    前記重みの絶対値が所定の丸め閾値未満の重みを0に置換する丸め部と、
    前記丸め部が置換した後の重みである丸め重みを複数のクラスタにクラスタリングするクラスタリング部と、
    前記複数のクラスタそれぞれに含まれる丸め重みの統計量を並べたベクトルを前記特徴量として生成する統計量算出部と、
    を備える、請求項1に記載の情報処理装置。
  3. 前記鍵生成部は、
    前記特徴量を入力とする所定のハッシュ関数の出力値を前記認証鍵として生成するハッシュ値生成部と、
    誤り訂正符号を発生させて前記特徴量との排他的論理和である補助データを生成する補助データ生成部と、を備え、
    前記認証鍵管理部は、前記ニューラルネットワーク、前記認証鍵、及び前記補助データを紐づけて前記記憶部に記憶させる、
    請求項1又は2に記載の情報処理装置。
  4. 前記鍵生成部は、異なるニューラルネットワーク毎に異なるシードを割り当てるシード割り当て部をさらに備え、
    前記ハッシュ値生成部は、前記特徴量と前記シードとの排他的論理和を入力とする前記ハッシュ関数の出力値を前記認証鍵として生成し、
    前記認証鍵管理部は、前記ニューラルネットワーク、前記認証鍵、前記補助データに、さらに前記シードを紐づけて前記記憶部に記憶させる、
    請求項3に記載の情報処理装置。
  5. 前記鍵生成部は、認証対象とするニューラルネットワークの各層の重みに基づいて生成した特徴量と前記補助データとの排他的論理和に誤り訂正処理を実行する誤り訂正部をさらに備え、
    前記ハッシュ値生成部は、前記誤り訂正部の出力と、前記記憶部に記憶されているシードとの排他的論理和を入力とする前記ハッシュ関数の出力値を認証用の認証鍵として出力し、
    前記情報処理装置は、
    前記ハッシュ関数が出力した前記認証用の認証鍵と、前記記憶部に記憶されている認証鍵とが一致する場合、認証対象とするニューラルネットワークと、前記記憶部に記憶されている認証鍵に紐づけられているニューラルネットワークとが同一であると認証する認証部をさらに備える、
    請求項4に記載の情報処理装置。
  6. プロセッサが、
    目的タスクを検出するため複数の層を備えるニューラルネットワークの各層の重みを取得するステップと、
    前記重みを所定の規則に従って縮約した縮約重みに基づいて特徴量を生成するステップと、
    前記ニューラルネットワークの出所を検証するための認証鍵を前記特徴量からファジーエクストラクタ(Fuzzy Extractors)を用いて生成するステップと、
    前記ニューラルネットワークと前記認証鍵とを紐づけて記憶部に記憶させるステップと、
    を実行する情報処理方法。
  7. コンピュータに、
    目的タスクを検出するため複数の層を備えるニューラルネットワークの各層の重みを取得する機能と、
    前記重みを所定の規則に従って縮約した縮約重みに基づいて特徴量を生成する機能と、
    前記ニューラルネットワークの出所を検証するための認証鍵を前記特徴量からファジーエクストラクタ(Fuzzy Extractors)を用いて生成する機能と、
    前記ニューラルネットワークと前記認証鍵とを紐づけて記憶部に記憶させる機能と、
    を実現させるプログラム。
JP2018071118A 2018-04-02 2018-04-02 情報処理装置、情報処理方法、及びプログラム Active JP6906469B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018071118A JP6906469B2 (ja) 2018-04-02 2018-04-02 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018071118A JP6906469B2 (ja) 2018-04-02 2018-04-02 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019185135A true JP2019185135A (ja) 2019-10-24
JP6906469B2 JP6906469B2 (ja) 2021-07-21

Family

ID=68341164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018071118A Active JP6906469B2 (ja) 2018-04-02 2018-04-02 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6906469B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022203180A1 (ko) * 2021-03-23 2022-09-29 삼성전자주식회사 뉴럴 네트워크에 대한 해시 인증을 수행하는 전자 장치 및 그 동작 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167076A1 (ja) * 2015-04-16 2016-10-20 ブリルニクスインク 固体撮像装置、固体撮像装置の駆動方法、および電子機器

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167076A1 (ja) * 2015-04-16 2016-10-20 ブリルニクスインク 固体撮像装置、固体撮像装置の駆動方法、および電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YUSUKE UCHIDA, ET AL.: "Embedding Watermarks into Deep Neural Networks", ARXIV, JPN7021002093, 20 April 2017 (2017-04-20), ISSN: 0004524333 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022203180A1 (ko) * 2021-03-23 2022-09-29 삼성전자주식회사 뉴럴 네트워크에 대한 해시 인증을 수행하는 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
JP6906469B2 (ja) 2021-07-21

Similar Documents

Publication Publication Date Title
US10726356B1 (en) Target variable distribution-based acceptance of machine learning test data sets
JP5506785B2 (ja) 勾配ヒストグラムを用いた指紋表現
US20190354896A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
Sandhya et al. Securing fingerprint templates using fused structures
CN106997367B (zh) 程序文件的分类方法、分类装置和分类***
AU2019200711B2 (en) Biometric verification
KR101716564B1 (ko) 하둡 기반의 악성코드 탐지 방법과 시스템
CN106650799A (zh) 一种电子证据分类提取方法及***
CN111159413A (zh) 日志聚类方法、装置、设备及存储介质
CN111701247B (zh) 用于确定统一账号的方法和设备
JP2019101927A (ja) 学習システム及び画像検索システム
JP2015170101A (ja) 生体認証装置、方法及びプログラム
KR102126795B1 (ko) 딥러닝 기반의 이미지 개인정보 가공장치 시스템, 장치 및 그 방법
JP7060449B2 (ja) 生体認証システム、生体認証方法、及び生体認証プログラム
Siddiqui et al. Continuous authentication using mouse movements, machine learning, and Minecraft
JP6906469B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN112348041B (zh) 日志分类、日志分类训练方法及装置、设备、存储介质
KR102181340B1 (ko) 바이오매트릭스와 Fuzzy Vault를 이용하여 암호학적 키를 생성하는 방법 및 시스템
GB2546567A (en) Method of associating a person with a digital object
CN111555889A (zh) 电子签名的验证方法、装置、计算机设备和存储介质
JP7339866B2 (ja) 鍵生成装置及び鍵生成方法
Verheyen et al. Beware the Doppelgänger: Attacks against Adaptive Thresholds in Facial Recognition Systems
CN117221018B (zh) 一种基于数据编码的数据安全传输方法及***
Zhao et al. Graph watermarks
US20240078335A1 (en) System and method for improved watermarking and data tracing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210629

R150 Certificate of patent or registration of utility model

Ref document number: 6906469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150