JP6823523B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP6823523B2
JP6823523B2 JP2017072610A JP2017072610A JP6823523B2 JP 6823523 B2 JP6823523 B2 JP 6823523B2 JP 2017072610 A JP2017072610 A JP 2017072610A JP 2017072610 A JP2017072610 A JP 2017072610A JP 6823523 B2 JP6823523 B2 JP 6823523B2
Authority
JP
Japan
Prior art keywords
data
teacher data
teacher
machine learning
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017072610A
Other languages
English (en)
Other versions
JP2018173890A (ja
Inventor
小林 達也
達也 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017072610A priority Critical patent/JP6823523B2/ja
Priority to EP18776062.4A priority patent/EP3605407A4/en
Priority to CN201880020555.9A priority patent/CN110462646A/zh
Priority to PCT/JP2018/002369 priority patent/WO2018179765A1/ja
Publication of JP2018173890A publication Critical patent/JP2018173890A/ja
Priority to US16/525,771 priority patent/US20190354896A1/en
Application granted granted Critical
Publication of JP6823523B2 publication Critical patent/JP6823523B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • G06F21/16Program or content traceability, e.g. by watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Technology Law (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)の高速化、メモリの大容量化、及び機械学習技術が急速に進んできている。このため、数十万から百万といったオーダーの学習データを用いる機械学習が可能となり、精度の高い識別技術や分類技術が確立されつつある(非特許文献1参照)。
Yangqing Jia, Evan Shelhamer, Jeff Donahue, Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama, and Trevor Darrell. Caffe: Convolutional architecture for fast feature embedding. In Proceedings of the 22nd ACM international conference on Multimedia (pp. 675-678). ACM.
大量の学習データに基づく機械学習を実行するためには大量の計算コストがかかる。また、大量の学習データを用意すること、及び用意した学習データを機械学習に用いるために加工する前処理にも膨大な労力を要する。一方で、機械学習によって生成された学習モデルはデジタルデータであり、その複製は容易である。さらに、一般に学習モデル生成に用いられた学習データを、学習モデル自体から推測することは難しい。
このため、学習モデルを生成した者は、その学習モデルが第三者によって不正に利用されたとしても、不正を立証することが難しい。収集した学習データと、学習データに基づいて生成された学習モデルとはそれぞれ労力をかけて取得した価値あるものであり、不正利用から学習モデルを守ることが望まれている。
本発明はこれらの点に鑑みてなされたものであり、出所を特定することができる学習モデルを提供することを目的とする。
本発明の第1の態様は、情報処理装置である。この装置は、目的タスク学習用のデータ及びラベルを含む第1教師データと、透かし検出用のデータ及びラベルを含む第2教師データと、を取得する取得部と、前記第1教師データと前記第2教師データとに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成する機械学習部と、を備える。
前記情報処理装置は、前記第1教師データに含まれる複数のデータ同士の類似度よりも、前記第1教師データに含まれる複数のデータとの間の類似度が小さくなるデータを、前記第2教師データ用のデータとして取得する教師データ取得部をさらに備えてもよい。
前記機械学習部は、前記モデルパラメータの生成に関する前記第2教師データにおけるデータの1データ当たりの寄与率を、前記第1教師データにおけるデータの1データ当たりの寄与率よりも大きくしてもよい。
前記機械学習部は、前記第1教師データと前記第2教師データとを含む学習データから構成される複数のサブセットを生成するサブセット生成部と、前記複数のサブセットのうちの一つのサブセットを学習データとして、前記サブセット毎に順番に機械学習する学習実行部と、を備えてもよく、前記サブセット生成部は、前記複数のサブセットそれぞれに含まれる第2教師データの割合が、前記学習データ全体における第2教師データの割合よりも大きくなるように前記サブセットを生成してもよく、前記学習実行部は、前段の機械学習で生成されたモデルパラメータを、後段の機械学習におけるモデルパラメータの初期値として機械学習を実行してもよい。
サブセット生成部は、前記学習実行部による前記モデルパラメータの生成が終了するまでの間に前記サブセットの生成に用いる前記第2教師データの頻度を、前記第1教師データの使用頻度よりも大きくしてもよい。
前記サブセット生成部は、前記第1教師データと、前記第2教師データを複製することでデータ数を増やした新たな第2教師データとから、前記複数のサブセットを生成してもよい。
前記第2教師データを入力としたときの前記モデルパラメータから構成される機械学習モデルの出力に基づいて、透かしを検出する検出部をさらに備えてもよい。
本発明の第2の態様は、情報処理方法である。この方法において、プロセッサが、目的タスク学習用のデータ及びラベルを含む第1教師データを取得するステップと、透かし検出用のデータ及びラベルを含む第2教師データを取得するステップと、前記第1教師データと前記第2教師データとに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成するステップと、を実行する。
本発明の第3の態様は、プログラムである。このプログラムは、コンピュータに、目的タスク学習用のデータ及びラベルを含む第1教師データを取得する機能と、透かし検出用のデータ及びラベルを含む第2教師データを取得する機能と、前記第1教師データと前記第2教師データとに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成する機能と、を実現させる。
本発明によれば、出所を特定することができる学習モデルを提供することができる。
実施の形態に係る情報処理装置の概要を説明するための図である。 実施の形態に係る情報処理装置の機能構成を模式的に示す図である。 実施の形態に係るサブセット生成部が実行するサブセット生成処理を説明するための図である。 元学習データとサブセットとにおける教師データの数を表形式に示す図である。 実施の形態に係る情報処理装置が実行する情報処理の流れを説明するためのフローチャートである。 実施の形態に係るサブセット生成部が実行するサブセット生成処理の流れの一例を説明するためのフローチャートである。
<実施の形態の概要>
図1は、実施の形態に係る情報処理装置1の概要を説明するための図である。実施の形態に係る情報処理装置1は、機械学習を用いて目的タスクを達成するための学習モデルを生成するための装置である。情報処理装置1は、CPUやGPU等のプロセッサ、DRAM(Dynamic Random Access Memory)等の作業メモリ、及びHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置によって構成される。情報処理装置1は、PC(Personal Computer)やワークステーション、サーバ等の単一の装置であってもよいし、クラウドサーバのように複数の装置から構成されてもよい。
情報処理装置1が実行する機械学習は、いわゆる「教師あり学習」であればどのようなものでもよいが、例えばディープラーニング(Deep Learning)をはじめとする多層構造のニューラルネットワーク、SVM(Support Vector Machine)、Boosting等の機械学習である。これらの教師あり学習では、目的タスク学習用のデータ及びラベルを含む教師データを学習することにより、目的タスクを判別するための判別器である学習モデルを生成する。
情報処理装置1が達成目標とする目的タスクは、画像認識や音声認識をはじめとする認識タスク、囲碁や将棋といったゲームのタスク、自動翻訳のタスク等、種々の分野にまたがる。本明細書においては、一例として、情報処理装置1の主な目的タスクが認識タスクであることを前提として説明する。
実施の形態に係る情報処理装置1は、教師データを学習して目的タスクを達成するための学習モデルを生成する「学習フェーズ」と、生成した学習モデルを用いて未知データを処理する「検出フェーズ」との二つのフェーズを実行する。例えば図1は、情報処理装置1は、画像データが「猫」の画像であるか、あるいは「犬」の画像であるかを判定する「犬猫判別」を目的タスクとする場合の例を示している。
犬猫判別タスクを達成するために、実施の形態に係る情報処理装置1は、猫又は犬を被写体に含む複数の異なる画像である第1データD1と、猫であることを示すためにあらかじめ定められたラベルL11と、犬であることを示すためにあらかじめ定められたラベルL12とから構成されるデータセットを学習する。このデータセットは、情報処理装置1が目的タスクを達成するために学習する「目的タスク学習用データセット」であり、以下説明の便宜上「第1教師データT1」と記載する。また、ラベルL11とラベルL12とを特に区別する場合を除いて、「第1ラベルL1」と記載する。
なお、情報処理装置1の目的タスクは「犬猫検出」のような2クラス判別タスクである場合に限定されない。犬及び猫の他に、例えば「鳥検出」等のように他のタスクを目的とする多クラス検出であってもよいし、猫とそれ以外のクラスのように判別するタスクであってもよい。いずれの場合でも、異なる目的タスクごとに、異なる学習データとそれに対応するラベルを用意する。
第1データD1の数は目的タスクに求められる精度や目的タスク自体の困難性を勘案して実験により定めればよいが、一例としては数十万から百万のオーダーである。情報処理装置1は、例えば既知のディープラーニング等の機械学習手法を用いて第1教師データT1を学習することにより、画像が猫画像か犬画像かを判別する犬猫判別器となるモデルパラメータPを生成する。なお、情報処理装置1がディープラーニングの手法を用いてモデルパラメータPを生成する場合、ニューラルネットワークの各層を構成する重みの集合がモデルパラメータPとなる。
情報処理装置1は、目的タスクである「猫画像」を入力した場合、ラベルL11を出力し、「犬画像」を入力した場合ラベルL12を出力するようにモデルパラメータPを生成する。情報処理装置1が生成するモデルパラメータPにおいては、いわば抽象化された「猫」又は「犬」の特徴が獲得されているといえる。このため、モデルパラメータPは、第1教師データT1に含まれている画像のみならず、第1教師データT1に含まれていない猫画像又は犬画像が入力されても、猫又は犬であることを示す第1ラベルL1を生成する汎化能力を持つ。
ここで、情報処理装置1が高い性能を持つモデルパラメータP、すなわち高い汎化能力を獲得したモデルパラメータPを生成するためには、適切な機械学習手法を選択すること、及び質の高い教師データを多数用意することが重要である。特に、大量かつ高品質のデータはそれ自体ビッグデータとしての価値があるものとなる。また、教師データの数が多くなるほど、情報処理装置1が実行する機械学習には多くの計算リソースが必要となる。すなわち、高い性能を持つモデルパラメータPの生成には、ビッグデータの用意に要するコストと、そのビッグデータの処理に要する計算コストとが必要となる。
このように、情報処理装置1が生成するモデルパラメータPは多くのコストが投入されて生み出された一種の財産ともいえる。そこで、実施の形態に係る情報処理装置1は、機械学習によってモデルパラメータPを生成する過程において、モデルパラメータPに電子的な「透かし」を埋め込む。具体的には、情報処理装置1は、上述した第1教師データと、透かし検出用の複数の第2データD2及び、各第2データD2に対応付けられた第2ラベルL2を含む第2教師データT2とに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータPを生成する。ここで、第1データD1と第2データD2とのデータ形式は同一であり、第1ラベルL1と第2ラベルL2とのデータ形式も同一である。図1に示す例では、各第2ラベルL2には、ラベルL11又はラベルL12があらかじめ割り当てられる。
このような学習によって生成されたモデルパラメータPに透かし検出用の第2データD2が入力されると、モデルパラメータPは、入力された第2データD2に対応付けられている第2ラベルL2を出力する。一般に、目的タスクが「犬猫判別」であるモデルパラメータPに、教師データに用いられていない画像を入力すると、その出力は「犬」又は「猫」のいずれかに対応するラベルがほぼランダムに出力されるはずである。これに対し、あらかじめ第2教師データT2で学習されたモデルパラメータPは、学習に用いた第2データD2を入力すれば、それに対応する第2ラベルL2が出力されることになる。
すなわち、第2データD2を含まない教師データを学習して生成されたモデルパラメータPに対する複数の第2データD2の出力が、各第2データD2に対応付けられた第2ラベルL2とすべて一致する確率は、入力する第2データD2の枚数が増えるほど減少する。これは、第2ラベルL2がモデルパラメータPのいわば「透かし」となり得ることを意味する。仮にモデルパラメータPが第三者に盗用されたとしても、モデルパラメータPの生成者等の権利者が第2データD2を用いて透かしを検出することにより、モデルパラメータPの出所を特定することができる。また、モデルパラメータPの権利者は、あらかじめモデルパラメータPに透かしが埋め込まれていることを公表することにより、モデルパラメータPが盗用されることの抑止力ともなる。
このように、実施の形態に係る情報処理装置1は、出所を特定することができる学習モデルを提供することにより、財産であるモデルパラメータPを保護することができる。
以下、実施の形態に係る情報処理装置1についてより詳細に説明する。
<情報処理装置1の機能構成>
図2は、実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。実施の形態に係る情報処理装置1は、記憶部2と制御部3とを備える。制御部3は、取得部30、教師データ取得部31、機械学習部32、及び検出部33を備える。機械学習部32は、サブセット生成部320と学習実行部321とを含む。
記憶部2は、情報処理装置1を実現するコンピュータのBIOS(Basic Input Output System)等を格納するROM(Read Only Memory)や情報処理装置1の作業領域となるRAM(Random Access Memory)、OS(Operating System)やアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDDやSSD等の大容量記憶装置である。
制御部3は、情報処理装置1のCPUやGPU等のプロセッサであり、記憶部2に記憶されたプログラムを実行することによって取得部30、教師データ取得部31、機械学習部32(サブセット生成部320及び学習実行部321)、及び検出部33として機能する。
取得部30は、目的タスク学習用の第1データD1及び第1ラベルL1を含む第1教師データT1と、透かし検出用の第2データD2及び第2ラベルL2を含む第2教師データT2と、を記憶部2から読み出して取得する。教師データ取得部31は、第1教師データT1に含まれる複数の第1データD1同士の類似度よりも、第1教師データT1に含まれる複数の第1データD1との間の類似度が小さくなるデータを、第2教師データT2用の第2データD2として取得する。ここで、データの「類似度」とは、データ同士の関連性を定量化できる指標であればどのような指標でもよいが、一例としてはデータ同士の相関値である。
教師データ取得部31は、ランダム画像やパターン画像を第2データD2として生成する。一般に、目的タスク学習用の第1データD1は何らかの意味がある画像(例えば、猫の画像)であるため、教師データ取得部31が人工的に生成したランダム画像やパターン画像は、第1データD1との相関が小さくなる。したがって、教師データ取得部31は、ランダムに生成したランダム画像やパターン画像を第2データD2とすることにより、第1データD1との類似度が小さな第2データD2を取得することができる。図1は、教師データ取得部31が生成したランダム画像を第2データD2とした場合の例を示している。
ランダム画像やパターン画像を生成することに替えて、あるいはそれに加えて、教師データ取得部31は、目的学習用データと形式のみが等しいデータを第2データD2として取得してもよい。例えば、目的タスク学習用のデータである第1データD1が「猫画像」又は「犬画像」である場合、教師データ取得部31は、鳥の画像や風景画像等の猫や犬とは異なる被写体が撮像された画像を第2データD2として取得してもよい。
このように、教師データ取得部31が、第1データD1同士の類似度よりも第1データD1と第2データD2との間の類似度が小さくなるような第2データD2を取得する。これにより、特徴空間において第1データD1と第2データD2とが分離しやすくなる。結果として、情報処理装置1は、透かしの検出精度の高いモデルパラメータPを生成することができる。
図2の説明に戻る。機械学習部32は、第1教師データT1と第2教師データT2とに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータPを生成する。機械学習部32は、目的タスク学習用の第1データD1と透かし検出用の第2データD2とを同時に機械学習することにより、生成するモデルパラメータPに透かしを埋め込むことができる。以下、機械学習部32による機械学習についてより詳細に説明する。
上述したように、機械学習部32が精度の高いモデルパラメータPを生成するために、数十万枚から百万枚におよぶ目的タスク学習用の第1データD1を処理することがある。これに対し、透かし検出用の第2データD2は、モデルパラメータPからモデルパラメータPの出所を特定するための透かしが検出できればよいため、多くて百枚程度であればよい。この場合、第1データD1のデータ数は、第2データD2のデータ数よりも、オーダーとして4桁から5桁も多くなる。すなわち、第2データD2は、第1データD1と第2データD2とを合わせた全学習データのうち0.1%にも満たないことになる。
一般に、教師あり機械学習は、多くの教師データが共通に持つ特徴から順に学習を進める傾向がある。このため、透かし検出用の第2データD2が全学習データのうち0.1%にも満たないとすると、第2データD2は機械学習部32による機械学習実行時に重要視されず、モデルパラメータPの生成に関する寄与率が小さくなる可能性が出てくる。
そこで、実施の形態に係る機械学習部32は、モデルパラメータPの生成に関する第2教師データT2における第2データD2の1データ当たりの寄与率を、第1教師データT1における第1データD1の1データ当たりの寄与率よりも大きくする。
第2データD2の機械学習に関する寄与率を増加することを実現するために、機械学習部32は、サブセット生成部320と学習実行部321とを備える。サブセット生成部320は、第1教師データT1と第2教師データT2とを含む学習データから構成される複数のサブセットを生成する。
ここで、「サブセット」は、学習実行部321が機械学習を実行する学習データの単位である。情報処理装置1が扱う教師データのうち、特に第1教師データT1のデータ数は膨大であるため、すべての教師データを情報処理装置1が備える作業メモリに展開することは現実的ではない。そこで、サブセット生成部320は、第1教師データT1の一部と第2教師データT2の一部とから読み出した教師データのサブセットを生成する。学習実行部321は、サブセット生成部320が生成したサブセットを単位として機械学習を実行する。これにより、情報処理装置1は、大量の教師データを用いた機械学習を実現できる。さらに、サブセット単位のモデルパラメータの更新を繰り返すことにより、短い収束時間でモデルパラメータの更新が可能となる。これにより、モデルパラメータの更新頻度を上げることができる。
より具体的には、学習実行部321は、サブセット生成部320が生成した複数のサブセットのうちの一つのサブセットを学習データとして、サブセット毎に順番に機械学習を実行する。サブセット生成部320は、複数のサブセットそれぞれに含まれる第2教師データT2の割合が、学習データ全体における第2教師データT2の割合よりも大きくなるようにサブセットを生成する。
図3は、実施の形態に係るサブセット生成部320が実行するサブセット生成処理を説明するための図である。サブセット生成部320は、第1データD1の中から一部のデータを読み出すとともに、第2データD2の中からも一部のデータを読み出す。サブセット生成部320は、読み出したデータを合わせて第1サブセットS1を生成する。サブセット生成部320はこの操作をn回(nは1以上の整数。例えばN=100)繰り返すことにより、第1サブセットS1から第nサブセットSnまでのn個のサブセットを生成する。
サブセット生成部320は、第1データD1をn等分し、それぞれを第1サブセットS1から第nサブセットSnまでのサブセットに割り当てる。すなわち、サブセット生成部320は、学習実行部321が第1サブセットS1から第nサブセットSnまでのn個のサブセットを用いた機械学習を終了するまでの間に、第1データD1を構成する各データを読み出す頻度は1回となる。
一方、サブセット生成部320は、学習実行部321が第1サブセットS1から第nサブセットSnまでのn個のサブセットを用いた機械学習を終了するまでの間に、サブセットの生成に用いる第2データD2の使用頻度を、第1データD1の使用頻度よりも大きくする。すなわち、サブセット生成部320は、学習実行部321が第1サブセットS1から第nサブセットSnまでのn個のサブセットを用いた機械学習を終了するまでの間に、1回よりも多くの頻度で第2データD2を構成する各データを読み出す。
例えば、第1データD1のデータ数が100万であり、第2データD2のデータ数が100であるとする。このとき、サブセット生成部320が各サブセットに含める第1データD1の数は、100万を100で除した1万である。一方、サブセット生成部320は、第2データD2を複数回読み出して各サブセットに含める。
例えば、サブセット生成部320は、一つのサブセットを構成するために各第2データD2を50回重複して読み出す。この結果、サブセット生成部320が各サブセットに含める第2データD2の数は、100に50を乗じた5000となる。これにより、学習データ全体における第2教師データT2の割合は約0.1%であったのに対し、複数のサブセットそれぞれに含まれる第2教師データT2の割合は約33%となる。
なお、サブセット生成部320は、第1教師データT1と、第2教師データT2を複製することでデータ数を増やした新たな第2教師データT2とから、複数のサブセットを生成してもよい。この場合も、サブセット生成部320が複製することによって第2教師データT2に含まれる第2データD2の数が増加する。結果として、サブセットそれぞれに含まれる第2教師データT2の割合が、学習データ全体における第2教師データT2の割合よりも大きくなる。
図4は、元学習データとサブセットとにおける教師データの数を表形式に示す図である。図4に示すように、第1データD1(目的タスク学習用データ)の元データの数は1,000,000であり、第2データD2(透かし検出用データ)の元データの数は100である。これに対し、各サブセットにおける第1データD1の数は10,000であり、第2データD2の数は5,000である。これにより、機械学習の過程においてモデルパラメータPの生成に関する第2データD2の寄与率を高めることができる。
学習実行部321は、複数のサブセットを順番に機械学習する際に、前段の機械学習で生成されたモデルパラメータPを、後段の機械学習におけるモデルパラメータPの初期値として機械学習を実行する。図3においては、学習実行部321が第1サブセットS1を機械学習することで得られたモデルパラメータが「モデルパラメータP1」である。モデルパラメータP1には、サブセット生成部320が機械学習を実行することによって第1サブセットS1から得られた知見が含まれる。
図3に図示してはいないが、学習実行部321は、サブセットS2を機械学習するときのモデルパラメータPの初期値をモデルパラメータP1とする。以後同様に、学習実行部321は、サブセットSm(1<m≦n)を機械学習するときのモデルパラメータPの初期値をモデルパラメータPm−1とする。これにより、サブセット生成部320は、事前の機械学習によって各サブセットから得られた知見を引き継いで機械学習を実行することができる。
このように、機械学習部32は、第1教師データT1と第2教師データT2とを含む学習データを複数のサブセットに分割し、サブセット毎に順番に機械学習をする。これにより、機械学習部32は、全学習データのデータ量が作業メモリのデータ量を超える場合であっても、全学習データについて学習を実行できる。機械学習部32は、各サブセットを構成する第2データD2の割合を、全学習データにおける第2データD2の割合よりも増加するようにサブセットを生成することにより、モデルパラメータPの生成に関する第2データD2の寄与率を上昇することができる。これにより、機械学習部32は、第2データD2が大量の第1データD1の中に埋もれることを抑制し、第2データD2の学習を実行することができる。
ここで、学習実行部321がすべてのサブセットについて機械学習が終了した後に、サブセット生成部320は、同一又は異なるサブセットを生成してもよい。学習実行部321は、サブセット生成部320が新たに生成した各サブセットを順番に機械学習をしてもよい。これを繰り返すことにより、機械学習部32は、モデルパラメータPの精度を高めることができる。学習実行部321は、最終的に生成したモデルパラメータPを記憶部2に格納する。以上で、情報処理装置1による学習フェーズは終了する。
続いて、情報処理装置1の検出フェーズについて簡単に説明する。情報処理装置1の学習フェーズは、情報処理装置1が学習データに基づいて機械学習によりモデルパラメータPを生成するフェーズである。これに対し、情報処理装置1の検出フェーズは、情報処理装置1が生成したモデルパラメータPに基づいて、未知データを処理するフェーズである。図1に示すように情報処理装置1の目的タスクが「犬猫判別」である場合、情報処理装置1は、未知データが犬画像であるか猫画像であるかを判別する。
具体的には、検出部33は、記憶部2からモデルパラメータPを読み出す。検出部33は、取得した未知データを入力したときのモデルパラメータPの出力値がラベルL11となる場合、未知データが猫画像であると判別する。また、モデルパラメータPの出力値がラベルL12である場合、未知データが犬画像であると判別する。未知データが犬画像又は猫画像のいずれでもない場合には、モデルパラメータPの出力値は、ラベルL11又はラベルL12のいずれかになるが、その出力は不安定で、出力前に予想をつけることは困難である。すなわち、未知データが犬画像又は猫画像のいずれでもない場合には、モデルパラメータPの出力はランダムに近い傾向になると考えてもよい。
ここで、モデルパラメータPは、第1教師データT1のみならず第2教師データT2にも基づいて生成されている。このため、検出部33がモデルパラメータPに第2データD2を入力すると、モデルパラメータPは、入力した第2データD2にあらかじめ対応付けられている第2ラベルL2を出力する。特に、検出部33がモデルパラメータPに複数の第2データD2を入力したときに、モデルパラメータPの出力値が各第2データD2にあらかじめ対応付けられている第2ラベルL2と一致するならば、モデルパラメータPは第2教師データT2を学習した蓋然性が非常に高くなる。
したがって、検出部33は、第2教師データに含まれる第2データD2を入力としたときの機械学習モデルの出力(すなわち、モデルパラメータPの出力)に基づいて、透かしを検出する検出部としても機能する。これにより、検出部33は、出所が不明のモデルパラメータPに対して第2データD2を入力することにより、モデルパラメータPが機械学習部32によって生成されたか否かを判定することができる。
<情報処理装置1が実行する情報処理の処理フロー>
図5は、実施の形態に係る情報処理装置1が実行する情報処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1が起動したときに開始する。
取得部30は、目的タスク学習用の第1データD1及び第1ラベルL1を含む第1教師データT1のインデックスを記憶部2から読み出して取得する(S2)。また、取得部30は、透かし検出用の第2データD2及び第2ラベルL2を含む第2教師データT2のインデックスを記憶部2から読み出して取得する(S4)。ここで「インデックス」とは、第1データD1又は第2データD2の実態ではなく、その格納位置を示す情報である。
サブセット生成部320は、第1教師データT1と第2教師データT2とを含む学習データから構成される複数のサブセットを生成する(S6)。学習実行部321は、サブセット生成部320が生成した複数のサブセットのうちの一つのサブセットを学習データとして、サブセット毎に順番に機械学習を実行してモデルパラメータPを生成する(S8)。
サブセット生成部320が生成したすべてのサブセットの学習が終了するまでの間(S10のNo)、学習実行部321は、機械学習に用いるサブセットを更新し(S12)、更新したサブセットに基づいてモデルパラメータPを生成する(S8)。
サブセット生成部320が生成したすべてのサブセットの学習が終了すると(S10のYes)、学習実行部321は、生成したモデルパラメータPを記憶部2に出力する(S14)。学習実行部321がモデルパラメータPを記憶部2に出力すると、本フローチャートにおける処理は終了する。
図6は、実施の形態に係るサブセット生成部320が実行するサブセット生成処理の流れの一例を説明するためのフローチャートであり、図5におけるステップS6をより詳細に説明するための図である。
学習実行部321は、目的タスク学習用データである第1データD1をn分割する(S62)。また、学習実行部321は、透かし検出用データである第2データD2の数を増やすために第2データD2を複製する(S64)。
学習実行部321は、複製して増加した透かし検出用データである第2データD2をn分割する(S66)。学習実行部321は、分割した第1データD1と第2データD2とから、n個の学習データのサブセットを生成する(S68)。
<実施の形態に係る情報処理装置1が奏する効果>
以上説明したように、実施の形態に係る情報処理装置1によれば、出所を特定することができる学習モデルを提供することができる。特に、モデルパラメータが公開されておらず、API(Application Program Interface)のような形で提供される場合であっても、実施の形態に係る情報処理装置1が生成した学習モデルであれば、出所を特定することができる。
また、教師データ取得部31が、第1データD1同士の類似度よりも、第1データD1との間の類似度が小さくなるようなデータを第2データD2として取得することにより、特徴空間において第1データD1と第2データD2とが分離しやすくなる。結果として、機械学習部32は、透かしの検出精度の高いモデルパラメータPを生成することができる。
また、サブセット生成部320は、モデルパラメータPの生成に関する第2データD2の1データ当たりの寄与率が、第1データD1の1データ当たりの寄与率よりも大きくなるように、学習データのサブセットを生成する。これにより、第1データD1のデータ数と第2データD2のデータ数とが平準化されるので、学習実行部321は、透かし検出用のデータである第2データD2を適切に学習してモデルパラメータPを生成することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。
<変形例>
上記では、サブセット生成部320が、透かし検出用のデータである第2データD2を読み出す頻度を高めることにより、モデルパラメータPの生成に関する第2データD2の寄与率を高める場合について説明した。しかしながら、モデルパラメータPの生成に関する第2データD2の寄与率を向上させる手法は、これに限られない。
一般に、教師あり学習においては、学習の過程においてモデルパラメータPを更新するための指標となる評価関数が用いられる。この評価関数は、学習途中のモデルパラメータPに教師データを入力した場合の出力値と、目的ラベルとの乖離を評価するために用いられる関数である。学習実行部321は、モデルパラメータPの出力値と目的ラベルとの乖離が大きいほど、モデルパラメータPの更新量を大きくする。
いま、学習途中のモデルパラメータPに第1データD1を入力した場合の出力値と第1ラベルL1との乖離度G1とする。同様に、学習途中のモデルパラメータPに第2データD2を入力した場合の出力値と第2ラベルL2との乖離度G2とする。変形例に係る学習実行部321は、乖離度G2に基づくモデルパラメータPの更新量を、乖離度G1に基づく更新量よりも大きくする。すなわち、乖離度G2と乖離度G1とが同じ値であっても、学習実行部321は、乖離度G2に基づいてモデルパラメータPを更新する量を、乖離度G1に基づいてモデルパラメータPを更新する量よりも多くする。
これにより、学習実行部321は、モデルパラメータPの生成に関する第2データD2の1データ当たりの寄与率を、第1データD1の1データ当たりの寄与率よりも大きくすることができる。
なお、乖離度G1に基づく更新量と乖離度G2に基づく更新量との比率は、第1データD1の数と第2データD2の数等を勘案して実験により定めればよい。例えば、第1データD1の数が百万であり、第2データD2の数が100の場合、乖離度G1に基づく更新量と乖離度G2に基づく更新量との比率を5000とする。これにより、モデルパラメータPの生成に関する第2データD2の1データ当たりの寄与率を、第2データD2の数が50万である場合と同様の寄与率とすることができる。
1・・・情報処理装置
2・・・記憶部
3・・・制御部
30・・・取得部
31・・・教師データ取得部
32・・・機械学習部
320・・・サブセット生成部
321・・・学習実行部
33・・・検出部

Claims (12)

  1. 目的タスク学習用のデータ及びラベルを含む第1教師データを取得する取得部と、
    前記第1教師データに含まれる複数のデータ同士の類似度よりも、前記第1教師データに含まれる複数のデータとの間の類似度が小さくなるデータを、透かし検出用のデータとして取得する教師データ取得部と、を備え、
    前記取得部は、前記透かし検出用のデータ及びラベルを含む第2教師データをさらに取得し
    前記第1教師データと前記第2教師データとに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成する機械学習部をさらに備える
    情報処理装置。
  2. 目的タスク学習用のデータ及びラベルを含む第1教師データと、透かし検出用のデータ及びラベルを含む第2教師データと、を取得する取得部と、
    前記第1教師データと前記第2教師データとに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成する機械学習部と、
    を備え
    前記機械学習部は、前記モデルパラメータの生成に関する前記第2教師データにおけるデータの1データ当たりの寄与率を、前記第1教師データにおけるデータの1データ当たりの寄与率よりも大きくする、
    情報処理装置。
  3. 目的タスク学習用のデータ及びラベルを含む第1教師データと、透かし検出用のデータ及びラベルを含む第2教師データと、を取得する取得部と、
    前記第1教師データと前記第2教師データとを含む学習データから構成される複数のサブセットを生成するサブセット生成部と、
    前記複数のサブセットのうちの一つのサブセットを学習データとして、前記サブセット毎に順番に機械学習することにより、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成する学習実行部と、を備え、
    前記サブセット生成部は、前記複数のサブセットそれぞれに含まれる第2教師データの割合が、前記学習データ全体における第2教師データの割合よりも大きくなるように前記サブセットを生成し、
    前記学習実行部は、前段の機械学習で生成されたモデルパラメータを、後段の機械学習におけるモデルパラメータの初期値として機械学習を実行する、
    情報処理装置。
  4. サブセット生成部は、前記学習実行部による前記モデルパラメータの生成が終了するまでの間に前記サブセットの生成に用いる前記第2教師データの頻度を、前記第1教師データの使用頻度よりも大きくする、
    請求項に記載の情報処理装置。
  5. 前記サブセット生成部は、前記第1教師データと、前記第2教師データを複製することでデータ数を増やした新たな第2教師データとから、前記複数のサブセットを生成する、
    請求項3又は4に記載の情報処理装置。
  6. 前記第2教師データを入力としたときの前記モデルパラメータから構成される機械学習モデルの出力に基づいて、透かしを検出する検出部をさらに備える、
    請求項1からのいずれか一項に記載の情報処理装置。
  7. プロセッサが、
    目的タスク学習用のデータ及びラベルを含む第1教師データを取得するステップと、
    透かし検出用のデータであって前記第1教師データに含まれる複数のデータ同士の類似度よりも、前記第1教師データに含まれる複数のデータとの間の類似度が小さくなるデータ及びラベルを含む第2教師データを取得するステップと、
    前記第1教師データと前記第2教師データとに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成するステップと、
    を実行する情報処理方法。
  8. プロセッサが、
    目的タスク学習用のデータ及びラベルを含む第1教師データを取得するステップと、
    透かし検出用のデータ及びラベルを含む第2教師データを取得するステップと、
    前記第1教師データと前記第2教師データとに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成するステップと、
    を実行し、
    前記モデルパラメータを生成するステップにおいて、前記モデルパラメータの生成に関する前記第2教師データにおけるデータの1データ当たりの寄与率を、前記第1教師データにおけるデータの1データ当たりの寄与率よりも大きくする
    情報処理方法。
  9. プロセッサが、
    目的タスク学習用のデータ及びラベルを含む第1教師データを取得するステップと、
    透かし検出用のデータ及びラベルを含む第2教師データを取得するステップと、
    前記第1教師データと前記第2教師データとを含む学習データから構成される複数のサブセットを生成するステップと、
    前記複数のサブセットのうちの一つのサブセットを学習データとして、前記サブセット毎に順番に機械学習することにより、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成するステップと、を実行し、
    前記サブセットを生成するステップにおいて、前記複数のサブセットそれぞれに含まれる第2教師データの割合が、前記学習データ全体における第2教師データの割合よりも大きくなるように前記サブセットを生成し、
    前記順番に機械学習するステップにおいて、前段の機械学習で生成されたモデルパラメータを、後段の機械学習におけるモデルパラメータの初期値として機械学習を実行する
    情報処理方法。
  10. コンピュータに、
    目的タスク学習用のデータ及びラベルを含む第1教師データを取得する機能と、
    透かし検出用のデータであって前記第1教師データに含まれる複数のデータ同士の類似度よりも、前記第1教師データに含まれる複数のデータとの間の類似度が小さくなるデータ及びラベルを含む第2教師データを取得する機能と、
    前記第1教師データと前記第2教師データとに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成する機能と、
    を実現させるプログラム。
  11. コンピュータに、
    目的タスク学習用のデータ及びラベルを含む第1教師データを取得する機能と、
    透かし検出用のデータ及びラベルを含む第2教師データを取得する機能と、
    前記第1教師データと前記第2教師データとに基づいて、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成する機能と、
    を実現させ
    前記モデルパラメータを生成する機能は、前記モデルパラメータの生成に関する前記第2教師データにおけるデータの1データ当たりの寄与率を、前記第1教師データにおけるデータの1データ当たりの寄与率よりも大きくす
    プログラム。
  12. コンピュータに、
    目的タスク学習用のデータ及びラベルを含む第1教師データを取得する機能と、
    透かし検出用のデータ及びラベルを含む第2教師データを取得する機能と、
    前記第1教師データと前記第2教師データとを含む学習データから構成される複数のサブセットを生成する機能と、
    前記複数のサブセットのうちの一つのサブセットを学習データとして、前記サブセット毎に順番に機械学習することにより、目的タスク及び透かしを検出するための機械学習モデルを構成するモデルパラメータを生成する機能と、を実現させ
    前記サブセットを生成する機能は、前記複数のサブセットそれぞれに含まれる第2教師データの割合が、前記学習データ全体における第2教師データの割合よりも大きくなるように前記サブセットを生成し、
    前記順番に機械学習する機能は、前段の機械学習で生成されたモデルパラメータを、後段の機械学習におけるモデルパラメータの初期値として機械学習を実行す
    プログラム。
JP2017072610A 2017-03-31 2017-03-31 情報処理装置、情報処理方法、及びプログラム Active JP6823523B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017072610A JP6823523B2 (ja) 2017-03-31 2017-03-31 情報処理装置、情報処理方法、及びプログラム
EP18776062.4A EP3605407A4 (en) 2017-03-31 2018-01-26 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND COMPUTER READABLE STORAGE MEDIUM
CN201880020555.9A CN110462646A (zh) 2017-03-31 2018-01-26 信息处理设备、信息处理方法以及计算机可读存储介质
PCT/JP2018/002369 WO2018179765A1 (ja) 2017-03-31 2018-01-26 情報処理装置、情報処理方法、及びコンピュータ可読記憶媒体
US16/525,771 US20190354896A1 (en) 2017-03-31 2019-07-30 Information processing apparatus, information processing method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017072610A JP6823523B2 (ja) 2017-03-31 2017-03-31 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018173890A JP2018173890A (ja) 2018-11-08
JP6823523B2 true JP6823523B2 (ja) 2021-02-03

Family

ID=63674927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017072610A Active JP6823523B2 (ja) 2017-03-31 2017-03-31 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US20190354896A1 (ja)
EP (1) EP3605407A4 (ja)
JP (1) JP6823523B2 (ja)
CN (1) CN110462646A (ja)
WO (1) WO2018179765A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7170000B2 (ja) * 2018-01-24 2022-11-11 富士フイルム株式会社 学習システム、方法及びプログラム
JP6964066B2 (ja) * 2018-12-17 2021-11-10 Kddi株式会社 情報処理装置、透かし生成方法、及びプログラム
US20210319098A1 (en) * 2018-12-31 2021-10-14 Intel Corporation Securing systems employing artificial intelligence
EP3940626A4 (en) * 2019-03-14 2022-05-04 Panasonic Intellectual Property Corporation of America INFORMATION PROCESSING METHOD AND SYSTEM
WO2020194622A1 (ja) * 2019-03-27 2020-10-01 日本電気株式会社 情報処理装置、情報処理方法、及び非一時的なコンピュータ可読媒体
US11645586B2 (en) 2019-10-10 2023-05-09 Baidu Usa Llc Watermark unit for a data processing accelerator
US11537689B2 (en) 2019-10-10 2022-12-27 Baidu Usa Llc Method and system for signing an artificial intelligence watermark using a kernel
US11740940B2 (en) * 2019-10-10 2023-08-29 Baidu Usa Llc Method and system for making an artifical intelligence inference using a watermark-inherited kernel for a data processing accelerator
US11645116B2 (en) * 2019-10-10 2023-05-09 Baidu Usa Llc Method and system for making an artificial intelligence inference using a watermark-enabled kernel for a data processing accelerator
US11443243B2 (en) 2019-10-10 2022-09-13 Baidu Usa Llc Method and system for artificial intelligence model training using a watermark-enabled kernel for a data processing accelerator
US11709712B2 (en) * 2019-10-10 2023-07-25 Baidu Usa Llc Method and system for artificial intelligence model training using a watermark-enabled kernel for a data processing accelerator
US11775347B2 (en) * 2019-10-10 2023-10-03 Baidu Usa Llc Method for implanting a watermark in a trained artificial intelligence model for a data processing accelerator
US11809531B2 (en) * 2020-02-03 2023-11-07 Nxp B.V. Method for watermarking a machine learning model
CN112769779A (zh) * 2020-12-28 2021-05-07 深圳壹账通智能科技有限公司 一种媒体资源传输方法及装置
US11699208B2 (en) 2021-03-12 2023-07-11 Nxp B.V. Method for watermarking a machine learning model
CN113902121B (zh) * 2021-07-15 2023-07-21 陈九廷 一种电池劣化推测装置校验的方法、装置、设备及介质
WO2024031984A1 (zh) * 2022-08-10 2024-02-15 华为云计算技术有限公司 一种任务处理***、任务处理的方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2846906C (en) 2011-09-09 2018-01-02 Gen-Probe Incorporated Automated sample handling instrumentation, systems, processes, and methods
US9594983B2 (en) * 2013-08-02 2017-03-14 Digimarc Corporation Learning systems and methods
DE112015002433T5 (de) * 2014-05-23 2017-03-23 Datarobot Systeme und Techniken zur prädikativen Datenanalytik
US10621487B2 (en) * 2014-09-17 2020-04-14 Hewlett Packard Enterprise Development Lp Neural network verification
CN104616244B (zh) * 2015-01-24 2018-01-09 河南师范大学 基于 bp 神经网络压缩域的图像水印嵌入与提取方法
CN105912500B (zh) * 2016-03-30 2017-11-14 百度在线网络技术(北京)有限公司 机器学习模型生成方法和装置
JP6782679B2 (ja) * 2016-12-06 2020-11-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、情報処理方法及びプログラム
US20180247156A1 (en) * 2017-02-24 2018-08-30 Xtract Technologies Inc. Machine learning systems and methods for document matching

Also Published As

Publication number Publication date
EP3605407A4 (en) 2020-04-08
JP2018173890A (ja) 2018-11-08
CN110462646A (zh) 2019-11-15
EP3605407A1 (en) 2020-02-05
WO2018179765A1 (ja) 2018-10-04
US20190354896A1 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
JP6823523B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10650042B2 (en) Image retrieval with deep local feature descriptors and attention-based keypoint descriptors
US11461641B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium
US9171264B2 (en) Parallel processing machine learning decision tree training
Zhang et al. Panorama: a data system for unbounded vocabulary querying over video
US20210125000A1 (en) Method and apparatus for training model for object classification and detection
US20210319240A1 (en) Generator exploitation for deepfake detection
US20210319090A1 (en) Authenticator-integrated generative adversarial network (gan) for secure deepfake generation
JP6908553B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20220230648A1 (en) Method, system, and non-transitory computer readable record medium for speaker diarization combined with speaker identification
JP7020170B2 (ja) 非常に大きな画像集合における近似重複画像をクラスタ化するためのシステム及び方法、複数の画像をクラスタ化するための方法及びシステム、プログラム、複数の内容項目をクラスタ化するための方法
US20230214719A1 (en) Method for performing continual learning using representation learning and apparatus thereof
CN112819151A (zh) 用于识别图像的方法和设备以及训练方法
KR20220109609A (ko) 딥러닝 알고리즘 및 워터 파마코포어 모델을 결합한 타겟 특이적 약물을 디자인하는 방법 및 장치
JP6892844B2 (ja) 情報処理装置、情報処理方法、透かし検出装置、透かし検出方法、及びプログラム
US20220004904A1 (en) Deepfake detection models utilizing subject-specific libraries
US20220230014A1 (en) Methods and systems for transfer learning of deep learning model based on document similarity learning
JP2022151502A (ja) プログラム、情報処理装置、及び方法
Lavania A Deep Learning Framework to identify real-world stego images
US11393255B2 (en) Liveness determining method and apparatus and method and apparatus for training the liveness determining apparatus
US11599794B1 (en) System and method for training sample generator with few-shot learning
US20210150358A1 (en) System and method for controlling confidential information
JP7405148B2 (ja) 情報処理装置、学習方法、及び、プログラム
Cox Repackaged Android Application Classification Through Static Global Image Feature Analysis
Gedela et al. An Approach to Identify DeepFakes Using Deep Learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210108

R150 Certificate of patent or registration of utility model

Ref document number: 6823523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150