JP7112802B1 - 学習モデルの軽量化 - Google Patents

学習モデルの軽量化 Download PDF

Info

Publication number
JP7112802B1
JP7112802B1 JP2022073380A JP2022073380A JP7112802B1 JP 7112802 B1 JP7112802 B1 JP 7112802B1 JP 2022073380 A JP2022073380 A JP 2022073380A JP 2022073380 A JP2022073380 A JP 2022073380A JP 7112802 B1 JP7112802 B1 JP 7112802B1
Authority
JP
Japan
Prior art keywords
learning
model
weight
data
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022073380A
Other languages
English (en)
Other versions
JP2023162766A (ja
Inventor
望 窪田
Original Assignee
望 窪田
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 望 窪田 filed Critical 望 窪田
Priority to JP2022073380A priority Critical patent/JP7112802B1/ja
Priority to JP2022113601A priority patent/JP2023163102A/ja
Application granted granted Critical
Publication of JP7112802B1 publication Critical patent/JP7112802B1/ja
Priority to PCT/JP2023/016014 priority patent/WO2023210546A1/ja
Publication of JP2023162766A publication Critical patent/JP2023162766A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】学習モデルに対する軽量化手法を、より適切にする。【解決手段】情報処理方法は、情報処理装置に含まれる1又は複数のプロセッサが、所定の学習データを取得すること、ニューラルネットワークを用いる所定の学習モデルに対して、各軽量化モデルの少なくとも2つのモデルを含む各モデルがそれぞれ重み付けされた重み学習モデルに、所定のデータを入力して機械学習を行うこと、重み学習モデルごとに、所定の学習データを入力して機械学習が行われた場合の学習結果を取得すること、各重み学習モデルと、各重み学習モデルで学習されたときの各学習結果とを含む学習データを用いて、教師あり学習を行うこと、教師あり学習により、任意の学習データを入力する場合に、各重みの集合ごとに学習結果を予測する予測モデルを生成すること、を実行する。【選択図】図9

Description

本発明は、学習モデルの軽量化に関する情報処理方法、プログラム及び情報処理装置に関する。
近年、学習モデルを軽量化する研究が行われている。例えば、下記特許文献1には、パラメータの量子化を用いて学習モデルの軽量化を行う技術が記載されている。
特開2019-133628号公報
ここで、学習モデルを軽量化するには、枝刈り(Pruning)、量子化(Quantization)、蒸留(Distillation)などの手法がある。これらの軽量化手法の少なくとも1つを学習モデルに適用し、エンジニアが適宜パラメータ調整等を行って軽量化が行われる。
しかしながら、学習データや学習モデルなどの様々な条件に応じて適切な軽量化手法は異なるものと思われるが、エンジニアが適宜パラメータを調整して決定された軽量化手法が最適なものであるとは限らなかった。
そこで、本発明の目的の1つは、学習モデルに対する軽量化手法を、より適切にすることを可能にする情報処理方法、プログラム及び情報処理装置を提供する。
本発明の一態様に係る情報処理方法は、情報処理装置に含まれる1又は複数のプロセッサが、所定の学習データを取得すること、ニューラルネットワークを用いる所定の学習モデルに対して、蒸留処理された第1学習モデル、枝刈り処理された第2学習モデル、及び量子化処理された第3学習モデルの少なくとも2つのモデルを含む各モデルがそれぞれ重み付けされた重み学習モデルに、所定のデータを入力して機械学習を行うこと、前記各モデルそれぞれの重みが変更された重み学習モデルごとに、前記所定の学習データを入力して前記機械学習が行われた場合の学習結果を取得すること、変更された各重みが重み付けされた各重み学習モデルと、前記各重み学習モデルで学習されたときの各学習結果とを含む学習データを用いて、教師あり学習を行うこと、前記教師あり学習により、任意の学習データを入力する場合に、各重みの集合ごとに学習結果を予測する予測モデルを生成すること、を実行する。
本発明によれば、学習モデルに対する軽量化手法を、より適切にすることを可能にする情報処理方法、プログラム及び情報処理装置を提供することができる。
実施形態に係るシステム構成の一例を示す図である。 実施形態に係る情報処理装置の物理的構成の一例を示す図である。 実施形態に係る情報処理装置の処理ブロックの一例を示す図である。 学習済みモデルの蒸留を説明するための図である。 学習済みモデルの枝刈りを説明するための図である。 実施形態に係る情報処理装置の処理ブロックの一例を示す図である。 実施形態に係る関係情報の一例を示す図である。 実施形態に係る関係情報の表示例を示す図である。 実施形態に係る予測モデルの生成に関する処理の一例を示すフローチャートである。 実施形態に係るユーザが利用する情報処理装置における処理の一例を示すフローチャートである。
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
[実施形態]
<システム構成>
図1は、実施形態に係るシステム構成の一例を示す図である。図1に示す例では、サーバ10と、各情報処理装置20A、20B、20C、20Dとが、ネットワークを介してデータ送受信可能なように接続される。情報処理装置を個別に区別しない場合は情報処理装置20とも表記する。
サーバ10は、データを収集、分析可能な情報処理装置であり、1つ又は複数の情報処理装置から構成されてもよい。情報処理装置20は、スマートフォン、パーソナルコンピュータ、タブレット端末、サーバ、コネクティッドカーなど、機械学習を実行可能な情報処理装置である。なお、情報処理装置20は、脳波をセンシングする侵襲型又は非侵襲型の電極に直接的又は間接的に接続されており、脳波データを解析、送受信可能な装置でもよい。
図1に示すシステムでは、サーバ10は、例えば、所定の学習データにおいて学習済みの学習モデルに、様々な軽量化手法(軽量化アルゴリズム)を適用する。様々な軽量化手法は、既存の軽量化手法1つを適用したり、任意の軽量化手法の組み合わせを適用したりすることを含む。このとき、サーバ10は、所定のデータセット、所定の学習モデル及び所定の軽量化手法のときの学習結果を関連付けて記憶する。
次に、サーバ10は、任意のデータセットと、任意の軽量化手法と、これらの学習結果(例えば学習精度)とを訓練データとして、学習結果が適切な軽量化手法を特定する予測モデルを学習して生成する。学習結果の適切さは、例えば、学習精度や、モデルサイズの圧縮率などにより決定される。
これにより、学習済みの学習モデルに対し、軽量化をより適切に行うことが可能になる。また、サーバ10は、各軽量化手法を重み付けして線形結合したモデルを用いて、各軽量化手法の適用割合を定める各重みを適切に調整してもよい。
<ハードウェア構成>
図2は、実施形態に係る情報処理装置10の物理的構成の一例を示す図である。情報処理装置10は、演算部に相当する1又は複数のCPU(Central Processing Unit)10aと、記憶部に相当するRAM(Random Access Memory)10bと、記憶部に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。
実施形態では、情報処理装置10が一台のコンピュータで構成される場合について説明するが、情報処理装置10は、複数のコンピュータ又は複数の演算部が組み合わされて実現されてもよい。また、図2で示す構成は一例であり、情報処理装置10はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。
CPU10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、より適切な軽量化手法を調べるための学習モデルを用いて学習を行うプログラム(学習プログラム)や、任意のデータを入力したときに適切な軽量化手法を出力する予測モデルを生成するための学習を行うプログラム(予測プログラム)を実行する演算部である。CPU10aは、入力部10eや通信部10dから種々のデータを受け取り、データの演算結果を表示部10fに表示したり、RAM10bに格納したりする。
RAM10bは、記憶部のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM10bは、CPU10aが実行するプログラム、様々な軽量化手法に関する軽量化データ(例えば軽量化アルゴリズム)、適切な軽量化手法を予測する予測モデル、学習対象のデータに関する情報と、このデータに対応する適切な軽量化手法との対応関係を示す関係情報などのデータを記憶してもよい。なお、これらは例示であって、RAM10bには、これら以外のデータが記憶されていてもよいし、これらの一部が記憶されていなくてもよい。
ROM10cは、記憶部のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM10cは、例えば学習プログラムや、書き換えが行われないデータを記憶してよい。
通信部10dは、情報処理装置10を他の機器に接続するインターフェースである。通信部10dは、インターネット等の通信ネットワークに接続されてよい。
入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード及びタッチパネルを含んでよい。
表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部10fが演算結果を表示することは、XAI(eXplainable AI:説明可能なAI)に貢献し得る。表示部10fは、例えば、学習結果や、学習モデルに関する情報を表示してもよい。
学習プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。情報処理装置10では、CPU10aが学習プログラムを実行することにより、後述する図3を用いて説明する様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、情報処理装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。また、情報処理装置10は、GPU(Graphical Processing Unit)やASIC(Application Specific Integrated Circuit)を備えていてもよい。
なお、情報処理装置20の構成は、図2に示す情報処理装置10の構成と同様であるため、その説明を省略する。また、情報処理装置10と情報処理装置20とは、データ処理を行う基本的な構成であるCPU10aやRAM10b等を有していればよく、入力部10eや表示部10fは設けられなくてもよい。また、入力部10eや表示部10fは、外部からインターフェースを用いて接続されてもよい。
<処理構成>
図3は、実施形態に係る情報処理装置10の処理ブロックの一例を示す図である。情報処理装置10は、取得部101、第1学習部102、変更部103、第2学習部104、予測部105、判定部106、設定部107、関連付け部108、特定部109、表示制御部110、出力部111、及び記憶部112を備える。例えば、図3に示す第1学習部102、変更部103、第2学習部104、予測部105、判定部106、設定部107、関連付け部108、特定部109、表示制御部110は、例えばCPU10aなどにより実行されて実現され、取得部101及び出力部111は、例えば通信部10dなどにより実現され、記憶部112は、RAM10b及び/又はROM10cなどにより実現され得る。
取得部101は、所定の学習データを取得する。例えば、取得部101は、所定の学習データとして、画像データ、系列データ、テキストデータなどの公知のデータセットを取得してもよい。なお、取得部101は、記憶部112に記憶されたデータを取得してもよいし、他の情報処理装置により送信されたデータを取得してもよい。
第1学習部102は、所定の問題を解くため、ニューラルネットワークを用いる所定の学習モデル102aに対して、蒸留処理された第1学習モデル、枝刈り処理された第2学習モデル、及び量子化処理された第3学習モデルの少なくとも2つのモデルを含む各モデルがそれぞれ重み付けされた重み学習モデルに、所定の学習データを入力して機械学習を行う。
ここで、学習済みの学習モデル102aの軽量化手法の例として、蒸留(Distillation)、枝刈り(Pruning)、及び量子化(Quantization)の各アルゴリズムについて、以下に簡単に説明する。
図4は、学習済みモデルの蒸留を説明するための図である。図4に示す蒸留は、学習済みモデルM11の予測結果を教師データとして、より小さいモデルM12を学習することで軽量化を行う。このとき、この小さいモデルM12は、大きいモデルM11と同程度の精度を持つ場合がある。
例えば、蒸留において、学習済みモデルM11は、Teacherモデル、小さいモデルM12は、Studentモデルと呼ばれる。Studentモデルは、エンジニアが適宜設計する。
図4に示す例では、分類器を例とした学習データについて説明する。モデルM11のTeacherモデルは、0と1とで表現され、1が正解である教師データを用いて学習を行なう。これに対し、モデルM12のStudentモデルは、Teacherモデルが出力した値(例:A=0.7、B=0.3)を教師データとして学習する。実施形態では、1つの学習モデルM11に対して複数の異なる蒸留後のモデルM12が用意されてもよい。
図5は、学習済みモデルの枝刈りを説明するための図である。図5に示す枝刈りは、学習済みモデルM21の重みやノードを削除することで、軽量化が行われたモデルM22が生成される。これにより計算回数、メモリ使用量の削減を行うことが可能になる。
枝刈りの手法は、ノード間の接続において重みの小さいところを対象に削除が行われてもよい。例えば、枝刈りは、蒸留と違い別途モデルを設計する必要はないが、パラメータの削除が行われるため、再学習を行い、学習精度を維持するとよい。例えば、学習への影響が小さい枝(エッジ)、例えば重みが所定値以下の枝をカットし、軽量化が行われてもよい。
量子化は、モデルに含まれるパラメータを少ないビット数で表現する。これにより、ネットワークの構造を変えずにモデルを小さくすることが可能になる。例えば、重みパラメータを6個持つ簡単なネットワークを例にした場合、32ビット精度の場合は合計192ビットを必要とするが、8ビット精度の制約にすると合計48ビットで表現することとになり、軽量化が行われていることになる。
図3に戻り、例えば、第1学習部102は、学習済みの学習モデル102aに対して、第1モデル、第2モデル、及び第3モデルのうちの少なくとも2つの軽量化モデルが選択され、各モデルに付与される重みとして、デフォルトの重みを設定する。
第1モデル、第2モデル、及び第3モデルは、学習済みのモデルのカテゴリごとに予め設定されていてもよいし、学習済みモデルごとに、所定の基準に従って自動で生成されてもよい。例えば、第1学習部102は、蒸留の場合、学習済みモデルに適した蒸留後のモデルを機械学習により決定してもよく、枝刈りの場合、重みが所定値以下の枝をカットして枝刈り後のモデルを生成してもよく、量子化の場合、所定値ビット精度の制約(量子化)にしてもよい。また、1つの学習済みモデルに対し、複数の第1モデル、複数の第2モデル、複数の第3モデルが設定され、それぞれのモデルに重みが付与されてもよい。
所定の問題は、例えば画像データ、系列データ及びテキストデータの少なくともいずれかについて、分類、生成及び最適化の少なくともいずれかを行う問題を含む。ここで、画像データは、静止画のデータと、動画のデータとを含む。系列データは、音声データや株価のデータを含む。
また、所定の学習モデル102aは、ニューラルネットワークを含む学習済みの学習モデルであり、例えば、画像認識モデル、系列データ解析モデル、ロボットの制御モデル、強化学習モデル、音声認識モデル、音声生成モデル、画像生成モデル、自然言語処理モデル等の少なくとも1つを含む。また、具体例としては、所定の学習モデル102aは、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、DNN(Deep Neural Network)、LSTM(Long Short-Term Memory)、双方向LSTM、DQN(Deep Q-Network)、VAE(Variational AutoEncoder)、GANs(Generative Adversarial Networks)、flow-based生成モデル等のいずれかでもよい。
変更部103は、所定の学習データ及び/又は重み学習モデルの各重みを変更する。例えば、変更部103は、複数の学習データの中から、第1学習部12に入力される所定の学習データを1つずつ順に変更する。また、変更部103は、ある1つの重み学習モデルに対して全ての所定の学習データが入力されて学習が行われた場合、重み学習モデルの別の各重みを利用するため、複数の各重みの集合(セット)の中から1つのセットを選択し、用意された全てのセットで学習を行い、学習結果を取得してもよい。
また、第1学習部102は、所定の学習データを重み学習モデルに入力し、適切な学習結果が出力されるように、重み学習モデルのハイパーパラメータ等の学習を行う。このとき、第1学習部102は、ハイパーパラメータが更新(調整)される際に、重み学習モデルの各モデルに付与される各重みも所定の方法により調整する。
例えば、各重みの調整については、あらかじめ設定される初期値から逐次的に各重みが調整されるとよい。このとき、各重みが全て加算して1になるように調整され、以前に行った調整と異なる調整が行われればいずれの調整方法が用いられてもよい。例えば、第1学習部102は、各重みを順に所定値ずつ変更していき、全ての組み合わせについて変更する。例えば、第1学習部102は、重みwに対して初期値から所定値ずつ減算し、重みwk+1に対して初期値から所定値ずつ加算し、どちらかの重みが0以下になると、kに1を加算して、各初期値からの変更を繰り返す。また、各重みが全て加算して1になる条件は設けなくてもよく、この場合、Softmax関数などを用いて、各重みを加算して1になるように最後に調整されればよい。
これにより、所定の学習データと所定の各重みのセットとの任意の組み合わせに対して学習させることが可能になる。例えば、変更部103は、所定の学習データと所定の各重みのセットとの全ての組み合わせが学習されるように、所定の学習データ及び/又は所定の各重みのセットを1つずつ順に変更してもよいし、所定の条件が満たされるまで所定の学習データ及び/又は所定の各重みのセットを1つずつ順に変更してもよい。所定の条件は、例えば、学習精度やモデルサイズの圧縮率などにより設定されてもよい。
取得部101又は第1学習部102は、各モデルそれぞれの重みが変更された重み学習モデルごとに、所定の学習データを入力して機械学習が行われた場合の学習結果を取得する。例えば、取得部101又は第1学習部102は、様々な組み合わせの所定の学習データ及び/又は所定の各重みのセットを用いて学習された学習結果を取得する。
ここで、重み学習モデルについて具体例を用いて説明する。例えば、第1学習部102は、第1モデル、第2モデル、第3モデルにそれぞれ重みw,w,wを付与して線形結合した重み学習モデルを利用してもよい。この場合の重み学習の関数M(x)として、式(1)が挙げられるが、一例にすぎない。
(x)=w(x)+w(x)+w(x) …式(1)
:重み(各重みの集合(セット)をWとも表記する)
(x):第nモデル
x:学習データ
変更部103は、例えば、w+w+w=1となるように、各重みを所定基準に従って、1つずつ順に変更する。第1学習部102は、変更後の各重みに対する学習結果を取得し、各重みのセットに対して学習結果を関連付けておく。学習結果は、学習精度と、軽量化による効果を示すモデルサイズの圧縮率である。モデルサイズの圧縮率とは、例えば、軽量化後の学習済みモデルのパラメータ数の、軽量化前の学習済みモデルのパラメータ数に対する割合である。
また、変更部103が所定の学習データを変更すると、第1学習部102は、変更後の学習データに対して、上述されたように各重みのセットでの重み学習モデルを学習し、学習結果を取得する。これにより、任意の学習データ、任意の各重みのセット、これらの場合の学習結果を含む訓練データが生成される。
第2学習部104は、変更された各重みが重み付けされた各重み学習モデルと、各重み学習モデルで学習されたときの各学習結果とを含む学習データを用いて、教師あり学習を行う。例えば、第2学習部104は、任意の学習データ及び任意の各重みのセットを用いて学習された際の学習結果(例えば学習性能及び/又はモデルサイズの圧縮率)を正解ラベルとする訓練データを用いて、教師あり学習を行う。
また、第2学習部104は、教師あり学習により、任意の学習データを入力する場合に、各重みのセットごとに学習結果を予測する予測モデル104aを生成する。例えば、第2学習部104は、任意の学習データを入力すると、この学習データに対する各軽量化手法の各重みのセットごとに、学習精度やモデルサイズの圧縮率を出力する予測モデルを生成する。
以上の構成により、様々な学習データや、様々な軽量化手法により軽量化した各学習モデルを用いた学習結果を訓練データとして教師あり学習を行うことにより、各重みのセットごとに、学習結果を予測する予測モデルを生成することができる。その結果、第2学習部104により生成された予測モデルを用いることで、軽量化手法をより適切にすることが可能になる。
予測部105は、任意の学習データを予測モデル104aに入力し、各モデルそれぞれの重みのセットごとに、重み学習モデルを実行した場合の学習結果を予測する。例えば、予測部105は、学習データとして画像のデータセットを入力した場合、特定の重みセットW(w1n,w2n,w3n)ごとに、学習精度とモデルサイズに関する値(例えば圧縮率)とを予測する。
これにより、任意のデータ(例、データセット)に対して、各軽量化手法をどれくらい適用するかの各重みのセットごとに、学習結果が予測されるため、この学習結果に基づいて、より適切な各重みを選択することなどが可能になる。
判定部106は、任意の学習データを所定の学習モデル102aに入力した場合の学習結果と、予測モデル104aにより予測された学習結果とが、軽量化に関する所定条件を満たすか否かを判定する。例えば、判定部106は、軽量化前の学習済みの学習モデル102aに学習データAを入力したときの学習精度A1と、予測モデル104aにより予測された学習精度B1との第1差分値が、第1閾値内であるか否かを判定する。この第1差分値が小さければと小さいほど、学習モデルを軽量化後でも学習精度を維持することができており、学習精度B1のときの各重みは適切な軽量化手法となる。
また、判定部106は、軽量化前の学習済みの学習モデル102aの圧縮率A2(=1)と、予測モデル104aにより予測された圧縮率B2との第2差分値が、第2閾値以上であるか否かを判定する。この第2差分値が大きければ大きいほど、学習モデルがより軽量化できていることを示す。
判定部106は、軽量化に関する判定結果に基づいて、各重みの有効性を判定する。例えば、判定部106は、第1差分値と第2差分値とに基づいて、圧縮率B2が大きく、学習精度B1が軽量化前の精度を維持できている各重みに対し、有効な軽量化手法であると判定する。具体例としては、判定部106は、第1差分値が第1閾値以下、第2差分値が第2閾値以上の各重みを有効な軽量化手法、それ以外の各重みを有効ではない軽量化手法と判定してもよい。
これにより、モデルサイズに関する値(例えば圧縮率)と学習精度とに基づき、それぞれの予測値を参考に、適切な各重みを選定することができる。例えば、判定部106は、最も学習精度が高い各重みを選定してもよいし、圧縮率が第2閾値以上のもので、学習精度が最も高い各重みを選定してもよい。
設定部107は、軽量化に関する所定条件に関するユーザ操作を受け付ける。例えば、設定部107は、表示部10fに表示された条件入力画面から、ユーザが入力部10eを操作して軽量化に関する所定条件を入力した場合、この入力操作を受け付ける。
設定部107は、受け付けたユーザ操作に基づいて、軽量化に関する所定条件を判定部106の判定条件に設定する。例えば、設定部107は、ユーザの入力操作に基づいて、学習性能に関する第1閾値、及び/又は、モデルサイズに関する第2閾値を設定することを可能としてもよい。
これにより、ユーザが所望する条件を用いて、有効な軽量化手法を特定することができるようになる。
関連付け部108は、学習結果に含まれる学習精度を第1変数、学習結果に含まれるモデルサイズに関する値(例えば圧縮率)を第2変数とし、第1変数及び第2変数と、各重みとを対応付ける関係情報を生成する。例えば、関連付け部108は、縦軸を第1変数、横軸を第2変数とする場合に、それぞれの変数の交点に各重みWを対応付けたマトリックスを生成してもよい。また、関連付け部108は、各情報処理装置20から取得された学習精度や圧縮率に基づいて、第1変数及び第2変数と、各重みWとを対応付ける関係情報(実測関係情報)を生成してもよい。
以上の処理により、第1変数又は第2変数が変更された場合に、対応する各重みWを迅速に特定することが可能になる。また、第1変数と第2変数とは、適宜変更されてもよい。例えば、第1変数として学習精度、第2変数として各重みWを適用し、特定される情報モデルサイズに関する値でもよい。
また、取得部101は、第1変数の第1値及び第2変数の第2値を取得してもよい。例えば、取得部101は、ユーザから指定される第1変数の第1値及び第2変数の第2値を取得する。第1値又は第2値はユーザにより適宜指定される。
この場合、特定部109は、関連付け部108により生成された関係情報に基づいて、第1変数の第1値及び第2変数の第2値に対応する各重みWを特定する。例えば、特定部109は、関係情報を用いて、変更される第1変数の値、又は第2変数の値に対応する各重みWを特定する。
表示制御部110は、特定部109により特定された各重みWを表示装置(表示部10f)に表示制御する。また、表示制御部110は、第1変数及び第2変数を変更可能にしたマトリックスをGUI(Graphical User Interface)で表してもよい(例えば、後述する図8等)。
以上の処理により、ユーザにより指定された第1変数又は第2変数に応じて特定される各重みWを、ユーザに対して可視化することが可能になる。ユーザは、第1変数又は第2変数を変更することで、所望の各重みWを特定し、学習済みモデルの軽量化に適用することができる。
出力部111は、第2学習部104により予測された各重みWを、他の情報処理装置20に出力してもよい。例えば、出力部111は、所定の学習データを送信した情報処理装置20であって、適切な各重みWの取得を要求した情報処理装置20に対し、所定の学習データに対応する適切な各重みWを出力してもよい。また、出力部111は、予測された各重みWを記憶部112に出力してもよい。
記憶部112は、学習に関するデータを記憶する。記憶部112は、所定のデータセット112aや、軽量化手法112bに関するデータ、上述した関係情報112c、訓練データ、学習途中のデータ、学習結果に関する情報などを記憶する。
図6は、実施形態に係る情報処理装置20の処理ブロックの一例を示す図である。情報処理装置20は、取得部201、学習部202、出力部203、及び記憶部204を備える。情報処理装置20は、汎用のコンピュータで構成されてもよい。
取得部201は、他の情報処理装置(例えばサーバ10)により、分散学習の指示とともに、所定の重み学習モデルに関する情報や所定のデータセットに関する情報を取得してもよい。所定の重み学習モデルに関する情報は、各重みを示す情報や、重み学習モデル自体を示す情報でもよい。所定のデータセットに関する情報は、データセット自体でもよく、所定のデータセットが格納された格納先を示す情報でもよい。
学習部202は、所定の重み学習モデル202aに学習対象の所定のデータセットを入力して学習を行う。学習部202は、学習後の学習結果をサーバ10にフィードバックするように制御する。学習結果は、例えば、学習性能などを含み、モデルサイズに関する情報をさらに含んでもよい。学習部202は、学習対象のデータセットの種類、及び/又は、解くべき問題に応じて、学習モデル202aを選択してもよい。
また、所定の重み学習モデル202aは、ニューラルネットワークを含む学習モデルであり、例えば、画像認識モデル、系列データ解析モデル、ロボットの制御モデル、強化学習モデル、音声認識モデル、音声生成モデル、画像生成モデル、自然言語処理モデル等の少なくとも1つをベースに、各軽量化手法が重み付けされたモデルを含む。また、具体例としては、所定の重み学習モデル202aのベースは、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、DNN(Deep Neural Network)、LSTM(Long Short-Term Memory)、双方向LSTM、DQN(Deep Q-Network)、VAE(Variational AutoEncoder)、GANs(Generative Adversarial Networks)、flow-based生成モデル等のいずれかでもよい。
出力部203は、分散学習の学習結果に関する情報を他の情報処理装置に出力する。例えば、出力部203は、学習部202による学習結果に関する情報をサーバ10に出力する。例えば、分散学習の学習結果に関する情報は、上述したように、学習性能を含み、モデルサイズに関する情報をさらに含んでもよい。
記憶部204は、学習部202に関するデータを記憶する。記憶部204は、所定のデータセット204aや、サーバ10から取得したデータ、学習途中のデータ、学習結果に関する情報などを記憶する。
これにより、情報処理装置20は、他の情報処理装置(例えばサーバ10)からの指示により、所定のデータセットに対して、所定の重み学習モデルを適用した分散学習を実行し、学習結果をサーバ10にフィードバックすることが可能になる。
また、出力部203は、所定のデータに関する情報を他の情報処理装置(例えばサーバ10)に出力する。出力部203は、所定のデータ(例えば学習対象のデータセット)を出力してもよいし、所定のデータの特徴情報を出力してもよい。
取得部201は、他の情報処理装置から、所定のデータに対応する各重みWを取得してもよい。取得される各重みWは、他の情報処理装置が予測モデルを利用して予測した、所定のデータに適切な各重みである。
学習部202は、取得された各重みを重み学習モデル202aに適用する。このとき、重み学習モデル202aは、上述した学習に用いられた重み学習モデル22aに各重みを適用してもよい。また、重み学習モデル202aは、他の情報処理装置10から取得される学習モデルでもよいし、自装置で管理する学習モデルでもよい。
学習部202は、各重みが適用された重み学習モデル202aに、所定のデータを入力して学習結果を取得する。この学習結果は、所定のデータに適した各重みを用いて学習した結果である。学習部202は、学習性能を保ちつつ適切に軽量化された学習モデルを使用することができる。
<データ例>
図7は、実施形態に係る関係情報の一例を示す図である。図7に示す例では、関係情報は、各第1変数(例、P11)及び各第2変数(例、P21)に対応する各重み(例、W)を含む。第1変数P1nは、例えば学習精度であり、第2変数P2nは例えばモデルサイズの圧縮率であり、変数としてはいずれかの変数だけでもよい。各重みW(P1n,P2m)は、第第1変数P1n及び第2変数P2nの場合の重みである。
図7に示す関係情報について、サーバ10は、所定の分散インスタンス数とハイパーパラメータの組み合わせで分散学習を行わせた情報処理装置20から、又は、自装置の教師あり学習の結果から、学習精度(第1変数)と、圧縮率(第2変数)とを取得する。サーバ10は、取得された学習精度と圧縮率に、各重みWを対応付ける。サーバ10は、教師あり学習により実測された学習精度と圧縮率とを取得するたびに行うことで、図7に示す関係情報を生成することが可能になる。また、関係情報は、予測部105により予測された結果に基づいて、任意のデータセットに対する予測関係情報が生成されてもよい。
<ユーザインタフェースの例>
図8は、実施形態に係る関係情報の表示例を示す図である。図8に示す例では、関係情報に含まれる第1変数と第2変数とをスライドバーを用いて変更可能にする。ユーザが第1変数又は第2変数に対してスライドバーを用いて移動させることで、例えば、移動後の第1変数(P1n)又は第2変数(P2m)に対応する各重みWのセットW(P1n,P2m)が、対応する点に関連付けて表示される。
また、ユーザは、第1変数及び第2変数の二次元のグラフ上に所定の点を指定することで、指定された点に対応する学習精度と、圧縮率との組み合わせが表示されるようにしてもよい。
これにより、サーバ10は、第1変数と第2変数との組み合わせに対応する、適切な各重みWを表示可能になる。また、視覚的に対応関係をユーザに示しながら、これから分散学習が行われる任意のデータセットに対して適切な分散インスタンス数やハイパーパラメータを選択させるユーザインタフェースを提供することが可能になる。
<動作>
図9は、実施形態に係る予測モデルの生成に関する処理の一例を示すフローチャートである。図9に示す処理は、情報処理装置10により実行される。
ステップS102において、情報処理装置10の取得部101は、所定の学習データを取得する。所定の学習データは、記憶部112のデータセット112aから選択されてもよいし、他の装置からネットワークを介して受信された所定のデータでもよいし、ユーザ操作に応じて入力された所定のデータを取得してもよい。
ステップS104において、情報処理装置10の第1学習部102は、ニューラルネットワークを用いる所定の学習モデルに対して、蒸留処理された第1学習モデル、枝刈り処理された第2学習モデル、及び量子化処理された第3学習モデルの少なくとも2つのモデルを含む各モデルがそれぞれ重み付けされた重み学習モデルに、所定のデータを入力して機械学習を行う。
ステップS106において、情報処理装置10の第2学習部104は、各モデルそれぞれの重みが変更された重み学習モデルごとに、所定の学習データを入力して機械学習が行われた場合の学習結果を取得する。
ステップS108において、情報処理装置10の第2学習部104は、変更された各重みが重み付けされた各重み学習モデルと、各重み学習モデルで学習されたときの各学習結果とを含む学習データを用いて、教師あり学習を行う。
ステップS110において、情報処理装置10の第2学習部104は、教師あり学習により、任意の学習データを入力する場合に、各重みの組み合わせごとに学習結果を予測する予測モデルを生成する。
以上の処理により、生成された予測モデルを利用することで、ニューラルネットワークを用いる学習済みモデルを、学習精度を保ちつつ、より適切に軽量化を行うことを可能にする。
図10は、実施形態に係るユーザが利用する情報処理装置20における処理の一例を示すフローチャートである。ステップS202において、情報処理装置20の出力部203は、学習対象の所定の学習データに関する情報を他の情報処理装置(例えばサーバ10)に出力する。
ステップS204において、情報処理装置20の取得部201は、他の情報処理装置(例えばサーバ10)から、所定の学習データに対応する各重みを示す情報を取得する。
ステップS206において、情報処理装置20の学習部202は、取得された各重みを所定の重み学習モデル202aに適用する。
ステップS208において、情報処理装置20の学習部202は、各重みが適用された学習モデル202aに、所定の学習データを入力して学習結果を取得する。
これにより、エッジ側の情報処理装置であっても、学習対象のデータに対して、適切な軽量化を行った学習モデルを用いて学習を行うことで、学習精度を保つことができる。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、第1学習部102を備える装置と、第2学習部104を備える装置とは別のコンピュータでもよい。この場合、生成された第1学習部102により学習された学習結果が、ネットワークを介して、第2学習部104を備える装置に送信されてもよい。
また、情報処理装置10は、変更部103を必ずしも設けなくてもよい。例えば、情報処理装置10は、任意の学習対象のデータと任意の重みのセットとの組の各学習性能を取得して第2学習部104による学習を行ってもよい。
10…情報処理装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…入力部、10f…表示部、101…取得部、102…第1学習部、102a…学習モデル、103…変更部、104…第2学習部、104a…予測モデル、105…予測部、106…判定部、107…設定部、108…関連付け部、109…特定部、110…表示制御部、111…出力部、112…記憶部、112a…データセット、112b…軽量化手法、112c…関係情報、201…取得部、202…学習部、202a…学習モデル、203…出力部、204…記憶部、204a…データセット

Claims (9)

  1. 情報処理装置に含まれる1又は複数のプロセッサが、
    所定の学習データを取得すること、
    ニューラルネットワークを用いる所定の学習モデルに対して、蒸留処理された第1学習モデル、枝刈り処理された第2学習モデル、及び量子化処理された第3学習モデルの少なくとも2つのモデルを含む各モデルがそれぞれ重み付けされた重み学習モデルに、所定のデータを入力して機械学習を行うこと、
    前記各モデルそれぞれの重みが変更された重み学習モデルごとに、前記所定の学習データを入力して前記機械学習が行われた場合の学習結果を取得すること、
    変更された各重みが重み付けされた各重み学習モデルと、前記各重み学習モデルで学習されたときの各学習結果とを含む学習データを用いて、教師あり学習を行うこと、
    前記教師あり学習により、任意の学習データを入力する場合に、各重みの集合ごとに学習結果を予測する予測モデルを生成すること、
    を実行する、情報処理方法。
  2. 前記1又は複数のプロセッサは、
    任意の学習データを前記予測モデルに入力し、前記各重みの集合ごとに、前記重み学習モデルを実行した場合の学習結果を予測することを実行する、請求項1に記載の情報処理方法。
  3. 前記1又は複数のプロセッサが、
    前記任意の学習データを前記所定の学習モデルに入力した場合の学習結果と、前記予測モデルにより予測された学習結果とが、軽量化に関する所定条件を満たすか否かを判定すること、
    前記所定条件の判定結果に基づいて、前記各重みの有効性を判定すること、
    をさらに実行する請求項2に記載の情報処理方法。
  4. 前記1又は複数のプロセッサが、
    前記軽量化に関する所定条件に関するユーザ操作を受け付けること、
    前記ユーザ操作に基づいて、前記軽量化に関する所定条件を設定すること、
    をさらに実行する請求項3に記載の情報処理方法。
  5. 前記プロセッサは、
    前記学習結果に含まれる学習精度を第1変数、前記学習結果に含まれるモデルサイズに関する値を第2変数とし、前記第1変数及び前記第2変数と、前記各重みとを対応付ける関係情報を生成すること、
    を実行する請求項1に記載の情報処理方法。
  6. 前記プロセッサは、
    前記第1変数の第1値及び前記第2変数の第2値を取得すること、
    前記関係情報に基づいて、前記第1値及び前記第2値に対応する各重みを特定すること、
    を実行する請求項5に記載の情報処理方法。
  7. 前記重み学習モデルは、前記第1学習モデル、前記第2学習モデル、及び前記第3学習モデルそれぞれに重みが付与されて線形結合されたモデルを含む、請求項1に記載の情報処理方法。
  8. メモリと、1又は複数のプロセッサとを備える情報処理装置であって、
    前記メモリは、
    ニューラルネットワークを用いる所定の学習モデルと、
    前記所定の学習モデルに対して、蒸留処理された第1学習モデル、枝刈り処理された第2学習モデル、及び量子化処理された第3学習モデルの少なくとも2つのモデルを含む各モデルがそれぞれ重み付けされた重み学習モデルと、を記憶し、
    前記1又は複数のプロセッサは、
    所定の学習データを取得すること、
    前記重み学習モデルに、前記所定の学習データを入力して機械学習を行うこと、
    前記各モデルそれぞれの重みが変更された重み学習モデルごとに、前記所定の学習データを入力して前記機械学習が行われた場合の学習結果を取得すること、
    変更された各重みが重み付けされた各重み学習モデルと、前記各重み学習モデルで学習されたときの各学習結果とを含む学習データを用いて、教師あり学習を行うこと、
    前記教師あり学習により、任意の学習データを入力する場合に、各重みの集合ごとに学習結果を予測する予測モデルを生成すること、
    を実行する、情報処理装置。
  9. 情報処理装置に含まれる1又は複数のプロセッサに、
    所定の学習データを取得すること、
    ニューラルネットワークを用いる所定の学習モデルに対して、蒸留処理された第1学習モデル、枝刈り処理された第2学習モデル、及び量子化処理された第3学習モデルの少なくとも2つのモデルを含む各モデルがそれぞれ重み付けされた重み学習モデルに、所定の学習データを入力して機械学習を行うこと、
    前記各モデルそれぞれの重みが変更された重み学習モデルごとに、前記所定の学習データを入力して前記機械学習が行われた場合の学習結果を取得すること、
    変更された各重みが重み付けされた各重み学習モデルと、前記各重み学習モデルで学習されたときの各学習結果とを含む学習データを用いて、教師あり学習を行うこと、
    前記教師あり学習により、任意の学習データを入力する場合に、各重みの集合ごとに学習結果を予測する予測モデルを生成すること、
    を実行させる、プログラムを記録したコンピュータ読み取り可能な非一時的な記憶媒体。




JP2022073380A 2022-04-27 2022-04-27 学習モデルの軽量化 Active JP7112802B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022073380A JP7112802B1 (ja) 2022-04-27 2022-04-27 学習モデルの軽量化
JP2022113601A JP2023163102A (ja) 2022-04-27 2022-07-15 学習モデルの軽量化
PCT/JP2023/016014 WO2023210546A1 (ja) 2022-04-27 2023-04-21 学習モデルの軽量化

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022073380A JP7112802B1 (ja) 2022-04-27 2022-04-27 学習モデルの軽量化

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022113601A Division JP2023163102A (ja) 2022-04-27 2022-07-15 学習モデルの軽量化

Publications (2)

Publication Number Publication Date
JP7112802B1 true JP7112802B1 (ja) 2022-08-04
JP2023162766A JP2023162766A (ja) 2023-11-09

Family

ID=82702006

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022073380A Active JP7112802B1 (ja) 2022-04-27 2022-04-27 学習モデルの軽量化
JP2022113601A Pending JP2023163102A (ja) 2022-04-27 2022-07-15 学習モデルの軽量化

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022113601A Pending JP2023163102A (ja) 2022-04-27 2022-07-15 学習モデルの軽量化

Country Status (2)

Country Link
JP (2) JP7112802B1 (ja)
WO (1) WO2023210546A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200125956A1 (en) 2017-05-20 2020-04-23 Google Llc Application Development Platform and Software Development Kits that Provide Comprehensive Machine Learning Services
US20200311552A1 (en) 2019-03-25 2020-10-01 Samsung Electronics Co., Ltd. Device and method for compressing machine learning model
WO2022023022A1 (en) 2020-07-28 2022-02-03 Siemens Aktiengesellschaft Method for automated determination of a model compression technique for compression of an artificial intelligence-based model

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112106081A (zh) * 2018-05-07 2020-12-18 谷歌有限责任公司 提供综合机器学***台和软件开发套件

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200125956A1 (en) 2017-05-20 2020-04-23 Google Llc Application Development Platform and Software Development Kits that Provide Comprehensive Machine Learning Services
US20200311552A1 (en) 2019-03-25 2020-10-01 Samsung Electronics Co., Ltd. Device and method for compressing machine learning model
WO2022023022A1 (en) 2020-07-28 2022-02-03 Siemens Aktiengesellschaft Method for automated determination of a model compression technique for compression of an artificial intelligence-based model

Also Published As

Publication number Publication date
JP2023163102A (ja) 2023-11-09
JP2023162766A (ja) 2023-11-09
WO2023210546A1 (ja) 2023-11-02

Similar Documents

Publication Publication Date Title
JP6790286B2 (ja) 強化学習を用いたデバイス配置最適化
CN110766142A (zh) 模型生成方法和装置
CN110520871A (zh) 训练机器学习模型
CN107688493A (zh) 训练深度神经网络的方法、装置及***
CN108921300A (zh) 执行自动机器学习的方法和装置
CA2436352A1 (en) Process and system for developing a predictive model
JP2024503774A (ja) 融合パラメータの特定方法及び装置、情報推奨方法及び装置、パラメータ測定モデルのトレーニング方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム
CN108369664A (zh) 调整神经网络的大小
US20210350175A1 (en) Key-value memory network for predicting time-series metrics of target entities
JP6942900B1 (ja) 情報処理装置、情報処理方法及びプログラム
EP3968648A1 (en) Bitrate decision model training method and electronic device
WO2018220700A1 (ja) 新規学習データセット生成方法、新規学習データセット生成装置および生成された学習データセットを用いた学習方法
CN112015990A (zh) 待推荐网络资源的确定方法、装置、计算机设备及介质
JP6955811B1 (ja) 試験評価システム、プログラムおよび試験評価方法
KR20240010581A (ko) 머신 러닝 하이퍼파라미터 튜닝
WO2023210665A1 (ja) 計算グラフの改善
US20240152809A1 (en) Efficient machine learning model architecture selection
JP6774129B1 (ja) 解析装置、解析方法及び解析プログラム
JP7112802B1 (ja) 学習モデルの軽量化
EP4182850A1 (en) Hardware-optimized neural architecture search
JP2010204974A (ja) 時系列データ予測装置
JP7199115B1 (ja) 機械学習における分散学習
WO2021079966A1 (ja) 分析装置、制御方法、及びプログラム
WO2022072890A1 (en) Neural architecture and hardware accelerator search
JP7078307B1 (ja) 学習モデルの個別化

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220427

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220715

R150 Certificate of patent or registration of utility model

Ref document number: 7112802

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150