JP2023071063A - モデル学習システム及びモデル学習装置 - Google Patents

モデル学習システム及びモデル学習装置 Download PDF

Info

Publication number
JP2023071063A
JP2023071063A JP2021183648A JP2021183648A JP2023071063A JP 2023071063 A JP2023071063 A JP 2023071063A JP 2021183648 A JP2021183648 A JP 2021183648A JP 2021183648 A JP2021183648 A JP 2021183648A JP 2023071063 A JP2023071063 A JP 2023071063A
Authority
JP
Japan
Prior art keywords
learning
model
learning model
accuracy
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021183648A
Other languages
English (en)
Other versions
JP7056794B1 (ja
Inventor
大樹 横山
Daiki Yokoyama
智洋 金子
Tomohiro Kaneko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021183648A priority Critical patent/JP7056794B1/ja
Application granted granted Critical
Publication of JP7056794B1 publication Critical patent/JP7056794B1/ja
Priority to CN202211103550.7A priority patent/CN116108929A/zh
Priority to US17/978,511 priority patent/US20230145386A1/en
Publication of JP2023071063A publication Critical patent/JP2023071063A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】学習モデルの精度が上がらないにもかかわらずその再学習が自動的に繰り返し行われるのを抑制する。【解決手段】モデル学習システム100は、学習モデルが使用される機器2と、学習モデルの訓練データセットを作成するためのデータを取得するデータ取得装置3と、データを用いて作成された学習モデルの訓練データセットを用いて学習モデルを自動的に学習させるモデル学習装置1と、を備える。モデル学習装置1は、自動的に学習した前記学習モデルの学習後のモデル精度が、学習前と比較して上がらなかったとき、又は下がったときは、前記学習モデルを、自動的に学習する対象から除外するように構成される。【選択図】図1

Description

本発明はモデル学習システム及びモデル学習装置に関する。
特許文献1には、スマートシティ内からデータを収集することが開示されている。
特開2013-69084号公報
今後、社会の様々なシーンで機械学習などの学習を実施した学習モデル(人工知能モデル)が使用されることが想定され、また、学習モデルの精度を向上させるために、例えばスマートシティ内で収集されたデータ等に基づいて、学習モデルの再学習が適宜自動的に行われることが想定される。しかしながら、学習モデルの再学習を行っても、学習モデルの精度が上がらなかったり、逆に下がったりすることも考えられる。学習モデルの精度が上がらないにもかかわらずその再学習が自動的に繰り返し行われると、限られた演算リソースが無駄に消費されることになる。
本発明はこのような問題点に着目してなされたものであり、学習モデルの再学習を不要に実施してしまうのを抑制することを目的とする。
上記課題を解決するために、本発明のある態様によるモデル学習システムは、学習モデルが使用される機器と、学習モデルの訓練データセットを作成するためのデータを取得するデータ取得装置と、データを用いて作成された学習モデルの訓練データセットを用いて学習モデルを自動的に学習させるモデル学習装置と、を備える。モデル学習装置は、自動的に学習した学習モデルの学習後のモデル精度が、学習前と比較して上がらなかったとき、又は下がったときは、学習モデルを、自動的に学習する対象から除外するように構成される。
また本発明のある態様によるモデル学習装置は、訓練データセットを用いて学習モデルを自動的に学習させると共に、自動的に学習した前記学習モデルの学習後のモデル精度が、学習前と比較して上がらなかったとき、又は下がったときは、学習モデルを、自動的に学習する対象から除外するように構成される。
本発明のこれらの態様によれば、学習モデルの精度が上がらないにもかかわらずその再学習が自動的に繰り返し行われるのを抑制することができる。したがって、学習モデルの再学習を不要に実施してしまうのを抑制することができる。
図1は、本発明の一実施形態によるモデル学習システムの概略構成図である。 図2は、本発明の一実施形態による車両のハードウェア構成を示す図である。 図3は、本発明の一実施形態による学習モデルの一例を示す図である。 図4は、モデル学習システムの動作シーケンスの一例を示す図である。
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
図1は、本発明の一実施形態によるモデル学習システム100の概略構成図である。
モデル学習システム100は、モデル学習装置としてのサーバ1と、制御機器2と、データ取得装置3と、外部機関に属する外部の端末(以下「外部機関端末」という。)4と、を備える。
サーバ1は、通信部10と、演算装置20と、記憶装置30と、を備える。
通信部10は、サーバ1を、ネットワークを介して制御機器2、データ取得装置3、及び外部機関端末4のそれぞれと接続して、それらと相互に通信を行うことができるようにするための通信インタフェース回路である。なお本実施形態では、図1に示すように、制御機器2及びデータ取得装置3が車両5に搭載されている例を挙げて説明する関係上、サーバ1と制御機器2及びデータ取得装置3との通信は、車両5に搭載された車外通信装置54(図2参照)を介して行われている。
演算装置20は、記憶装置30に格納された各種のプログラムを実行し、サーバ1の全体的な動作を統括的に制御するための装置であって、例えばプロセッサである。演算装置20は、プログラムに従って処理を実行することによって、データ取得部21、訓練データセット作成部22、モデル学習部23、及び除外判断部24として機能し、所定の機能を実現する機能部(モジュール)として動作する。以下の説明では、各機能部を主語に処理を説明する場合、演算装置20が当該機能部を実現するプログラムを実行していることを示す。各機能部21~24の詳細については後述する。
記憶装置30は、演算装置20が実行するプログラム及びプログラムの実行時に使用されるデータを格納する装置であり、例えば、メモリ、HDD(Hard Disk Drive)、SSD(Solid State DRIVE)、RAM(Random Access Memory)及びROM(Read Only Memory)等である。記憶装置30の訓練データセット作成用データベース31に格納されるデータの詳細については後述する。
外部機関端末4は、外部機関側に設けられると共に外部機関の人間によって操作される、キーボードやディスプレイなどを備えるコンピュータであって、サーバ1とネットワークを介して通信可能に構成される。外部機関は、例えば、学習モデルの解析等を行う人間の専門家(例えば、データサイエンティスト)が属する外部の専門機関である。
制御機器2は、その制御を行うにあたって機械学習などの学習を実施した学習モデル(人工知能モデル)が使用される機器である。制御機器2は、例えば、車両5に搭載される各種の制御部品である。しかしながら、制御機器2は、これに限らず、車両5とは関係のない家電製品などの電化製品であってもよい。
データ取得装置3は、学習モデルの学習(再学習)を行う際に用いられる訓練データセットを作成するために必要なデータを取得する装置である。データ取得装置3は、例えば、車両5に搭載されて車両5の制御に使用される各種のセンサ類である。しかしながら、データ取得装置3は、これに限らず、スマートシティ内の各所に設けられてスマートシティ内の情報を収集する各種のセンサ類であってもよい。
なお前述した通り、本実施形態では、制御機器2及びデータ取得装置3が車両5に搭載されている例を挙げて説明する関係上、サーバ1と制御機器2及びデータ取得装置3との通信は、車両5に搭載された車外通信装置54(図2参照)を介して行われているが、制御機器2及びデータ取得装置3のそれぞれに無線通信機能を設けて、サーバ1と通信できるようにしてもよい。
車両5は、特にその種類が限られるものではなく、動力源として内燃機関のみを備える車両であってもよいし、電気自動車(Battery Electric Vehicle)やハイブリッド車(Hybrid Electric Vehicle)、プラグインハイブリッド車(Plug-in Hybrid Electric Vehicle)、燃料電池車(Fuel Cell Electric Vehicle)などの走行用電動機を備える電動化車両であってもよい。また車両5は、手動運転車両であってもよいし、自動運転車両であってもよい。
図2は、本実施形態による車両5のハードウェア構成を示す図である。
本実施形態による車両5は、ハイブリッド車であり、電子制御ユニット50と、車外通信装置54と、内燃機関や走行用電動機、エアコンなどの車両5に搭載される各種の制御部品55と、各種の制御部品55を制御したり、また各種の制御部品55を制御するために必要に応じて使用される様々な学習モデルの入力パラメータ及び出力パラメータの実測値を検出したりするために必要な各種のセンサ類56と、を備える。電子制御ユニット50、車外通信装置54、及び各種の制御部品55やセンサ類56は、CAN(Controller Area Network)等の規格に準拠した車内ネットワーク57を介して互いに接続される。
電子制御ユニット50は、車内通信インタフェース51、車両記憶部52及び車両処理部53を備える。車内通信インタフェース51、車両記憶部52及び車両処理部53は、信号線を介して互いに接続されている。
車内通信インタフェース51は、CAN(Controller Area Network)等の規格に準拠した車内ネットワーク57に電子制御ユニット50を接続するための通信インタフェース回路である。
車両記憶部52は、HDD(Hard Disk Drive)や光記録媒体、半導体メモリ等の記憶媒体を有し、車両処理部53での処理に用いられる各種のコンピュータプログラムやデータ等を記憶する。
車両処理部53は、一又は複数個のCPU(Central Processing Unit)及びその周辺回路を有する。車両処理部53は、車両記憶部52に格納された各種のコンピュータプログラムを実行し、車両5に搭載された各種の制御部品55を統括的に制御するものであり、例えばプロセッサである。
車外通信装置54は、無線通信機能を有する車載の端末である。車外通信装置54を介して車両5、ひいては車両5に搭載された制御部品55及びセンサ類56とサーバ1との間で相互に通信が行われる。
車両5では、電子制御ユニット50によって車両5に搭載された各種の制御部品55を制御するにあたり、学習モデルが必要に応じて使用されている。本実施形態では、学習モデルとして、ディープニューラルネットワーク(DNN;Deep Neural Network)や畳み込みニューラルネットワーク(CNN;Convolutional Neural Network)などを用いたニューラルネットワークモデル(以下「NNモデル」という。)に対して深層学習を実施したものを使用している。したがって、本実施形態による学習モデルは、深層学習を実施した学習済みのNNモデルということもできる。深層学習は、人工知能(AI;Artificial Intelligence)を代表する機械学習手法の一つである。
図3は、本実施形態による学習モデル(NNモデル)の一例を示す図である。
図3における丸印は人工ニューロンを表す。人工ニューロンは、通常、ノード又はユニットと称される(本明細書では、「ノード」と称す)。図3において、L=1は入力層を示し、L=2及びL=3は隠れ層を示し、L=4は出力層を示している。隠れ層は、中間層とも称される。なお、図3には、隠れ層が2層のNNモデルを例示しているが、隠れ層の層数は特に限られるものではなく、また、入力層、隠れ層及び出力層の各層のノードの数も特に限られるものではない。
図3において、x及びxは入力層(L=1)の各ノード及びそのノードからの出力値を示しており、yは出力層(L=4)のノード及びその出力値を示している。同様に、z (L=2) (L=2)及びz (L=2)は隠れ層(L=2)の各ノード及びそのノードからの出力値を示しており、z (L=3)及びz (L=3)は隠れ層(L=3)の各ノード及びそのノードからの出力値を示している。
入力層の各ノードでは入力がそのまま出力される。一方、隠れ層(L=2)の各ノードには、入力層の各ノードの出力値x及びxが入力され、隠れ層(L=2)の各ノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値uが算出される。例えば、図3において隠れ層(L=2)のz (L=2)(k=1、2、3)で示される各ノードにおいて算出される総入力値u (L=2)は、次式のようになる(Mは入力層のノードの数)。
Figure 2023071063000002
次いで、この総入力値u (L=2)は活性化関数fにより変換され、隠れ層(L=2)のz (L=2)で示されるノードから、出力値z (L=2)(=f(u (L=2)))として出力される。一方、隠れ層(L=3)の各ノードには、隠れ層(L=2)の各ノードの出力値z (L=2) (L=2)及びz (L=2)が入力され、隠れ層(L=3)の各ノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値u(=Σz・w+b)が算出される。この総入力値uは同様に活性化関数により変換され、隠れ層(L=3)の各ノードから、出力値z (L=3)、z (L=3)として出力される。活性化関数は例えばシグモイド関数σである。
また、出力層(L=4)のノードには、隠れ層(L=3)の各ノードの出力値z (L=3)及びz (L=3)が入力され、出力層のノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値u(Σz・w+b)が算出されるか、又は、それぞれ対応する重みwのみを用いて総入力値u(Σz・w)が算出される。例えば、出力層のノードでは活性化関数として恒等関数が用いられる。この場合、出力層のノードにおいて算出された総入力値uが、そのまま出力値yとして出力層のノードから出力される。
このように本実施形態による学習モデルは、入力層と、隠れ層と、出力層と、を備え、一又は複数の入力パラメータが入力層から入力されると、入力パラメータに対応する一又は複数の出力パラメータを出力層から出力する。
入力パラメータの例としては、例えば学習モデルを用いて車両5に搭載されたエアコンを制御する場合であれば、外気温や車両5の使用場所(緯度及び経度)、日時、直前の駐車時間(走行前の駐車時間)といった、車内温度に影響を与える各種パラメータが挙げられる。そして、このような入力パラメータに対応する出力パラメータの例としては、エアコンの設定温度が挙げられる。これにより、出力パラメータとして取得された設定温度となるようにエアコンを制御することで、車内温度を適切な温度に維持することができる。このように、車両5に搭載されたエアコンが制御機器2となる場合は、上記の入力パラメータ及び出力パラメータを取得するために必要な各種のセンサ類がデータ取得装置3となる。
また、入力パラメータの例としては、例えば学習モデルを用いて車両5に搭載された内燃機関を制御する場合であれば、機関回転速度や機関冷却水温度、燃料噴射量、燃料噴射時期、燃圧、吸入空気量、吸気温度、EGR率、過給圧といった、内燃機関の運転状態を示す各種パラメータの現在値が挙げられる。そして、このような入力パラメータに対応する出力パラメータの例としては、排気中のCO濃度やNOx濃度、その他の物質の濃度、機関出力トルクといった内燃機関の性能を表す各種パラメータの推定値が挙げられる。これにより、NNモデルに内燃機関の運転状態を示す各種パラメータの現在値を入力パラメータとして入力することで、内燃機関の性能を表す各種パラメータの推定値(現在の推定値又は将来の推定値)を出力パラメータとして取得することができるので、例えば出力パラメータに基づいて、内燃機関の性能が所望の性能に近づくように内燃機関を制御することができる。また、出力パラメータを実測するためのセンサ等を備える場合には、実測値と推定値との差に応じて、内燃機関やセンサ等の故障を判断したりすることもできる。このように、車両5に搭載された内燃機関が制御機器2となる場合は、上記の入力パラメータ及び出力パラメータを取得するために必要な各種のセンサ類がデータ取得装置3となる。
ここで、学習モデルの精度を向上させるためには、学習モデルを学習させる必要がある。学習モデルの学習には、入力パラメータの実測値と、この入力パラメータの実測値に対応した出力パラメータの実測値(正解データ)と、を含む多数の訓練データセットが用いられる。多数の訓練データセットを用いて、入力パラメータの実測値を入力したときに学習モデルから出力される出力パラメータの値と、入力パラメータの実測値に対応する出力パラメータの実測値と、の差が小さくなるように、公知の誤差逆伝搬法によってニューラルネットワーク内の重みw及びバイアスbの値を繰り返し更新することで、重みw及びバイアスbの値が学習され、学習モデルの精度が向上する。
そこで本実施形態によるサーバ1は、学習モデルを定期的に学習させてその精度を向上させるために、図1に示すように、データ取得部21、訓練データセット作成部22、及びモデル学習部23を備える。
データ取得部21は、データ取得装置3によって取得されたデータを、通信部10を介して定期的に取得し、訓練データセット作成用データベース31に格納する。訓練データセット作成部22は、訓練データセット作成用データベース31に格納されたデータに基づいて、各制御機器2に使用される学習モデル毎に、入力パラメータの実測値と、入力パラメータの実測値に対応した出力パラメータの実測値(正解データ)と、を含む多数の訓練データセットを作成する。モデル学習部23は、各学習モデルに対応した訓練データセットを用いて各学習モデルの学習(再学習)を行う。
このようにして本実施形態では、データ取得装置3によって取得したデータに基づいて訓練データセットを作成し、当該訓練データセットを用いて学習モデルの学習(再学習)を定期的かつ自動的に行っている。
しかしながら、学習モデルの学習(再学習)を行っても、学習モデルの精度が上がらなかったり、逆に学習モデルの精度が下がったりすることも考えられる。例えば、データ取得装置3の故障や経年劣化により、データ取得装置3によって取得されるデータにノイズが含まれるようになることがある。このようなノイズを含むデータに基づいて作成された訓練データセットを用いて学習モデルの学習が行われると、学習モデルの精度が上がらなかったり、逆に学習モデルの精度が下がったりすることがある。学習モデルの精度が上がらないにもかかわらずその再学習が定期的かつ自動的に繰り返し行われると、限られた演算リソースが無駄に消費されることになる。
そこで本実施形態によるサーバ1は、学習モデルの学習(再学習)が不要に実施されてしまうのを抑制するために、除外判断部24をさらに備える。
除外判断部24は、予め用意されたモデル評価用のデータセットを用いて再学習を行った学習モデルの精度を評価し、その評価結果に基づいて、当該学習モデルを以後の学習対象から一時的に除外するか否かを判断する。本実施形態では除外判断部24は、学習後の学習モデルの精度を学習前と比較してその精度が上がっていなかった場合、又は下がっていた場合には、一時的にその学習モデルを以後の学習対象から除外する。なお、学習モデルの精度の評価方法は特に限られるものではなく、既知の評価方法の中から学習モデルの種類に応じた適切な評価方法を選択することができる。
また除外判断部24は、学習モデルを以後の学習対象から一時的に除外すると判断した場合は、その学習モデルの精度向上依頼を外部機関に対して行う。精度向上依頼には、学習対象から一時的に除外することになった学習モデルと、その学習モデルの学習に使用した訓練データセットと、その訓練データセットを作成する際に使用したデータを取得したデータ取得装置3に関する情報と、が含まれる。
外部機関は、外部機関端末4を介して学習モデルの精度向上依頼を受信すると、人間の専門家によって、学習モデルの精度が悪化した要因を解析し、その精度を向上させるために必要な措置を取る。
外部機関は、例えば訓練データセットの元となるデータにノイズが含まれていることが原因で学習モデルの精度が悪化していた場合であれば、当該データに対して、例えば平滑化(スムージング)や中心化(センタリング)、バックグラウンド除去などの、データのノイズを減らすための前処理、すなわち信号雑音比(signal-noise ratio)を高めるための前処理を施して、適切な訓練データセットを新たに作成する。そして外部機関は、新たに作成した訓練データセットを用いて学習モデルを学習させて、その精度を向上させる。そして外部機関は、このようにして精度を向上させた学習モデルを、外部機関端末4を介してサーバ1に送信する。
図4は、モデル学習システム100の動作シーケンスの一例を示す図である。
ステップS1において、車両5の電子制御ユニット50は、データ取得装置3によって取得したデータをサーバ1に送信するデータ送信タイミングであるかを判定し、データ送信タイミングであれば当該データをサーバ1に送信する。データ送信タイミングとしては、例えば、データ取得装置3によってデータを取得したタイミングや、これまでにデータ取得装置3によって取得して車両記憶部52に記憶してきたデータのデータ量が所定量以上になったタイミングなどが挙げられるが、特に限られるものではない。
ステップS2において、車両5から送信されたデータを受信したサーバ1は、受信したデータを訓練データセット作成用データベース31に格納する。
ステップS3において、サーバ1は、車両5の制御機器2に使用されている学習モデル毎に、訓練データセットの作成タイミングであるかを判定し、作成タイミングであれば、訓練データセット作成用データベース31に格納されたデータを用いて、各学習モデルに対応した訓練データセットを作成する。この際、サーバ1は、後述するステップS8で学習対象から除外された学習モデルがある場合は、当該学習モデルについては訓練データセットの作成タイミングではないと判定する。一方で、それ以外の学習モデル、すなわち学習対象から除外されていた学習モデルについては、サーバ1は、例えば、当該学習モデルに対応する訓練データセットを作成するために必要なデータのデータ量が所定量以上になったときに、訓練データセットの作成タイミングであると判定する。
ステップS4において、サーバ1は、作成した訓練データセットを用いて学習モデルを自動的に学習する。
ステップS5において、サーバ1は、自動的に学習した学習モデルの学習後のモデル精度を評価し、その評価結果に基づいて、当該学習モデルを自動的に学習する対象から一時的に除外するか否かを判断する。本実施形態ではサーバ1は、自動的に学習した学習モデルの学習後のモデル精度が、学習前と比較して上がらなかったとき、又は下がったときは、その学習モデルを、自動的に学習する対象から除外する。サーバ1は、学習モデルの学習後のモデル精度が学習前と比較して上がっていときは、ステップS6に進む。一方でサーバは、自動的に学習した学習モデルの学習後のモデル精度が学習前と比較して上がらなかったとき、又は下がったときは、ステップS8に進む。
ステップS6において、サーバ1は、学習後の学習モデルの精度が学習前よりも上がっていたため、その学習後の学習モデルを車両5に送信する。
ステップS7において、車両5の電子制御ユニット50は、サーバ1から学習モデルを受信すると、これまで使用していた学習モデルを、受信した学習モデルに更新する。
ステップS8において、サーバ1は、外部機関端末4に精度向上依頼を送信する。前述したように、精度向上依頼には、学習対象から一時的に除外することになった学習モデルと、その学習モデルの学習に使用した訓練データセットと、その訓練データセットを作成する際に使用したデータを取得したデータ取得装置3に関する情報と、が含まれる。
ステップS9において、外部機関端末4を介して精度向上依頼を受信した外部機関は、人間の専門家によって、学習モデルの精度が悪化した要因を解析し、その精度を向上させるために必要な措置を取る。
ステップS10において、外部機関は、精度向上措置を施した学習モデルを、外部機関端末4を介してサーバ1に送信する。この際、例えば、訓練データセットの元となるデータを取得したデータ取得装置3の故障や経年劣化が原因で学習モデルの精度が悪化していた場合には、外部機関は、データ取得装置3の交換等を促すための通知を、学習モデルと併せてサーバ1に送信するようにしてもよい。
ステップS11において、サーバ1は、外部機関から受信した学習モデルを車両5に送信する。これにより、ステップS7で、車両5においてこれまで使用されていた学習モデルが、外部機関によって精度向上措置が施された学習モデルに更新される。またサーバ1は、ステップS10で外部機関から学習モデルと共にデータ取得装置3の交換等を促すための通知を受信していたときは、その通知も併せて車両5に送信する。これにより、車両5に対して、データ取得装置3の早期交換を促すことができる。
ステップS12において、サーバ1は、学習対象から一時的に除外していた学習モデルを、学習対象に復帰させる。
以上説明した本実施形態によるモデル学習システム100は、学習モデルが使用される制御機器2(機器)と、学習モデルの訓練データセットを作成するためのデータを取得するデータ取得装置3と、データを用いて作成された、学習モデルの訓練データセットを用いて学習モデルを自動的に学習させるサーバ1(モデル学習装置)と、を備える。そしてサーバ1は、自動的に学習した学習モデルの学習後のモデル精度が、学習前と比較して上がらなかったとき、又は下がったときは、学習モデルを自動的に学習する対象から除外するように構成される。
これにより、学習モデルの精度が上がらないにもかかわらずその再学習が自動的に繰り返し行われるのを抑制することができる。そのため、演算リソースが無駄に消費されるのを抑制することができる。
また本実施形態によるサーバ1(モデル学習装置)は、学習モデルを自動的に学習する対象から除外したときは、学習モデルのモデル精度向上依頼を、外部機関に属する外部機関端末4に送信するように構成される。モデル精度向上依頼には、自動的に学習する対象から除外した学習モデルと、その学習モデルの学習に用いた訓練データセットと、その訓練データセットの作成に用いられたデータを取得したデータ取得装置3に関する情報と、が含まれており、外部機関は、具体的には人間の専門家によって学習モデルの精度が悪化した要因を解析してその精度を向上させる外部の専門機関である。
これにより、学習モデルの精度が悪化した要因を特定して、その要因を排除することができる。例えば、訓練データセットの元となるデータを取得したデータ取得装置3の故障や経年劣化が原因で学習モデルの精度が悪化していた場合には、データ取得装置3の交換等を促すことができる。
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。
例えば上記の実施形態では、図4のステップS10で、精度向上措置を施した学習モデルをサーバ1に送信していたが、当該学習モデルが使用されている制御機器2、又は制御機器2が搭載されている車両5に対して、直接送信するようにしてもよい。
また上記の実施形態では、制御機器2に使用される学習モデルは、その制御機器2に搭載されていたが、これに限らず、学習モデル自体はサーバ1に存在していて、そのサーバ1に存在している学習モデルを利用して制御機器2を制御するようにしてもよい。
1 サーバ(モデル学習装置)
2 制御機器(機器)
3 データ取得装置
4 外部機関端末
100 モデル学習システム

Claims (5)

  1. 学習モデルが使用される機器と、
    前記学習モデルの訓練データセットを作成するためのデータを取得するデータ取得装置と、
    前記データを用いて作成された前記学習モデルの訓練データセットを用いて前記学習モデルを自動的に学習させるモデル学習装置と、
    を備えるモデル学習システムであって、
    前記モデル学習装置は、
    自動的に学習した前記学習モデルの学習後のモデル精度が、学習前と比較して上がらなかったとき、又は下がったときは、前記学習モデルを、自動的に学習する対象から除外するように構成される、
    モデル学習システム。
  2. 前記モデル学習装置は、
    前記学習モデルを自動的に学習する対象から除外したときは、前記学習モデルのモデル精度向上依頼を、外部機関に属する外部機関端末に送信するように構成される、
    請求項1に記載のモデル学習システム。
  3. 前記モデル精度向上依頼には、自動的に学習する対象から除外した前記学習モデルと、前記学習モデルの学習に用いた訓練データセットと、その訓練データセットの作成に用いられたデータを取得したデータ取得装置に関する情報と、が含まれる、
    請求項2に記載のモデル学習システム。
  4. 前記外部機関は、人間の専門家によって学習モデルの精度が悪化した要因を解析してその精度を向上させる外部の専門機関である、
    請求項2又は請求項3に記載のモデル学習システム。
  5. 訓練データセットを用いて学習モデルを自動的に学習させるモデル学習装置であって、
    自動的に学習した前記学習モデルの学習後のモデル精度が、学習前と比較して上がらなかったとき、又は下がったときは、前記学習モデルを、自動的に学習する対象から除外するように構成される、
    モデル学習装置。
JP2021183648A 2021-11-10 2021-11-10 モデル学習システム及びモデル学習装置 Active JP7056794B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021183648A JP7056794B1 (ja) 2021-11-10 2021-11-10 モデル学習システム及びモデル学習装置
CN202211103550.7A CN116108929A (zh) 2021-11-10 2022-09-09 模型学习***及模型学习装置
US17/978,511 US20230145386A1 (en) 2021-11-10 2022-11-01 Model learning system and model learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021183648A JP7056794B1 (ja) 2021-11-10 2021-11-10 モデル学習システム及びモデル学習装置

Publications (2)

Publication Number Publication Date
JP7056794B1 JP7056794B1 (ja) 2022-04-19
JP2023071063A true JP2023071063A (ja) 2023-05-22

Family

ID=81291721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021183648A Active JP7056794B1 (ja) 2021-11-10 2021-11-10 モデル学習システム及びモデル学習装置

Country Status (3)

Country Link
US (1) US20230145386A1 (ja)
JP (1) JP7056794B1 (ja)
CN (1) CN116108929A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016158768A1 (ja) * 2015-03-30 2016-10-06 株式会社メガチップス クラスタリング装置及び機械学習装置
WO2017159620A1 (ja) * 2016-03-14 2017-09-21 オムロン株式会社 拡張性保有装置
WO2020184070A1 (ja) * 2019-03-13 2020-09-17 日本電気株式会社 モデル生成方法、モデル生成装置、プログラム
JP2021086241A (ja) * 2019-11-26 2021-06-03 株式会社日立製作所 転移可能性判定装置、転移可能性判定方法、及び転移可能性判定プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016158768A1 (ja) * 2015-03-30 2016-10-06 株式会社メガチップス クラスタリング装置及び機械学習装置
WO2017159620A1 (ja) * 2016-03-14 2017-09-21 オムロン株式会社 拡張性保有装置
WO2020184070A1 (ja) * 2019-03-13 2020-09-17 日本電気株式会社 モデル生成方法、モデル生成装置、プログラム
JP2021086241A (ja) * 2019-11-26 2021-06-03 株式会社日立製作所 転移可能性判定装置、転移可能性判定方法、及び転移可能性判定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鈴木 藍雅ほか: "2段階転移学習を用いた深層畳み込みニューラルネットによるびまん性肺疾患の識別と特徴表現の解析", 情報処理学会研究報告 [ONLINE], vol. Vol. 2019-MPS-117, No. 13, JPN6022008810, 2 February 2018 (2018-02-02), pages 1 - 6, ISSN: 0004722954 *

Also Published As

Publication number Publication date
JP7056794B1 (ja) 2022-04-19
CN116108929A (zh) 2023-05-12
US20230145386A1 (en) 2023-05-11

Similar Documents

Publication Publication Date Title
WO2022077693A1 (zh) 负荷预测模型的训练方法及训练装置、存储介质、设备
US20180136285A1 (en) Method and apparatus for estimating state of battery
US20200125042A1 (en) Control support device, apparatus control device, control support method, recording medium, learned model for causing computer to function, and method of generating learned model
KR102118088B1 (ko) 인공지능 기술을 이용한 배기가스 배출량 예측방법
CN113830097B (zh) 车辆、模型学习***以及服务器
CN115130266A (zh) 用于车辆的热管理控制的方法和***
US11820398B2 (en) Learning apparatus and model learning system
US20220058522A1 (en) Model learning system, model learning method, and server
JP7010343B1 (ja) 機械学習装置
JP7040589B1 (ja) 機械学習方法及び機械学習システム
JP6935837B1 (ja) 機械学習装置及び機械学習システム
JP2023071063A (ja) モデル学習システム及びモデル学習装置
CN117150882A (zh) 发动机油耗预测方法、***、电子设备及存储介质
CN116796821A (zh) 面向3d目标检测算法的高效神经网络架构搜索方法及装置
CN115081308A (zh) 考虑时空关联特性的电驱变速箱瞬态温度场精确预测方法
CN110909455B (zh) 一种延缓固体氧化物燃料电池性能衰退的方法
Kou Wireless Communication System and Its Application in Big Data Remote Monitoring and Decision‐Making
JP7276298B2 (ja) モデル学習システム、車両の制御装置及びモデル学習方法
US20220292350A1 (en) Model updating apparatus, model updating method, and model updating program
CN114063597B (zh) 服务器、车辆的控制装置以及车辆的机器学习***
US20210390406A1 (en) Machine learning apparatus, machine learning system, machine learning method, and program
Singh et al. Hybrid physics-infused 1D-CNN based deep learning framework for diesel engine fault diagnostics
CN114638152A (zh) 基于HGP-MPC的深海Argo剖面浮标能量管理方法
JP2022035222A (ja) 機械学習装置
CN117269816A (zh) 一种质子交换膜燃料电池精确寿命预测方法及相关***

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211110

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220321

R151 Written notification of patent or utility model registration

Ref document number: 7056794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151