JP7080811B2 - 強化学習ニューラルネットワークのトレーニング - Google Patents

強化学習ニューラルネットワークのトレーニング Download PDF

Info

Publication number
JP7080811B2
JP7080811B2 JP2018504858A JP2018504858A JP7080811B2 JP 7080811 B2 JP7080811 B2 JP 7080811B2 JP 2018504858 A JP2018504858 A JP 2018504858A JP 2018504858 A JP2018504858 A JP 2018504858A JP 7080811 B2 JP7080811 B2 JP 7080811B2
Authority
JP
Japan
Prior art keywords
network
action
actions
target
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018504858A
Other languages
English (en)
Other versions
JP2018526733A5 (ja
JP2018526733A (ja
Inventor
ハド・フィリップ・ヴァン・ハッセルト
アーサー・クレメント・ゲス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2018526733A publication Critical patent/JP2018526733A/ja
Publication of JP2018526733A5 publication Critical patent/JP2018526733A5/ja
Application granted granted Critical
Publication of JP7080811B2 publication Critical patent/JP7080811B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Description

本明細書は、強化学習エージェントにより実施されるべきアクションを選択することに関する。
強化学習エージェントは、環境の現在の状態を特徴付ける観測値を受け取り、それに応じてアクションを実施することにより、環境と相互作用する。いくつかの強化学習エージェントは、ニューラルネットワークを使用して何らかの所与の観測値を受け取ることに応じて実施されるアクションを選択する。
ニューラルネットワークは、1つまたは複数のレイヤの非線形ユニットを採用して受け取った入力についての出力を予測する機械学習モデルである。いくつかのニューラルネットワークは、出力レイヤに加えて、1つまたは複数の隠れレイヤを含む、ディープニューラルネットワークである。それぞれの隠れレイヤの出力をネットワーク中の次のレイヤすなわち、次の隠れレイヤまたは出力レイヤへの入力として使用する。ネットワークの各レイヤは、パラメータのそれぞれのセットの現在の値に従って、受け取った入力から出力を生成する。
本明細書は、強化学習に関する技術を記載する。一般的に、本明細書は、環境の現在の状態を特徴付ける観測値を受け取り、観測値に応じてアクションのセットからのアクションを実施することにより、環境と相互作用するエージェントによって実施されるべきアクションを選択するために使用されるQネットワークをトレーニングすることを記載する。
一態様によれば、環境の状態を特徴付ける観測値を受け取り、観測値に応じてアクションのセットからのアクションを実施することにより、環境と相互作用するエージェントによって実施されるべきアクションを選択するために使用されるQネットワークをトレーニングする方法が提供され、Qネットワークは、パラメータのセットに従って入力から推定される将来の累積利益を生成するために、入力として入力観測値および入力アクションを受け取るように構成されるディープニューラルネットワークである。本方法は、複数の経験タプルを取得するステップであって、各経験タプルが、トレーニングの観測値、トレーニングの観測値を受け取るのに応じてエージェントにより実施されるアクション、エージェントがアクションを実施するのに応じて受け取られる利益、および環境の次の状態を特徴付ける次のトレーニングの観測値を含む、ステップと、経験タプルの各々上でQネットワークをトレーニングするステップであって、各経験タプルについて、Qネットワークのパラメータの現在の値に従って、経験タプルについて現在推定される将来の累積利益を決定するために、Qネットワークを使用して経験タプル中のトレーニングの観測値および経験タプル中のアクションを処理するステップと、Qネットワークによって次の観測値と組み合わせて処理されるとき、最高と推定される将来の累積利益をQネットワークが生成することになる、アクションのセットからアクションを選択するステップと、ターゲットQネットワークのパラメータの現在の値に従って、選択されたアクションについての次のターゲットの推定される将来の累積利益を決定するために、ターゲットQネットワークを使用して経験タプル中の次の観測値および選択されたアクションを処理するステップであって、ターゲットQネットワークがQネットワークと同一であるが、ターゲットQネットワークのパラメータの現在の値がQネットワークのパラメータの現在の値と異なる、ステップと、経験タプル中の利益、選択されたアクションについての次のターゲットの推定される将来の累積利益、および現在推定される将来の累積利益から経験タプルについての誤差を決定するステップと、Qネットワークのパラメータの現在の値を更新するために経験タプルについての誤差を使用するステップとを含む、ステップとを含む。誤差Eは、E=R+γ*NTER-CERを満たしてもよく、ここで、Rは経験タプル中の利益であり、γは指定される割引係数であり、NTERは選択されるアクションについての次のターゲットの推定される将来の累積利益であり、CERは現在推定される将来の累積利益である。Qネットワークのパラメータの現在の値を更新するために経験タプルについての誤差を使用するステップが、機械学習トレーニング技法を使用して誤差を減少させるためQネットワークのパラメータの現在の値を更新するステップを含んでもよい。アクションを選択するステップが、アクションのセットの中の各アクションについて、Qネットワークのパラメータの現在の値に従って、アクションについてそれぞれの次の推定される将来の累積利益を決定するために、Qネットワークを使用して経験タプル中の次の観測値およびアクションを処理するステップと、最高の次の推定される将来の累積利益を有するアクションを選択するステップとを含んでもよい。
ターゲットQネットワークのパラメータの値は、Qネットワークのパラメータの値と周期的に同期してもよい。本方法は、Qネットワークのパラメータの更新された値を決定するために、経験タプルの各々上でQネットワークをトレーニングした後、Qネットワークのパラメータの更新された値と一致させるために、ターゲットQネットワークの現在の値を更新するステップをさらに含んでもよい。本方法は、パラメータの更新された現在の値を有するQネットワークを出力するステップをさらに含んでもよい。本方法は、入力として入力観測値および入力アクションを受け取るステップと、パラメータの更新された現在の値に従って、Qネットワークを使用して入力から推定される将来の累積利益を生成するステップとをさらに含んでもよい。
入力は、シミュレーションされた環境に関連する入力観測値を含み、シミュレーションされた環境中のエンティティを制御することに関連する入力を制御してもよい。エンティティは、たとえばシミュレーションされたユーザまたはシミュレーションされた車両であってもよい。追加または代替として、入力は、実世界の環境に関連する入力観測値を含み、実世界の環境中のエンティティに関連する入力を制御してもよい。エンティティは、たとえば実世界の環境を通して特定のタスクおよび/または自動もしくは半自動車両ナビゲーションを達成するために、環境と相互作用するロボットなどの、実世界の環境と相互作用する機械的なエージェントであってもよい。
態様を任意の好都合な形態で実装できることを理解されよう。たとえば、態様を、有形の搬送媒体(たとえば、ディスク)または無形の搬送媒体(たとえば、通信信号)であってよい、好適な搬送媒体上で搬送してもよい、好適なコンピュータプログラムによって実装してもよい。態様はまた、態様を実装するように配置構成されるコンピュータプログラムを実行する、プログラム可能なコンピュータの形態をとってもよい好適な装置を使用して実装してもよい。
本明細書に記載される主題は、以下の利点のうちの1つまたは複数を実現するように、特定の実施形態で実装することができる。強化学習システムは、本明細書に記載されるように、Qネットワークをトレーニングすることによって、エージェントにとって効果的なアクション選択ポリシーを、効果的に学習することができる。特に、トレーニング期間に、Qネットワークを使用して次のアクションを選択すること、次いでターゲットQネットワークを使用して次のアクションについての推定される将来の累積利益を決定することにより、強化学習システムは、トレーニング期間に次のアクションについての将来の累積利益を推定するためにターゲットQネットワークだけを使用するときに発生する可能性があるような、アクションについての将来の累積利益を過大推定するのを回避するアクション選択ポリシーを効果的に学習することができる。累積利益を過大推定することを回避するアクション選択ポリシーを採用することによって、エージェントが、様々な強化タスク上のパフォーマンスを改善することが達成される結果をもたらすことができる。したがって、トレーニングによって、改善されたQネットワークが提供され、Qネットワークのトレーニングに関連する問題に対処する。
本明細書の主題の1つまたは複数の実施形態の詳細は、添付図面および下の説明中に記載される。本主題の他の特徴、態様、および利点は、説明、図面、および請求項から明らかとなるであろう。
例示的な強化学習システムを示す図である。 リプレイメモリに経験タプルを追加するための例示的なプロセスの流れ図である。 Qネットワークのパラメータの現在の値を更新するための例示的なプロセスの流れ図である。
様々な図面中の同様の参照番号および記号は、同様の要素を示す。
本明細書は、一般的に、環境と相互作用する強化学習エージェントにより実施されるべきアクションを選択する、強化学習システムを記載する。エージェントが環境と相互作用するために、システムは、環境の現在の状態を特徴付けるデータを受け取り、受け取ったデータに応じてエージェントにより実施されるべきアクション空間のセットからアクションを選択する。環境の状態を特徴付けるデータは、本明細書では観測値と呼ばれることになる。
いくつかの実装形態では、環境はシミュレーションされた環境であり、エージェントは、シミュレーションされた環境と相互作用する1つまたは複数のコンピュータプログラムとして実装される。たとえば、シミュレーションされた環境がビデオゲームであってよく、エージェントが、ビデオゲームで遊んでいるシミュレーションされたユーザであってもよい。別の例として、シミュレーションされた環境がたとえば、ドライブシミュレーションまたはフライトシミュレーションといった、モーションシミュレーション環境であってもよく、エージェントが、モーションシミュレーションを通してナビゲーションしているシミュレーションされた車両であってもよい。これらの実装形態では、アクションは、シミュレーションされたユーザまたはシミュレーションされた車両を制御するための制御入力であってもよい。
いくつかの他の実装形態では、環境が実世界の環境であり、エージェントが、実世界の環境と相互作用する機械的なエージェントである。たとえば、エージェントは、特定のタスクを達成するために環境と相互作用するロボットであってもよい。別の例として、エージェントは、環境を通してナビゲーションしている自動または半自動の車両であってもよい。これらの実装形態では、アクションは、ロボットまたは自動車両を制御するための制御入力であってもよい。
いくつかの場合では、観測値は、環境の状態を特徴付ける低次元特徴ベクトルを使用して環境の状態を特徴付ける。
いくつかの他の場合では、観測値は、環境の状態を特徴付ける1つまたは複数の画像、たとえばシミュレーションされた環境の画像、または機械的なエージェントが実世界の環境と相互作用するとき、機械的なエージェントのセンサが取り込んだ画像からの高次元画素入力を使用して環境の状態を特徴付ける。
図1は、例示的な強化学習システム100を示す。強化学習システム100は、下に記載されるシステム、構成要素、および技法が実装される、1つまたは複数の位置における1つまたは複数のコンピュータ上のコンピュータプログラムとして実装されるシステムの例である。
強化学習システム100は、環境104と相互作用する強化学習エージェント102により実施されるべきアクションを選択する。すなわち、強化学習システム100は観測値を受け取り、各観測値が環境104のそれぞれの状態を特徴付け、各観測値に応じて観測値に応じて強化学習エージェント102により実施されるべきアクションのセットからアクションを選択する。
特に、強化学習システム100は、Qネットワーク110を使用してアクションを選択する。Qネットワーク110は、入力として入力観測値および入力アクションを受け取って、パラメータのセットに従って、入力から推定される将来の累積利益を生成するように構成されるディープニューラルネットワークである。
推定される将来の累積利益は、入力観測値に応じてエージェントが入力アクションを実施する場合に受け取る将来の累積利益の推定である。各利益は、エージェントがアクションを実施することの帰結として、たとえば環境から受け取る数値であり、将来の累積利益は、入力観測値を受け取った後エージェントによって受け取られることになる、将来の利益の組合せである。たとえば、推定される将来の累積利益は、エージェントがアクションを実施した後に受け取る、時間割引された合計の将来の利益の推定とすることができる。
エージェント102が環境104と効果的に相互作用するのを可能にするために、強化学習システム100は、Qネットワーク110をトレーニングし、Qネットワーク110のパラメータのトレーニングした値を決定する。
Qネットワーク110が一度トレーニングされると、強化学習システム100は、Qネットワーク110を効果的に使用してエージェント102により実施されるべきアクションを選択することができる。特に、Qネットワーク110がトレーニングされた後に観測値が受け取られると、強化学習システム100は、アクションのセットの中の各アクションについて、Qネットワーク110のパラメータのトレーニングされた値に従ってQネットワーク110を使用して観測値およびアクションを処理し、アクションの各々について、それぞれの推定される将来の累積利益を生成することができる。強化学習システム100は次いで、観測値に応じてエージェント102により実施されるべきアクションとして、最高と推定される将来の累積利益を有するアクションを選択することができる。エージェント102は次いで、選択されたアクションを実施することができる。
Qネットワーク110のトレーニング中に支援するために、強化学習システム100は、リプレイメモリ130およびターゲットQネットワーク150を含むトレーニング構成要素120を維持する。
リプレイメモリ130は、Qネットワーク110をトレーニングする際に使用するために、環境104とのエージェント102の相互作用の帰結として生成される経験タプルを記憶する。
特に、リプレイメモリ中の各経験タプルは、環境のトレーニング状態を特徴付けるトレーニング観測値、トレーニング観測値に応じてエージェント102により実施されるトレーニングアクション、エージェント102がトレーニングアクションを実施することに応じて強化学習システム100により受け取られるトレーニング利益、および環境104の次の状態、すなわちエージェント102がトレーニングアクションを実施した後に環境104が移行した状態を特徴付ける次の観測値を含む。
強化学習システム100は、Qネットワーク110のトレーニング期間に、環境104とのエージェント102の相互作用から経験タプルを生成する。トレーニング期間に経験タプルを生成するための例示的なプロセスは、図2を参照して下でより詳細に記載される。
ターゲットQネットワーク150は、Qネットワーク110と同一である、すなわちQネットワーク110と同じニューラルネットワークアーキテクチャを有するが、Qネットワーク110のものとは場合によっては異なるパラメータ値を有するニューラルネットワークである。すなわち、Qネットワーク110のトレーニング期間に、ターゲットQネットワーク150のパラメータの値は、Qネットワーク110のパラメータの現在の値と周期的に同期するだけである。
トレーニング構成要素120を使用してQネットワーク110をトレーニングするために、強化学習システム100は、リプレイメモリ130から経験タプルのミニバッチを繰り返し選択する。経験タプルの各ミニバッチは、所定の数の経験タプルを含み、強化学習システム100は、任意の好適な方法で、たとえばランダムにまたはいくつかの所定の基準に従って、所与のミニバッチについて経験タプルを選択してもよい。
所与のミニバッチ中の各経験タプルでは、強化学習システム100は、Qネットワーク110のパラメータの現在の値への更新を決定するためにQネットワーク110およびターゲットQネットワーク150を使用し、次いで更新を使用してQネットワーク110のパラメータの現在の値を調整する。これらの更新を生成することおよびQネットワーク110のパラメータの現在の値を調整することは、図3を参照して下でより詳細に記載されることになる。
トレーニング期間に、強化学習システム100はまた、Qネットワーク110のパラメータの値を一致させるために、ターゲットQネットワーク150のパラメータの値を周期的に更新してもよい。
経験タプルのミニバッチがトレーニングで一度使用されると、強化学習システム100は、リプレイメモリ130からミニバッチ中の経験タプルを除去することができる。
一般的に、トレーニング期間に、強化学習システム100は、経験タプルを生成し、生成されたタプルを別個に、すなわちリプレイメモリ130から経験タプルをサンプリングすることおよびQネットワーク110のパラメータを調整することとは非同期で、リプレイメモリ130に追加する。
図2は、リプレイメモリに経験タプルを追加するための例示的なプロセス200の流れ図である。便宜上、プロセス200は、1つまたは複数の場所に配置される1つまたは複数のコンピュータのシステムにより実施されると記載されることになる。たとえば、本明細書に従って好適にプログラムされる強化学習システム、たとえば図1の強化学習システム100は、プロセス200を実施することができる。
システムは、環境の現在の状態を特徴付ける現在の観測値を受け取る(ステップ202)。
アクションのセットの中の各アクションについて、システムは、Qネットワークのパラメータの現在の値に従ってQネットワークを使用して現在の観測値およびアクションを処理する(ステップ204)。上で記載したように、Qネットワークは、入力として観測値およびアクションを受け取って、パラメータのセットに従って、入力から推定される将来の累積利益を生成するように構成されるディープニューラルネットワークである。したがって、各アクションについて、Qネットワークのパラメータの現在の値に従って、Qネットワークを使用して現在の観測値およびアクションを処理することにより、システムは、アクションのセットの中の各アクションについてそれぞれの推定される将来の累積利益を生成する。
システムは、推定される将来の累積利益を使用して現在の観測値に応じてエージェントにより実施されるべきアクションを選択する(ステップ206)。
いくつかの実装形態では、システムは、エージェントにより実施されるべきアクションとして、最高と推定される将来の累積利益を有するアクションを選択する。
いくつかの他の実装形態では、トレーニング期間に環境の探査を促進するために、システムは、探査ポリシーを使用して、たとえば確率1-εを有する最高と推定される将来の累積利益でアクションを選択すること、および確率εを有するセットからアクションをランダムに選択することによってアクションを選択する。
システムは、利益および次の観測値を受け取る(ステップ208)。次の観測値は、環境の次の状態、すなわち、エージェントが選択されたアクションを実施した結果として環境が移行した状態を特徴付け、利益は、たとえば環境からエージェントが選択されたアクションを実施した帰結としてシステムが受け取った数値である。
システムは、現在の観測値、選択されたアクション、利益、および次の観測値を含む経験タプルを生成し、Qネットワークをトレーニングする際に使用するために、生成された経験タプルをリプレイメモリ中に記憶する(ステップ210)。
図3は、Qネットワークのパラメータの現在の値への更新を決定するための例示的なプロセス300の流れ図である。便宜上、プロセス300は、1つまたは複数の場所に配置される1つまたは複数のコンピュータのシステムにより実施されると記載されることになる。たとえば、本明細書に従って好適にプログラムされる強化学習システム、たとえば図1の強化学習システム100は、プロセス300を実施することができる。
システムが経験タプルを受け取る(ステップ302)。経験タプルは、システムによりリプレイメモリからサンプリングされた経験タプルのミニバッチ中の経験タプルのうちの1つである。
経験タプルは、環境のトレーニング状態、トレーニングの観測値を受け取るのに応じてエージェントにより実施されたアクションのセットからのトレーニングアクション、エージェントがトレーニングアクションを実施した帰結として受け取られたトレーニング利益を特徴付けるトレーニングの観測値、および環境の次のトレーニング状態を特徴付ける次のトレーニングの観測値を含む。
システムは、Qネットワークのパラメータの現在の値に従って、経験タプルについて現在推定される将来の累積利益を決定するために、Qネットワークを使用して経験タプル中のトレーニングの観測値およびトレーニングアクションを処理する(ステップ304)。
システムは、アクションのセットから次のアクションを選択する(ステップ306)。次のアクションは、Qネットワークによって次の観測値と組み合わせて処理されると、最高と推定される将来の累積利益を生成するアクションである。すなわち、アクションのセットの中の各アクションについて、システムは、アクションについての次の推定される将来の累積利益を生成するために、Qネットワークのパラメータの現在の値に従って、Qネットワークを使用して次の観測値およびアクションを処理する。システムは次いで、次のアクションとして最高の次の推定される将来の累積利益を有するアクションを選択する。
システムは、次のアクションについての次のターゲットの推定される将来の累積利益を生成するために、ターゲットQネットワークのパラメータの現在の値に従って、ターゲットQネットワークを使用して次の観測値および次のアクションを処理する(ステップ308)。上で記載したように、ターゲットQネットワークはQネットワークと同一であるが、ターゲットQネットワークのパラメータの現在の値は、一般的にQネットワークのパラメータの現在の値と異なる。
したがって、経験タプルについて次のターゲットの推定される将来の累積利益を決定するために、システムは、次のアクションを選択するためにQネットワークを使用し、次いで次のターゲットの推定される将来の累積利益としてターゲットQネットワークにより生成される最も大きいターゲットの推定される将来の累積利益を直接使用する代わりに、次のターゲットの推定される将来の累積利益を生成するためにターゲットQネットワークを使用する。
システムは、現在推定される将来の累積利益、トレーニング利益、および次のターゲットの推定される将来の累積利益から経験タプルについての誤差を決定する(ステップ310)。たとえば、誤差Eは、
E=R+γ*NTER-CER
を満たしてもよく、ここで、Rは経験タプル中の利益であり、γは指定される割引係数であり、NTERは次のターゲットの推定される将来の累積利益であり、CERは現在推定される将来の累積利益である。
システムは、Qネットワークのパラメータの現在の値を更新するために誤差を使用する(ステップ312)。すなわち、システムはたとえば、逆伝播で傾斜降下の繰返しを実施することにより、従来型の機械学習トレーニング技法を使用して誤差を減少させる、Qネットワークのパラメータの現在の値への更新を決定することができる。ミニバッチ中の各経験タプルについての更新が一度決定されると、システムは、パラメータの更新された値を生成するために、Qネットワークのパラメータの現在の値へ更新を適用することができる。
Qネットワークのパラメータの更新された値が一度決定されると、システムは、ターゲットQネットワークのパラメータの現在の値を更新するための基準が満たされているかどうかを決定する。たとえば、システムは、T個のミニバッチが処理されるごとに、ターゲットQネットワークのパラメータを更新してもよく、Tは1よりも大きい整数である。
基準が満たされる場合、システムは、Qネットワークのパラメータの更新された値とターゲットQネットワークのパラメータの現在の値を同期させるために、ターゲットQネットワークのパラメータの現在の値を更新する。
経験タプルの複数の異なるミニバッチにプロセス300を繰り返し実施することにより、システムは、Qネットワークをトレーニングして、Qネットワークのパラメータのトレーニングされた値を決定し、環境と相互作用するエージェントにより実施されるべきアクションを選択するためにQネットワークを効果的に使用することを可能にすることができる。特に、トレーニング期間に、次のアクションを選択するためにQネットワークを使用すること、次いで次のターゲットの推定される将来の累積利益としてターゲットQネットワークにより生成される最も大きいターゲットの推定される将来の累積利益を直接使用する代わりに、次のターゲットの推定される将来の累積利益を生成するためにターゲットQネットワークを使用することによって、システムは、トレーニングされたQネットワークにより生成される、推定される利益中の過大推定誤差を低減することができる。
1つまたは複数のコンピュータのシステムにとって、特定の動作またはアクションを実施するように構成されることは、システムが、動作においてシステムに動作またはアクションを実施させる、ソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せをシステム上にインストールすることを意味する。1つまたは複数のコンピュータプログラムにとって、特定の動作またはアクションを実施するように構成されることは、1つまたは複数のプログラムが、データ処理装置により実行されると、装置に動作またはアクションを実施させる命令を含むことを意味する。
本明細書に記載される主題および機能的な動作の実施形態は、デジタル電子回路中、有形に具体化されたコンピュータソフトウェアもしくはファームウェア中、本明細書に開示される構造およびそれらの構造的な等価物を含むコンピュータハードウェア中、またはそれらの1つもしくは複数の組合せ中に実装することができる。本明細書に記載される主題の実施形態は、1つまたは複数のコンピュータプログラムとして、すなわち、データ処理装置が実行するため、またはデータ処理装置の動作を制御するために、有形の非一時的なプログラム担体上に符号化されるコンピュータプログラム命令の1つもしくは複数のモジュールとして実装することができる。代替または追加として、プログラム命令は、人工的に生成された伝播信号、たとえばデータ処理装置が実行するための好適なレシーバ装置に伝送するための情報を符号化するために生成される、機械生成された電気、光、または電磁信号上に符号化することができる。コンピュータ記憶媒体は、機械可読記憶デバイス、機械可読記憶基板、ランダムアクセスメモリデバイスもしくは順次アクセスメモリデバイス、またはそれらのうちの1つもしくは複数の組合せであることができる。
「データ処理装置」という用語は、データ処理ハードウェアのことを言い、例として、プログラム可能なプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータを含む、データを処理するための全ての種類の装置、デバイス、および機械を包含する。装置は、たとえばFPGA(フィールドプログラマブルゲートアレイ)もしくはASIC(特定用途向け集積回路)といった専用ロジック回路であること、または専用ロジック回路をさらに含むこともできる。装置は、ハードウェアに加えて、コンピュータプログラムについての実行環境を作り出すコード、たとえばプロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらのうちの1つもしくは複数の組合せからなるコードを任意選択で含むことができる。
(プログラム、ソフトウェア、ソフトウェアアプリケーション、モジュール、ソフトウェアモジュール、スクリプト、もしくはコードとも呼ばれるまたは記載される場合がある)コンピュータプログラムは、コンパイル言語もしくはインタープリタ言語、または宣言型言語もしくは手続き型言語を含む任意の形のプログラミング言語で書くことができ、コンピュータプログラムは、スタンドアロン型プログラムとして、またはモジュール、構成要素、サブルーチン、もしくはコンピューティング環境で使用するのに好適な他のユニットとして挙げられる任意の形で展開することができる。コンピュータプログラムは、ファイルシステム中のファイルに対応してもよいが、対応する必要はない。プログラムは、たとえばマークアップ言語文書中に記憶される1つもしくは複数のスクリプトといった他のプログラムもしくはデータを保持するファイルの一部に、対象となっているプログラム専用の単一のファイルに、またはたとえば、1つもしくは複数のモジュール、サブプログラム、もしくはコードの部分を記憶するファイルといった複数の協調するファイルに記憶することができる。コンピュータプログラムは、1つの場所に配置される、または複数の場所にわたって分散され通信ネットワークにより相互接続される1つのコンピュータまたは複数のコンピュータ上で実行されるように展開することができる。
本明細書に記載されるプロセスおよび論理フローは、入力データに動作し出力を生成することにより機能を実施するために、1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラム可能なコンピュータによって実施することができる。プロセスおよび論理フローを、たとえばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)といった専用論理回路により実施することもでき、装置を専用論理回路として実装することもできる。
コンピュータプログラムの実行に好適なコンピュータは、例として、汎用もしくは専用マクロプロセッサもしくはその両方、または任意の他の種類の中央処理ユニットに基づくことができる。一般的に、中央処理ユニットは、読取り専用メモリまたはランダムアクセスメモリまたはその両方から命令およびデータを受け取ることになる。コンピュータの基本要素は、命令を実施または実行するための中央処理ユニット、ならびに命令およびデータを記憶するための1つもしくは複数のメモリデバイスである。一般的に、コンピュータは、たとえば磁気、光磁気ディスク、または光ディスクといった、データを記憶するための1つもしくは複数の大容量記憶デバイスを含むこと、または1つもしくは複数の大容量記憶デバイスからデータを受け取ること、もしくは1つもしくは複数の大容量記憶デバイスにデータを転送すること、もしくはその両方のために動作可能に結合されることもある。しかし、コンピュータがそのようなデバイスを有する必要はない。さらに、コンピュータは、たとえばいくつか挙げると、携帯電話、携帯情報端末(PDA)、携帯型オーディオプレイヤもしくはビデオプレイヤ、ゲームコンソール、全地球測位システム(GPS)レシーバ、またはたとえばユニバーサルシリアルバス(USB)フラッシュドライブといった携帯型記憶デバイスといった、別のデバイス中に組み込むことができる。
コンピュータプログラム命令およびデータを記憶するのに好適なコンピュータ可読媒体としては、例として、たとえばEPROM、EEPROM、およびフラッシュメモリデバイスといった半導体メモリデバイス、たとえば内蔵ハードディスクまたは取外し可能ディスクといった磁気ディスク、光磁気ディスク、ならびにCD-ROMおよびDVD-ROMディスクを含む全ての形の不揮発性メモリ、媒体、およびメモリデバイスが挙げられる。プロセッサおよびメモリは、専用論理回路によって補うこと、または専用論理回路の中に組み込むことができる。
ユーザとの相互作用を提供するために、本明細書に記載される主題の実施形態は、ユーザに情報を表示するための、たとえばCRT(陰極線管)またはLCD(液晶ディスプレイ)モニタといった表示デバイス、ならびにユーザがコンピュータに入力を提供することができる、キーボードおよびたとえばマウスまたはトラックボールといったポインティングデバイスを有するコンピュータ上に実装することができる。他の種類のデバイスが、同様にユーザとの相互作用を提供するために使用することができる。たとえば、ユーザへ提供されるフィードバックは、たとえば視覚的フィードバック、音声フィードバック、または触覚的フィードバックといった任意の形の感覚フィードバックとすることができる。また、ユーザからの入力は、音響、音声、または触覚的入力を含む任意の形で受け取ることができる。加えて、コンピュータは、たとえばウェブブラウザから受け取った要求に応じてユーザのクライアントデバイス上のウェブブラウザにウェブページを送信することにより、ユーザにより使用されるデバイスに文書を送信することおよびデバイスから文書を受け取ることによって、ユーザと相互作用することができる。
本明細書に記載される主題の実施形態は、たとえばデータサーバとしてのバックエンド構成要素を含む、またはたとえばアプリケーションサーバといったミドルウェア構成要素を含む、またはたとえば本明細書に記載される主題の実装形態とユーザが相互作用することができる、リレーションシップグラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータといった、フロントエンド構成要素を含む、または1つもしくは複数のそのようなバックエンド、ミドルウェア、もしくはフロントエンド構成要素の任意の組合せの、コンピューティングシステム中に実装することができる。システムの構成要素は、たとえば通信ネットワークといったデジタルデータ通信の任意の形または媒体によって相互接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク("LAN")およびワイドエリアネットワーク("WAN")、たとえばインターネットが挙げられる。
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントとサーバは、一般的に互いに遠隔にあり、典型的には通信ネットワークを通して相互作用する。クライアントとサーバの関係は、それぞれのコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによって生じる。
本明細書は多くの具体的な実装形態の詳細を含有する一方、これらは、任意の発明または特許請求されてよいものの範囲についての制限と考えられるべきではなく、むしろ特定の発明の特定の実施形態に特有であってよい特徴の記載と考えられるべきである。別個の実施形態の文脈で、本明細書に記載されるある種の特徴は、単一の実施形態中に組み合わせて実装することもできる。逆に、単一の実施形態の文脈で記載される様々な特徴は、複数の実施形態で別個に、または任意の好適な下位の組合せで実装することもできる。さらに、特徴は、上である種の組合せで働くものとして記載され、そのように最初に主張される場合さえあるが、主張される組合せからの1つまたは複数の特徴は、いくつかの場合では、組合せから削除されることが可能であり、主張される組合せは、下位の組合せまたは下位の組合せの変形形態に関する場合がある。
同様に、動作は図面中に特定の順番で描かれるが、これは所望の結果を達成するためにそのような動作が示される特定の順番でもしくは逐次的な順番で実施されるべきであること、または全ての図示される動作が実施されるべきであることを必要とすると理解されるべきではない。ある種の環境では、マルチタスクおよび並列処理が有利となる場合がある。さらに、上に記載された実施形態中の様々なシステムモジュールおよび構成要素の分離は、全ての実施形態でそのような分離を必要とすると理解されるべきでなく、記載されたプログラム構成要素およびシステムが、全体的に単一のソフトウェア製品に一緒に一体化できること、または複数のソフトウェア製品へとパッケージングできることを理解するべきである。
本主題の特定の実施形態が記載されてきた。他の実施形態は、以下の請求項の範囲内にある。たとえば、請求項中に記載されるアクションを、異なる順番で実施して、依然として所望の結果に到達することができる。一例として、添付図面に描かれるプロセスは、所望の結果に到達するために、必ずしも示される特定の順番または逐次的な順番を必要としない。ある種の実装形態では、マルチタスクおよび並列処理が有利となる場合がある。
100 強化学習システム
102 エージェント
104 環境
110 Qネットワーク
130 リプレイメモリ
150 ターゲットQネットワーク

Claims (11)

  1. コンピュータ実装方法であって、
    実世界環境の状態を特徴付ける観測値を受け取り、かつ前記観測値に応じてアクションのセットからのアクションを実施することにより、前記実世界環境と相互作用する機械的なエージェントによって実施されるべきアクションを選択するために使用されるQネットワークをトレーニングする方法であって、前記エージェントが、特定のタスクを達成するために環境と相互作用するロボットであるか、または前記エージェントが、前記実世界環境を通じてナビゲーションする自動もしくは半自動車両であり、前記観測値が、前記実世界と相互作用する機械的なエージェントのセンサによって取り込まれた1つまたは複数の画像からの画素を備え、前記アクションが前記ロボットまたは前記車両への制御入力であり、
    前記Qネットワークが、前記Qネットワークに含まれるパラメータのセットに従って入力から推定される将来の累積利益を生成するために、前記入力として入力観測値および入力アクションを受け取るように構成されるディープニューラルネットワークであり、
    複数の経験タプルを取得するステップであって、各経験タプルが、トレーニングの観測値、前記トレーニングの観測値を受け取るのに応じて前記エージェントにより実施されるアクション、前記エージェントが前記アクションを実施するのに応じて受け取られる利益、および前記実世界環境の次の状態を特徴付ける次のトレーニングの観測値を含む、ステップと、
    前記経験タプルの各々の上で前記Qネットワークをトレーニングするステップであって、各経験タプルについて、
    前記Qネットワークの前記パラメータの現在の値に従って、前記Qネットワークを使用して前記経験タプル中の前記トレーニングの観測値および前記経験タプル中の前記アクションに基づいて前記経験タプルについて現在推定される将来の累積利益を決定するステップと、
    前記Qネットワークを使用して、前記Qネットワークによって次の観測値と組み合わせて処理されるとき、最高と推定される将来の累積利益を前記Qネットワークが生成することになる、前記アクションのセットからアクションを選択するステップと、
    ターゲットQネットワークを使用して、前記ターゲットQネットワークの前記パラメータの現在の値に従って、前記経験タプル中の前記次の観測値および前記選択されたアクションに基づいて、前記ターゲットQネットワークによって、前記選択されたアクションについての次のターゲットの推定される将来の累積利益を決定するステップであって、前記ターゲットQネットワークが前記Qネットワークと同一であるが、前記ターゲットQネットワークの前記パラメータの前記現在の値が前記Qネットワークの前記パラメータの前記現在の値と異なる、ステップと、
    前記経験タプル中の前記利益、前記選択されたアクションについての前記次のターゲットの推定される将来の累積利益、および前記現在推定される将来の累積利益から前記経験タプルについての誤差を決定するステップと、
    前記Qネットワークの前記パラメータの前記現在の値を更新するために前記経験タプルについての前記誤差を使用するステップと
    を含む、ステップと
    を含む、方法。
  2. 前記誤差Eが、
    E=R+γ*NTER-CER
    を満たし、Rは前記経験タプル中の前記利益であり、γは指定される割引係数であり、NTERは前記選択されるアクションについての前記次のターゲットの推定される将来の累積利益であり、CERは前記現在推定される将来の累積利益である、請求項1に記載の方法。
  3. 前記Qネットワークの前記パラメータの前記現在の値を更新するために前記経験タプルについての前記誤差を使用するステップが、
    機械学習トレーニング技法を使用して前記誤差を減少させるために前記Qネットワークの前記パラメータの前記現在の値を更新するステップ
    を含む、請求項1または2に記載の方法。
  4. 前記アクションを選択するステップが、
    前記アクションのセットの中の各アクションについて、前記Qネットワークの前記パラメータの現在の値に従って、前記Qネットワークを使用して、前記経験タプル中の前記次の観測値および前記アクションに基づいて、前記アクションについてそれぞれの次の推定される将来の累積利益を決定するステップと、
    最高の次の推定される将来の累積利益を有する前記アクションを選択するステップと
    を含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記ターゲットQネットワークの前記パラメータの前記値が、前記Qネットワークの前記パラメータの前記値と周期的に同期する、請求項1から4のいずれか一項に記載の方法。
  6. 前記Qネットワークの前記パラメータの更新された値を決定するために、前記経験タプルの各々の上で前記Qネットワークをトレーニングした後、前記Qネットワークの前記パラメータの前記更新された値と一致させるために、前記ターゲットQネットワークの前記現在の値を更新するステップ
    をさらに含む、請求項5に記載の方法。
  7. パラメータの更新された現在の値を有する前記Qネットワークを出力するステップをさらに含む、請求項1から6のいずれか一項に記載の方法。
  8. 入力として入力観測値および入力アクションを受け取るステップと、
    前記パラメータの更新された現在の値に従って、前記Qネットワークを使用して前記入力から推定される将来の累積利益を生成するステップと
    をさらに含む、請求項1から7のいずれか一項に記載の方法。
  9. 1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータにより実行されるとき、前記1つまたは複数のコンピュータに請求項1から8のいずれか一項に記載の方法を実施させるように動作可能な命令を記憶する、1つまたは複数の記憶デバイスとを備える、システム。
  10. 1つまたは複数のコンピュータにより実行されると、前記1つまたは複数のコンピュータに請求項1から8のいずれか一項に記載の方法を実施させる命令で符号化される、コンピュータ記憶媒体。
  11. 入力として入力観測値および入力アクションを受け取り、かつパラメータのセットに従って前記入力から推定される将来の累積利益を生成するように構成されたQネットワークであって、請求項1から8のいずれか一項に記載の方法に従ってトレーニングされたものである、Qネットワーク。
JP2018504858A 2015-09-11 2016-09-09 強化学習ニューラルネットワークのトレーニング Active JP7080811B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562217547P 2015-09-11 2015-09-11
US62/217,547 2015-09-11
PCT/US2016/051095 WO2017044842A1 (en) 2015-09-11 2016-09-09 Training reinforcement learning neural networks

Publications (3)

Publication Number Publication Date
JP2018526733A JP2018526733A (ja) 2018-09-13
JP2018526733A5 JP2018526733A5 (ja) 2020-10-01
JP7080811B2 true JP7080811B2 (ja) 2022-06-06

Family

ID=56979671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018504858A Active JP7080811B2 (ja) 2015-09-11 2016-09-09 強化学習ニューラルネットワークのトレーニング

Country Status (6)

Country Link
US (2) US10733504B2 (ja)
EP (1) EP3295384B1 (ja)
JP (1) JP7080811B2 (ja)
KR (1) KR102140672B1 (ja)
CN (1) CN107851216B (ja)
WO (1) WO2017044842A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015213181B3 (de) * 2015-07-14 2017-01-19 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug
DE102015213190B3 (de) 2015-07-14 2016-09-29 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug
DE102015213183A1 (de) 2015-07-14 2017-01-19 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug
US10885432B1 (en) 2015-12-16 2021-01-05 Deepmind Technologies Limited Selecting actions from large discrete action sets using reinforcement learning
CN117521725A (zh) * 2016-11-04 2024-02-06 渊慧科技有限公司 加强学习***
KR102399535B1 (ko) * 2017-03-23 2022-05-19 삼성전자주식회사 음성 인식을 위한 학습 방법 및 장치
US11263490B2 (en) 2017-04-07 2022-03-01 Intel Corporation Methods and systems for budgeted and simplified training of deep neural networks
EP3933713A1 (en) * 2017-04-14 2022-01-05 DeepMind Technologies Limited Distributional reinforcement learning
KR102391452B1 (ko) * 2017-06-02 2022-04-27 에스케이텔레콤 주식회사 신경망에 복수의 태스크를 순차 학습시키는 방법
WO2018224695A1 (en) * 2017-06-09 2018-12-13 Deepmind Technologies Limited Training action selection neural networks
US10678241B2 (en) * 2017-09-06 2020-06-09 GM Global Technology Operations LLC Unsupervised learning agents for autonomous driving applications
US10254759B1 (en) * 2017-09-14 2019-04-09 Waymo Llc Interactive autonomous vehicle agent
EP3616130B1 (en) * 2017-09-20 2024-04-10 Google LLC Using simulation and domain adaptation for robotic control
EP3467717A1 (en) * 2017-10-04 2019-04-10 Prowler.io Limited Machine learning system
EP3467718A1 (en) 2017-10-04 2019-04-10 Prowler.io Limited Machine learning system
US11797839B2 (en) 2017-10-27 2023-10-24 Google Llc Training neural networks using priority queues
US11568236B2 (en) 2018-01-25 2023-01-31 The Research Foundation For The State University Of New York Framework and methods of diverse exploration for fast and safe policy improvement
FR3077666B1 (fr) * 2018-02-05 2020-01-17 Psa Automobiles Sa Procede de configuration automatique d’un generateur de recompenses utilisees par des strategies de conduite d’un vehicule a conduite automatisee
JP6955105B2 (ja) 2018-02-05 2021-10-27 ディープマインド テクノロジーズ リミテッド 方策オフ型アクタークリティック強化学習を使用する分散型の訓練
US11610118B2 (en) * 2018-02-09 2023-03-21 Deepmind Technologies Limited Distributional reinforcement learning using quantile function neural networks
US20210192358A1 (en) * 2018-05-18 2021-06-24 Deepmind Technologies Limited Graph neural network systems for behavior prediction and reinforcement learning in multple agent environments
US11188035B2 (en) 2018-07-19 2021-11-30 International Business Machines Corporation Continuous control of attention for a deep learning network
CN109952582B (zh) * 2018-09-29 2023-07-14 区链通网络有限公司 一种强化学习模型的训练方法、节点、***及存储介质
CN112840359B (zh) * 2018-10-12 2024-05-14 渊慧科技有限公司 通过使用时间值传递在长时间尺度上控制代理
CN111105029B (zh) * 2018-10-29 2024-04-16 北京地平线机器人技术研发有限公司 神经网络的生成方法、生成装置和电子设备
CN109598332B (zh) * 2018-11-14 2021-04-09 北京市商汤科技开发有限公司 神经网络生成方法及装置、电子设备和存储介质
EP3921785A4 (en) * 2019-03-20 2022-04-20 Sony Group Corporation REINFORCEMENT LEARNING THROUGH A CRITICAL DUAL ACTOR ALGORITHM
KR20210012730A (ko) 2019-07-26 2021-02-03 삼성전자주식회사 인공지능 모델의 학습 방법 및 전자 장치
US20210158196A1 (en) * 2019-11-25 2021-05-27 Deepmind Technologies Limited Non-stationary delayed bandits with intermediate signals
CN111046156B (zh) * 2019-11-29 2023-10-13 支付宝(杭州)信息技术有限公司 奖励数据的确定方法、装置和服务器
US20220226994A1 (en) * 2020-07-20 2022-07-21 Georgia Tech Research Corporation Heterogeneous graph attention networks for scalable multi-robot scheduling
CN112580801B (zh) * 2020-12-09 2021-10-15 广州优策科技有限公司 一种强化学习训练方法及基于强化学习的决策方法
KR102388911B1 (ko) * 2021-03-08 2022-04-21 (주)뤼이드 데이터 증강 기반 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법
DE102021107458A1 (de) 2021-03-25 2022-09-29 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Steuervorrichtung und Verfahren
CN113268933B (zh) * 2021-06-18 2022-02-15 大连理工大学 基于强化学习的蛇形急救机器人结构参数快速设计方法
CN113361132B (zh) * 2021-06-28 2022-03-15 浩鲸云计算科技股份有限公司 一种基于深度q学习对决网络的风冷数据中心节能方法
US20220274251A1 (en) * 2021-11-12 2022-09-01 Intel Corporation Apparatus and methods for industrial robot code recommendation

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5790754A (en) * 1994-10-21 1998-08-04 Sensory Circuits, Inc. Speech recognition apparatus for consumer electronic applications
WO2003044687A1 (en) * 2001-11-16 2003-05-30 Yuan Yan Chen Pausible neural network with supervised and unsupervised cluster analysis
CN101261634B (zh) * 2008-04-11 2012-11-21 哈尔滨工业大学深圳研究生院 基于增量Q-Learning的学习方法及***
CN102195975A (zh) * 2011-04-08 2011-09-21 上海电机学院 基于移动代理和学习向量量化神经网络的智能nips架构
CN102573055B (zh) * 2011-12-02 2014-04-09 上海电机学院 一种无线传感网络中的节点定位方法及***
US8788439B2 (en) 2012-12-21 2014-07-22 InsideSales.com, Inc. Instance weighted learning machine learning model
JP5997092B2 (ja) * 2013-04-17 2016-09-28 日本電信電話株式会社 ロボット協調搬送計画装置、方法及びプログラム
US9286573B2 (en) 2013-07-17 2016-03-15 Xerox Corporation Cost-aware non-stationary online learning
US9679258B2 (en) * 2013-10-08 2017-06-13 Google Inc. Methods and apparatus for reinforcement learning
JP6230052B2 (ja) * 2013-10-11 2017-11-15 株式会社オーディオテクニカ エレクトレットコンデンサマイクロホン
JP2015089801A (ja) * 2013-11-07 2015-05-11 株式会社デンソー 運転制御装置
EP3204888A4 (en) * 2014-10-09 2017-10-04 Microsoft Technology Licensing, LLC Spatial pyramid pooling networks for image processing
CN104794359B (zh) 2015-04-29 2017-12-15 电子科技大学 一种迭代步长可变的多步q学习自适应方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Volodymyr MNIH et al.,"Human-level control through deep reinforcement learning",NATURE,英国,Macmillan Publishers Limited,2015年2月26日,vol.518,pages:529-541,[令和4年3月16日検索],インターネット <URL:https://www.nature.com/articles/nature14236>

Also Published As

Publication number Publication date
US10733504B2 (en) 2020-08-04
KR102140672B1 (ko) 2020-08-03
JP2018526733A (ja) 2018-09-13
CN107851216B (zh) 2022-03-08
EP3295384B1 (en) 2020-12-23
US11886992B2 (en) 2024-01-30
CN107851216A (zh) 2018-03-27
US20170076201A1 (en) 2017-03-16
KR20180010241A (ko) 2018-01-30
WO2017044842A1 (en) 2017-03-16
EP3295384A1 (en) 2018-03-21
US20200364569A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
JP7080811B2 (ja) 強化学習ニューラルネットワークのトレーニング
US11783182B2 (en) Asynchronous deep reinforcement learning
US11803750B2 (en) Continuous control with deep reinforcement learning
JP6828121B2 (ja) 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練
JP6728496B2 (ja) 強化学習を使用した環境ナビゲーション
JP2021185492A (ja) 補助タスクを伴う強化学習
JP6667674B2 (ja) 疑似カウントを使用する強化学習
KR20180091841A (ko) 결투 심층 신경 네트워크

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190610

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190909

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200525

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20200821

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210421

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210421

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20210510

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210512

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210517

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210730

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210810

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210906

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211011

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220322

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220425

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220525

R150 Certificate of patent or registration of utility model

Ref document number: 7080811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150