JP6935550B2 - 強化学習を使用した環境ナビゲーション - Google Patents
強化学習を使用した環境ナビゲーション Download PDFInfo
- Publication number
- JP6935550B2 JP6935550B2 JP2020112836A JP2020112836A JP6935550B2 JP 6935550 B2 JP6935550 B2 JP 6935550B2 JP 2020112836 A JP2020112836 A JP 2020112836A JP 2020112836 A JP2020112836 A JP 2020112836A JP 6935550 B2 JP6935550 B2 JP 6935550B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- loop closure
- environment
- agent
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002787 reinforcement Effects 0.000 title description 25
- 230000007613 environmental effect Effects 0.000 title description 4
- 238000013528 artificial neural network Methods 0.000 claims description 240
- 230000009471 action Effects 0.000 claims description 94
- 238000000034 method Methods 0.000 claims description 62
- 238000012549 training Methods 0.000 claims description 55
- 230000008569 process Effects 0.000 claims description 40
- 230000000306 recurrent effect Effects 0.000 claims description 4
- 239000003795 chemical substances by application Substances 0.000 description 65
- 230000006399 behavior Effects 0.000 description 56
- 238000012545 processing Methods 0.000 description 17
- 238000004590 computer program Methods 0.000 description 14
- 230000004044 response Effects 0.000 description 11
- 230000001186 cumulative effect Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000003542 behavioural effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000009334 Singa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000001994 activation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009125 cardiac resynchronization therapy Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Description
102 環境
104 観測画像
106 報酬
108 エージェント
110 行動
112 行動選択ポリシーニューラルネットワーク
114 ジオメトリ予測ニューラルネットワーク
116 ループクロージャ予測ニューラルネットワーク
118 トレーニングエンジン
Claims (20)
前記環境の現在の状態を特徴付ける観測を受信するステップと、
前記行動選択ニューラルネットワークを使用して前記ネットワークパラメータの現在値に従って、前記行動を実施するように前記エージェントを制御する際に使用するための行動選択出力を生成するために前記観測を備える入力を処理するステップと、
ループクロージャ予測ニューラルネットワークを使用して、前記環境が前記現在の状態にあるとき、前記エージェントがすでに訪れたことのある前記環境内のある場所に戻ったかどうかを特徴づけるループクロージャ特徴の値を予測するために、前記行動選択ニューラルネットワークによって生成された中間出力を処理するステップと、
前記ループクロージャ特徴の実際の値を決定するステップと、
前記ループクロージャ特徴の前記値の前記予測と前記ループクロージャ特徴の前記実際の値との間の誤差に基づいて、前記行動選択ニューラルネットワークの前記ネットワークパラメータの前記現在値についてのループクロージャベースの補助更新を決定するステップであって、
前記ループクロージャ特徴の前記値の前記予測と前記ループクロージャ特徴の前記実際の値との間の前記誤差に基づいてループクロージャベースの補助損失の勾配を決定するステップと、
前記ネットワークパラメータの前記現在値についての前記ループクロージャベースの補助更新を決定するために、前記ループクロージャベースの補助損失の前記勾配を前記行動選択ニューラルネットワークに逆伝搬するステップと
を備える、ステップと
を備える、方法。
現在の時間ステップにおける前記環境内の前記エージェントの現在の位置が、特定の以前の時間ステップにおける前記環境内の前記エージェントの特定の以前の位置の第1のしきい値距離以内であるかどうかを判定するステップと、
前記環境内の前記エージェントの位置が前記特定の以前の時間ステップと前記現在の時間ステップとの間の時間ステップにおける前記エージェントの前記現在の場所から少なくとも第2のしきい値距離だけずれているかどうかを判定するステップと
を備える、請求項1に記載の方法。
前記入力の符号化表現を生成する畳み込みエンコーダニューラルネットワークと、
中間表現を生成するために前記入力の前記符号化表現を処理する中間ニューラルネットワークと、
前記行動選択出力を生成するために、前記中間表現を処理する出力ニューラルネットワークと
を備える、請求項1に記載の方法。
前記1つまたは複数の目標を達成する方に向かう進捗に基づいて報酬を受信するステップと、
前記報酬に少なくとも部分的に基づいて、前記行動選択ニューラルネットワークの前記ネットワークパラメータの主な更新を決定するステップと
をさらに備える、請求項1に記載の方法。
をさらに備える、請求項8に記載の方法。
前記更新されたパラメータ値に従って前記エージェントによって実行されるべき行動を選択するために、前記行動選択ニューラルネットワークを使用するステップと
をさらに備える、請求項1に記載の方法。
1つまたは複数のコンピュータと、
前記1つまたは複数のコンピュータに通信可能に結合される1つまたは複数の記憶デバイスであって、前記1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、1つまたは複数の目標を達成するために環境を通じてナビゲートするエージェントによって実行されるべき行動を選択する際に使用するための複数のネットワークパラメータを有する行動選択ニューラルネットワークをトレーニングするための動作を実施させる命令を記憶し、前記動作が、
前記環境の現在の状態を特徴付ける観測を受信することと、
前記行動選択ニューラルネットワークを使用して前記ネットワークパラメータの現在値に従って、前記行動を実施するように前記エージェントを制御する際に使用するための行動選択出力を生成するために前記観測を備える入力を処理することと、
ループクロージャ予測ニューラルネットワークを使用して、前記環境が前記現在の状態にあるとき、前記エージェントがすでに訪れたことのある前記環境内のある場所に戻ったかどうかを特徴づけるループクロージャ特徴の値を予測するために、前記行動選択ニューラルネットワークによって生成された中間出力を処理することと、
前記ループクロージャ特徴の実際の値を決定することと、
前記ループクロージャ特徴の前記値の前記予測と前記ループクロージャ特徴の前記実際の値との間の誤差に基づいて、前記行動選択ニューラルネットワークの前記ネットワークパラメータの前記現在値についてのループクロージャベースの補助更新を決定することであって、
前記ループクロージャ特徴の前記値の前記予測と前記ループクロージャ特徴の前記実際の値との間の前記誤差に基づいてループクロージャベースの補助損失の勾配を決定することと、
前記ネットワークパラメータの前記現在値についての前記ループクロージャベースの補助更新を決定するために、前記ループクロージャベースの補助損失の前記勾配を前記行動選択ニューラルネットワークに逆伝搬することと
を備える、決定することと
を備える、1つまたは複数の記憶デバイスと
を備える、システム。
現在の時間ステップにおける前記環境内の前記エージェントの現在の位置が、特定の以前の時間ステップにおける前記環境内の前記エージェントの特定の以前の位置の第1のしきい値距離以内であるかどうかを判定するステップと、
前記環境内の前記エージェントの位置が前記特定の以前の時間ステップと前記現在の時間ステップとの間の時間ステップにおける前記エージェントの前記現在の場所から少なくとも第2のしきい値距離だけずれているかどうかを判定するステップと
を備える、請求項11に記載のシステム。
前記入力の符号化表現を生成する畳み込みエンコーダニューラルネットワークと、
中間表現を生成するために前記入力の前記符号化表現を処理する中間ニューラルネットワークと、
前記行動選択出力を生成するために、前記中間表現を処理する出力ニューラルネットワークと
を備える、請求項11に記載のシステム。
1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、1つまたは複数の目標を達成するために環境を通じてナビゲートするエージェントによって実行されるべき行動を選択する際に使用するための複数のネットワークパラメータを有する行動選択ニューラルネットワークをトレーニングするための動作を実施させる命令を記憶し、前記動作が、
前記環境の現在の状態を特徴付ける観測を受信することと、
前記行動選択ニューラルネットワークを使用して前記ネットワークパラメータの現在値に従って、前記行動を実施するように前記エージェントを制御する際に使用するための行動選択出力を生成するために前記観測を備える入力を処理することと、
ループクロージャ予測ニューラルネットワークを使用して、前記環境が前記現在の状態にあるとき、前記エージェントがすでに訪れたことのある前記環境内のある場所に戻ったかどうかを特徴づけるループクロージャ特徴の値を予測するために、前記行動選択ニューラルネットワークによって生成された中間出力を処理することと、
前記ループクロージャ特徴の実際の値を決定することと、
前記ループクロージャ特徴の前記値の前記予測と前記ループクロージャ特徴の前記実際の値との間の誤差に基づいて、前記行動選択ニューラルネットワークの前記ネットワークパラメータの前記現在値についてのループクロージャベースの補助更新を決定することであって、
前記ループクロージャ特徴の前記値の前記予測と前記ループクロージャ特徴の前記実際の値との間の前記誤差に基づいてループクロージャベースの補助損失の勾配を決定することと、
前記ネットワークパラメータの前記現在値についての前記ループクロージャベースの補助更新を決定するために、前記ループクロージャベースの補助損失の前記勾配を前記行動選択ニューラルネットワークに逆伝搬することと
を備える、決定することと
を備える、コンピュータ記憶媒体。
現在の時間ステップにおける前記環境内の前記エージェントの現在の位置が、特定の以前の時間ステップにおける前記環境内の前記エージェントの特定の以前の位置の第1のしきい値距離以内であるかどうかを判定するステップと、
前記環境内の前記エージェントの位置が前記特定の以前の時間ステップと前記現在の時間ステップとの間の時間ステップにおける前記エージェントの前記現在の場所から少なくとも第2のしきい値距離だけずれているかどうかを判定するステップと
を備える、請求項17に記載のコンピュータ記憶媒体。
前記入力の符号化表現を生成する畳み込みエンコーダニューラルネットワークと、
中間表現を生成するために前記入力の前記符号化表現を処理する中間ニューラルネットワークと、
前記行動選択出力を生成するために、前記中間表現を処理する出力ニューラルネットワークと
を備える、請求項17に記載のコンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662418074P | 2016-11-04 | 2016-11-04 | |
US62/418,074 | 2016-11-04 | ||
JP2019523617A JP6728496B2 (ja) | 2016-11-04 | 2017-11-04 | 強化学習を使用した環境ナビゲーション |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019523617A Division JP6728496B2 (ja) | 2016-11-04 | 2017-11-04 | 強化学習を使用した環境ナビゲーション |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020170535A JP2020170535A (ja) | 2020-10-15 |
JP6935550B2 true JP6935550B2 (ja) | 2021-09-15 |
Family
ID=60655008
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019523617A Active JP6728496B2 (ja) | 2016-11-04 | 2017-11-04 | 強化学習を使用した環境ナビゲーション |
JP2020112836A Active JP6935550B2 (ja) | 2016-11-04 | 2020-06-30 | 強化学習を使用した環境ナビゲーション |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019523617A Active JP6728496B2 (ja) | 2016-11-04 | 2017-11-04 | 強化学習を使用した環境ナビゲーション |
Country Status (7)
Country | Link |
---|---|
US (2) | US10572776B2 (ja) |
EP (2) | EP4386624A2 (ja) |
JP (2) | JP6728496B2 (ja) |
KR (1) | KR102228503B1 (ja) |
CN (2) | CN110088774B (ja) |
DE (1) | DE202017106697U1 (ja) |
WO (1) | WO2018083672A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10955852B2 (en) * | 2017-02-28 | 2021-03-23 | Honda Research Institute Europe Gmbh | Navigation system based on slow feature gradients |
DE102017215007A1 (de) * | 2017-08-28 | 2019-02-28 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum situativen Steuern eines Fahrzeugflottensystems |
JP7011472B2 (ja) * | 2018-01-15 | 2022-01-26 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
EP3743853A1 (en) * | 2018-05-09 | 2020-12-02 | Deepmind Technologies Limited | Performing navigation tasks using grid codes |
CA3103470A1 (en) | 2018-06-12 | 2019-12-19 | Intergraph Corporation | Artificial intelligence applications for computer-aided dispatch systems |
CN109190720B (zh) * | 2018-07-28 | 2021-08-06 | 深圳市商汤科技有限公司 | 智能体强化学习方法、装置、设备及介质 |
US10748039B2 (en) * | 2018-09-27 | 2020-08-18 | Deepmind Technologies Limited | Reinforcement learning neural networks grounded in learned visual entities |
CN109919319A (zh) * | 2018-12-31 | 2019-06-21 | 中国科学院软件研究所 | 基于多个历史最佳q网络的深度强化学习方法及设备 |
US11313950B2 (en) | 2019-01-15 | 2022-04-26 | Image Sensing Systems, Inc. | Machine learning based highway radar vehicle classification across multiple lanes and speeds |
US11587552B2 (en) | 2019-04-30 | 2023-02-21 | Sutherland Global Services Inc. | Real time key conversational metrics prediction and notability |
EP3942550A1 (en) * | 2019-05-06 | 2022-01-26 | Google LLC | Performing subtask(s) for a predicted action in response to a separate user interaction with an automated assistant prior to performance of the predicted action |
US11467588B2 (en) * | 2019-07-03 | 2022-10-11 | Denso International America, Inc. | Systems and methods for controlling an autonomous vehicle using target orientated artificial intelligence |
US20210073912A1 (en) * | 2019-09-05 | 2021-03-11 | Royal Bank Of Canada | System and method for uncertainty-based advice for deep reinforcement learning agents |
WO2021061266A1 (en) * | 2019-09-24 | 2021-04-01 | Hrl Laboratories, Llc | A deep reinforcement learning based method for surreptitiously generating signals to fool a recurrent neural network |
CN110824954A (zh) * | 2019-10-24 | 2020-02-21 | 北京仿真中心 | 智能体训练方法及***、计算机设备、可读存储介质 |
KR20210064445A (ko) | 2019-11-25 | 2021-06-03 | 삼성전자주식회사 | 반도체 공정 시뮬레이션 시스템 및 그것의 시뮬레이션 방법 |
CN111178496A (zh) * | 2019-11-30 | 2020-05-19 | 浙江大学 | 多代理强化学习合作任务场景下的代理间交换知识的方法 |
DE102020100641B4 (de) * | 2020-01-14 | 2024-06-27 | Bayerische Motoren Werke Aktiengesellschaft | System für Planungsaufgaben |
US11610128B2 (en) * | 2020-03-31 | 2023-03-21 | Amazon Technologies, Inc. | Neural network training under memory restraint |
KR102272501B1 (ko) * | 2020-04-24 | 2021-07-01 | 연세대학교 산학협력단 | 분산 강화 학습 장치 및 방법 |
CN111496794B (zh) * | 2020-04-29 | 2022-04-01 | 华中科技大学 | 一种基于仿真工业机器人的运动学自抓取学习方法和*** |
KR102409041B1 (ko) * | 2020-05-07 | 2022-06-15 | (주)밸류파인더스 | 액터 크리틱 모델을 이용한 포트폴리오 자산배분 강화학습방법 |
EP3920103A1 (en) * | 2020-06-05 | 2021-12-08 | Robert Bosch GmbH | Device and method for planning an operation of a technical system |
US20210390778A1 (en) * | 2020-06-10 | 2021-12-16 | Nvidia Corporation | Environment generation using one or more neural networks |
KR102345267B1 (ko) * | 2020-10-12 | 2021-12-31 | 서울대학교산학협력단 | 목표 지향적 강화학습 방법 및 이를 수행하기 위한 장치 |
KR102236640B1 (ko) * | 2020-10-28 | 2021-04-06 | 주식회사 스파이스웨어 | 강화학습 기반의 난수 생성 장치 및 방법 |
CN114518762B (zh) * | 2022-04-20 | 2022-07-22 | 长沙小钴科技有限公司 | 机器人避障装置、避障控制方法和机器人 |
CN116824303B (zh) * | 2023-07-06 | 2024-01-26 | 哈尔滨工业大学 | 基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016050290A1 (en) * | 2014-10-01 | 2016-04-07 | Metaio Gmbh | Method and system for determining at least one property related to at least part of a real environment |
US10628733B2 (en) * | 2015-04-06 | 2020-04-21 | Deepmind Technologies Limited | Selecting reinforcement learning actions using goals and observations |
-
2017
- 2017-11-04 WO PCT/IB2017/056907 patent/WO2018083672A1/en unknown
- 2017-11-04 EP EP24173836.8A patent/EP4386624A2/en active Pending
- 2017-11-04 CN CN201780078260.2A patent/CN110088774B/zh active Active
- 2017-11-04 JP JP2019523617A patent/JP6728496B2/ja active Active
- 2017-11-04 EP EP17812054.9A patent/EP3523762B1/en active Active
- 2017-11-04 CN CN202311167238.9A patent/CN117371492A/zh active Pending
- 2017-11-04 KR KR1020197015991A patent/KR102228503B1/ko active IP Right Grant
- 2017-11-06 DE DE202017106697.5U patent/DE202017106697U1/de active Active
-
2019
- 2019-05-03 US US16/403,343 patent/US10572776B2/en active Active
-
2020
- 2020-01-17 US US16/745,757 patent/US11074481B2/en active Active
- 2020-06-30 JP JP2020112836A patent/JP6935550B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US11074481B2 (en) | 2021-07-27 |
US20190266449A1 (en) | 2019-08-29 |
JP2020170535A (ja) | 2020-10-15 |
KR102228503B1 (ko) | 2021-03-16 |
EP3523762A1 (en) | 2019-08-14 |
EP3523762B1 (en) | 2024-06-12 |
JP2019537137A (ja) | 2019-12-19 |
CN110088774A (zh) | 2019-08-02 |
CN110088774B (zh) | 2023-08-18 |
WO2018083672A1 (en) | 2018-05-11 |
DE202017106697U1 (de) | 2018-03-09 |
US20200151515A1 (en) | 2020-05-14 |
US10572776B2 (en) | 2020-02-25 |
JP6728496B2 (ja) | 2020-07-22 |
CN117371492A (zh) | 2024-01-09 |
EP4386624A2 (en) | 2024-06-19 |
KR20190077067A (ko) | 2019-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6935550B2 (ja) | 強化学習を使用した環境ナビゲーション | |
CN110692066B (zh) | 使用多模态输入选择动作 | |
JP7235813B2 (ja) | 補助タスクを伴う強化学習 | |
CN108027897B (zh) | 利用深度强化学习的连续控制 | |
US11727281B2 (en) | Unsupervised control using learned rewards | |
US11627165B2 (en) | Multi-agent reinforcement learning with matchmaking policies | |
US20210201156A1 (en) | Sample-efficient reinforcement learning | |
CN110088775B (zh) | 使用加强学习的环境预测 | |
CN111316295A (zh) | 使用分布式优先化回放的强化学习 | |
CN110546653A (zh) | 使用神经网络的用于强化学习的动作选择 | |
JP7354460B2 (ja) | ブートストラップされた潜在性の予測を使用するエージェント制御のための学習環境表現 | |
CN113330458A (zh) | 使用潜在计划控制代理 | |
KR20230010746A (ko) | 상대 엔트로피 q-러닝을 사용한 액션 선택 시스템 트레이닝 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200706 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6935550 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |