JP7014264B2 - 自律運転車両、および、その操作方法 - Google Patents
自律運転車両、および、その操作方法 Download PDFInfo
- Publication number
- JP7014264B2 JP7014264B2 JP2020114413A JP2020114413A JP7014264B2 JP 7014264 B2 JP7014264 B2 JP 7014264B2 JP 2020114413 A JP2020114413 A JP 2020114413A JP 2020114413 A JP2020114413 A JP 2020114413A JP 7014264 B2 JP7014264 B2 JP 7014264B2
- Authority
- JP
- Japan
- Prior art keywords
- array
- vehicle
- sensor data
- dimensional
- potential field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 77
- 230000009471 action Effects 0.000 claims description 95
- 230000006870 function Effects 0.000 claims description 40
- 238000013473 artificial intelligence Methods 0.000 claims description 36
- 238000003384 imaging method Methods 0.000 claims description 31
- 230000001360 synchronised effect Effects 0.000 claims description 31
- 230000007774 longterm Effects 0.000 claims description 11
- 230000002787 reinforcement Effects 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000003190 augmentative effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 9
- 238000013459 approach Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 239000008188 pellet Substances 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 229910052739 hydrogen Inorganic materials 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0217—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Navigation (AREA)
Description
自律運転車両は、ひとつ以上のプロセッサと、
ひとつ以上のプロセッサと通信するメモリとを備えており、
メモリは、入力状態配列生成モジュールと、アクション値配列生成モジュールと、指示モジュールとを格納しており、
入力状態配列生成モジュールは、ひとつ以上のプロセッサによって実行されるとき、ひとつ以上のプロセッサに、(1)タイムスタンプをもつセンサデータであって、車両のひとつ以上のセンサからセンサデータを受け取り、(2)センサデータのタイムスタンプの間における比較に基づいてセンサデータを同期化することにより、センサデータを同期化させて同期化されたセンサデータを生成し、(3)センサデータを共通のデータ形式をもつ変換されたセンサデータに変換することにより、同期化されたセンサデータを前処理し、および、(4)入力状態配列であるK次元配列であって、K次元配列に、変換されたセンサデータを連結するように機能させ、
アクション値配列生成モジュールは、ひとつ以上のプロセッサによって実行されるとき、ひとつ以上のプロセッサに、複数のセルを含むアクション値配列を推定するために、ナビゲーションポリシーを入力状態配列に適用するように機能させ、ナビゲーションポリシーは、所望のナビゲーションアクションを提供するために事前に定義されたナビゲーション制約を考慮するように強化学習によって訓練されており、アクション値配列は車両の前方の平面を表す配列であって、アクション値配列の複数のセルは、対応するセルに向かって車両を運転することによる長期的な報酬の期待値を含み、アクション値配列の複数のセルの値は、車両と車両が到達しようとしている目標との間の距離と、車両と車両が回避しようとするひとつ以上の物体との距離とを表しているものであり、
指示モジュールは、ひとつ以上のプロセッサによって実行されるとき、ひとつ以上のプロセッサに、最高の報酬値を有するアクション値配列内のセルを表す場所に車両を誘導するように車両制御システムに指示するように機能させるものであり、
ひとつ以上のプロセッサと通信するメモリは、人工知能ポテンシャルフィールド撮像モジュールと、入力状態配列生成モジュールとを格納しており、
人工知能ポテンシャルフィールド撮像モジュールは、ひとつ以上のプロセッサにより実行されるとき、ひとつ以上のプロセッサに、(1)現在の位置を表す起点値と目標位置を表す到達点値とを受け取り、(2)現在位置周辺の複数のセルを有するN次元空間を離散化し、(3)目標位置からの現在位置の近接度の関数として、複数のセルにおけるセルのポテンシャル値を計算し、および、(4)タイムスタンプを与えられているN次元ポテンシャルフィールド配列であって、N次元空間から対応するセルのポテンシャル値に基づいているN次元ポテンシャルフィールド配列のセルの値であるN次元ポテンシャルフィールド配列を計算するように機能させ、
入力状態配列生成モジュールは、ひとつ以上のプロセッサにより実行されるとき、ひとつ以上のプロセッサに、(1)センサデータとN次元ポテンシャルフィールド配列とは、センサデータとN次元ポテンシャルフィールド配列との間のタイムスタンプの比較に基づいて同期化することにより、センサデータとN次元ポテンシャルフィールド配列とを同期化させ、(2)センサデータとN次元ポテンシャルフィールド配列を共通のデータ形式に変換することにより、同期化されたセンサデータとN次元ポテンシャルフィールド配列を前処理し、(3)入力状態配列であるK次元配列であって、K次元配列に、変換されたセンサデータとN次元ポテンシャルフィールド配列とを連結するように機能させる。
自律運転車両の操作方法は、タイムスタンプを有するセンサデータであって、自律運転車両のひとつ以上のセンサからセンサデータを受信し、
センサデータのタイムスタンプ間の比較に基づいてセンサデータを同期化することによって、センサデータを同期化し、
センサデータを共通のデータフォーマットを有する変換されたセンサデータに変換することにより、同期化されたセンサデータを前処理し、
入力状態配列であるK次元配列であって、変換されたセンサデータをK次元配列に連結し、
望ましいナビゲーションアクションを提供するために事前定義されたナビゲーション制約を考慮する強化学習を通じて訓練されたナビゲーションポリシーであって、ナビゲーションポリシーを入力状態配列に適用することにより複数のセルを含むアクション値配列を推定し、
アクション値配列は、車両の前方の平面を表す配列であって、アクション値配列の複数のセルは、対応するセルに向かって車両を運転することによる長期的な報酬の期待値を含み、アクション値配列の複数のセルの値は、車両と車両が到達しようとする目標との間の距離、および、車両と車両が回避しようとするひとつ以上の物体との間の距離を表すものであり、
最高の報酬値を持つアクション値配列のセルを表す場所に自律運転車両を誘導するように車両制御システムに指示するものであり、
現在位置を表す起点値と目標位置を表す到達点値とを受け取り、
現在位置の周りに複数のセルを有するN次元空間を離散化し、
複数のセルにおけるそれぞれのセルのポテンシャル値を、目標位置からの現在位置の近接度の関数として計算し、
タイムスタンプから提供されるN次元ポテンシャルフィールド配列であって、N次元ポテンシャルフィールド配列のセルの値は、N次元空間からの対応するセルのポテンシャル値に基づいている、N次元ポテンシャルフィールド配列を計算し、
センサデータとN次元ポテンシャルフィールド配列のタイムスタンプ間の比較に基づいて、センサデータとN次元ポテンシャルフィールド配列とを同期化することにより、センサデータとN次元ポテンシャルフィールド配列とを同期化させ、
センサデータとN次元ポテンシャルフィールド配列とを共通のデータ形式に変換することにより、同期化されたセンサデータとN次元ポテンシャルフィールド配列とを前処理し、
K次元配列は入力状態配列であって、K次元配列に、変換されたセンサデータとN次元ポテンシャルフィールド配列とを連結する。
Rt=Σt’=0→h(γt’*rt+h),γ-割引係数&h-有限範囲
at=maxa’∈AVπ(St,a’)
Claims (12)
- ひとつ以上のプロセッサと、
ひとつ以上の前記プロセッサと通信するメモリとを備えており、
前記メモリは、入力状態配列生成モジュールと、アクション値配列生成モジュールと、指示モジュールとを格納しており、
前記入力状態配列生成モジュールは、ひとつ以上の前記プロセッサによって実行されるとき、ひとつ以上の前記プロセッサに、(1)タイムスタンプをもつセンサデータであって、車両のひとつ以上のセンサから前記センサデータを受け取り、(2)前記センサデータの前記タイムスタンプの間における比較に基づいて前記センサデータを同期化することにより、前記センサデータを同期化させて同期化された前記センサデータを生成し、(3)前記センサデータを共通のデータ形式をもつ変換された前記センサデータに変換することにより、同期化された前記センサデータを前処理し、および、(4)入力状態配列であるK次元配列であって、前記K次元配列に、変換された前記センサデータを連結するように機能させ、
前記アクション値配列生成モジュールは、ひとつ以上の前記プロセッサによって実行されるとき、ひとつ以上の前記プロセッサに、複数のセルを含むアクション値配列を推定するために、ナビゲーションポリシーを前記入力状態配列に適用するように機能させ、前記ナビゲーションポリシーは、所望のナビゲーションアクションを提供するために事前に定義されたナビゲーション制約を考慮するように強化学習によって訓練されており、前記アクション値配列は車両の前方の平面を表す配列であって、前記アクション値配列の複数の前記セルは、対応する前記セルに向かって前記車両を運転することによる長期的な報酬の期待値を含み、前記アクション値配列の複数の前記セルの値は、前記車両と前記車両が到達しようとしている目標との間の距離と、前記車両と前記車両が回避しようとするひとつ以上の物体との距離とを表しているものであり、
前記指示モジュールは、ひとつ以上の前記プロセッサによって実行されるとき、ひとつ以上の前記プロセッサに、最高の報酬値を有する前記アクション値配列内のセルを表す場所に前記車両を誘導するように車両制御システムに指示するように機能させるものであり、
ひとつ以上の前記プロセッサと通信する前記メモリは、人工知能ポテンシャルフィールド撮像モジュールと、入力状態配列生成モジュールとを格納しており、
前記人工知能ポテンシャルフィールド撮像モジュールは、ひとつ以上の前記プロセッサにより実行されるとき、ひとつ以上の前記プロセッサに、(1)現在の位置を表す起点値と目標位置を表す到達点値とを受け取り、(2)現在位置周辺の複数のセルを有するN次元空間を離散化し、(3)目標位置からの現在位置の近接度の関数として、複数の前記セルにおける前記セルのポテンシャル値を計算し、および、(4)タイムスタンプを与えられているN次元ポテンシャルフィールド配列であって、N次元空間から対応するセルの前記ポテンシャル値に基づいているN次元ポテンシャルフィールド配列の前記セルの値であるN次元ポテンシャルフィールド配列を計算するように機能させ、
前記入力状態配列生成モジュールは、ひとつ以上の前記プロセッサにより実行されるとき、ひとつ以上の前記プロセッサに、(1)前記センサデータと前記N次元ポテンシャルフィールド配列とは、前記センサデータと前記N次元ポテンシャルフィールド配列との間のタイムスタンプの比較に基づいて同期化することにより、前記センサデータと前記N次元ポテンシャルフィールド配列とを同期化させ、(2)前記センサデータと前記N次元ポテンシャルフィールド配列を共通のデータ形式に変換することにより、同期化された前記センサデータと前記N次元ポテンシャルフィールド配列を前処理し、(3)入力状態配列であるK次元配列であって、前記K次元配列に、変換された前記センサデータと前記N次元ポテンシャルフィールド配列とを連結するように機能させる自律運転車両。 - 前記起点値、および、前記到達点値が全地球航法衛星システムからの座標として表されている請求項1に記載の自律運転車両。
- 前記起点値は車両の現在の車両位置を表し、前記到達点値は前記車両の意図された車両到達位置を表している請求項1に記載の自律運転車両。
- 前記アクション値配列は、ディープニューラルネットワークを使用して推定されている請求項1から請求項3のいずれかひとつに記載の自律運転車両。
- 前記目標は、最終目標と、ひとつ以上の中間目標とを含み、前記中間目標は前記最終目標と前記車両の間に配置されている請求項1から請求項4のいずれかひとつに記載の自律運転車両。
- ひとつ以上の前記センサは、単眼カメラ、ステレオカメラ、レーダーシステム、超音波レーダーシステム、および、LiDARシステムのうちの少なくともひとつを含む請求項1から請求項5のいずれかひとつに記載の自律運転車両。
- タイムスタンプを有するセンサデータであって、自律運転車両のひとつ以上のセンサから前記センサデータを受信し、
前記センサデータの前記タイムスタンプ間の比較に基づいて前記センサデータを同期化することによって、前記センサデータを同期化し、
前記センサデータを共通のデータフォーマットを有する変換された前記センサデータに変換することにより、同期化された前記センサデータを前処理し、
入力状態配列であるK次元配列であって、変換された前記センサデータを前記K次元配列に連結し、
望ましいナビゲーションアクションを提供するために事前定義されたナビゲーション制約を考慮する強化学習を通じて訓練されたナビゲーションポリシーであって、前記ナビゲーションポリシーを前記入力状態配列に適用することにより複数のセルを含むアクション値配列を推定し、
前記アクション値配列は、車両の前方の平面を表す配列であって、前記アクション値配列の複数の前記セルは、対応するセルに向かって車両を運転することによる長期的な報酬の期待値を含み、前記アクション値配列の複数の前記セルの値は、車両と車両が到達しようとする目標との間の距離、および、車両と車両が回避しようとするひとつ以上の物体との間の距離を表すものであり、
最高の報酬値を持つアクション値配列の前記セルを表す場所に自律運転車両を誘導するように車両制御システムに指示するものであり、
現在位置を表す起点値と目標位置を表す到達点値とを受け取り、
現在位置の周りに複数のセルを有するN次元空間を離散化し、
複数の前記セルにおけるそれぞれの前記セルのポテンシャル値を、前記目標位置からの前記現在位置の近接度の関数として計算し、
タイムスタンプから提供されるN次元ポテンシャルフィールド配列であって、前記N次元ポテンシャルフィールド配列のセルの値は、前記N次元空間からの対応するセルのポテンシャル値に基づいている、前記N次元ポテンシャルフィールド配列を計算し、
センサデータと前記N次元ポテンシャルフィールド配列のタイムスタンプ間の比較に基づいて、前記センサデータと前記N次元ポテンシャルフィールド配列とを同期化することにより、前記センサデータと前記N次元ポテンシャルフィールド配列とを同期化させ、
前記センサデータと前記N次元ポテンシャルフィールド配列とを共通のデータ形式に変換することにより、同期化された前記センサデータと前記N次元ポテンシャルフィールド配列とを前処理し、
K次元配列は入力状態配列であって、前記K次元配列に、変換された前記センサデータと前記N次元ポテンシャルフィールド配列とを連結する自律運転車両の操作方法。 - 前記起点値、および、前記到達点値が全地球航法衛星システムからの座標として表されている請求項7に記載の自律運転車両の操作方法。
- 前記起点値は車両の現在の車両位置を表し、前記到達点値は前記車両の意図された車両到達位置を表している請求項7に記載の自律運転車両の操作方法。
- ディープニューラルネットワークを使用して前記アクション値配列を推定するステップをさらに含む請求項7から請求項9のいずれかひとつに記載の自律運転車両の操作方法。
- 前記目標は、最終目標と、ひとつ以上の中間目標とを含み、前記中間目標は前記最終目標と前記車両の間に配置されている請求項7から請求項10のいずれかひとつに記載の自律運転車両の操作方法。
- ひとつ以上の前記センサは、単眼カメラ、ステレオカメラ、レーダーシステム、超音波レーダーシステム、および、LiDARシステムのうちの少なくともひとつを含む請求項7から請求項11のいずれかひとつに記載の自律運転車両の操作方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/502,602 US11467588B2 (en) | 2019-07-03 | 2019-07-03 | Systems and methods for controlling an autonomous vehicle using target orientated artificial intelligence |
US16/502,602 | 2019-07-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021012694A JP2021012694A (ja) | 2021-02-04 |
JP7014264B2 true JP7014264B2 (ja) | 2022-02-01 |
Family
ID=74065682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020114413A Active JP7014264B2 (ja) | 2019-07-03 | 2020-07-01 | 自律運転車両、および、その操作方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11467588B2 (ja) |
JP (1) | JP7014264B2 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
EP3864573A1 (en) | 2018-10-11 | 2021-08-18 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
JP2022030664A (ja) * | 2020-08-07 | 2022-02-18 | 株式会社東芝 | 情報処理装置、情報処理方法、プログラム、情報処理システム、および、車両制御システム |
CN113341958B (zh) * | 2021-05-21 | 2022-02-25 | 西北工业大学 | 一种混合经验的多智能体强化学习运动规划方法 |
KR102549744B1 (ko) * | 2021-07-12 | 2023-06-29 | 숭실대학교 산학협력단 | 심층강화학습기반 자율주행차를 이용한 도로정보시스템에서의 도로 흐름 제어 방법, 이를 수행하기 위한 기록 매체 및 장치 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005258598A (ja) | 2004-03-09 | 2005-09-22 | Data Tec:Kk | 移動体の運行履歴記録装置及び方法、コンピュータプログラム |
WO2013051083A1 (ja) | 2011-10-03 | 2013-04-11 | トヨタ自動車株式会社 | 車両の運転支援システム |
WO2018083672A1 (en) | 2016-11-04 | 2018-05-11 | Deepmind Technologies Limited | Environment navigation using reinforcement learning |
JP2019026103A (ja) | 2017-07-31 | 2019-02-21 | 本田技研工業株式会社 | 自動運転のポリシー生成装置及び車両 |
JP2019106049A (ja) | 2017-12-13 | 2019-06-27 | 株式会社豊田中央研究所 | 車両制御装置、リスクマップ生成装置、及びプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4241673B2 (ja) | 2005-06-17 | 2009-03-18 | 本田技研工業株式会社 | 移動体の経路生成装置 |
US8098245B2 (en) | 2008-09-30 | 2012-01-17 | Microsoft Corporation | Smart navigation for 3D maps |
DE102013013747A1 (de) | 2013-08-21 | 2015-02-26 | GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) | Fahrassistenzsystem, Fahrzeug mit einem Fahrassistenzsystem und Verfahren zum Betrieb eines Fahrerassistenzsystems |
CN108431549B (zh) | 2016-01-05 | 2020-09-04 | 御眼视觉技术有限公司 | 具有施加的约束的经训练的*** |
US20190004524A1 (en) | 2016-08-31 | 2019-01-03 | Faraday&Future Inc. | System and method for planning a vehicle path |
US10584971B1 (en) * | 2016-10-28 | 2020-03-10 | Zoox, Inc. | Verification and updating of map data |
US10942256B2 (en) * | 2017-06-05 | 2021-03-09 | Metawave Corporation | Intelligent metamaterial radar for target identification |
KR102342143B1 (ko) | 2017-08-08 | 2021-12-23 | 주식회사 만도모빌리티솔루션즈 | 딥 러닝 기반 자율 주행 차량, 딥 러닝 기반 자율 주행 제어 장치 및 딥 러닝 기반 자율 주행 제어 방법 |
US10254759B1 (en) | 2017-09-14 | 2019-04-09 | Waymo Llc | Interactive autonomous vehicle agent |
WO2020050498A1 (ko) * | 2018-09-04 | 2020-03-12 | 씨드로닉스㈜ | 이미지 세그멘테이션을 이용한 주변 환경 감지 방법 및 장치 |
-
2019
- 2019-07-03 US US16/502,602 patent/US11467588B2/en active Active
-
2020
- 2020-07-01 JP JP2020114413A patent/JP7014264B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005258598A (ja) | 2004-03-09 | 2005-09-22 | Data Tec:Kk | 移動体の運行履歴記録装置及び方法、コンピュータプログラム |
WO2013051083A1 (ja) | 2011-10-03 | 2013-04-11 | トヨタ自動車株式会社 | 車両の運転支援システム |
WO2018083672A1 (en) | 2016-11-04 | 2018-05-11 | Deepmind Technologies Limited | Environment navigation using reinforcement learning |
JP2019026103A (ja) | 2017-07-31 | 2019-02-21 | 本田技研工業株式会社 | 自動運転のポリシー生成装置及び車両 |
JP2019106049A (ja) | 2017-12-13 | 2019-06-27 | 株式会社豊田中央研究所 | 車両制御装置、リスクマップ生成装置、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021012694A (ja) | 2021-02-04 |
US20210004014A1 (en) | 2021-01-07 |
US11467588B2 (en) | 2022-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7014264B2 (ja) | 自律運転車両、および、その操作方法 | |
Müller et al. | Sim4cv: A photo-realistic simulator for computer vision applications | |
US11436743B2 (en) | Systems and methods for semi-supervised depth estimation according to an arbitrary camera | |
Moniruzzaman et al. | Teleoperation methods and enhancement techniques for mobile robots: A comprehensive survey | |
US8725273B2 (en) | Situational awareness for teleoperation of a remote vehicle | |
JP2021089724A (ja) | 構造的制約及び物理的制約を伴う3d自動ラベル付け | |
Wang et al. | Learning interpretable end-to-end vision-based motion planning for autonomous driving with optical flow distillation | |
US11275673B1 (en) | Simulated LiDAR data | |
US11801865B2 (en) | Object tracking by generating velocity grids | |
Yang et al. | Reactive obstacle avoidance of monocular quadrotors with online adapted depth prediction network | |
CN112991537B (zh) | 城市场景重建方法、装置、计算机设备和存储介质 | |
JP2024518570A (ja) | 統合されたマルチセンサビューによるセンサシミュレーション | |
Gao et al. | Autonomous driving of vehicles based on artificial intelligence | |
Smith et al. | Real-time egocentric navigation using 3d sensing | |
Smith et al. | PiPS: Planning in perception space | |
Mallik et al. | Real-time Detection and Avoidance of Obstacles in the Path of Autonomous Vehicles Using Monocular RGB Camera | |
EP4124995A1 (en) | Training method for training an agent for controlling a controlled device, control method for controlling the controlled device, computer program(s), computer readable medium, training system and control system | |
Machkour et al. | Monocular based navigation system for autonomous ground robots using multiple deep learning models | |
US11904892B2 (en) | Machine learning algorithm predicton of movements of simulated objects by using a velocity grid created in a simulation | |
Huang et al. | An Overview about Emerging Technologies of Autonomous Driving | |
Ren et al. | Teleoperation of unmanned ground vehicles based on 3D trajectory prediction | |
Natan et al. | DeepIPC: Deeply integrated perception and control for an autonomous vehicle in real environments | |
Ayyagari | Comparative Study of Model-based Lateral Controllers with Selected Deep Learning Methods for Autonomous Driving | |
US20240005540A1 (en) | Photometric Cost Volumes For Self-Supervised Depth Estimation | |
US20240119857A1 (en) | Systems and methods for training a scene simulator using real and simulated agent data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200701 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220103 |