JP7281000B2 - 車両制御方法および車両制御システム - Google Patents
車両制御方法および車両制御システム Download PDFInfo
- Publication number
- JP7281000B2 JP7281000B2 JP2022082088A JP2022082088A JP7281000B2 JP 7281000 B2 JP7281000 B2 JP 7281000B2 JP 2022082088 A JP2022082088 A JP 2022082088A JP 2022082088 A JP2022082088 A JP 2022082088A JP 7281000 B2 JP7281000 B2 JP 7281000B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle control
- control method
- microcomputer
- result
- calculation step
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Electromagnetism (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
はじめに本発明が適用される自動運転システム(車両制御システム)の構成(図示しない)について説明する。本発明における自動運転システムは外界センサから得た情報に基づいて車両の挙動を制御する車両制御装置である。
以下、実施例1について図1から図3を用いて、本発明を説明する。
一方で例えばレーダは、距離の検知は有用である一方で、低分解能であるという課題がある。それぞれのセンサには長所、短所が存在し、一つのセンサのみで周辺環境認識をすることはできない。
具体的にはマイコン112の演算ブロック212では、各センサから得られたオブジェクトデータ103、203、303をデータフュージョン処理することにより、オブジェクトデータフュージョン結果702を生成する。例として、以下のようなセンサを用い、フュージョンに係るフローを説明する。
ここで物体群とは車両周辺に存在する物体のことを指し、例えば車両や歩行者である。よって、自車の近傍を走行する他車802、803の認識が可能なだけではなく、図2-1aでは、図2-2aでは認識できなかった、遠方を走行する他車804も認識することが可能となる。
演算ブロック211の出力結果は、演算ブロック212の出力結果と比較すると、情報量が多いことが想定される。しかし演算ブロック211と演算ブロック212の出力結果を単純比較することとなれば、それらの情報量の違いから、お互いが正常な出力であったとしても差分が生じてしまうため、ほとんどの出力を破棄することになりかねない。そこで本実施例は上記のような構成を有することにより、演算ブロック212の信頼性の高い出力結果に基づいて、情報量の多い演算ブロック211の出力結果を判断することが可能となる。
図4は実施例2における車両制御装置(第1ECU)11の内部構成(特にマイコン111、マイコン112)と、センサならびにアクチュエータの接続を示す図である。
図5は実施例3における車両制御装置(第1ECU)11、車両制御装置(第2ECU)12の内部構成と、センサ並びにアクチュエータの接続を示す図である。
(1)複数の外界センサから出力されるローデータに基づいてセンサフュージョン処理を行う第1の演算ブロックと、
前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータに基づいてセンサフュージョン処理を行う第2の演算ブロックと、
前記第1の演算ブロックの出力結果と前記第2の演算ブロックの出力結果を用いて、前記第1の演算ブロックの出力結果を診断する第3の演算ブロックを備えることを特徴とする車両制御装置。
(2)上記(1)に記載の車両制御装置において、
前記第3の演算ブロックは、前記第2の演算ブロックによるセンサフュージョン結果として出力される車両周辺の物体群が、前記第1の演算ブロックによるセンサフュージョン結果として出力される車両周辺の物体群に含まれていない場合に前記第1の演算ブロックを異常と診断する車両制御装置。
(3)上記(1)に記載の車両制御装置において、
前記第2の演算ブロックは、前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータに基づいてセンサフュージョン処理を行うものであって、
前記第3の演算ブロックは、前記第2の演算ブロックによるセンサフュージョン結果として出力される車両周辺の物体群が、前記第1の演算ブロックによるセンサフュージョン結果として出力される車両周辺の物体群に含まれている場合に前記第1の演算ブロックを正常と診断する車両制御装置。
(4)上記(1)に記載の車両制御装置において、
前記第1の演算ブロックには、
前記複数の外界センサから出力されたデータを入力する機械学習部が設けられ、
前記機械学習部に前記ローデータが入力されることにより前記センサフュージョン結果が出力され、
前記第2の演算ブロックにおいては、前記複数の外界センサから出力された前記ローデータをそれぞれ処理して得られるオブジェクトデータが入力され、前記オブジェクトデータをセンサフュージョン処理することによりオブジェクトデータフュージョン結果が出力され、
前記オブジェクトデータフュージョン結果を正として、前記ローデータフュージョン結果を診断することを特徴とする車両制御装置。
(5)上記(1)乃至(4)の何れかに記載の車両制御装置において、
前記第2の演算ブロックはロックステップマイコンを用いることを特徴とする車両制御装置。
(6)上記(5)に記載の車両制御装置において、
前記ロックステップマイコンは前記複数の外界センサから出力されたデータを比較し多数決を取り、採用されたデータに基づいてオブジェクトデータフュージョン処理を行うことを特徴とする車両制御装置。
(7)上記(1)乃至(4)の何れかに記載の車両制御装置において、
前記第3の演算ブロックが前記第1の演算ブロックを異常と判断した場合、前記第2の演算ブロックにより出力されたセンサフュージョン結果に基づき前記第2のマイコンで生成した軌道を用いて車両追従制御を行うことを特徴とする車両制御装置。
(8)上記(1)乃至(4)の何れかに記載の車両制御装置において、
前記第2のマイコンで生成された軌道は縮退軌道であることを特徴とする車両制御装置。
(9)上記(1)に記載の車両制御装置において、
前記第2の演算ブロックは前記外界センサ内の演算ブロックにて前処理されたデータを基にセンサフュージョン処理を行うことを特徴とする車両制御装置。
(10)上記(1)に記載の車両制御装置において、
前記第2の演算ブロックに入力されるデータは、前記外界センサ内の演算ブロックにて生成される物体認識データであることを特徴とする車両制御装置。
(11)上記(1)に記載の車両制御装置において、
前記車両制御装置は、
前記第1の演算ブロックを有する第1のマイコンと、
前記第2の演算ブロックと前記第3の演算ブロックを有する第2のマイコンを備えることを特徴とする車両制御装置。
(12)上記(1)に記載の車両制御装置において、
前記車両制御装置は、
前記第1の演算ブロックを有する第1のマイコンと、
前記第2の演算ブロックを有する第2のマイコンと、
前記第3の演算ブロックを有する第3のマイコンと、を備えることを特徴とする車両制御装置。
(13)上記(1)乃至(4)の何れかに記載の車両制御装置において、
前記第1の演算ブロックと前記第2の演算ブロックの電源はそれぞれ独立していることを特徴とする車両制御装置。
(14)上記(2)乃至(3)の何れかに記載の車両制御装置において、
前記第3の演算ブロックは、前記第1の演算ブロックを異常と診断した場合、前記第1の演算ブロックで演算した前記センサフュージョン結果の出力を禁止することを特徴とする車両制御装置。
(15)上記(2)乃至(3)の何れかに記載の車両制御装置において、
前記第3の演算ブロックが前記第1の演算ブロックを異常と診断した場合、第1の演算ブロックは、第1の演算ブロックで演算した前記センサフュージョン結果の出力を停止することを特徴とする車両制御装置。
(16)上記(11)又は(12)の何れかに記載の車両制御装置において
前記第1のマイコン及び前記第2のマイコンは、前記センサフュージョン結果に基づいてそれぞれ車両追従軌道を生成すること特徴とする車両制御装置。
(17)上記(11)又は(12)に記載の車両制御装置において、
前記第1のマイコン及び前記第2のマイコンは、前記センサフュージョン結果に基づいてそれぞれ車両追従軌道を生成し、
前記第3の演算ブロックが前記第1の演算ブロックを正常と診断している限りにおいて、前記第1のマイコンの出力する車両追従軌道に基づいて車両を制御することを特徴とする車両制御装置。
(18)上記(4)に記載の車両制御装置において、
前記機械学習部はディープニューラルネットのアルゴリズムを用いるものであることを特徴とする車両制御装置。
(19)複数の外界センサから出力されるローデータに基づいてセンサフュージョン処理を行う第1の演算部と、
前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータに基づいてセンサフュージョン処理を行う第2の演算部と、
前記第1の演算部の出力結果と前記第2の演算部の出力結果を用いて、前記第1の演算部の出力結果を診断する第3の演算部を備えることを特徴とする車両制御システム。
2・・・レーダ
3・・・レーザ
11・・・車両制御装置
13・・・第3ECU
14・・・第4ECU
15・・・第5ECU
101・・・センサ1
201・・・センサ2
301・・・センサ3
102・・・センサ1の情報処理部
202・・・センサ2の情報処理部
302・・・センサ3の情報処理部
103・・・第1センサより出力されたオブジェクトデータ
203・・・第2センサより出力されたオブジェクトデータ
303・・・第3センサより出力されたオブジェクトデータ
104・・・第1センサより出力されたローデータ
204・・・第2センサより出力されたローデータ
304・・・第3センサより出力されたローデータ
211・・・演算ブロック1
212・・・演算ブロック2
213・・・演算ブロック3(診断用ブロック)
214・・・制御指令生成部
701・・・ローデータフュージョン結果
702・・・オブジェクトデータフュージョン結果
711・・・ローデータフュージョン結果を基に生成した軌道データ
712・・・オブジェクトデータフュージョン結果を基に生成した軌道データ
Claims (19)
- 自動運転システムの車両制御装置が実行する車両制御方法であって、
前記車両制御装置は、所定の演算処理を実行するマイコンを有し、複数の外界センサから情報を取得可能であって、
前記車両制御方法は、
前記複数の外界センサが、取得したローデータに基づいてオブジェクトデータを生成するオブジェクトデータ生成ステップと、
前記マイコンが、複数の外界センサから出力されるローデータに基づいてセンサフュージョン処理を行って、ローデータフュージョン結果を出力する第1の演算ステップと、
前記マイコンが、前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータが入力され、前記オブジェクトデータをセンサフュージョン処理することによりオブジェクトデータフュージョン結果を出力するセンサフュージョン処理を行う第2の演算ステップと、
前記マイコンが、前記オブジェクトデータフュージョン結果を正として、前記ローデータフュージョン結果を診断する第3の演算ステップを備えることを特徴とする車両制御方法。 - 請求項1に記載の車両制御方法において、
前記第3の演算ステップでは、前記マイコンが、前記第2の演算ステップによるセンサフュージョン結果として出力される車両周辺の物体群が、前記第1の演算ステップによるセンサフュージョン結果として出力される車両周辺の物体群に含まれていない場合に前記第1の演算ステップを異常と診断する車両制御方法。 - 請求項1に記載の車両制御方法において、
前記第2の演算ステップでは、前記マイコンが、前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータに基づいてセンサフュージョン処理を行うものであって、
前記第3の演算ステップでは、前記マイコンが、前記第2の演算ステップによるセンサフュージョン結果として出力される車両周辺の物体群が、前記第1の演算ステップによるセンサフュージョン結果として出力される車両周辺の物体群に含まれている場合に前記第1の演算ステップを正常と診断する車両制御方法。 - 請求項1に記載の車両制御方法において、
前記第1の演算ステップは、前記マイコンが、前記複数の外界センサから出力されたデータを入力する機械学習ステップを含み、
前記機械学習ステップでは、前記ローデータが入力されることによりセンサフュージョン結果が出力されることを特徴とする車両制御方法。 - 請求項1乃至4の何れかに記載の車両制御方法において、
前記第2の演算ステップはロックステップマイコンが実行することを特徴とする車両制御方法。 - 請求項5に記載の車両制御方法において、
前記ロックステップマイコンは前記複数の外界センサから出力されたデータを比較し多数決を取り、採用されたデータに基づいてオブジェクトデータフュージョン処理を行うことを特徴とする車両制御方法。 - 請求項1乃至4の何れかに記載の車両制御方法において、
前記第3の演算ステップが前記第1の演算ステップを異常と判断した場合、前記第2の演算ステップにより出力されたセンサフュージョン結果に基づき生成した軌道を用いて車両追従制御を行うことを特徴とする車両制御方法。 - 請求項7に記載の車両制御方法において、
前記生成された軌道は縮退軌道であることを特徴とする車両制御方法。 - 請求項1に記載の車両制御方法において、
前記第2の演算ステップでは、前記マイコンが、前記外界センサ内の演算ステップにて前処理されたデータを基にセンサフュージョン処理を行うことを特徴とする車両制御方法。 - 請求項1に記載の車両制御方法において、
前記第2の演算ステップに入力されるデータは、前記外界センサ内の演算ステップにて生成される物体認識データであることを特徴とする車両制御方法。 - 請求項1に記載の車両制御方法において、
前記車両制御装置は、
前記第1の演算ステップを実行する第1のマイコンと、
前記第2の演算ステップと前記第3の演算ステップを実行する第2のマイコンを有することを特徴とする車両制御方法。 - 請求項1に記載の車両制御方法において、
前記車両制御装置は、
前記第1の演算ステップを実行する第1のマイコンと、
前記第2の演算ステップを実行する第2のマイコンと、
前記第3の演算ステップを有する第3のマイコンと、を有することを特徴とする車両制御方法。 - 請求項1乃至4の何れかに記載の車両制御方法において、
前記第1の演算ステップを実行するマイコンの電源と前記第2の演算ステップを実行す
るマイコンの電源はそれぞれ独立していることを特徴とする車両制御方法。 - 請求項2乃至3の何れかに記載の車両制御方法において、
前記第3の演算ステップは、前記第1の演算ステップを異常と診断した場合、前記第1の演算ステップで演算した前記センサフュージョン結果の出力を禁止することを特徴とする車両制御方法。 - 請求項2乃至3の何れかに記載の車両制御方法において、
前記第3の演算ステップで前記第1の演算ステップが異常と診断された場合、前記第1の演算ステップでは、前記マイコンが、前記第1の演算ステップで演算された前記センサフュージョン結果の出力を停止することを特徴とする車両制御方法。 - 請求項11又は12の何れかに記載の車両制御方法において
前記第1の演算ステップでは、前記第1のマイコンが、前記センサフュージョン処理の結果に基づいて車両追従軌道を生成し、
前記第2の演算ステップでは、前記第2のマイコンが、前記センサフュージョン処理の結果に基づいて車両追従軌道を生成すること特徴とする車両制御方法。 - 請求項11又は12に記載の車両制御方法において、
前記第1の演算ステップ及び前記第2の演算ステップでは、前記第1のマイコン及び前記第2のマイコンは、前記センサフュージョン処理の結果に基づいてそれぞれ車両追従軌道を生成し、
前記第3の演算ステップにおいて、前記第1の演算ステップを正常と診断している限りにおいて、前記第1のマイコンの出力する車両追従軌道に基づいて車両を制御することを特徴とする車両制御方法。 - 請求項4に記載の車両制御方法において、
前記機械学習ステップは、ディープニューラルネットのアルゴリズムを用いるものであることを特徴とする車両制御方法。 - 自動運転用車両制御システムであって、
複数の外界センサと、
前記複数の外界センサから得た情報に基づいて所定の演算処理を実行するマイコンを有する車両制御装置とを備え、
前記複数の外界センサは、取得したローデータに基づいてオブジェクトデータを生成する情報処理部を有し、
前記車両制御装置は、
複数の外界センサから出力されるローデータに基づいてセンサフュージョン処理を行って、ローデータフュージョン結果を出力する第1の演算部と、
前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータが入力され、前記オブジェクトデータをセンサフュージョン処理することによりオブジェクトデータフュージョン結果を出力するセンサフュージョン処理を行う第2の演算部と、
前記オブジェクトデータフュージョン結果を正として、前記ローデータフュージョン結果を診断する第3の演算部とを有することを特徴とする車両制御システム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019023118 | 2019-02-13 | ||
JP2019023118 | 2019-02-13 | ||
JP2020572126A JP7078763B2 (ja) | 2019-02-13 | 2020-01-15 | 車両制御装置および電子制御システム |
PCT/JP2020/000947 WO2020166253A1 (ja) | 2019-02-13 | 2020-01-15 | 車両制御装置および電子制御システム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572126A Division JP7078763B2 (ja) | 2019-02-13 | 2020-01-15 | 車両制御装置および電子制御システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022107660A JP2022107660A (ja) | 2022-07-22 |
JP2022107660A5 JP2022107660A5 (ja) | 2022-09-29 |
JP7281000B2 true JP7281000B2 (ja) | 2023-05-24 |
Family
ID=72045564
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572126A Active JP7078763B2 (ja) | 2019-02-13 | 2020-01-15 | 車両制御装置および電子制御システム |
JP2022082088A Active JP7281000B2 (ja) | 2019-02-13 | 2022-05-19 | 車両制御方法および車両制御システム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572126A Active JP7078763B2 (ja) | 2019-02-13 | 2020-01-15 | 車両制御装置および電子制御システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220089179A1 (ja) |
JP (2) | JP7078763B2 (ja) |
CN (1) | CN113412506B (ja) |
WO (1) | WO2020166253A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11476894B2 (en) | 2019-12-10 | 2022-10-18 | AR & NS Investment, LLC | Edge communication system with cascaded repeater devices over wired medium |
US11177872B1 (en) | 2020-06-24 | 2021-11-16 | AR & NS Investment, LLC | Managing a network of radio frequency (RF) repeater devices |
US11711126B2 (en) | 2020-06-24 | 2023-07-25 | AR & NS Investment, LLC | Wireless communication system based on mmWave RF repeaters |
US11989965B2 (en) * | 2020-06-24 | 2024-05-21 | AR & NS Investment, LLC | Cross-correlation system and method for spatial detection using a network of RF repeaters |
US11283510B2 (en) | 2020-06-24 | 2022-03-22 | AR & NS Investment, LLC | Phase noise removal in a network of radio frequency (RF) repeaters |
KR20220052163A (ko) * | 2020-10-20 | 2022-04-27 | 주식회사 에이치엘클레무브 | 전자 제어 장치 및 방법 |
US11789542B2 (en) * | 2020-10-21 | 2023-10-17 | International Business Machines Corporation | Sensor agnostic gesture detection |
CN112991735B (zh) * | 2021-03-05 | 2022-10-14 | 北京百度网讯科技有限公司 | 交通流量监测***的测试方法、装置及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020414A (ja) | 2008-07-08 | 2010-01-28 | Fujitsu Ltd | 物体検出装置、物体検出プログラム、および物体検出方法 |
JP2018060281A (ja) | 2016-10-03 | 2018-04-12 | 日立オートモティブシステムズ株式会社 | 車載処理装置 |
CN108196535A (zh) | 2017-12-12 | 2018-06-22 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶*** |
JP2018184021A (ja) | 2017-04-24 | 2018-11-22 | 日立オートモティブシステムズ株式会社 | 車両の電子制御装置 |
CN109212513A (zh) | 2018-09-29 | 2019-01-15 | 河北德冠隆电子科技有限公司 | 多目标在雷达间数据传递、数据融合及连续跟踪定位方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002207077A (ja) * | 2001-01-09 | 2002-07-26 | Hitachi Ltd | 車載レーダ走行支援装置 |
US7249268B2 (en) * | 2004-06-29 | 2007-07-24 | Intel Corporation | Method for performing performance optimization operations for a processor having a plurality of processor cores in response to a stall condition |
JP4595833B2 (ja) * | 2006-02-24 | 2010-12-08 | トヨタ自動車株式会社 | 物体検出装置 |
JP4969628B2 (ja) * | 2009-09-29 | 2012-07-04 | 本田技研工業株式会社 | 走行区分線検出装置 |
JP5416630B2 (ja) * | 2010-03-24 | 2014-02-12 | 株式会社日立製作所 | 移動体異常判断支援システム |
US8639426B2 (en) * | 2010-07-15 | 2014-01-28 | George C Dedes | GPS/IMU/video/radar absolute/relative positioning communication/computation sensor platform for automotive safety applications |
DE102014205180A1 (de) * | 2014-03-20 | 2015-09-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs |
JP6223504B1 (ja) * | 2016-05-18 | 2017-11-01 | 三菱電機株式会社 | レーダ装置およびこれを用いたセンサフュージョン装置 |
US10740658B2 (en) * | 2016-09-08 | 2020-08-11 | Mentor Graphics Corporation | Object recognition and classification using multiple sensor modalities |
CN106408940B (zh) * | 2016-11-02 | 2023-04-14 | 南京慧尔视智能科技有限公司 | 基于微波和视频数据融合的交通检测方法及装置 |
US10073456B2 (en) * | 2016-11-17 | 2018-09-11 | GM Global Technology Operations LLC | Automated co-pilot control for autonomous vehicles |
CN108447256B (zh) * | 2018-03-22 | 2023-09-26 | 连云港杰瑞电子有限公司 | 基于电警和定点检测器数据融合的干道车辆轨迹重构方法 |
-
2020
- 2020-01-15 JP JP2020572126A patent/JP7078763B2/ja active Active
- 2020-01-15 CN CN202080006374.8A patent/CN113412506B/zh active Active
- 2020-01-15 US US17/425,525 patent/US20220089179A1/en active Pending
- 2020-01-15 WO PCT/JP2020/000947 patent/WO2020166253A1/ja active Application Filing
-
2022
- 2022-05-19 JP JP2022082088A patent/JP7281000B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020414A (ja) | 2008-07-08 | 2010-01-28 | Fujitsu Ltd | 物体検出装置、物体検出プログラム、および物体検出方法 |
JP2018060281A (ja) | 2016-10-03 | 2018-04-12 | 日立オートモティブシステムズ株式会社 | 車載処理装置 |
JP2018184021A (ja) | 2017-04-24 | 2018-11-22 | 日立オートモティブシステムズ株式会社 | 車両の電子制御装置 |
CN108196535A (zh) | 2017-12-12 | 2018-06-22 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶*** |
CN109212513A (zh) | 2018-09-29 | 2019-01-15 | 河北德冠隆电子科技有限公司 | 多目标在雷达间数据传递、数据融合及连续跟踪定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113412506B (zh) | 2023-06-13 |
US20220089179A1 (en) | 2022-03-24 |
WO2020166253A1 (ja) | 2020-08-20 |
CN113412506A (zh) | 2021-09-17 |
JPWO2020166253A1 (ja) | 2021-10-14 |
JP2022107660A (ja) | 2022-07-22 |
JP7078763B2 (ja) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7281000B2 (ja) | 車両制御方法および車両制御システム | |
US11352019B2 (en) | Electronic control device for vehicle | |
JP6388871B2 (ja) | ドライバー・アシスタント・アプリケーション用の方法 | |
JP2022107660A5 (ja) | 車両制御方法および車両制御システム | |
CN110077420B (zh) | 一种自动驾驶控制***和方法 | |
WO2020066304A1 (ja) | 車載電子制御システム | |
JP6923458B2 (ja) | 電子制御装置 | |
CN110116751B (zh) | 基于冗余架构控制车辆的设备和方法 | |
US9335756B2 (en) | Method for the efficient protection of safety-critical functions of a controller and a controller | |
CN111976623B (zh) | 面向智能汽车的底盘域控制器、车辆的控制方法及车辆 | |
CN110785742A (zh) | 用以依赖于状态信号驱控车辆模块的设备和方法 | |
CN110770707A (zh) | 用于驱控车辆模块的设备和方法 | |
KR20200022674A (ko) | 차량 고장 처리 제어 장치 및 그 방법 | |
US20230192139A1 (en) | Method and system for addressing failure in an autonomous agent | |
EP3998182A1 (en) | Vehicle control system | |
US20140214277A1 (en) | Method for operating an electrical power steering mechanism | |
CN110893862A (zh) | 用于确保自主行驶***的故障安全功能的装置和方法 | |
US11066080B2 (en) | Vehicle control device and electronic control system | |
US20220032965A1 (en) | Monitoring of Neural-Network-Based Driving Functions | |
CN112550313A (zh) | 通过云计算的容错嵌入式汽车应用程序 | |
US20220032966A1 (en) | On-vehicle control apparatus and on-vehicle control system | |
CN114771555A (zh) | 自主泊车故障诊断方法、装置和和无人驾驶车辆 | |
WO2024138960A1 (zh) | 一种车辆故障处理方法及车用芯片 | |
CN118270021A (zh) | 一种车辆故障处理方法及车用芯片 | |
Barner et al. | Low-Redundancy Realization of Safety-Critical Automotive Functions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7281000 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |