JP2018501543A - 現在存在する走行状況を特定するための方法及び装置 - Google Patents
現在存在する走行状況を特定するための方法及び装置 Download PDFInfo
- Publication number
- JP2018501543A JP2018501543A JP2017522870A JP2017522870A JP2018501543A JP 2018501543 A JP2018501543 A JP 2018501543A JP 2017522870 A JP2017522870 A JP 2017522870A JP 2017522870 A JP2017522870 A JP 2017522870A JP 2018501543 A JP2018501543 A JP 2018501543A
- Authority
- JP
- Japan
- Prior art keywords
- surrounding environment
- vehicle
- data
- classification
- ambient environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000003909 pattern recognition Methods 0.000 claims abstract description 21
- 238000004590 computer program Methods 0.000 claims abstract description 8
- 238000004891 communication Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
- G06N5/047—Pattern matching networks; Rete networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Game Theory and Decision Science (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computational Linguistics (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Abstract
本発明は、車両が現在置かれている、現在存在する走行状況を特定するための方法に関し、当該方法は、検出された車両周辺環境に基づく周辺環境データを受信するステップと、パターン認識を用いて周辺環境データから特徴を抽出するステップと、パターン認識を用いて抽出された特徴に排他的に基づいて、現在存在する走行状況の分類を実施するステップと、分類の結果を提供するステップとを含む。さらに本発明は、対応する装置、対応するシステム、及び、コンピュータプログラムに関する。
Description
本発明は、車両が現在置かれている、現在存在する走行状況を特定するための方法及び装置に関する。本発明はさらに、対応するシステム、及び、対応するコンピュータプログラムに関する。
背景技術
運転者支援システム及び今後の自動化された走行機能は、それらが確実に機能しなければならない特定の使用領域のためにだけ設計されている。実際の走行状況又は現在の走行状況において、1つの機能がそのシステムの限界内で機能し得るのかどうかとと共に確実に起動可能であるかどうかの判断は、平均的な運転者にとって、機能の数の増加に伴って益々困難になっている。それ故、この判断を運転者から取り去り、手に負える状況が存在する場合にのみ、機能を起動することが合理的である(例えば、実際に渋滞が存在する場合にのみ渋滞支援システムを起動すること、工事現場内でのみ工事現場支援システムを起動すること、駐車場/パーキングビル内でのみ操作支援システムを起動することなど)。
運転者支援システム及び今後の自動化された走行機能は、それらが確実に機能しなければならない特定の使用領域のためにだけ設計されている。実際の走行状況又は現在の走行状況において、1つの機能がそのシステムの限界内で機能し得るのかどうかとと共に確実に起動可能であるかどうかの判断は、平均的な運転者にとって、機能の数の増加に伴って益々困難になっている。それ故、この判断を運転者から取り去り、手に負える状況が存在する場合にのみ、機能を起動することが合理的である(例えば、実際に渋滞が存在する場合にのみ渋滞支援システムを起動すること、工事現場内でのみ工事現場支援システムを起動すること、駐車場/パーキングビル内でのみ操作支援システムを起動することなど)。
高度に自動化された走行用システムにおいては、安全上の理由から(但し常習レベルの運転者は除く)システム限界外での起動は絶対に回避しなければならない。従って、実際の走行状況の信頼性の高い特定のための方法は、自動化された走行を実施するためのキーテクノロジーである。
発明の開示
従って、本発明が基礎とする課題は、車両が現在置かれている、現在存在する走行状況を特定するための方法を提供することに見出すことができる。
従って、本発明が基礎とする課題は、車両が現在置かれている、現在存在する走行状況を特定するための方法を提供することに見出すことができる。
また本発明が基礎とする課題は、対応する装置を提供することに見出すことができる。
さらに本発明が基礎とする課題は、対応するシステムを提供することに見出すことができる。
さらに本発明が基礎とする課題は、対応するコンピュータプログラムを提供することに見出すことができる。
これらの課題は、独立請求項の各態様を用いて解決される。本発明の好ましい実施形態は、それぞれの従属請求項の態様である。
一態様によれば、車両が現在置かれている、現在存在する走行状況を特定するための方法が提供され、この方法は、
検出された車両周辺環境に基づく周辺環境データを受信するステップと、
パターン認識を用いて周辺環境データから特徴を抽出するステップと、
パターン認識を用いて抽出された特徴に排他的に基づいて、現在存在する走行状況の分類を実施するステップと、
分類の結果を提供するステップと、
を含む。
検出された車両周辺環境に基づく周辺環境データを受信するステップと、
パターン認識を用いて周辺環境データから特徴を抽出するステップと、
パターン認識を用いて抽出された特徴に排他的に基づいて、現在存在する走行状況の分類を実施するステップと、
分類の結果を提供するステップと、
を含む。
さらなる態様によれば、車両が現在置かれている、現在存在する走行状況を特定するための装置が提供され、この装置は、
検出された車両周辺環境に基づく周辺環境データを受信する通信インタフェースと、
パターン認識を用いて周辺環境データから特徴を抽出し、かつ、パターン認識を用いて抽出された特徴に排他的に基づいて、現在存在する走行状況の分類を実施する処理装置と、を備え、通信インタフェースは分類の結果を提供するように構成されている。
検出された車両周辺環境に基づく周辺環境データを受信する通信インタフェースと、
パターン認識を用いて周辺環境データから特徴を抽出し、かつ、パターン認識を用いて抽出された特徴に排他的に基づいて、現在存在する走行状況の分類を実施する処理装置と、を備え、通信インタフェースは分類の結果を提供するように構成されている。
この装置は、それに伴い、現在存在する走行状況の分類を実施するので、この装置は、例えば分類器とも称され得る。
さらに1つの態様によれば、車両が現在置かれている、現在存在する走行状況を特定するためのシステムが提供され、このシステムは、
本発明による装置と、
車両周辺環境を検出する周辺環境センサシステムであって、検出された車両周辺環境に基づいて周辺環境データを特定し、装置に送信するように構成されている周辺環境センサシステムと、
提供された結果に基づく、車両の少なくとも一部自動化された誘導のための制御装置と、
を備えている。
本発明による装置と、
車両周辺環境を検出する周辺環境センサシステムであって、検出された車両周辺環境に基づいて周辺環境データを特定し、装置に送信するように構成されている周辺環境センサシステムと、
提供された結果に基づく、車両の少なくとも一部自動化された誘導のための制御装置と、
を備えている。
さらに1つの態様によれば、コンピュータプログラムが、コンピュータ上で実行されるときに、本発明による方法を実施するためのプログラムコードを含むコンピュータプログラムが提供される。
従って、本発明は、特に、現在存在する走行状況の分類を、パターン認識を用いて抽出された特徴に排他的に基づいて実施する考察を含む。これは、次のような状況、即ち、そこから実際の運転状況、例えば「交通信号の待機」、「渋滞中の走行」なども導出するために、自己車両とも称され得る自車両に対する他の交通参加者との関係、例えば「距離xを伴う先行走行」、「隣接車線の走行」、「駐車中」などの記述を試みる状況、の分類のための既存のアプローチとは対照的である。これらの情報、即ち、自己車両に対する他の交通参加者とのこれらの関係は、検出された車両周辺環境のパターン分析に基づいてしか特定することはできない。しかしながら、それとは対照的に本発明によれば、複数の特徴の抽出のためのパターン認識だけを実施することが想定される。検出された車両周辺環境からさらに別の情報を抽出するためにそれを越えたパターン分析は、本発明によれば不要である。つまりパターン認識を用いて抽出された特徴で十分である。パターン認識は、通常は、パターン分析よりも迅速にかつ簡単に実施可能である。その点において、本発明によるステップは、ほとんどリアルタイムで実行できる。つまり車両の走行中又は運転中に実施できる。従って、(パターン分析に基づく)シーン解釈のための公知の方法に比べて大幅に低減された計算機コストが必要となるだけであり、このことは車両におけるオンライン使用のために非常に重要である。同時に、周辺環境データ上での直接の分類は、分類品質を好ましい方法で格段に向上させ得る。
従って、本発明は、シーン内の個々の対象を記述するステップ、つまり検出された車両周辺環境内の個々の対象を記述するステップをスキップして、既存の周辺環境モデルに対して直接、状況分類を実施している。この手順は、本発明による次のような考察を基礎としている。即ち、全体状況の分類のために、つまり車両が現在置かれている目下の走行状況の分類のために、例えば「渋滞中の走行」、車両周辺環境内での個々の車両の正確な特性、位置又は意図などが必要なのではなく、これらの情報が既にシーン内の実質的に一般的な特徴、例えば車両の数、車両の絶対速度などを関係付けることができるという考察である。これらの一般的な特徴は、検出された車両周辺環境からのパターン認識を用いて有利に抽出することができる。
一実施形態によれば、周辺環境センサシステムが形成されることが想定される。この周辺環境センサシステムは、例えば車両周辺環境を検出する1つ以上の周辺環境センサを含む。複数の周辺環境センサは、特に同一に形成されているか、又は好ましくは異なって形成されている。1つの周辺環境センサは、以下の周辺環境センサ、例えばレーダセンサ、レーザセンサ、ライダセンサ、超音波センサ及びビデオセンサである。
一実施形態によれば、車両が、複数の周辺環境センサを有する周辺環境センサシステムを備え、周辺環境センサは、それぞれ車両周辺環境を検出し、各検出された車両周辺環境に対応する個々の周辺環境センサデータを提供し、個々の周辺環境センサデータは相互に融合され、それによって融合された周辺環境センサデータが特定され、融合された周辺環境センサデータに基づいて周辺環境データが特定されることが想定される。
即ち、複数の周辺環境センサの既存のもとでは、個別センサのデータではなく、特に全ての周辺環境センサの融合結果が、分類のための入力量として使用又は利用される。これにより、好ましい方法で分類の精度が向上され得る。というのもそれによって、例えばこれらの周辺環境センサは、車両周辺環境の検出に関するそれらの場合によっては既存の個々の弱点を、相互に補償することができるからである。
別の実施形態によれば、検出された車両周辺環境に基づいて、複数のセルを含む占有グリッドが特定され、複数のセルは、それぞれ占有確率を示しており、周辺環境データは、各占有確率に基づいて特定されることが想定される。
複数のセルのグリッド状の配置構成によって、周辺環境データは、画像データと同じ形状を示し、それにより、特に有利な方法で、複数の画像からのシーン分類法の入力量として直接使用又は利用することができる。これは、有利な方法で計算機コストも削減する。特に計算時間が短縮される。
一実施形態によれば、占有確率は、融合された周辺環境センサデータに基づいて特定され、周辺環境データは、各占有確率に基づいて特定されることが想定される。周辺環境データは各占有確率に基づき、占有確率は融合された周辺環境センサデータに基づいているので、その点において少なくとも間接的に周辺環境データは、融合された周辺環境センサデータにも基づいている。
別の実施形態では、複数のセルに付加的に、検出された車両周辺環境に基づいて特定されるさらなる特性が対応付けられることが想定される。それによって特に、占有グリッドがさらに良好に車両周辺環境をマッピングするという技術的利点が生じる。このことは最終的に、より正確な分類につながる。
さらなる実施形態によれば、車両は、少なくとも一部自動化された、好ましくは完全に自動化された走行機能を提供するための運転者支援システムを備え、この運転者支援システムは、分類された現在存在する走行状況に対して前記走行機能が使用可能である場合にのみ、車両誘導のために起動されることが想定される。それにより、特に自動化された走行機能が、特定の走行状況においてのみ(例えば駐車場でのみ、高速道路上でのみなど)使用可能であるべき場合に、自動化された走行機能のための起動条件が満たされることが保証されるという技術的利点が生じる。
別の実施形態では、分類は、複数の画像からのシーン分類法に基づいて実施されることが想定される。
一実施形態によれば、このシーン分類法は、いわゆる「ディープラーニング法」である。図6に示されているように、この場合、周辺環境の画像(占有画像)は、全てのセンサに基づいて特定される。特定された画像は、一実施形態によれば、有利な方法で分類のための計算時間を短縮するために縮小される。
さらなる実施形態によれば、分類器が、記録されたデータ(占有画像)(これらは好ましくは状況に応じてラベル化又は分類されている)の一部によってトレーニングされ、その際、さらなる実施形態によってデータの他の部分によって分類器がテストされる。
分類器では、有利な方法で、トレーニング中に分類器によって自主的に特定される固有の特徴が抽出される必要はない。
この種の分類がうまく機能する状況は、例えば、渋滞走行に対する、街道に対する、交差点状況に対する、駐車場状況に対する、又は、市街地走行に対する、高速道路走行である。
この場合、但し必須ではないが、車両の固有の動きを分類のための付加的パラメータとして使用することが可能である。
好ましくは、この方法は、対象と自己車両との間の関係を構築しない。この手順は、本発明による次のような考察を基礎としている。即ち、全体状況の分類のために、例えば「渋滞中の走行」、個々の車両の正確な特性、位置又は意図などが必要なのではなく、これらの情報、つまり分類が、既にシーン内の実質的に一般的な特徴、例えば車両の数(例えば占有グリッド内の占有密度)、絶対速度などを関係付ける又は結び付けることができるという考察である。
通信は、好ましくは通信ネットワーク、例えばCANバスを介して実施される。特に通信インタフェースは、対応するデータ(例えば周辺環境データ)を、通信ネットワークを介して受信する。特にこの通信インタフェースは、結果を通信ネットワークを介して提供する。この提供とは、特に送信を意味する。
車両の誘導は、一実施形態では、特に車両の長手方向誘導及び/又は横方向誘導を含む。特に一部自動化された誘導、好ましくは完全に自動化された誘導が想定される。
方法に関する実施形態は、装置及び/又はシステムの実施形態から同様に明らかとなり、また、任意の組合せにおいて、それぞれその逆も明らかとなる。即ち、実施形態、特徴及び/又は技術的効果及び/又は技術的利点は、方法、装置又はシステムに関連して説明したように、装置、方法又はシステムに対して同様に当て嵌まる。
以下では本発明を好ましい実施形態に基づいて詳細に説明する。
図1は、車両が現在置かれている、現在存在する走行状況を特定するための方法のフローチャートを示す。
ステップ101では、周辺環境データが受信され、この周辺環境データは、検出された車両周辺環境に基づいている。例えばこの車両周辺環境は、周辺環境センサシステムを用いて検出されることが想定される。ステップ103では、周辺環境データから特徴が抽出される。これはパターン認識を用いて行われる。その後、ステップ105では、現在存在する走行状況の分類が行われる。これは、パターン認識を用いて抽出された特徴に排他的に基づいている。即ち、分類に対して、周辺環境データのパターン分析は実施されない。ステップ107では、分類の結果が提供される。
図2は、車両が現在置かれている、現在存在する走行状況を特定するための装置201を示す。
この装置201は、検出された車両周辺環境に基づく周辺環境データを受信する通信インタフェース203を含む。この装置201はさらに、パターン認識を用いて周辺環境データから特徴を抽出し、かつ、パターン認識を用いて抽出された特徴に排他的に基づいて、現在存在する走行状況の分類を実施する処理装置205を含む。通信インタフェース203は、分類の結果を提供するか又は送信するように構成されている。
図3は、車両が現在置かれている、現在存在する走行状況を特定するためのシステム301を示す。
このシステム301は、図2による装置201を含む。さらにこのシステム301は、車両周辺環境を検出する周辺環境センサシステム303を含む。この周辺環境センサシステム303は、検出された車両周辺環境に基づいて周辺環境データを特定し、装置201に送信するように構成されている。そのため、そのようにして装置201の通信インタフェース203は、この周辺環境データを受信して、後続処理することができる。このシステム301はさらに、提供された結果に基づく、車両の少なくとも一部自動化された誘導、好ましくは完全に自動化された誘導のための制御装置305を含む。
車両の誘導は、特に車両の長手方向誘導及び/又は横方向誘導を含む。
図4は、画像ベースの状況分類のブロック図を示す。
センサ401は、周辺環境センサシステム303である。このセンサ401は、例えばビデオセンサである。センサ401は、車両周辺環境を検出する。ビデオセンサの場合には、これはビデオ画像である。この検出された周辺環境は、符号403によって象徴的に表されている。この検出された周辺環境403は、その後、複数の画像内でのシーン分類法を用いた画像ベースの状況分類を実施するために用いられる。この目的のために、検出された周辺環境403は、より正確にはそれに基づく周辺環境データは、装置201に供給される。この装置は、検出された車両周辺環境から、即ち、例えばビデオ画像から、パターン認識を用いて特徴を抽出する。現在存在する走行状況の分類は、装置201により、パターン認識を用いて抽出された特徴に排他的に基づいて実施される。その後、分類の結果が提供される。この分類の結果は、例えば、高速道路走行405、渋滞走行407、交差点での走行409、及び、パーキングビル内の走行411であってもよい。
図4の実施形態によれば、個別の周辺環境センサを用いた車両周辺環境の検出は、複数の特徴の抽出のために用いられる。即ち、換言すれば、個別の周辺環境センサからは、複数の特徴が抽出され、これらの抽出された特徴に基づいて、推定すべき様々な走行状況への分類が実施される。
従って、装置201は、最終的に、現在存在する走行状況の分類を実施するので、この装置201は、例えば分類器と称することも可能である。
図5は、複数の画像内でのシーン分類法を用いた占有グリッドに基づくさらなる状況分類のブロック図を示す。
ここでは、周辺環境センサシステム303は、複数のセンサ401,501,503を含む。センサ401は、例えばビデオセンサである。センサ501は、例えばレーダセンサである。センサ503は、例えば超音波センサ又はライダセンサである。これらの複数の周辺環境センサ401,501,503の既存のもとでは、好ましくは個別センサのセンサデータが使用されるのではなく、それどころか全てのセンサ401,501,503の融合結果が、分類の結果として、つまり装置201に対する入力量として使用される。即ち、周辺環境センサ401,501,503は、それぞれ車両周辺環境を検出し、検出された各車両周辺環境に対応して個々の周辺環境センサデータを提供する。個々の周辺環境センサデータは相互に融合され、それによって融合された周辺環境センサデータが特定される。周辺環境データは、融合された周辺環境センサデータに基づいて特定される。この周辺環境データは、その後、装置201に提供される。融合は、ブロック505において実施される。融合された周辺環境センサデータは、占有グリッド507の算出のために用いることができ、この占有グリッド507は、それぞれが占有確率を有する複数のセルを含む。つまりここでは、周辺環境表示は、占有グリッドの形態で想定され、そこでは車両周辺環境全体が、占有確率と、例えば任意のさらなる特性、例えばセルの速度とを有する複数のセルの形態で示されている。占有グリッドの複数のセルの格子状の配列によって、これらのセルに対応付けられたデータは、画像データと同じ形状を示し、それによって、複数の画像からのシーン分類法に対する入力量として直接使用することができる。つまりここでは本発明によれば、分類が、そのような複数の画像からのシーン分類法を用いて実施されることが想定されている。分類の結果は、例えば図3と同様に、次のもの、即ち、高速道路走行405、渋滞走行407、交差点での走行409、及び、パーキングビル内の走行411である。
図6は、2つの異なる状況に対する占有グリッド内の周辺環境表示のための2つの例を示す。
符号601及び603は、それぞれ周辺環境を示す占有グリッドを示している。さらに周辺環境内の対象を示す矢印が書き込まれている。符号605の付された矢印は、家屋の壁を示している。符号607の付された矢印は、駐車車両を示している。符号609の付された矢印は、車両を示している。符号611の付された矢印は、周辺開発地域(例えば住宅街)を示している。符号613の付された矢印は、堤防を示している。符号615の付された矢印は、障害物を示している。占有グリッド601及び603内の白いエリア又はセルは、占有されているエリア又はセルを特徴付ける。占有グリッド601及び603内の黒いエリア又はセルは、空きエリア又はセルを特徴付ける。これらの占有グリッド601,603は、例えば図5の占有グリッド507に対する一例である。
要約すると、本発明は、現在存在する走行状況の分類を、周辺環境センサシステムを用いて検出された車両周辺環境に基づいて実施するために、複数の画像からの1つ以上のシーン分類法を用いる考察を含む。そのような方法は、通常は、複数の画像データからの適切な特徴の抽出とそれに続く分類に基づいている。この方法は、有利でかつ簡単な方法において、運転者支援システム及び/又は自動化された走行機能における使用のために直接転用することが可能であり、その際には、例えば個々の周辺環境センサから複数の特徴が抽出され、これらの特徴に基づいて、様々な推定すべき走行状況への分類が実施される(図4のブロック図参照)。特に好ましくは、複数の周辺環境センサの既存のもとでは、個別センサのデータではなく、全ての周辺環境センサの融合結果が、分類の入力量として使用される(図5のブロック図及び対応する実施形態参照)。
従って、これにより、有利な方法で、特に車両が実際に置かれている走行状況の特定、例えば「高速道路上の走行」、「渋滞中の走行」、「交差点での待機」、「駐車場での操作」の特定を実施することが可能となる。この特定は、それによって、有利な方法で車両においてオンラインで行うことが可能であり、つまりほぼリアルタイムで行うことが可能である。前述した方法の使用に基づいて、迅速であると同時に信頼性の高い分類が可能である。そのような方法は、例えば自動化された車両において、車両特性を、実際の走行状況に適合化させるために使用することができ、あるいは自動化された走行機能のための起動条件が特定の走行状況においてしか使用すべきでない場合の(例えば駐車場でのみ、高速道路上でのみなど参照)、当該の起動条件が満たされていることを保証するために使用することができる。上述した使用は、1つの実施形態によっても想定される。
Claims (10)
- 車両が現在置かれている、現在存在する走行状況を特定するための方法であって、
検出された車両周辺環境(403)に基づく周辺環境データを受信するステップ(101)と、
パターン認識を用いて前記周辺環境データから特徴を抽出するステップ(103)と、
前記パターン認識を用いて抽出された特徴に排他的に基づいて、現在存在する走行状況の分類を実施するステップ(105)と、
前記分類の結果(405,407,409,411)を提供するステップ(107)と、
を含むことを特徴とする方法。 - 前記車両は、複数の周辺環境センサ(401,501,503)を有する周辺環境センサシステムを備え、前記周辺環境センサ(401,501,503)は、それぞれ前記車両周辺環境(403)を検出し、各検出された前記車両周辺環境(403)に対応する個々の周辺環境センサデータを提供し、前記個々の周辺環境センサデータは相互に融合され、それによって融合された周辺環境センサデータが特定され、前記融合された周辺環境センサデータに基づいて周辺環境データが特定される、請求項1に記載の方法。
- 検出された前記車両周辺環境(403)に基づいて、複数のセルを含む占有グリッド(507)が特定され、前記複数のセルは、それぞれ占有確率を示しており、前記周辺環境データは、各占有確率に基づいて特定される、請求項1又は2に記載の方法。
- 前記占有確率は、前記融合された周辺環境センサデータに基づいて特定され、前記周辺環境データは、前記各占有確率に基づいて特定される、請求項2及び3に記載の方法。
- 前記複数のセルに付加的に、検出された前記車両周辺環境(403)に基づいて特定されるさらなる特性が対応付けられる、請求項3又は4に記載の方法。
- 前記車両は、少なくとも一部自動化された走行機能を提供するための運転者支援システムを備え、前記運転者支援システムは、分類された現在存在する走行状況に対して前記走行機能が使用可能である場合にのみ、車両誘導のために起動される、請求項1乃至5のいずれか1項に記載の方法。
- 前記分類は、複数の画像からのシーン分類法に基づいて実施される、請求項1乃至6のいずれか1項に記載の方法。
- 車両が現在置かれている、現在存在する走行状況を特定するための装置(201)であって、
検出された車両周辺環境(403)に基づく周辺環境データを受信する通信インタフェース(203)と、
パターン認識を用いて前記周辺環境データから特徴を抽出し、かつ、前記パターン認識を用いて抽出された特徴に排他的に基づいて、現在存在する走行状況の分類を実施する処理装置(205)と、を備え、
前記通信インタフェース(203)は、前記分類の結果(405,407,409,411)を提供するように構成されていることを特徴とする装置。 - 車両が現在置かれている、現在存在する走行状況を特定するためのシステム(301)であって、
請求項8に記載の装置(201)と、
車両周辺環境(403)を検出する周辺環境センサシステム(303)であって、検出された前記車両周辺環境(403)に基づいて周辺環境データを特定して、前記装置(201)に送信するように構成されている周辺環境センサシステム(303)と、
提供された結果(405,407,409,411)に基づく、車両の少なくとも一部自動化された誘導のための制御装置(305)と、
を備えていることを特徴とするシステム。 - コンピュータプログラムであって、
前記コンピュータプログラムが、コンピュータ上で実行されるときに、請求項1乃至7のいずれか1項に記載の方法を実施するためのプログラムコードを含むことを特徴とする、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014221803.9A DE102014221803A1 (de) | 2014-10-27 | 2014-10-27 | Verfahren und Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation |
DE102014221803.9 | 2014-10-27 | ||
PCT/EP2015/073570 WO2016066416A1 (de) | 2014-10-27 | 2015-10-12 | Verfahren und vorrichtung zum bestimmen einer momentan vorliegenden fahrsituation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018501543A true JP2018501543A (ja) | 2018-01-18 |
Family
ID=54364265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017522870A Pending JP2018501543A (ja) | 2014-10-27 | 2015-10-12 | 現在存在する走行状況を特定するための方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10717442B2 (ja) |
JP (1) | JP2018501543A (ja) |
CN (1) | CN107077606A (ja) |
DE (1) | DE102014221803A1 (ja) |
WO (1) | WO2016066416A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102388806B1 (ko) * | 2021-04-30 | 2022-05-02 | (주)에이아이매틱스 | 주행 상황 판단 시스템 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017215552A1 (de) * | 2017-09-05 | 2019-03-07 | Robert Bosch Gmbh | Plausibilisierung der Objekterkennung für Fahrassistenzsysteme |
KR102466940B1 (ko) * | 2018-04-05 | 2022-11-14 | 한국전자통신연구원 | 로봇 주행용 위상 지도 생성 장치 및 방법 |
DE102019202925A1 (de) * | 2019-03-05 | 2020-09-10 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs |
BE1027207B1 (de) | 2019-04-03 | 2020-11-23 | Thyssenkrupp Ind Solutions Ag | Verfahren und Einrichtung zum automatisierbaren Betrieb einer Materialgewinnungsanlage an der Abbaufront einer Materialgewinnungsstätte |
DE102019204751A1 (de) * | 2019-04-03 | 2020-10-08 | Thyssenkrupp Ag | Verfahren und Einrichtung zum automatisierbaren Betrieb einer Materialgewinnungsanlage an der Abbaufront einer Materialgewinnungsstätte |
DE102019204752A1 (de) * | 2019-04-03 | 2020-03-26 | Thyssenkrupp Ag | Verfahren und Einrichtung zum Betrieb von insbesondere im Tagebau einsetzbaren Abraum- und Fördermaschinen |
BE1027160B1 (de) | 2019-04-03 | 2020-11-03 | Thyssenkrupp Ind Solutions Ag | Verfahren und Einrichtung zum Betrieb von insbesondere im Tagebau einsetzbaren Abraum- und Fördermaschinen |
CN111938513B (zh) * | 2020-06-30 | 2021-11-09 | 珠海市一微半导体有限公司 | 一种机器人越障的沿边路径选择方法、芯片及机器人 |
DE102020208889A1 (de) | 2020-07-16 | 2022-01-20 | Continental Automotive Gmbh | Verfahren zur Kreuzungserkennung |
FR3132068A1 (fr) * | 2022-01-24 | 2023-07-28 | Psa Automobiles Sa | Procédé et dispositif de contrôle d’un système d’aide à la conduite embarqué dans un véhicule |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013073620A (ja) * | 2011-09-28 | 2013-04-22 | Honda Research Inst Europe Gmbh | ドライバ支援システムのための、道路地形を検出する方法及びシステム |
JP2014137743A (ja) * | 2013-01-17 | 2014-07-28 | Denso It Laboratory Inc | 情報提供システム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7292152B2 (en) * | 2003-06-12 | 2007-11-06 | Temic Automotive Of North America, Inc. | Method and apparatus for classifying vehicle operator activity state |
DE102005052175A1 (de) * | 2005-11-02 | 2007-05-24 | Robert Bosch Gmbh | Verfahren und System zur Ausgabe von Informationen zu spezifischen Bestimmungen und/oder Beschränkungen für Fahrzeuge |
DE102006056835A1 (de) * | 2006-12-01 | 2008-06-05 | Robert Bosch Gmbh | Verfahren zum gitterbasierten Verarbeiten von Sensorsignalen |
DE102011084275A1 (de) * | 2011-10-11 | 2013-04-11 | Robert Bosch Gmbh | Verfahren zum Betreiben eines Fahrerassistenzsystems und Verfahren zum Bearbeiten von Fahrzeugumfelddaten |
US8718861B1 (en) * | 2012-04-11 | 2014-05-06 | Google Inc. | Determining when to drive autonomously |
DE102012109377A1 (de) * | 2012-10-02 | 2014-04-03 | Continental Teves Ag & Co. Ohg | Verfahren und Vorrichtung zur Repräsentation von Umgebungsstrukturen in einem Belegungsgitter mit Kritikalitätswerten |
DE102013219909A1 (de) * | 2013-10-01 | 2015-04-02 | Conti Temic Microelectronic Gmbh | Verfahren und Vorrichtung zur Erkennung von Verkehrszeichen |
DE102014205180A1 (de) * | 2014-03-20 | 2015-09-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs |
US9731713B2 (en) * | 2014-09-10 | 2017-08-15 | Volkswagen Ag | Modifying autonomous vehicle driving by recognizing vehicle characteristics |
DE102017208163A1 (de) * | 2017-05-15 | 2018-11-15 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs |
-
2014
- 2014-10-27 DE DE102014221803.9A patent/DE102014221803A1/de active Pending
-
2015
- 2015-10-12 WO PCT/EP2015/073570 patent/WO2016066416A1/de active Application Filing
- 2015-10-12 US US15/516,494 patent/US10717442B2/en active Active
- 2015-10-12 CN CN201580058288.0A patent/CN107077606A/zh active Pending
- 2015-10-12 JP JP2017522870A patent/JP2018501543A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013073620A (ja) * | 2011-09-28 | 2013-04-22 | Honda Research Inst Europe Gmbh | ドライバ支援システムのための、道路地形を検出する方法及びシステム |
JP2014137743A (ja) * | 2013-01-17 | 2014-07-28 | Denso It Laboratory Inc | 情報提供システム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102388806B1 (ko) * | 2021-04-30 | 2022-05-02 | (주)에이아이매틱스 | 주행 상황 판단 시스템 |
Also Published As
Publication number | Publication date |
---|---|
DE102014221803A1 (de) | 2016-04-28 |
US10717442B2 (en) | 2020-07-21 |
WO2016066416A1 (de) | 2016-05-06 |
US20180222486A1 (en) | 2018-08-09 |
CN107077606A (zh) | 2017-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018501543A (ja) | 現在存在する走行状況を特定するための方法及び装置 | |
CN108230731B (zh) | 停车场导航***和方法 | |
JP6910452B2 (ja) | より高度に自動化された、例えば、高度自動化車両(haf)をデジタル式位置特定マップで位置特定するための方法 | |
CN108645628A (zh) | 基于道路驾驶技能的自动驾驶汽车测试*** | |
US20210403001A1 (en) | Systems and methods for generating lane data using vehicle trajectory sampling | |
JP6418574B2 (ja) | 危険度推定装置、危険度推定方法及び危険度推定用コンピュータプログラム | |
US11371851B2 (en) | Method and system for determining landmarks in an environment of a vehicle | |
CN105814615A (zh) | 启用视线的导航*** | |
CN103770704A (zh) | 用于识别车辆的停车位标志线的***和方法 | |
US11755917B2 (en) | Generating depth from camera images and known depth data using neural networks | |
WO2020007589A1 (en) | Training a deep convolutional neural network for individual routes | |
JP7461399B2 (ja) | 原動機付き車両の走行動作を補助する方法及びアシスト装置並びに原動機付き車両 | |
CN110765224A (zh) | 电子地图的处理方法、车辆视觉重定位的方法和车载设备 | |
CN114677848B (zh) | 感知预警***、方法、装置及计算机程序产品 | |
US20210048819A1 (en) | Apparatus and method for determining junction | |
CN110745145A (zh) | 用于adas的多传感器管理*** | |
WO2024098992A1 (zh) | 倒车检测方法及装置 | |
US20210404841A1 (en) | Systems and methods for inferring information about stationary elements based on semantic relationships | |
US11922703B1 (en) | Generic obstacle detection in drivable area | |
JP5962442B2 (ja) | 標識認識システム、標識認識方法、及び標識認識プログラム | |
US20220004777A1 (en) | Information processing apparatus, information processing system, information processing method, and program | |
CN112215042A (zh) | 一种车位限位器识别方法及其***、计算机设备 | |
JP7505167B2 (ja) | 走行管理装置、走行管理方法、プログラム | |
EP4386695A1 (en) | Electronic device for detecting vehicle driving behavior multi dimensionally and method thereof | |
KR102592628B1 (ko) | 분기점 판별 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180416 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181218 |