JP2016115334A - 意味付け交通空間についての適合型射線ベースのシーン分析を行うための方法及びシステム、並びにそのようなシステムを備える車両 - Google Patents
意味付け交通空間についての適合型射線ベースのシーン分析を行うための方法及びシステム、並びにそのようなシステムを備える車両 Download PDFInfo
- Publication number
- JP2016115334A JP2016115334A JP2015189920A JP2015189920A JP2016115334A JP 2016115334 A JP2016115334 A JP 2016115334A JP 2015189920 A JP2015189920 A JP 2015189920A JP 2015189920 A JP2015189920 A JP 2015189920A JP 2016115334 A JP2016115334 A JP 2016115334A
- Authority
- JP
- Japan
- Prior art keywords
- ray
- spatial
- cell
- semantic
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000004458 analytical method Methods 0.000 title claims abstract description 27
- 230000003044 adaptive effect Effects 0.000 title abstract description 8
- 238000012732 spatial analysis Methods 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims description 20
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 2
- 238000013459 approach Methods 0.000 abstract description 9
- 238000010521 absorption reaction Methods 0.000 description 18
- 101150064138 MAP1 gene Proteins 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000010426 asphalt Substances 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、例えば、コンピュータ・ビジョン、パターン認識、分類(classification)、および機械学習の少なくとも一つに基づく運転者支援の分野に属する。本発明は、特に、自動車、モータバイク、又はその他の任意の乗り物の一部であり得るセンサベースのコンピューティング・モジュールにおいて実施することができる。本発明は、制約を設けない中心市街地シナリオにおいて自動車を走行させる際に遭遇するような、現実的な実世界の交通環境において適用することができる。
得られたカメラ画像から、選択された位置を分類することによって道路地形を検出することについては、特許文献1に記載されている。画素コンフィデンスの平面図投影(a top-view projection of pixel confidences)における位置(複数)が、ベースポイントとして選択される。ベースポイントの空間特徴は、環境の視覚的および物理的な特性を捕捉する値連続な信頼度表現(a value continuous confidence representation)に基づいて生成される。ベースポイント(複数)からは、向きを持つまっすぐな射線(rays)が、固定された一連の角度方向に従って、それぞれ異なる方向に延びている。抽出された特徴は、センサデータのローカル特性と、特徴抽出プロセスでの空間的関係と、を用いた道路地形の分類の際に利用される。この分類により、車両が乗り入れる可能性のある交通スペースの部分に“道路地形”や“自レーン”などの意味ラベル(semantic label)が割り当てられる。
目的は、交通シーンの分析及び分類を、従来技術のアプローチに比べて改良することである。
〔発明の詳細な説明〕
本発明の方法は、自車両上で若しくは自車両により実行され、又は一つ又は複数のセンサ手段を備える自車両に搭載された対応するコンピュータ・システム上で若しくは当該コンピュータ・システムにより実行される。
交通物体の状態は、以下のパラメータの一つ又は複数により定義され得る:
位置、方向、速度、及びそれらの何らかの導関数。
自車両は、適切な近似確率分布(APD、approximate probability distributions)により他の交通物体の状態を表現する。
例えば、他の交通物体の個々の状態は、それぞれ、その交通物体が実際にその状態にある確率を表す或る確率値を持つ。
この累算は、値を積分することにより行われ、積分された意味ラベルについての曲線10が得られる。
((F1が小さい(例えば、15m未満))AND(F3がF1より大きい))OR
(F2が非常に小さい(例えば、10m未満))
であるときに、カテゴリ“相手優先”に分類するように、より多くの、この新たな特徴のセットにより訓練される。図8の下部は、追加の特徴を抽出してシーンを分類した後の、その結果として得られる空間シーン表現を示している。停止線14を有する交通シーンについて示されたこの例は、交通フローの意味解釈に影響を与える交通信号及びその他の交通物体を含むように更に拡張することができる。基礎を為す空間意味環境マップと、特徴抽出ステップS3と、分類ステップS4と、に追加の時間次元を含めるよう更に拡張を行うことは、空間シーン分析についての本方法に自動車の速度を含ませるのに適している。
ただし、図9では、車線は、意味時空間表現の異なるスライスにおける特徴を抽出するステップにおいて評価される。意味時空間表現は、交通シーンの空間レイアウトを表現する複数のスライス(各スライスは、個別の時刻を表している)で構成される。図9における車線4は、意味時空間表現の時刻tについてのスライスにおいて評価された第1の射線部分4.0と、意味時空間表現の時刻t+1についてのスライスにおいて評価された第2の射線部分4.1と、意味時空間表現の時刻t+2についてのスライスにおいて評価された第3の射線部分4.2と、意味時空間表現の時刻t+3についてのスライスにおいて評価された第4の射線部分4.3と、で構成されている。したがって、図9における射線4.0、4.1、4.2、4.3の具体的な射線形状により、将来における異なる時刻の意味空間レイアウトに関する交通シーンの分析が可能となる。
Claims (15)
- 交通シーンの空間分析を行う方法であって、
意味コンテキストデータを含む空間意味環境マップ(1)を取得するステップ(S1)と、
前記空間環境マップ上の少なくとも一つのセル(3)についての少なくとも一つの特徴を、前記セル(3)の前記意味コンテキストを考慮して算出するステップ(S3)と、
前記少なくとも一つの算出された特徴に基づいて前記少なくとも一つのセル(3)についてのカテゴリを決定するステップ(S4)と、
交通シーンを予測するため前記少なくとも一つのセル(3)の前記決定されたカテゴリに関するデータを含む分析信号を生成し及び出力するステップと、
を有する、方法。 - 前記少なくとも一つの特徴は、空間次元及び時間次元の少なくとも一つにおいて前記少なくとも一つのセル(3)から延在する少なくとも一つの射線(4)に沿って入力値を積算することによって算出される射線ベース特徴である、
ことを特徴とする、請求項1に記載の方法。 - 前記少なくとも一つの射線(4)は、それが開始する前記少なくとも一つのセル(3)の前記意味コネテキストに基づいて決定された射線形状を有する、
ことを特徴とする、請求項2に記載の方法。 - 前記少なくとも一つの射線(4)は、空間に延在する射線(4)であり、
当該空間的に延在する射線(4)は、道路の一般的形状に対応する射線形状を有するか、及び又は前記少なくとも一つの空間的に延在する射線(4)は、前記道路のコースに従うか、及び又は周囲の道路セグメントの方位に対し垂直であるか、及び又は空間意味環境マップ(1)上の少なくとも一つのエリアをバイパスする、
ことを特徴とする、請求項2又は3に記載の方法。 - 前記少なくとも一つの特徴は、前記少なくとも一つの射線(4)に沿って積分又は積算された入力値が少なくとも一つの予め定められた閾値を超える位置での距離に対応する、
ことを特徴とする、請求項2ないし4のいずれか一項に記載の方法。 - 交通シーンの空間評価のための前記方法が、前記空間意味環境マップ(1)の少なくとも一つの更なるセル(3)について個別に実行される、
ことを特徴とする、請求項2ないし5のいずれか一項に記載の方法。 - 前記空間意味環境マップ(1)の前記少なくとも一つのセル(3)に、それぞれラベルを適用するステップ、を備え、
前記ラベルは、前記少なくとも一つのセル(3)についての前記決定されたカテゴリに基づいて決定される、
ことを特徴とする、請求項1ないし6のいずれか一項に記載の方法。 - 射線ベース特徴の集合のそれぞれの射線ベース特徴について、又は射線ベース特徴の集合のうちの選択された数の射線ベース特徴について、前記カテゴリを決定するステップ、を有する、
ことを特徴とする、請求項2ないし7のいずれか一項に記載の方法。 - 前記交通シーンの前記空間分析に基づいて前記交通シーンについての概括的なシーンカテゴリを決定するステップ、を有する、
ことを特徴とする、請求項2ないし8のいずれか一項に記載の方法。 - 前記空間意味環境マップ(1)は、エリアタイプによりラベル付けされたエリアを含み、及び又は、
前記空間意味環境マップは(1)は、複数の層で構成され、当該層は、時刻次元における異なる時刻に関するものである、
ことを特徴とする、請求項2ないし9のいずれか一項に記載の方法。 - 交通シーンの空間分析のためのシステムであって、
意味コンテキストデータを含む空間意味環境マップ(1)を取得するよう構成された取得手段(24)と、
前記空間環境マップ上の少なくとも一つのセル(3)についての少なくとも一つの特徴を、前記セル(3)の前記意味コンテキストを考慮して算出するよう構成された空間射線特徴抽出手段(26)と、
前記少なくとも一つの算出された特徴に基づいて前記少なくとも一つのセル(3)についてのカテゴリを決定するよう構成された分類手段(28)と、
交通シーンを予測するため前記少なくとも一つのセル(3)の前記決定されたカテゴリに関するデータを含む分析信号を生成し及び出力するステップよう構成された出力手段(29)と、
を備える、システム。 - 前記空間射線特徴抽出手段(27)は、前記少なくとも一つの特徴を、空間次元及び時間次元の少なくとも一つにおいて延在する少なくとも一つの射線(4)に沿って入力値を積分又は積算することによって算出される射線ベース特徴として算出する、よう構成されている、
ことを特徴とする、請求項11に記載の交通シーンの空間分析のためのシステム。 - 前記少なくとも一つのセル(3)の前記意味コネテキストに基づく射線形状を有する前記少なくとも一つの射線(4)を決定するよう構成された射線形状決定手段(26)を更に備える、
ことを特徴とする、請求項12に記載の交通シーンの空間分析のためのシステム。 - 請求項11ないし13のいずれか一項に記載の交通シーンの空間分析のためのシステムを含む車両であって、
前記運転者支援システムは、前記運転者支援システムの出力信号に基づいて自車両の制御に影響を与えるよう構成されている、
ことを特徴とする車両。 - コンピュータ又はデジタルシグナルプロセッサ上で実行されたときに請求項1ないし10のいずれか一項に記載のステップを実行する、プログラムコード手段を有するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14197121.8A EP3032454B1 (en) | 2014-12-10 | 2014-12-10 | Method and system for adaptive ray based scene analysis of semantic traffic spaces and vehicle equipped with such system |
EP14197121.8 | 2014-12-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016115334A true JP2016115334A (ja) | 2016-06-23 |
JP6591842B2 JP6591842B2 (ja) | 2019-10-16 |
Family
ID=52231814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015189920A Active JP6591842B2 (ja) | 2014-12-10 | 2015-09-28 | 意味付け交通空間についての適合型射線ベースのシーン分析を行うための方法及びシステム、並びにそのようなシステムを備える車両 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9767368B2 (ja) |
EP (1) | EP3032454B1 (ja) |
JP (1) | JP6591842B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018170719A (ja) * | 2017-03-30 | 2018-11-01 | パナソニックIpマネジメント株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2019182401A (ja) * | 2018-04-16 | 2019-10-24 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | 自動運転車に用いられる学習に基づく速度計画装置 |
WO2020053611A1 (en) | 2018-09-12 | 2020-03-19 | Toyota Motor Europe | Electronic device, system and method for determining a semantic grid of an environment of a vehicle |
JPWO2021049231A1 (ja) * | 2019-09-11 | 2021-03-18 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108184202B (zh) * | 2016-12-08 | 2021-03-30 | 中国电信股份有限公司 | 基站的覆盖场景的确定方法以及装置 |
US20180349746A1 (en) * | 2017-05-31 | 2018-12-06 | Uber Technologies, Inc. | Top-View Lidar-Based Object Detection |
US10809361B2 (en) * | 2017-05-31 | 2020-10-20 | Uatc, Llc | Hybrid-view LIDAR-based object detection |
US10872228B1 (en) | 2017-09-27 | 2020-12-22 | Apple Inc. | Three-dimensional object detection |
EP3495992A1 (en) * | 2017-12-07 | 2019-06-12 | IMRA Europe SAS | Danger ranking using end to end deep neural network |
US11009359B2 (en) * | 2018-01-05 | 2021-05-18 | Lacuna Technologies Inc. | Transportation systems and related methods |
CN108509917B (zh) * | 2018-03-30 | 2020-03-03 | 北京影谱科技股份有限公司 | 基于镜头类相关性分析的视频场景分割方法和装置 |
CN108764137A (zh) * | 2018-05-29 | 2018-11-06 | 福州大学 | 基于语义分割的车辆行驶车道定位方法 |
US11100669B1 (en) | 2018-09-14 | 2021-08-24 | Apple Inc. | Multimodal three-dimensional object detection |
US11335189B2 (en) | 2019-04-04 | 2022-05-17 | Geotab Inc. | Method for defining road networks |
US10699564B1 (en) | 2019-04-04 | 2020-06-30 | Geotab Inc. | Method for defining intersections using machine learning |
US11335191B2 (en) | 2019-04-04 | 2022-05-17 | Geotab Inc. | Intelligent telematics system for defining road networks |
US11403938B2 (en) | 2019-04-04 | 2022-08-02 | Geotab Inc. | Method for determining traffic metrics of a road network |
US11341846B2 (en) | 2019-04-04 | 2022-05-24 | Geotab Inc. | Traffic analytics system for defining road networks |
CN110442128B (zh) * | 2019-07-20 | 2022-08-16 | 河北科技大学 | 基于特征点提取蚁群算法的agv路径规划方法 |
CN110458047B (zh) * | 2019-07-23 | 2023-01-10 | 北京理工大学 | 一种基于深度学习的越野环境场景识别方法及*** |
WO2021134742A1 (zh) * | 2020-01-02 | 2021-07-08 | 华为技术有限公司 | 一种处理预测运动轨迹的方法、显示约束屏障的方法以及装置 |
CN111932869A (zh) * | 2020-06-25 | 2020-11-13 | 厦门迅优通信科技有限公司 | 一种基于交通流粒子性特征的三参数分析法 |
DE102020211649A1 (de) * | 2020-09-17 | 2022-03-17 | Conti Temic Microelectronic Gmbh | Verfahren und System zum Erstellen eines Straßenmodells |
CN113189610B (zh) * | 2021-04-28 | 2024-06-14 | 中国科学技术大学 | 地图增强的自动驾驶多目标追踪方法和相关设备 |
CN114036254A (zh) * | 2021-12-02 | 2022-02-11 | 广州小鹏自动驾驶科技有限公司 | 一种地图构建方法、地图构建装置、车辆及存储介质 |
CN116343104B (zh) * | 2023-02-03 | 2023-09-15 | 中国矿业大学 | 视觉特征与向量语义空间耦合的地图场景识别方法及*** |
CN117274353B (zh) * | 2023-11-20 | 2024-02-20 | 光轮智能(北京)科技有限公司 | 合成图像数据生成方法、控制装置及可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013073620A (ja) * | 2011-09-28 | 2013-04-22 | Honda Research Inst Europe Gmbh | ドライバ支援システムのための、道路地形を検出する方法及びシステム |
JP2013164837A (ja) * | 2011-03-24 | 2013-08-22 | Toyota Infotechnology Center Co Ltd | シーン判定方法およびシーン判定システム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19746570A1 (de) | 1997-10-22 | 1999-05-06 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur großflächigen Verkehrslageüberwachung |
US7065573B2 (en) * | 2000-12-05 | 2006-06-20 | Philippe C. Byrnes | Automatic traffic and quality of service control system for communications networks |
EP2256667B1 (en) * | 2009-05-28 | 2012-06-27 | Honda Research Institute Europe GmbH | Driver assistance system or robot with dynamic attention module |
US8559673B2 (en) * | 2010-01-22 | 2013-10-15 | Google Inc. | Traffic signal mapping and detection |
US20120078495A1 (en) * | 2010-09-27 | 2012-03-29 | Honeywell International Inc. | Aircraft situational awareness improvement system and method |
DE102012008659A1 (de) | 2012-05-03 | 2012-11-29 | Daimler Ag | Verhahren zur Situationsanalyse von Einscher,-Ausscher-, Einfädel- und/oder Ausfädelvorgängen von Fahrzeugen |
-
2014
- 2014-12-10 EP EP14197121.8A patent/EP3032454B1/en active Active
-
2015
- 2015-09-28 JP JP2015189920A patent/JP6591842B2/ja active Active
- 2015-11-16 US US14/941,752 patent/US9767368B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013164837A (ja) * | 2011-03-24 | 2013-08-22 | Toyota Infotechnology Center Co Ltd | シーン判定方法およびシーン判定システム |
JP2013073620A (ja) * | 2011-09-28 | 2013-04-22 | Honda Research Inst Europe Gmbh | ドライバ支援システムのための、道路地形を検出する方法及びシステム |
Non-Patent Citations (4)
Title |
---|
JANNIK FRITSCH ET AL.: """", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, vol. 15, no. 4, JPN6019013543, 31 August 2014 (2014-08-31), US, pages 1586 - 1596, ISSN: 0004112907 * |
TOBIAS KUHNL ET AL.: ""Spatial Ray Features for Real-Time Ego-Lane Extraction"", 2012 15TH INTERNATIONAL IEEE CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS, JPN6019013541, 16 September 2012 (2012-09-16), US, pages 288 - 293, XP032264072, ISSN: 0004018876, DOI: 10.1109/ITSC.2012.6338740 * |
TOBIAS KUHNL ET AL.: ""Visual Ego-Vehicle Lane Assignment using Spatial Ray Features"", 2013 IEEE INTELLIGENT VEHICLES SYMPOSIUM(IV), JPN6019013542, 23 June 2013 (2013-06-23), US, pages 1101 - 1106, ISSN: 0004112906 * |
伊藤 元邦、外2名: ""道路シーンの視覚認識に基づく運転支援システム"", 日本ロボット学会誌, vol. 19, no. 5, JPN6019013540, 15 July 2001 (2001-07-15), JP, pages 61 - 69, ISSN: 0004112905 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018170719A (ja) * | 2017-03-30 | 2018-11-01 | パナソニックIpマネジメント株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2019182401A (ja) * | 2018-04-16 | 2019-10-24 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | 自動運転車に用いられる学習に基づく速度計画装置 |
US11126199B2 (en) | 2018-04-16 | 2021-09-21 | Baidu Usa Llc | Learning based speed planner for autonomous driving vehicles |
WO2020053611A1 (en) | 2018-09-12 | 2020-03-19 | Toyota Motor Europe | Electronic device, system and method for determining a semantic grid of an environment of a vehicle |
JPWO2021049231A1 (ja) * | 2019-09-11 | 2021-03-18 | ||
WO2021049231A1 (ja) * | 2019-09-11 | 2021-03-18 | 日立オートモティブシステムズ株式会社 | 占有格子地図管理装置 |
JP7261892B2 (ja) | 2019-09-11 | 2023-04-20 | 日立Astemo株式会社 | 占有格子地図管理装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6591842B2 (ja) | 2019-10-16 |
EP3032454A1 (en) | 2016-06-15 |
US20160171316A1 (en) | 2016-06-16 |
US9767368B2 (en) | 2017-09-19 |
EP3032454B1 (en) | 2018-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6591842B2 (ja) | 意味付け交通空間についての適合型射線ベースのシーン分析を行うための方法及びシステム、並びにそのようなシステムを備える車両 | |
Bachute et al. | Autonomous driving architectures: insights of machine learning and deep learning algorithms | |
US11714413B2 (en) | Planning autonomous motion | |
CN113165652B (zh) | 使用基于网格的方法检验预测轨迹 | |
JP6731819B2 (ja) | 移動体軌道予測システム | |
US8160811B2 (en) | Method and system to estimate driving risk based on a hierarchical index of driving | |
US11386671B2 (en) | Refining depth from an image | |
JP6800575B2 (ja) | 自己の乗り物のドライバを支援する方法およびシステム | |
WO2020112649A1 (en) | Probabilistic risk assessment for trajectory evaluation | |
JP5620147B2 (ja) | 可動物予測装置及びプログラム | |
US20170329332A1 (en) | Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object | |
US20210406559A1 (en) | Systems and methods for effecting map layer updates based on collected sensor data | |
US20210389133A1 (en) | Systems and methods for deriving path-prior data using collected trajectories | |
KR20230004212A (ko) | 대상체 검출을 위한 교차 모달리티 능동 학습 | |
CN115618932A (zh) | 基于网联自动驾驶的交通事件预测方法、装置及电子设备 | |
CN115713687A (zh) | 用于确定对象动态参数的方法、***和介质 | |
JP2024019629A (ja) | 予測装置、予測方法、プログラムおよび車両制御システム | |
CN117387647A (zh) | 融合车载传感器数据与道路传感器数据的道路规划方法 | |
JP5747593B2 (ja) | 規範車速算出装置及びプログラム | |
EP4137845A1 (en) | Methods and systems for predicting properties of a plurality of objects in a vicinity of a vehicle | |
JP6449699B2 (ja) | 環境認識システム | |
CN114067552A (zh) | 一种基于路侧激光雷达的行人过街轨迹追踪与预测方法 | |
CN113178088A (zh) | 向车辆广播的基础设施部件 | |
US20240028035A1 (en) | Planning autonomous motion | |
Gupta et al. | Dynamic object detection using sparse LiDAR data for autonomous machine driving and road safety applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20170802 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170804 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190423 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190919 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6591842 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |