JP7429246B2 - 対象を識別する方法とシステム - Google Patents
対象を識別する方法とシステム Download PDFInfo
- Publication number
- JP7429246B2 JP7429246B2 JP2021576303A JP2021576303A JP7429246B2 JP 7429246 B2 JP7429246 B2 JP 7429246B2 JP 2021576303 A JP2021576303 A JP 2021576303A JP 2021576303 A JP2021576303 A JP 2021576303A JP 7429246 B2 JP7429246 B2 JP 7429246B2
- Authority
- JP
- Japan
- Prior art keywords
- discrete
- data
- statistical model
- format data
- model format
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000013179 statistical model Methods 0.000 claims description 150
- 230000004927 fusion Effects 0.000 claims description 24
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000013499 data model Methods 0.000 description 4
- 230000003936 working memory Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
- G06V10/476—Contour-based spatial representations, e.g. vector-coding using statistical shape modelling, e.g. point distribution models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/72—Data preparation, e.g. statistical preprocessing of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Data Mining & Analysis (AREA)
- Probability & Statistics with Applications (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
最初の時刻にて、車両に搭載されたカメラによる生データ出力を得るステップであって、出力生データは、連続モデル用の連続データ出力フォーマットと、離散モデル用の離散データ出力フォーマットのいずれかを含む、前記生データ出力を得るステップと、
前記最初の時刻用に、離散統計モデルフォーマットデータを形成すべく、前記生データを離散統計モデルに供給するステップであって、前記離散統計モデルフォーマットデータが連続データ出力フォーマットを持つ連続部分と、離散データ出力フォーマットを持つ離散部分とを含んでいる、前記供給するステップと、
前記最初の時刻用の離散統計モデルフォーマットデータを更新すべく、最初の時刻用の離散統計モデルフォーマットデータを、履歴離散統計モデルフォーマットデータに融合するステップと、
最初の時刻用の前記更新された離散統計モデルフォーマットデータから、対象を識別するステップと
を備え、前記対象が曲線に特徴がある車線標示を含む。
最初の時刻にて、生データ出力を取得するように構成されたデータ取得モジュールであって、前記生データが、連続モデル用の連続データ出力フォーマット、又は離散モデル用の離散データ出力フォーマットを備えている、データ取得モジュールと、
最初の時刻用の離散統計モデルフォーマットデータを形成すべく、前記生データを離散統計モデルに供給するように構成されたデータ供給モジュールであって、離散統計モデルフォーマットデータが、連続データ出力フォーマットを持つ連続部分及び離散データ出力フォーマットを持つ離散部分とを含む、データ供給モジュールと、
最初の時刻用の離散統計モデルフォーマットデータを更新すべく、最初の時刻用の離散統計モデルフォーマットデータを、履歴離散統計モデルフォーマットデータに融合するように構成されたデータ融合モジュールと、
対象を、最初の時刻用の更新された離散統計モデルフォーマットデータから識別すべく構成された対象識別モジュールであって、前記対象が曲線に特徴がある車線標示を含む、対象識別モジュールと
を備える。
図面の簡単な説明
次に、最初のデータに対応する多項式に基づいて、最初のデータによって記述された曲線上の複数の離散点が計算される。計算される離散ポイントの数は任意であってよい。当業者は、計算される離散点の数が、車両のプロセッサ能力に応じて選択されてよいことを理解するであろう。もちろん、計算される離散点の数は、他の基準に従って決定可能でもある。次に、計算された離散点が、離散統計モデルフォーマットデータの離散部分として、離散統計モデルの「[(x1、y1)、(x2、y2)、....、(xm、ym)]」の一部に配置される。
次に、最初のデータに対応する多項式が、最初のデータに基づいて計算される。当業者は、離散点が、多項式によって表される曲線を取得するために、補間又は曲線あてはめを使用して数学的に処理できることを理解するであろう。次に、計算された多項式は、離散統計モデルフォーマットデータの連続部分として、離散統計モデルの「[c0、c1、c2、c3、...、cn]、[start、end]」の部分に配置される。
時間間隔は、0.1秒、0.2秒、0.5秒、1秒など、オンデマンドで異なる場合がある。もちろん、他の時間間隔も発明の範囲内にある。本発明の1つ又は複数の実施形態に従って、履歴離散統計モデルフォーマットデータは、最初の即時の読み取り又はキャッシュメモリに格納される前に、いくつかの連続した時刻で形成され得る。理解しておくべきことは、最初の時刻には、履歴離散統計モデルフォーマットのデータは、離散統計モデルフォーマットのデータと同じデータフォーマットであり、最初の時刻に先立つある1つ又はそれより多いインタンスには、最初のインタンス用離散統計モデルフォーマットデータと同じように形成される。
例えば、融合中に、更新された離散統計モデルフォーマットデータの離散部分が初めてインスタンスになり、全ての離散部分が履歴離散統計モデルフォーマットデータに集約される。よって、融合後、最初の時刻の更新された離散統計モデルフォーマットデータの離散部分は、最初の離散統計モデルフォーマットデータの離散部分のデータと、履歴離散統計モデルフォーマットデータ内の全ての離散部分のデータとを含む。本発明の1つの実施形態によれば、計算負荷及びメモリ機能を考慮して、融合中に、集約された離散データ内の重複データ又は異常データが削除又はフィルタリングされる。例えば、最初のインスタントの、更新された離散統計モデルフォーマットのデータの離散部分で、重複、又は外れ値の離散点を削除してよい。
例えば、最初の時刻に、更新された(つまり、融合された)離散統計モデルフォーマットデータの上記の離散部分に基づいて、更新された(つまり、融合された)離散統計モデルフォーマットデータに対応する多項式が、最初の時刻の、更新された(つまり融合された)離散統計モデルフォーマットデータの連続部分として計算される。
{tFTI、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、....、(xm、ym)]}は、{tFTI-1、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、...、(xm、ym)]}、{tFTI-2、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、...、(xm、ym)]}……{tFTI-n、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、....、(xm、ym)]}と融合する。
ここで、「FTI」は「最初時刻」を表す。ここにおいて、例えば、tFTIとtFTI-1の間の、隣り合う2つの時刻の間の時間間隔は、上記のように事前に決定できる。また、tFTI-nとtFTI-nの間で選択されたしきい値期間も経過する場合がある。例えば、所定の時間間隔が0.1秒の場合、しきい値期間を1秒(すなわち、この場合、nは10である)に選択できる。それにより、10個の履歴の一般的な統計モデルフォーマットのデータが、融合用の最初の時刻に選択される。
複数の以前の履歴一般統計モデルフォーマットデータを持って{tFTI、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、....、(xm、ym)]}を融合後、{tFTI、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、....、(xm、ym)]}が更新されて{tFTI、[c0、c1、c2、c3、...、cn]’、[start、end]’、[(x1、y1)’、(x2、y2)’、....、(xm、ym)’]}となる。したがって、図示401の方法は、{tFTI、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、....、(xm、ym)]}{tFTI、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、....、(xm、ym)]}を更新するのに、履歴統計モデルフォーマットのデータを1回使用する。
上記の例を続けると、しきい値期間は1秒であり、2つの隣り合う時刻間の所定の時間間隔は0.1秒であると想定されている。最初の時刻より前のしきい値期間内の以前の時刻が複数ある場合は、次の手順が繰り返し実行される。これは、離散統計モデルのフォーマットデータを使用して、各統計の離散のデータを使用する。事前に決定された時間間隔の後の、後の時間の離散統計モデルフォーマットデータを更新して、後の時間の離散統計モデルフォーマットデータを更新する。
更新された{tFTI-n+1、[c0、c1、c2、c3、...、cn]’、[start、end]’、[(x1、y1)、(x2、y2)、....、(xm、ym)]’}を得るのに、
{tFTI-n+1、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、....、(xm、ym)]}と融合される。
次に、更新された{tFTI-n+2、[c0、c1、c2、c3、...、cn]’、[start、end]’、[(x1、y1)、(x2、y2)、....、(xm、ym)]’}を得るのに、
{tFTI-n+1、[c0、c1、c2、c3、...、cn]’、[start、end]’、[(x1、y1)、(x2、y2)、...。、(xm、ym)]’}は、
{tFTI-n+2、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、....、(xm、ym)]}と融合される。
次に、更新された{tFTI-n+3、[c0、c1、c2、c3、...、cn]’、[start、end]’を得るのに、
{tFTI-n+2、[c0、c1、c2、c3、...、cn]’、[start、end]’、[(x1、y1)、(x2、y2)、...。、(xm、ym)]’}は、
{tFTI-n+3、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、....、(xm、ym)]}、[(x1、y1)、(x2、y2)、....、(xm、ym)]’}と融合される。
最後に、更新された{tFTI、[c0、c1、c2、c3、...、cn]’、[start、end]’、[(x1、y1)、(x2、y2)、....、(xm、ym)]’}を得るのに、
{tFTI-1、[c0、c1、c2、c3、...、cn]’、[start、end]’、[(x1、y1)、(x2、y2)、....、(xm、ym)]’}は、
{tFTI、[c0、c1、c2、c3、...、cn]、[start、end]、[(x1、y1)、(x2、y2)、....、(xm、ym)]}と融合される。
よって、この処理は「反復融合」と見なせる。
次に、車両がtFTI-1からtFTIまでの距離Lを移動方向に移動するときに、tFTI-1のローカル座標系の原点と比較してtFTIでのローカル座標系の原点が(Lx、Ly)に移動することがわかる。座標変換により、全ての履歴離散統計モデルフォーマットのデータがtFTIのローカル座標系に変換される。これにより、融合用のデータは同じ座標系になる。
装置600は、データ供給モジュール620を備える。データ供給モジュール620は、生データを離散統計モデルに供給して、最初の時刻用の離散統計モデルフォーマットデータを形成するように構成されている。離散統計モデルフォーマットデータは、連続データ出力フォーマットを持つ連続部分と、離散データ出力フォーマットを持つ離散部分とを含む。
装置600は、データ融合モジュール630を備える。データ融合モジュール630は、最初の時刻用の離散統計モデルフォーマットデータを、履歴離散統計モデルフォーマットデータと融合して、最初の時刻用の離散統計モデルフォーマットデータを更新するように構成されている。
また、装置600は、対象識別モジュール640をさらに備える。対象識別モジュール640は、更新された離散統計モデルフォーマットデータから対象を識別するように構成されている。対象は、曲線により特徴がある車線標示を含む。
入力装置706は、計算装置に情報を入力可能な任意の種類の装置でよく、マウス、キーボード、タッチスクリーン、マイク、及び/又はリモートコントロールであってよいが、それらに限定されない。出力装置708は、情報を提示することができる任意の種類の装置でよく、ディスプレイ、スピーカー、ビデオ/オーディオ出力端末、振動器及び/又はプリンタを備えることがあるが、それらに限定されない。
計算装置700はまた、非一時的記憶装置710を備えてよい。非一時的記憶装置710は、非一時的であり、データの記憶を実行可能である。非一時的記憶装置710は、ディスクドライブと、光学的記憶装置と、ソリッドステート記憶と、フロッピーディスクと、フレキシブルディスクと、ハードディスクと、磁気テープ又はその他の磁気媒体と、コンパクトディスク又はその他の光学媒体と、ROM(読み取り専用メモリ)と、RAM(ランダムアクセスメモリ)と、キャッシュメモリ及び/又はその他のメモリチップ又はカートリッジと、コンピュータがデータ、指示、及び/又はコードを読み取れるその他の媒体との中の少なくとも1つを備えてよいが、それらに限定されない。非一時的記憶装置710は、インタフェースから取り外し可能であってよい。非一時的記憶装置710が、上記の方法及びステップを実行するデータ/命令/コードを持っていてよい。計算装置700は、通信装置712をも備えてよい。
通信装置712は、外部装置及び/又はネットワークと通信可能な任意の種類の装置又はシステムであってよい。通信装置712は、モデムと、ネットワークカードと、赤外線通信装置と、無線通信装置と、チップセット(ブルートゥース(登録商標)装置、802.11装置、WiFi装置、WiMax装置、セルラー通信設備などのチップセットなどのいずれか又はそれらの組み合わせ)とのいずれか又はそれらの組み合わせがあり得るが、それらに限定されない。
ソフトウェア要素の命令の実行可能コード又はソースコードは、上記のメモリを備えた記憶装置710などの非一時的コンピュータ可読記憶メディアに保存され、コンパイル及び/又はインストールを伴って作業メモリ714に読み込まれるようにしてもよい。ソフトウェア要素の指示の実行可能コード又はソースコードは、リモートの場所からダウンロードされるようにしてもよい。
Claims (15)
- 最初の時刻にて、車両に搭載されたカメラによる生データ出力を得るステップであって、出力生データは、連続モデル用の連続データ出力フォーマットと、離散モデル用の離散データ出力フォーマットのいずれかを含む、前記生データ出力を得るステップと、
前記最初の時刻用の離散統計モデルフォーマットデータを形成すべく、前記生データを離散統計モデルに供給するステップであって、前記離散統計モデルフォーマットデータが連続データ出力フォーマットを持つ連続部分と、離散データ出力フォーマットを持つ離散部分とを含んでいる、前記供給するステップと、
前記最初の時刻用の離散統計モデルフォーマットデータを更新すべく、前記最初の時刻用の離散統計モデルフォーマットデータを、履歴離散統計モデルフォーマットデータに融合するステップと、
最初の時刻用の前記更新された離散統計モデルフォーマットデータから、対象を識別するステップと
を備え、前記対象が曲線に特徴がある車線標示を含む、
対象を識別する方法。 - 曲線の記述に前記連続モデルは多項式を使用し、曲線の記述に前記離散モデルは複数の離散点を使用する、請求項1に記載の方法。
- 前記カメラは、次の、単眼カメラと、両眼ステレオビジョンカメラと、パノラマビジョンカメラと、赤外線カメラとの中の1つ又は複数を備える、請求項1に記載の方法。
- もし前記最初の時刻にて得た生データが前記連続データ出力フォーマットを持っているならば、前記生データを前記離散統計モデルフォーマットデータの前記連続部分として使用し、前記生データによって記述された曲線上の複数の離散点を前記離散統計モデルフォーマットデータの前記離散部分として計算するステップと、
もし前記最初の時刻にて得た生データが前記離散統計モデルフォーマットを持っているならば、前記離散統計モデルフォーマットデータの前記連続部分としての生データに基づいて生データに対応する曲線の前記連続データ出力フォーマットを計算し、前記離散統計モデルフォーマットデータの前記離散部分として生データを使用するステップと
をさらに備える、請求項1に記載の方法。 - 前記最初の時刻用の離散統計モデルフォーマットデータを、前記履歴離散統計モデルフォーマットデータに融合するステップが、
前記最初の時刻用の離散統計モデルフォーマットデータを、前記最初の時刻に先立つしきい値時間内の、複数の以前の時刻用の複数の離散統計モデルフォーマットデータを含む履歴離散統計モデルフォーマットデータに融合するステップと、
前記融合された統計モデルフォーマットデータの前記離散部分に基づいて、前記融合された離散統計モデルフォーマットデータの前記離散部分に相当している曲線用に連続データ出力フォーマットデータを、前記融合された離散統計モデルフォーマットデータの前記連続部分として計算するステップと
をさらに備える、請求項1に記載の方法。 - 前記最初の時刻用の離散統計モデルフォーマットデータを、前記履歴離散統計モデルフォーマットデータに融合するステップが、
前記最初の時刻に先立つ以前のしきい値時間内で複数の以前の時刻の複数の離散統計モデルフォーマットデータ用に、
前記最初の時刻用の離散統計モデルフォーマットデータが更新されるまで、所定時間間隔後に、後の時刻用の離散統計モデルフォーマットデータを更新すべく、各時刻用の離散統計モデルフォーマットデータを、前記後の時刻用の離散統計モデルフォーマットデータに融合するステップと、
融合された離散統計モデルフォーマットデータの離散部分に基づいて、連続データ出力フォーマットデータを、前記融合された離散統計モデルフォーマットデータの前記連続部分として計算するステップと
を繰り返し実行すること
をさらに備える、請求項1に記載の方法。 - 複数の前記離散統計モデルフォーマットデータの全ての離散部分から重複データを削除することをさらに備える、請求項5又は6に記載の方法。
- 前記融合するステップが、
前記履歴離散統計モデルフォーマットデータと、前記最初の時刻用の離散統計モデルフォーマットデータとの両方が、ローカル座標系によって表されるように、前記履歴離散統計モデルフォーマットデータを前記ローカル座標系への変換のため、前記最初の時刻における車両の位置を前記ローカル座標系の原点として使うこと
をさらに備える、請求項1に記載の方法。 - 前記融合するステップが、
前記履歴離散統計モデルフォーマットデータと前記最初の時刻用の離散統計モデルフォーマットデータとが両方、同一の座標系によって表されるように、前記履歴離散統計モデルフォーマットデータに使用されている座標系と、前記最初の時刻用の離散統計モデルフォーマットデータに使用されている、異なる種類の座標系を世界測地系に変換すること
をさらに備える、請求項1に記載の方法。 - 前記最初の時刻用の更新された離散統計モデルフォーマットデータから前記対象を識別するステップが、
前記最初の時刻用の前記更新された離散統計モデルフォーマットデータ内の、前記離散データ出力フォーマットを持つデータから前記対象を識別すべく、回帰アルゴリズムと、補間アルゴリズムと、フィッティングアルゴリズムとの中のいずれかを含む数学的アルゴリズムを採用すること
をさらに備える、請求項1に記載の方法。 - 最初の時刻にて、生データ出力を取得するように構成されたデータ取得モジュールであって、前記生データが、連続モデル用の連続データ出力フォーマット、又は離散モデル用の離散データ出力フォーマットを備えている、データ取得モジュールと、
前記最初の時刻用の離散統計モデルフォーマットデータを形成すべく、前記生データを離散統計モデルに供給するように構成されたデータ供給モジュールであって、前記離散統計モデルフォーマットデータが、前記連続データ出力フォーマットを持つ連続部分及び前記離散データ出力フォーマットを持つ離散部分とを含む、データ供給モジュールと、
前記最初の時刻用の離散統計モデルフォーマットデータを更新すべく、前記最初の時刻用の離散統計モデルフォーマットデータを、履歴離散統計モデルフォーマットデータに融合するように構成されたデータ融合モジュールと、
対象を、前記最初の時刻用の更新された離散統計モデルフォーマットデータから識別すべく構成された対象識別モジュールであって、前記対象が曲線に特徴がある車線標示を含む、対象識別モジュールと
を備える、対象を識別する装置。 - 前記データ融合モジュールが、
もし前記最初の時刻にて得た生データが前記連続データ出力フォーマットを持っているならば、生データを離散統計モデルフォーマットデータの前記連続部分として使用し、生データによって記述された曲線上の複数の離散点を離散統計モデルフォーマットデータの前記離散部分として計算するように、
もし前記最初の時刻にて得た生データが前記離散統計モデルフォーマットを持っているならば、離散統計モデルフォーマットデータの前記連続部分としての生データに基づいて生データに対応する曲線の連続データ出力フォーマットを計算し、離散統計モデルフォーマットデータの前記離散部分として生データを使用するように
さらに構成された、請求項11に記載の装置。 - 前記データ融合モジュールが、
前記最初の時刻用の離散統計モデルフォーマットデータを、前記最初の時刻に先立つしきい値時間内の、複数の以前の時刻用の複数の離散統計モデルフォーマットデータを含む前記履歴離散統計モデルフォーマットデータに融合するように、そして
融合された統計モデルフォーマットデータの前記離散部分に基づいて、前記融合された離散統計モデルフォーマットデータの前記離散部分に相当している曲線用に連続データ出力フォーマットデータを、前記融合された離散統計モデルフォーマットデータの前記連続部分として計算するように
さらに構成された、請求項11に記載の装置。 - 前記データ融合モジュールが、
前記最初の時刻に先立つ以前のしきい値時間内の複数の以前の時刻の複数の離散統計モデルフォーマットデータ用に、
前記最初の時刻用の前記離散統計モデルフォーマットデータが更新されるまで、所定時間間隔後に、後の時刻用の離散統計モデルフォーマットデータを更新すべく、各時刻用の前記離散統計モデルフォーマットデータを、前記後の時刻用の前記離散統計モデルフォーマットデータに融合するステップと、
融合された前記離散統計モデルフォーマットデータの前記離散部分に基づいて、連続データ出力フォーマットデータを、融合された前記離散統計モデルフォーマットデータの前記連続部分として計算するステップと
を繰り返し実行するようにさらに構成された、請求項11に記載の装置。 - 1台又はそれより多い台数のカメラであって、前記カメラが、対象を表す連続モデル又は離散モデルを使うものであって、前記対象は、曲線が特徴的な車線標示を含む、前記カメラと、
請求項11に記載の装置と
を備える、車両。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/093596 WO2020258222A1 (en) | 2019-06-28 | 2019-06-28 | Method and system for identifying object |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022544348A JP2022544348A (ja) | 2022-10-18 |
JP7429246B2 true JP7429246B2 (ja) | 2024-02-07 |
Family
ID=74060427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021576303A Active JP7429246B2 (ja) | 2019-06-28 | 2019-06-28 | 対象を識別する方法とシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220254140A1 (ja) |
EP (1) | EP3991086A4 (ja) |
JP (1) | JP7429246B2 (ja) |
KR (1) | KR20220034798A (ja) |
CN (1) | CN114008682A (ja) |
WO (1) | WO2020258222A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114447866B (zh) * | 2022-03-09 | 2024-03-01 | 中英海底***有限公司 | 布缆机轮组间的压力控制方法及其*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002056392A (ja) | 2000-05-11 | 2002-02-20 | Toshiba Corp | 物体領域情報記述方法、物体領域情報生成装置、及び物体領域情報記述プログラム |
JP2018005617A (ja) | 2016-07-04 | 2018-01-11 | 株式会社Soken | 走路形状認識装置、走路形状認識方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3866595B2 (ja) * | 2002-03-15 | 2007-01-10 | 株式会社東芝 | ハイブリッドモデル作成装置及びプログラム |
US7466841B2 (en) * | 2004-08-16 | 2008-12-16 | Siemens Corporate Research, Inc. | Method for traffic sign detection |
US20170060810A1 (en) * | 2012-12-13 | 2017-03-02 | Eagle Harbor Holdings, LLC. | System and method for the operation of an automotive vehicle system with modeled sensors |
BE1021350B1 (nl) * | 2014-11-26 | 2015-11-05 | ROMAEN Hans en RYCKAERT Peter p/a Acerio BVBA | Werkwijze en systeem voor het tonen van een opeenvolging van beelden |
EP3256815A1 (en) * | 2014-12-05 | 2017-12-20 | Apple Inc. | Autonomous navigation system |
EP3707572B1 (en) * | 2017-11-10 | 2023-08-23 | Nvidia Corporation | Systems and methods for safe and reliable autonomous vehicles |
CN108573039B (zh) * | 2018-04-04 | 2022-03-11 | 烟台海颐软件股份有限公司 | 一种基于多源时空数据组配的目标辨识方法与*** |
US11214268B2 (en) * | 2018-12-28 | 2022-01-04 | Intel Corporation | Methods and apparatus for unsupervised multimodal anomaly detection for autonomous vehicles |
-
2019
- 2019-06-28 US US17/597,100 patent/US20220254140A1/en active Pending
- 2019-06-28 CN CN201980097929.1A patent/CN114008682A/zh active Pending
- 2019-06-28 JP JP2021576303A patent/JP7429246B2/ja active Active
- 2019-06-28 EP EP19934456.5A patent/EP3991086A4/en active Pending
- 2019-06-28 WO PCT/CN2019/093596 patent/WO2020258222A1/en unknown
- 2019-06-28 KR KR1020227002630A patent/KR20220034798A/ko not_active Application Discontinuation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002056392A (ja) | 2000-05-11 | 2002-02-20 | Toshiba Corp | 物体領域情報記述方法、物体領域情報生成装置、及び物体領域情報記述プログラム |
JP2018005617A (ja) | 2016-07-04 | 2018-01-11 | 株式会社Soken | 走路形状認識装置、走路形状認識方法 |
Non-Patent Citations (1)
Title |
---|
Ahmed Mahmoud,外7名,Real-Time Lane Detection-Based Line Segment Detection,2018 New Generation of CAS (NGCAS),2018年11月20日,pp. 57-61 |
Also Published As
Publication number | Publication date |
---|---|
JP2022544348A (ja) | 2022-10-18 |
WO2020258222A1 (en) | 2020-12-30 |
CN114008682A (zh) | 2022-02-01 |
US20220254140A1 (en) | 2022-08-11 |
KR20220034798A (ko) | 2022-03-18 |
EP3991086A1 (en) | 2022-05-04 |
EP3991086A4 (en) | 2023-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109215433B (zh) | 用于自动驾驶仿真的基于视觉的驾驶场景生成器 | |
CN110377025B (zh) | 用于自动驾驶车辆的传感器聚合框架 | |
US10586118B2 (en) | Localizing traffic situation using multi-vehicle collaboration | |
EP3654241A1 (en) | System and method for vehicle localization | |
CN110390240B (zh) | 自动驾驶车辆中的车道后处理 | |
CN112543876B (zh) | 用于自动驾驶车辆中的传感器同步性数据分析的*** | |
US20230005169A1 (en) | Lidar point selection using image segmentation | |
JP6950832B2 (ja) | 位置座標推定装置、位置座標推定方法およびプログラム | |
US11189162B2 (en) | Information processing system, program, and information processing method | |
CN114694111A (zh) | 车辆定位 | |
CN113706633B (zh) | 一种目标对象的三维信息确定方法和装置 | |
CN107430821B (zh) | 图像处理装置 | |
JP7429246B2 (ja) | 対象を識別する方法とシステム | |
WO2022024602A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11461944B2 (en) | Region clipping method and recording medium storing region clipping program | |
CN112099481A (zh) | 用于构建道路模型的方法和*** | |
CN114127658A (zh) | 使用道路模型2d流形的6d空间中的3d里程 | |
CN111060114A (zh) | 用于生成高精度地图的特征图的方法和装置 | |
WO2020073272A1 (en) | Snapshot image to train an event detector | |
CN118062016B (en) | Vehicle environment sensing method, apparatus and storage medium | |
WO2020073270A1 (en) | Snapshot image of traffic scenario | |
WO2020073268A1 (en) | Snapshot image to train roadmodel | |
WO2020073271A1 (en) | Snapshot image of traffic scenario | |
CN118062016A (zh) | 车辆环境感知方法、设备和存储介质 | |
CN112101392A (zh) | 用于标识对象的方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7429246 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |