JP7280331B2 - 車両関連付け方法、車両関連付け装置、電子機器、コンピュータ可読記憶媒体、路側機器、クラウドコントロールプラットフォームおよびプログラム - Google Patents

車両関連付け方法、車両関連付け装置、電子機器、コンピュータ可読記憶媒体、路側機器、クラウドコントロールプラットフォームおよびプログラム Download PDF

Info

Publication number
JP7280331B2
JP7280331B2 JP2021179818A JP2021179818A JP7280331B2 JP 7280331 B2 JP7280331 B2 JP 7280331B2 JP 2021179818 A JP2021179818 A JP 2021179818A JP 2021179818 A JP2021179818 A JP 2021179818A JP 7280331 B2 JP7280331 B2 JP 7280331B2
Authority
JP
Japan
Prior art keywords
observation
current vehicle
point
vehicle
observed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021179818A
Other languages
English (en)
Other versions
JP2022098433A (ja
Inventor
曹獲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2022098433A publication Critical patent/JP2022098433A/ja
Application granted granted Critical
Publication of JP7280331B2 publication Critical patent/JP7280331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本願は、出願番号を202011520233.6、出願日を2020年12月21日とする中国特許出願に基づいて提出され、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容を参照により本願に援用する。
本発明は、人工知能の技術分野に関し、更に、インテリジェント交通技術に関し、特に、車両関連付け方法、車両関連付け装置、電子機器、コンピュータ可読記憶媒体、路側機器、クラウドコントロールプラットフォームおよびプログラムに関する。
車両関連付けは、現在のインテリジェント交通およびその関連技術の1つの核心的な課題である。現実の環境では、単一の観測点だけで観測対象となる車両の全ての情報を正確に取得することはできない。観測点によって、異なる方向および異なる角度で収集された情報は異なる。そのため、異なる観測点で取得された同一の車両に対するデータを組み合わせて、1つの車両の各方向または各角度での高精度な情報を取得することは、非常に必要となる。
従来の関連付け方法は、単一フレーム画像に基づいて行われることが多いが、単一フレーム画像に限界があり、異なる観測点で収集された画像を正確に関連付けることができず、関連付けの成功率が低い。
本発明は、単一フレーム画像の異常による誤関連付けを効果的に回避することができ、関連付けの成功率を向上させることができる車両関連付け方法、車両関連付け装置、電子機器、コンピュータ可読記憶媒体、路側機器、クラウドコントロールプラットフォームおよびプログラムを提供することを目的とする。
本発明の態様1によれば、
各観測点に対し、プリセット周期で現在の車両が道路を走行している画像を収集することと、
観測点ごとにプリセット時間帯内で収集された画像に基づき、前記現在の車両に対する各観測点の元の観測系列を確定することと、
前記現在の車両に対する各観測点の元の観測系列に基づき、前記現在の車両に対する各観測点のターゲット観測系列を確定することと、
前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することと、
を含み、
前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することは、
前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さおよび2つの観測点ごとに観測された前記現在の車両の走行軌跡間の面積を計算することと、
2つの観測点ごとに観測された前記現在の車両の走行軌跡間の面積および2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さに応じて、2つの観測点ごとに観測された前記現在の車両の類似度を計算することと、
2つの観測点ごとに観測された前記現在の車両の類似度に応じて、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することと、
を含む車両関連付け方法を提供する。
本発明の態様2によれば、
収集モジュールと、確定モジュールと、検出モジュールとを備える車両関連付け装置であって、
前記収集モジュールは、各観測点に対し、プリセット周期で現在の車両が道路を走行している画像を収集することに用いられ、
前記確定モジュールは、観測点ごとにプリセット時間帯内で収集された画像に基づき、前記現在の車両に対する各観測点の元の観測系列を確定することと、前記現在の車両に対する各観測点の元の観測系列に基づき、前記現在の車両に対する各観測点のターゲット観測系列を確定することとに用いられ、
前記検出モジュールは、前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することに用いられ
前記検出モジュールは、計算サブモジュールと検出サブモジュールとを備え、
前記計算サブモジュールは、前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さおよび2つの観測点ごとに観測された前記現在の車両の走行軌跡間の面積を計算することと、2つの観測点ごとに観測された前記現在の車両の走行軌跡間の面積および2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さに応じて、2つの観測点ごとに観測された前記現在の車両の類似度を計算することとに用いられ、
前記検出サブモジュールは、2つの観測点ごとに観測された前記現在の車両の類似度に応じて、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することに用いられる車両関連付け装置を提供する。
本発明の態様3によれば、
1つまたは複数のプロセッサと、
1つまたは複数のプログラムを記憶するためのメモリと、
を備える電子機器であって、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサにより実行されると、前記1つまたは複数のプロセッサは本発明のいずれかの実施例に記載の車両関連付け方法を実現する電子機器を提供する。
本発明の態様4によれば、プロセッサにより実行されると、本発明のいずれかの実施例に記載の車両関連付け方法を実現するコンピュータプログラムが記憶されている記憶媒体を提供する。
本発明の態様5によれば、本発明のいずれかの実施例に記載の車両関連付け方法をコンピュータに実行させるためのプログラムを提供する。
本発明の態様6によれば、本発明の実施例に記載の電子機器を備える路側機器を提供する。
本発明の態様7によれば、本発明の実施例に記載の電子機器を備えるクラウドコントロールプラットフォームを提供する。
本発明の技術によれば、従来技術における単一フレーム画像に基づいて関連付けを行い、単一フレーム画像に限界があり、異なる観測点で収集された画像を正確に関連付けることができず、関連付けの成功率が低いという技術的問題を解決し、本発明に係る技術案は、単一フレーム画像の異常による誤関連付けを効果的に回避することができ、関連付けの成功率を向上させることができる。
図面は本技術案をより良く理解するためのものであり、本発明に対する限定を構成しない。
本発明の実施例に係る車両関連付け方法のフローチャート1である。 本発明の実施例に係る車両関連付け方法のフローチャート2である。 本発明の実施例に係る車両関連付け方法のフローチャート3である。 本発明に係る車両が道路を走行しているシーン図である。 本発明の実施例に係る車両関連付け装置の構造模式図である。 本発明の実施例に係る検出モジュールの構造模式図である。 本発明の実施例に係る車両関連付け方法を実現するための電子機器のブロック図である。
本発明に記載された内容は、本発明の実施例のキーまたは重要な特徴を特定するためのものではなく、本発明の範囲を限定するものでもないことを理解すべきである。本発明の他の特徴は、以下の説明により容易に理解される。以下、図面を参照しながら本発明の例示的な実施例を説明し、理解を容易にするための本発明の実施例の様々な詳細を含むが、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本発明の範囲および精神から逸脱することなく、本明細書に記載される実施例に対して様々な変更および修正を行うことができることを認識すべきである。同様に、明瞭かつ簡明にするために、以下の説明では、公知の機能および構造に対する説明は省略する。
(実施例1)
図1は、本発明の実施例に係る車両関連付け方法のフローチャート1であり、該方法は、車両関連付け装置または電子機器または路側機器により実行でき、該装置または電子機器または路側機器は、ソフトウェアおよび/またはハードウェアの方式で実現でき、該装置または電子機器または路側機器は、任意のネットワーク通信機能を持つスマートデバイスに集積できる。図1に示すように、車両関連付け方法は、以下のステップを含んでもよい。
S101において、各観測点に対し、プリセット周期で現在の車両が道路を走行している画像を収集する。
本ステップにおいて、各観測点に対し、電子機器は、プリセット周期で現在の車両が道路を走行している画像を収集してもよい。本発明における観測点は、カメラ、ビデオカメラ等のような様々なタイプの画像収集機器であってもよい。具体的には、車両の走行過程において、電子機器は、プリセット周期で該車両に対して画像を収集することができ、例えば、収集の周波数は60Hzであってもよい。
S102において、観測点ごとにプリセット時間帯内で収集された画像に基づき、現在の車両に対する各観測点の元の観測系列を確定する。
本ステップにおいて、電子機器は、観測点ごとにプリセット時間帯内で収集された画像に基づき、現在の車両に対する各観測点の元の観測系列を確定してもよい。具体的には、電子機器は、観測点ごとにプリセット時間帯内で収集された画像に基づき、観測点ごとに各画像が収集された際に現在の車両が位置する位置を確定し、その後、観測点ごとに各画像が収集された際に現在の車両が位置する位置および観測点ごとに各画像を収集する時点に応じて、各観測点の各時点における、時点および位置を含む観測データを確定し、その後、各観測点の各時点における観測データに応じて、現在の車両に対する各観測点の元の観測系列を取得してもよい。
S103において、現在の車両に対する各観測点の元の観測系列に基づき、現在の車両に対する各観測点のターゲット観測系列を確定する。
本ステップにおいて、電子機器は、現在の車両に対する各観測点の元の観測系列に基づき、現在の車両に対する各観測点のターゲット観測系列を確定してもよい。具体的には、電子機器は、現在の車両に対する各観測点の元の観測系列内の各観測データに応じて、現在の車両に対する各観測点の元の観測系列が切出条件を満たすか否かを検出してもよく、現在の車両に対する各観測点の元の観測系列が切出条件を満たす場合、電子機器は、各元の観測系列内の各観測データにおける時点に基づき、現在の車両に対する各観測点の元の観測系列の切出処理を行い、現在の車両に対する各観測点のターゲット観測系列を取得してもよい。
S104において、現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された現在の車両が同一の車両であるか否かを検出する。
本ステップにおいて、電子機器は、現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された現在の車両が同一の車両であるか否かを検出してもよい。具体的には、電子機器は、現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された現在の車両の走行軌跡の平均長さおよび2つの観測点ごとに観測された現在の車両の走行軌跡間の面積を計算し、その後、2つの観測点ごとに観測された現在の車両の走行軌跡間の面積および2つの観測点ごとに観測された現在の車両の走行軌跡の平均長さに応じて、2つの観測点ごとに観測された現在の車両の類似度を計算し、その後2つの観測点ごとに観測された現在の車両の類似度に応じて、2つの観測点ごとに観測された現在の車両が同一の車両であるか否かを検出してもよい。
本発明の実施例に係る車両関連付け方法は、各観測点に対し、まず、プリセット周期で現在の車両が道路を走行している画像を収集し、その後、観測点ごとにプリセット時間帯内で収集された画像に基づき、現在の車両に対する各観測点の元の観測系列を確定し、続いて、現在の車両に対する各観測点の元の観測系列に基づき、現在の車両に対する各観測点のターゲット観測系列を確定し、また、現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された現在の車両が同一の車両であるか否かを検出する。つまり、本発明は、現在の車両に対する各観測点の元の観測系列に基づいて車両の関連付けを行うことができる。一方、従来の車両関連付け方法において、従来の関連付け方法は、単一フレーム画像に基づいて行われることが多い。本発明は、現在の車両に対する各観測点の元の観測系列に基づいて車両の関連付けを行う技術手段を採用するため、従来技術における単一フレーム画像に基づいて関連付けを行い、単一フレーム画像に限界があり、異なる観測点で収集された画像を正確に関連付けることができず、関連付けの成功率が低いという技術的問題を克服し、本発明に係る技術案は、単一フレーム画像の異常による誤関連付けを効果的に回避することができ、関連付けの成功率を向上させることができ、且つ、本発明の実施例の技術案は、簡単に実現でき、普及しやすく、適用範囲がより広い。
(実施例2)
図2は、本発明の実施例に係る車両関連付け方法のフローチャート2である。図2に示すように、車両関連付け方法は、以下のステップを含んでもよい。
S201において、各観測点に対し、プリセット周期で現在の車両が道路を走行している画像を収集する。
S202において、観測点ごとにプリセット時間帯内で収集された画像に基づき、観測点ごとに各画像が収集された際に現在の車両が位置する位置を確定する。
本ステップにおいて、電子機器は、観測点ごとにプリセット時間帯内で収集された画像に基づき、観測点ごとに各画像が収集された際に現在の車両が位置する位置を確定してもよい。具体的には、電子機器は、観測点ごとにプリセット時間帯内で収集された画像を認識することができ、例えば、電子機器は、観測点ごとにプリセット時間帯内で収集された画像を、予め訓練された画像認識モデルに入力し、該画像認識モデルにより観測点ごとに各画像が収集された際に現在の車両が位置する位置を確定してもよい。
S203において、観測点ごとに各画像が収集された際に現在の車両が位置する位置および観測点ごとに各画像を収集する時点に応じて、各観測点の各時点における、時点および位置を含む観測データを確定する。
本ステップにおいて、電子機器は、観測点ごとに各画像が収集された際に現在の車両が位置する位置および観測点ごとに各画像を収集する時点に応じて、各観測点の各時点における、時点および位置を含む観測データを確定してもよい。具体的には、観測点Aで各画像が収集された際に現在の車両が位置する位置がA1、A2、A3、……、An(nは1以上の自然数である)であると仮定すると、A1は、観測点Aの1つ目の時点における観測データを表し、A2は、観測点Aの2つ目の時点における観測データを表し、以降は同様である。
S204において、各観測点の各時点における観測データに応じて、現在の車両に対する各観測点の元の観測系列を取得する。
S205において、現在の車両に対する各観測点の元の観測系列に基づき、現在の車両に対する各観測点のターゲット観測系列を確定する。
S206において、現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された現在の車両が同一の車両であるか否かを検出する。
本発明の実施例に係る車両関連付け方法は、各観測点に対し、まず、プリセット周期で現在の車両が道路を走行している画像を収集し、その後、観測点ごとにプリセット時間帯内で収集された画像に基づき、現在の車両に対する各観測点の元の観測系列を確定し、続いて、現在の車両に対する各観測点の元の観測系列に基づき、現在の車両に対する各観測点のターゲット観測系列を確定し、その後、現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された現在の車両が同一の車両であるか否かを検出する。つまり、本発明は、現在の車両に対する各観測点の元の観測系列に基づいて車両の関連付けを行うことができる。一方、従来の車両関連付け方法において、従来の関連付け方法は、単一フレーム画像に基づいて行われることが多い。本発明は、現在の車両に対する各観測点の元の観測系列に基づいて車両の関連付けを行う技術手段を採用するため、従来技術における単一フレーム画像に基づいて関連付けを行い、単一フレーム画像に限界があり、異なる観測点で収集された画像を正確に関連付けることができず、関連付けの成功率が低いという技術的問題を克服し、本発明に係る技術案は、単一フレーム画像の異常による誤関連付けを効果的に回避することができ、関連付けの成功率を向上させることができ、且つ、本発明の実施例の技術案は、簡単に実現でき、普及しやすく、適用範囲がより広い。
(実施例3)
図3は、本発明の実施例に係る車両関連付け方法のフローチャート3である。図3に示すように、車両関連付け方法は、以下のステップを含んでもよい。
S301において、各観測点に対し、プリセット周期で現在の車両が道路を走行している画像を収集する。
S302において、観測点ごとにプリセット時間帯内で収集された画像に基づき、現在の車両に対する各観測点の元の観測系列を確定する。
S303において、現在の車両に対する各観測点の元の観測系列に基づき、現在の車両に対する各観測点のターゲット観測系列を確定する。
本ステップにおいて、電子機器は、現在の車両に対する各観測点の元の観測系列に基づき、現在の車両に対する各観測点のターゲット観測系列を確定してもよい。具体的には、電子機器は、現在の車両に対する各観測点の元の観測系列内の各観測データに基づき、現在の車両に対する各観測点の元の観測系列が切出条件を満たすか否かを検出してもよく、現在の車両に対する各観測点の元の観測系列が切出条件を満たす場合、電子機器は、各元の観測系列内の各観測データにおける時点に基づき、現在の車両に対する各観測点の元の観測系列の切出処理を行い、現在の車両に対する各観測点のターゲット観測系列を取得してもよい。例えば、観測点Aに対して収集された元の観測系列がそれぞれA1、A2、A3、A4、A5、A6、A7、A8、A9、A10であり、観測点Bに対して収集された元の観測系列がそれぞれB7、B8、B9、B10であると仮定する。そのため、本ステップは、観測点Aで収集された元の観測系列を切り出してA7、A8、A9、A10を取得することができ、このように、観測点Bで収集された元の観測系列と合致することができる。
S304において、現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された現在の車両の走行軌跡の平均長さおよび2つの観測点ごとに観測された現在の車両の走行軌跡間の面積を計算する。
本ステップにおいて、電子機器は、現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された現在の車両の走行軌跡の平均長さおよび2つの観測点ごとに観測された現在の車両の走行軌跡間の面積を計算してもよい。具体的には、電子機器は、2つの観測点ごとに観測された現在の車両の走行軌跡の平均長さを計算する際、まず、現在の車両に対する各観測点のターゲット観測系列から各観測データにおける位置を抽出し、その後、現在の車両に対する各観測点のターゲット観測系列から抽出された各観測データにおける位置に基づき、観測点ごとに観測された現在の車両の走行軌跡の長さを計算し、その後、観測点ごとに観測された現在の車両の走行軌跡の長さに応じて、2つの観測点ごとに観測された現在の車両の走行軌跡の平均長さを計算してもよい。例えば、観測点Aで各画像が収集された際に現在の車両が位置する位置がA1、A2、A3、……、An(nは1以上の自然数である)であり、観測点Bで各画像が収集された際に現在の車両が位置する位置がB1、B2、B3、……、Bm(mは1以上の自然数である)であると仮定すると、観測点Aで観測された現在の車両の走行軌跡の長さはdist(A1,A2、A3、……、An)と、観測点Bで観測された現在の車両の走行軌跡の長さはdist(B1、B2、B3、……、Bm)と、観測点Aおよび観測点Bで観測された現在の車両の走行軌跡の平均長さはLength=[dist(A1,A2、A3、……、An)+dist(B1、B2、B3、……、Bm)]/2と表すことができる。
S305において、2つの観測点ごとに観測された現在の車両の走行軌跡間の面積および2つの観測点ごとに観測された現在の車両の走行軌跡の平均長さに応じて、2つの観測点ごとに観測された現在の車両の類似度を計算する。
本ステップにおいて、電子機器は、2つの観測点ごとに観測された現在の車両の走行軌跡間の面積および2つの観測点ごとに観測された現在の車両の走行軌跡の平均長さに応じて、2つの観測点ごとに観測された現在の車両の類似度を計算してもよい。具体的には、2つの観測点ごとに観測された現在の車両の走行軌跡間の面積がSAであり、2つの観測点ごとに観測された現在の車両の走行軌跡の平均長さがLengthであると仮定すると、電子機器は、以下の式により2つの観測点ごとに観測された現在の車両の類似度を計算することができる。
Similarity=1-SA/(Length×Length) ・・・式1
S306において、2つの観測点ごとに観測された現在の車両の類似度に応じて、2つの観測点ごとに観測された現在の車両が同一の車両であるか否かを検出する。
図4は、本発明に係る車両が道路を走行しているシーン図である。図4に示すように、同一の車両は、いくつかの単一フレームの場合にずれが大きく、軌跡の類似度がいずれも高いため、面積分割による軌跡類似度方法を用いてノイズを除去し、単一フレーム情報が不正確であることによる運動中の物体に対する誤関連付けを回避することができる。
本発明の実施例に係る車両関連付け方法は、各観測点に対し、まず、プリセット周期で現在の車両が道路を走行している画像を収集し、その後、観測点ごとにプリセット時間帯内で収集された画像に基づき、現在の車両に対する各観測点の元の観測系列を確定し、続いて、現在の車両に対する各観測点の元の観測系列に基づき、現在の車両に対する各観測点のターゲット観測系列を確定し、そして、現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された現在の車両が同一の車両であるか否かを検出する。つまり、本発明は、現在の車両に対する各観測点の元の観測系列に基づいて車両の関連付けを行うことができる。一方、従来の車両関連付け方法において、従来の関連付け方法は、単一フレーム画像に基づいて行われることが多い。本発明は、現在の車両に対する各観測点の元の観測系列に基づいて車両の関連付けを行う技術手段を採用するため、従来技術における単一フレーム画像に基づいて関連付けを行い、単一フレーム画像に限界があり、異なる観測点で収集された画像を正確に関連付けることができず、関連付けの成功率が低いという技術的問題を克服し、本発明に係る技術案は、単一フレーム画像の異常による誤関連付けを効果的に回避することができ、関連付けの成功率を向上させることができ、且つ、本発明の実施例の技術案は、簡単に実現でき、普及しやすく、適用範囲がより広い。
(実施例4)
図5は、本発明の実施例に係る車両関連付け装置の構造模式図である。図5に示すように、前記装置500は、収集モジュール501と、確定モジュール502と、検出モジュール503とを備える。
前記収集モジュール501は、各観測点に対し、プリセット周期で現在の車両が道路を走行している画像を収集することに用いられる。
前記確定モジュール502は、観測点ごとにプリセット時間帯内で収集された画像に基づき、前記現在の車両に対する各観測点の元の観測系列を確定することと、前記現在の車両に対する各観測点の元の観測系列に基づき、前記現在の車両に対する各観測点のターゲット観測系列を確定することとに用いられる。
前記検出モジュール503は、前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することに用いられる。
更に、前記確定モジュール502は、具体的に、観測点ごとに前記プリセット時間帯内で収集された画像に基づき、観測点ごとに各画像が収集された際に前記現在の車両が位置する位置を確定することと、観測点ごとに各画像が収集された際に前記現在の車両が位置する位置および観測点ごとに各画像を収集する時点に応じて、各観測点の各時点における、時点および位置を含む観測データを確定することと、各観測点の各時点における観測データに応じて、前記現在の車両に対する各観測点の元の観測系列を取得することとに用いられる。
更に、前記確定モジュール502は、具体的に、前記現在の車両に対する各観測点の元の観測系列内の各観測データに基づき、前記現在の車両に対する各観測点の元の観測系列が切出条件を満たすか否かを検出することと、前記現在の車両に対する各観測点の元の観測系列が前記切出条件を満たす場合、各元の観測系列内の各観測データにおける時点に基づき、前記現在の車両に対する各観測点の元の観測系列の切出処理を行い、前記現在の車両に対する各観測点のターゲット観測系列を取得することとに用いられる。
図6は、本発明の実施例に係る検出モジュールの構造模式図である。図6に示すように、前記検出モジュール503は、計算サブモジュール5031と検出サブモジュール5032とを備える。
前記計算サブモジュール5031は、前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さおよび2つの観測点ごとに観測された前記現在の車両の走行軌跡間の面積を計算することと、2つの観測点ごとに観測された前記現在の車両の走行軌跡間の面積および2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さに応じて、2つの観測点ごとに観測された前記現在の車両の類似度を計算することとに用いられる。
前記検出サブモジュール5032は、2つの観測点ごとに観測された前記現在の車両の類似度に応じて、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することに用いられる。
更に、計算サブモジュール5031は、具体的に、前記現在の車両に対する各観測点のターゲット観測系列から各観測データにおける位置を抽出することと、前記現在の車両に対する各観測点のターゲット観測系列から抽出された各観測データにおける位置に基づき、観測点ごとに観測された前記現在の車両の走行軌跡の長さを計算することと、観測点ごとに観測された前記現在の車両の走行軌跡の長さに応じて、2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さを計算することとに用いられる。
上記車両関連付け装置は、本発明のいずれかの実施例に係る方法を実行でき、方法の実行に対応する機能モジュールおよび有益な効果を有する。本実施例で詳しく説明されていない技術詳細は、本発明のいずれかの実施例に係る車両関連付け方法を参照することができる。
(実施例5)
本発明の実施例によれば、本発明は、電子機器、可読記憶媒体およびコンピュータプログラム製品を更に提供する。
図7は、本発明の実施例を実施するために使用可能な電子機器700の例示的なブロック図を示す。電子機器は、ラップトップ型コンピュータ、デスクトップ型コンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータのような各形式のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルアシスタント、携帯電話、スマートフォン、ウェララブル機器および他の類似する計算装置のような各形式の移動装置を表すこともできる。本発明に示されたコンポーネント、それらの接続や関係、およびそれらの機能は例示的なものに過ぎず、本発明に記載および/または要求される本発明の実現を限定するものではない。
図7に示すように、機器700は、計算ユニット701を備え、読み出し専用メモリ(ROM)702に記憶されたコンピュータプログラム、または記憶ユニット708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラムに基づき、様々な適当な動作および処理を実行することができる。RAM703には、機器700の操作に必要な様々なプログラムおよびデータが記憶されてもよい。計算ユニット701、ROM702およびRAM703は、バス704を介して互いに接続されている。入力/出力(I/O)インタフェース705もバス704に接続されている。
デバイス700における複数のコンポーネントはI/Oインタフェース705に接続され、キーボード、マウス等のような入力ユニット706と、各種のディスプレイ、スピーカ等のような出力ユニット707と、磁気ディスク、光ディスク等のような記憶ユニット708と、ネットワークカード、モデム、無線通信送受信機等のような通信ユニット709とを備える。通信ユニット709は、デバイス700がインターネットのようなコンピュータネットワークおよび/または様々な電気通信ネットワークを介して他のデバイスと情報/データを交換することを許容する。
計算ユニット701は、処理および計算能力を有する汎用および/または専用の処理アセンブリであってもよい。計算ユニット701のいくつかの例は、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、各種の専用の人工知能(AI)コンピューティングチップ、機械学習モデルアルゴリズムを実行する各種の計算ユニット、デジタルシグナルプロセッサ(DSP)、および任意の適当なプロセッサ、コントローラ、マイクロコントローラ等を含んでもよいが、これらに限定されない。計算ユニット701は、上記様々な方法および処理、例えば、車両関連付け方法を実行する。例えば、いくつかの実施例において、車両関連付け方法は、コンピュータソフトウェアプログラムとして実現でき、有形的に記憶ユニット708のような機器可読媒体に含まれている。いくつかの実施例において、コンピュータプログラムの一部または全ては、ROM702および/または通信ユニット709を介して機器700にロードおよび/またはインストールされ得る。コンピュータプログラムがRAM703にロードされて計算ユニット701により実行されると、上記車両関連付け方法の1つまたは複数のステップを実行することができる。あるいは、他の実施例において、計算ユニット701は、他の任意の適当な方式(例えば、ファームウェアを介して)により、車両関連付け方法を実行するように構成され得る。
本発明に記載されたシステムおよび技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準パーツ(ASSP)、システムオンチップのシステム(SOC)、複合プログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせで実現できる。これらの様々な実施形態は以下を含んでもよい。1つまたは複数のコンピュータプログラムに実施され、該1つまたは複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムで実行および/または解釈することができ、該プログラマブルプロセッサは、ストレージシステム、少なくとも1つの入力装置、および少なくとも1つの出力装置からデータおよび命令を受信し、且つデータおよび命令を、該ストレージシステム、該少なくとも1つの入力装置、および該少なくとも1つの出力装置に伝送することができる専用または汎用のプログラマブルプロセッサであってもよい。
本発明の方法を実施するためのプログラムコードは、1つまたは複数のプログラミング言語の任意の組み合わせでコードできる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理装置のプロセッサまたはコントローラに提供でき、これにより、プログラムコードがプロセッサまたはコントローラにより実行されると、フローチャートおよび/またはブロック図で規定された機能/操作が実施される。プログラムコードは、完全に機器で実行されてもよいし、一部が機器で実行されてもよいし、独立したソフトウェアパッケージとして一部が機器で実行されて一部がリモート機器で実行されてもよいし、完全にリモート機器またはサーバで実行されてもよい。
本発明の明細書において、機器可読媒体は、命令実行システム、装置または機器に使用される、または命令実行システム、装置またはデバイスと組み合わせて使用されるプログラムを含有または記憶できる有形的な媒体であってもよい。機器可読媒体は、機器可読信号媒体または機器可読記憶媒体であってもよい。機器可読媒体は、電子の、磁気の、光の、電磁気の、赤外線の、または半導体のシステム、装置またはデバイス、または上記内容の任意の適当な組み合わせを含んでもよいが、これらに限定されない。機器可読記憶媒体の更なる具体的な例は、1つまたは複数の線による電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み出し専用ディスク(CD-ROM)、光記憶デバイス、磁気記憶デバイス、または上記内容の任意の適当な組み合わせを含む。
ユーザとのインタラクションを提供するために、ここで説明するシステムおよび技術をコンピュータで実施することができ、該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)と、ユーザが入力をコンピュータに提供することができるためのキーボードおよび指向装置(例えば、マウスまたはトラックボール)とを有する。他の種類の装置は、更にユーザとのインタラクションを提供するために使用できる。例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、且つ、任意の形式(音入力、音声入力または、触覚入力を含む)でユーザからの入力を受信することができる。
ここで説明するシステムおよび技術を、バックグラウンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、または中間コンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、またはフロントエンドコンポーネントを含むコンピューティングシステム(例えば、ユーザがここで説明するシステムおよび技術の実施形態とインタラクションできるためのグラフィカルユーザインタフェースまたはネットワークブラウザを有するユーザコンピュータ)、またはこのようなバックグラウンドコンポーネント、中間コンポーネント、またはフロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムに実施することができる。任意の形式または媒体のデジタルデータ通信(例えば、通信ネットワーク)により、システムのコンポーネントを互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、ブロックチェーンネットワーク、およびインターネットを含む。
コンピュータシステムはクライアントおよびサーバを含んでもよい。クライアントとサーバとは、一般的に互いに離れ、且つ、通常、通信ネットワークを介してインタラクションを行う。対応するコンピュータで実行されて互いにクライアント-サーバ関係を持つコンピュータプログラムにより、クライアントとサーバとの関係を生成する。サーバはクラウドサーバであってもよく、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービス体系における1つのホスト製品であり、従来の物理ホストおよびVPSサービスに存在する管理しにくく、トラフィックの拡張性が弱いという欠陥を解決するために使用される。
本発明に開示された実施例によれば、本発明は、路側機器およびクラウドコントロールプラットフォームを更に提供し、路側機器およびクラウドコントロールプラットフォームは、本発明の実施例に係る電子機器を備えてもよい。該路側機器は、電子機器に加え、通信部品等を備えてもよく、電子機器は、通信部品と一体に集積されてもよいし、別体で設けられてもよい。電子機器は、感知機器(例えば、路側カメラ)のデータ、例えば、ピクチャおよびビデオ等を取得し、ビデオ処理およびデータ計算を行うことができる。
クラウドコントロールプラットフォームはクラウドで処理を実行し、クラウドコントロールプラットフォームに含まれる電子機器は、感知機器(例えば、路側カメラ)のデータ、例えば、ピクチャおよびビデオ等を取得し、ビデオ処理およびデータ計算を行うことができ、クラウドコントロールプラットフォームは、車両インフラ協調管理プラットフォーム、エッジコンピューティングプラットフォーム、クラウドコンピューティングプラットフォーム、センターシステム、クラウドサーバ等と呼ばれてもよい。
上記に示す様々な形式のフローを用いて、ステップを並べ替えたり、追加または削除できることを理解すべきである。例えば、本発明に記載された各ステップは、並列的に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよく、本発明に開示された技術案の所望の結果が達成される限り、本明細書では制限しない。
上記具体的な実施形態は、本発明の保護範囲に対する制限を構成するものではない。当業者は、設計要件とその他の要因に応じて、様々な修正、組み合わせ、サブ組み合わせおよび代替を行うことが可能であることを理解すべきである。本発明の精神および原則内でなされたあらゆる修正、均等置換および改良等は、いずれも本発明の保護範囲に含まれるべきである。

Claims (13)

  1. 各観測点に対し、プリセット周期で現在の車両が道路を走行している画像を収集することと、
    観測点ごとにプリセット時間帯内で収集された画像に基づき、前記現在の車両に対する各観測点の元の観測系列を確定することと、
    前記現在の車両に対する各観測点の元の観測系列に基づき、前記現在の車両に対する各観測点のターゲット観測系列を確定することと、
    前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することと、
    を含
    前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することは、
    前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さおよび2つの観測点ごとに観測された前記現在の車両の走行軌跡間の面積を計算することと、
    2つの観測点ごとに観測された前記現在の車両の走行軌跡間の面積および2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さに応じて、2つの観測点ごとに観測された前記現在の車両の類似度を計算することと、
    2つの観測点ごとに観測された前記現在の車両の類似度に応じて、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することと、
    を含む、車両関連付け方法。
  2. 前記観測点ごとにプリセット時間帯内で収集された画像に基づき、前記現在の車両に対する各観測点の元の観測系列を確定することは、
    観測点ごとに前記プリセット時間帯内で収集された画像に基づき、観測点ごとに各画像が収集された際に前記現在の車両が位置する位置を確定することと、
    観測点ごとに各画像が収集された際に前記現在の車両が位置する位置および観測点ごとに各画像を収集する時点に応じて、各観測点の各時点における、時点および位置を含む観測データを確定することと、
    各観測点の各時点における観測データに応じて、前記現在の車両に対する各観測点の元の観測系列を取得することと、
    を含む、請求項1に記載の方法。
  3. 前記現在の車両に対する各観測点の元の観測系列に基づき、前記現在の車両に対する各観測点のターゲット観測系列を確定することは、
    前記現在の車両に対する各観測点の元の観測系列内の各観測データに基づき、前記現在の車両に対する各観測点の元の観測系列が切出条件を満たすか否かを検出することと、
    前記現在の車両に対する各観測点の元の観測系列が前記切出条件を満たす場合、各元の観測系列内の各観測データにおける時点に基づき、前記現在の車両に対する各観測点の元の観測系列の切出処理を行い、前記現在の車両に対する各観測点のターゲット観測系列を取得することと、
    を含む、請求項1に記載の方法。
  4. 前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さを計算することは、
    前記現在の車両に対する各観測点のターゲット観測系列から各観測データにおける位置を抽出することと、
    前記現在の車両に対する各観測点のターゲット観測系列から抽出された各観測データにおける位置に基づき、観測点ごとに観測された前記現在の車両の走行軌跡の長さを計算することと、
    観測点ごとに観測された前記現在の車両の走行軌跡の長さに応じて、2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さを計算することと、
    を含む、請求項に記載の方法。
  5. 収集モジュールと、確定モジュールと、検出モジュールとを備える車両関連付け装置であって、
    前記収集モジュールは、各観測点に対し、プリセット周期で現在の車両が道路を走行している画像を収集することに用いられ、
    前記確定モジュールは、観測点ごとにプリセット時間帯内で収集された画像に基づき、前記現在の車両に対する各観測点の元の観測系列を確定することと、前記現在の車両に対する各観測点の元の観測系列に基づき、前記現在の車両に対する各観測点のターゲット観測系列を確定することとに用いられ、
    前記検出モジュールは、前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することに用いられ、
    前記検出モジュールは、計算サブモジュールと検出サブモジュールとを備え、
    前記計算サブモジュールは、前記現在の車両に対する各観測点のターゲット観測系列に基づき、2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さおよび2つの観測点ごとに観測された前記現在の車両の走行軌跡間の面積を計算することと、2つの観測点ごとに観測された前記現在の車両の走行軌跡間の面積および2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さに応じて、2つの観測点ごとに観測された前記現在の車両の類似度を計算することとに用いられ、
    前記検出サブモジュールは、2つの観測点ごとに観測された前記現在の車両の類似度に応じて、2つの観測点ごとに観測された前記現在の車両が同一の車両であるか否かを検出することに用いられる、車両関連付け装置。
  6. 前記確定モジュールは、観測点ごとに前記プリセット時間帯内で収集された画像に基づき、観測点ごとに各画像が収集された際に前記現在の車両が位置する位置を確定することと、観測点ごとに各画像が収集された際に前記現在の車両が位置する位置および観測点ごとに各画像を収集する時点に応じて、各観測点の各時点における、時点および位置を含む観測データを確定することと、各観測点の各時点における観測データに応じて、前記現在の車両に対する各観測点の元の観測系列を取得することとに用いられる、請求項に記載の装置。
  7. 前記確定モジュールは、前記現在の車両に対する各観測点の元の観測系列内の各観測データに基づき、前記現在の車両に対する各観測点の元の観測系列が切出条件を満たすか否かを検出することと、前記現在の車両に対する各観測点の元の観測系列が前記切出条件を満たす場合、各元の観測系列内の各観測データにおける時点に基づき、前記現在の車両に対する各観測点の元の観測系列の切出処理を行い、前記現在の車両に対する各観測点のターゲット観測系列を取得することとに用いられる、請求項に記載の装置。
  8. 計算サブモジュールは、前記現在の車両に対する各観測点のターゲット観測系列から各観測データにおける位置を抽出することと、前記現在の車両に対する各観測点のターゲット観測系列から抽出された各観測データにおける位置に基づき、観測点ごとに観測された前記現在の車両の走行軌跡の長さを計算することと、観測点ごとに観測された前記現在の車両の走行軌跡の長さに応じて、2つの観測点ごとに観測された前記現在の車両の走行軌跡の平均長さを計算することとに用いられる、請求項に記載の装置。
  9. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信接続されたメモリと、
    を備える電子機器であって、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~のいずれか1項に記載の方法を実行可能であるように、前記少なくとも1つのプロセッサにより実行される、
    電子機器。
  10. コンピュータ命令が記憶された非一時的なコンピュータ可読記憶媒体であって、
    前記コンピュータ命令は、請求項1~のいずれか1項に記載の方法をコンピュータに実行させるために用いられる、
    非一時的なコンピュータ可読記憶媒体。
  11. 請求項に記載の電子機器を備える、路側機器。
  12. 請求項に記載の電子機器を備える、クラウドコントロールプラットフォーム。
  13. 請求項1~のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
JP2021179818A 2020-12-21 2021-11-02 車両関連付け方法、車両関連付け装置、電子機器、コンピュータ可読記憶媒体、路側機器、クラウドコントロールプラットフォームおよびプログラム Active JP7280331B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011520233.6A CN112507957B (zh) 2020-12-21 2020-12-21 一种车辆关联方法、装置、路侧设备及云控平台
CN202011520233.6 2020-12-21

Publications (2)

Publication Number Publication Date
JP2022098433A JP2022098433A (ja) 2022-07-01
JP7280331B2 true JP7280331B2 (ja) 2023-05-23

Family

ID=74923028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021179818A Active JP7280331B2 (ja) 2020-12-21 2021-11-02 車両関連付け方法、車両関連付け装置、電子機器、コンピュータ可読記憶媒体、路側機器、クラウドコントロールプラットフォームおよびプログラム

Country Status (5)

Country Link
US (1) US20210390334A1 (ja)
EP (1) EP3940667A3 (ja)
JP (1) JP7280331B2 (ja)
KR (1) KR102595678B1 (ja)
CN (1) CN112507957B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114202912B (zh) * 2021-11-15 2023-08-18 新奇点智能科技集团有限公司 交通服务提供方法、装置、服务器及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206140A (ja) 2012-03-28 2013-10-07 Secom Co Ltd 移動物体追跡装置
US20170004386A1 (en) 2015-07-02 2017-01-05 Agt International Gmbh Multi-camera vehicle identification system
JP2020087180A (ja) 2018-11-29 2020-06-04 技研トラステム株式会社 移動体追跡方法及びこれに用いる画像処理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014085316A1 (en) * 2012-11-27 2014-06-05 Cloudparc, Inc. Controlling use of a single multi-vehicle parking space using multiple cameras
CN103927764B (zh) * 2014-04-29 2017-09-29 重庆大学 一种结合目标信息和运动估计的车辆跟踪方法
CN107204114A (zh) * 2016-03-18 2017-09-26 中兴通讯股份有限公司 一种车辆异常行为的识别方法及装置
US10296828B2 (en) * 2017-04-05 2019-05-21 Here Global B.V. Learning a similarity measure for vision-based localization on a high definition (HD) map
CN107545582B (zh) * 2017-07-04 2021-02-05 深圳大学 基于模糊逻辑的视频多目标跟踪方法及装置
TWI617998B (zh) * 2017-07-18 2018-03-11 Chunghwa Telecom Co Ltd System and method for car number identification data filtering
US10599161B2 (en) * 2017-08-08 2020-03-24 Skydio, Inc. Image space motion planning of an autonomous vehicle
CN110874925A (zh) * 2018-08-31 2020-03-10 百度在线网络技术(北京)有限公司 智能路侧单元及其控制方法
CN109118766A (zh) * 2018-09-04 2019-01-01 华南师范大学 一种基于交通卡口的同行车辆判别方法及装置
CN109583151B (zh) * 2019-02-20 2023-07-21 阿波罗智能技术(北京)有限公司 车辆的行驶轨迹预测方法及装置
DE112020002604T5 (de) * 2019-05-29 2022-03-03 Mobileye Vision Technologies Ltd. Systeme und verfahren für die fahrzeugnavigation
WO2021011617A1 (en) * 2019-07-15 2021-01-21 Mobileye Vision Technologies Ltd. Reducing stored parameters for a navigation system
CN110780289B (zh) * 2019-10-23 2021-07-30 北京信息科技大学 基于场景雷达的多目标车辆跟踪方法及装置
US11125575B2 (en) * 2019-11-20 2021-09-21 Here Global B.V. Method and apparatus for estimating a location of a vehicle
CN111275983B (zh) * 2020-02-14 2022-11-01 阿波罗智联(北京)科技有限公司 车辆追踪方法、装置、电子设备和计算机可读存储介质
EP4173285A1 (en) * 2020-06-25 2023-05-03 Mobileye Vision Technologies Ltd. Motion-based online calibration of a multi-camera
CN111914664A (zh) * 2020-07-06 2020-11-10 同济大学 基于重识别的车辆多目标检测和轨迹跟踪方法
WO2022087194A1 (en) * 2020-10-21 2022-04-28 IAA, Inc. Automated vehicle condition grading

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206140A (ja) 2012-03-28 2013-10-07 Secom Co Ltd 移動物体追跡装置
US20170004386A1 (en) 2015-07-02 2017-01-05 Agt International Gmbh Multi-camera vehicle identification system
JP2020087180A (ja) 2018-11-29 2020-06-04 技研トラステム株式会社 移動体追跡方法及びこれに用いる画像処理装置

Also Published As

Publication number Publication date
EP3940667A3 (en) 2022-03-16
KR102595678B1 (ko) 2023-10-27
JP2022098433A (ja) 2022-07-01
US20210390334A1 (en) 2021-12-16
CN112507957A (zh) 2021-03-16
EP3940667A2 (en) 2022-01-19
KR20210125447A (ko) 2021-10-18
CN112507957B (zh) 2023-12-15

Similar Documents

Publication Publication Date Title
JP7270617B2 (ja) 歩行者流量ファネル生成方法及び装置、プログラム、記憶媒体、電子機器
JP7273129B2 (ja) 車線検出方法、装置、電子機器、記憶媒体及び車両
CN113205037B (zh) 事件检测的方法、装置、电子设备以及可读存储介质
CN113326786B (zh) 数据处理方法、装置、设备、车辆和存储介质
CN112597895B (zh) 基于偏移量检测的置信度确定方法、路侧设备及云控平台
CN112528927B (zh) 基于轨迹分析的置信度确定方法、路侧设备及云控平台
JP7280331B2 (ja) 車両関連付け方法、車両関連付け装置、電子機器、コンピュータ可読記憶媒体、路側機器、クラウドコントロールプラットフォームおよびプログラム
CN115641359B (zh) 确定对象的运动轨迹的方法、装置、电子设备和介质
CN112863187A (zh) 感知模型的检测方法、电子设备、路侧设备和云控平台
CN112183431A (zh) 实时行人数量统计方法、装置、相机和服务器
CN114267375B (zh) 音素检测方法及装置、训练方法及装置、设备和介质
CN114037087A (zh) 模型训练方法及装置、深度预测方法及装置、设备和介质
CN116761020A (zh) 视频处理方法、装置、设备和介质
CN111063011A (zh) 一种人脸图像处理方法、装置、设备和介质
KR102604426B1 (ko) 목표 탐지 신뢰도를 결정하는 방법 및 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼, 컴퓨터 프로그램 제품
CN115937950A (zh) 一种多角度人脸数据采集方法、装置、设备及存储介质
CN114549584A (zh) 信息处理的方法、装置、电子设备及存储介质
CN114064745A (zh) 一种确定交通提示距离的方法、装置及电子设备
CN114627556A (zh) 动作检测方法、动作检测装置、电子设备以及存储介质
CN114093006A (zh) 活体人脸检测模型的训练方法、装置、设备以及存储介质
CN112528079A (zh) ***检测方法、装置、电子设备、存储介质和程序产品
CN112507964A (zh) 用于车道级事件的检测方法和装置、路侧设备和云控平台
CN113806361B (zh) 电子监控设备与道路的关联方法、装置及存储介质
CN111062337B (zh) 人流方向检测方法及装置、存储介质和电子设备
CN117419714A (zh) 目标道路的确定方法、装置、设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7280331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150