JP7436670B2 - 路車協調における目標検出方法、装置及び路側機器 - Google Patents
路車協調における目標検出方法、装置及び路側機器 Download PDFInfo
- Publication number
- JP7436670B2 JP7436670B2 JP2022535786A JP2022535786A JP7436670B2 JP 7436670 B2 JP7436670 B2 JP 7436670B2 JP 2022535786 A JP2022535786 A JP 2022535786A JP 2022535786 A JP2022535786 A JP 2022535786A JP 7436670 B2 JP7436670 B2 JP 7436670B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- candidate target
- reliability
- value
- iou
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 119
- 238000000034 method Methods 0.000 claims description 35
- 238000004891 communication Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- MMTVHLPXGYWNOJ-UHFFFAOYSA-N 2h-pyran-2-carboxamide Chemical compound NC(=O)C1OC=CC=C1 MMTVHLPXGYWNOJ-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
両の経路計画等の適用シナリオにおいて、画像収集装置により収集された画像を取得した後、画像内の人物、動物、車両等の目標を検出することで画像内の目標を位置決める必要があり、さらに、上記目標に対する処理操作をトリガーし、又は上記目標を結び付けて車両の経路計画等を行う。そのため、画像内の目標を検出するための路車協調における目標検出方法が必要である。
画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することと、
候補目標領域間のIoU(Intersection over Union、物体検出における評価指標)と候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することと、
更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出することと、を含む。
画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得するための情報取得モジュールと、
候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新するための信頼度値更新モジュールと、
更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出するための目標検出モジュールと、を含む。
少なくとも1つのプロセッサーと、
前記少なくとも1つのプロセッサーと通信しているメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサーによって実行される命令が記憶されており、前記命令が前記少なくとも1つのプロセッサーによって実行されることで、前記少なくとも1つのプロセッサーに路車協調における目標検出方法を実現させる。
画像に対して目標検出を行い、画像内の候補目標領域と、候補目標領域の信頼度値と、
候補目標領域の被遮蔽度とを取得することと、
候補目標領域間のIoU(Intersection over Union、オーバーラップ率とも呼ばれる
)と候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することと、
更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出することと、
を含む。
置等であってよい。そのうち、画像収集装置は、ビデオカメラ、カメラ、ドライブレコーダー等を含んでよい。
画像に対して目標検出を行い、画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得してよい。
り、即ち、第2面積が80である。第2面積と第1面積の差を計算した結果が(80-16)=64であり、即ち、第3面積が64である。第1面積と第3面積の比を計算した結果が16/64=0.25であり、この0.25が候補目標領域間のIoUである。
oUを計算し、計算によって得られたIoUを、当該候補目標領域の信頼度値を更新するためのIoUとして確定することができる。
4%であり、候補目標領域の被遮蔽度と第2重みの間の積を計算した結果が0.2*50
%=10%であり、計算によって得られた2つの積の合計が64%+10%=74%であ
るため、調整係数が74%であることが得られる。
。
記操作を繰り返して行う。一回の信頼度値更新操作を1サイクルと称してよい。
、…、bn}の被遮蔽度とに基づいて、他の領域{b2、b3、…、bn}の信頼度値を更
新する。そして、第1領域b1を予測セットDに追加してよく、追加された予測セットD={b1}である。
1領域b2を予測セットDに追加してよく、追加された予測セットD={b1、b2}である。
における信頼度値が最も高い領域が領域b3であるため、領域b3を第1領域とする。領域セットBにおける領域b3以外の領域がb4、…、bnであるため、{b4、…、bn}
が他の領域である。
1領域b3を予測セットDに追加してよく、追加された予測セットD={b1,b2,b
3}である。
具体的に、まず、他の領域と第1領域との間の重なり面積を計算し、他の領域と第1領域の面積の合計を計算する。次に、上記面積の合計と重なり面積との差を計算して目標面積を取得し、重複面積と目標面積との間の比を候補目標領域間のIoUとして確定する。
上記予め設定されたIoU閾値は、操作者により経験に基づいて設定することができる。例えば、IoU閾値が90%、95%等であってよい。
上記第1プリセット値及び第2プリセット値は、いずれも操作者により経験に基づいて設定されたものである。
例えば、仮に、予め設定されたIoU閾値が90%であるとすると、他の領域と第1領域との間のIoUが95%である場合、IoU95%が予め設定されたIoU閾値90%
より大きいため、第1信頼度調整値が1-95%=5%であると確定し、他の領域と第1領域との間のIoUが50%である場合、IoU50%が予め設定されたIoU閾値90%より小さいため、第1信頼度調整値を1として確定する。
り、α>1である。
S’=S*T1*T2
ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は第1信頼度調整値を表し、T2は第2信頼度調整値を表す。
具体的に、予め設定された信頼度値誤差値とパラメータ信頼度値の間の積を計算し、計算によって得られた積を他の領域の調整された信頼度値として確定することができる。
定されたIoU閾値90%とに基づいて、第1信頼度調整値を確定する。領域b3の被遮蔽度Co3に基づいて、第2信頼度調整値を確定する。第1信頼度調整値と第2信頼度調整値とに基づいて、領域b3の信頼度値Cv3を調整し、更新された信頼度値がCv31である。
3}である。ここで、領域b2の信頼度値Cv21が最も高く、領域b2が第1領域であ
り、領域b3が他の領域である。
目標尺度は、予め設定された尺度値であってよく、例えば、目標尺度は、16x16、32x32、64x64であってよい。
標検出を行い、異なる尺度の候補目標領域を取得し、異なる尺度の候補目標領域の信頼度値及び被遮蔽度を取得する。
amid Networks)を追加してよく、FPNは、各種の異なる尺度の候補目標
領域と、候補目標領域の信頼度値及び被遮蔽度とを取得するために用いられる。
ここで、バックボーンは、画像に対して特徴抽出を行い、画像内の異なる層の画像特徴を取得し、異なる層の画像特徴をFPNに入力するために用いられる。
l Network)モデル、RNN(Recurrent Neural Networ
k)モデル、DNN(Deep Neural Network)モデル等であってよい。
情報取得モジュール401は、画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得するためのものである。
信頼度値更新モジュール402は、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新するためのものである。
目標検出モジュール403は、更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出するためのものである。
領域セットにおける他の領域と前記第1領域との間のIoUを計算するためのIoU計算手段と、
前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定するための第1調整値確定手段と、
他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定するための第2調整値確定手段と、
前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整するための信頼度値調整手段と、を含む。
り、α>1である。
S’=S*T1*T2
ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は前記第1信頼度調整値を表し、T2は前記第2信頼度調整値を表す。
領域における目標を前記画像内の目標として確定すること、又は、更新された信頼度値が最も高い候補目標領域プリセットした数で選択し、選択された候補目標領域における目標を前記画像内の目標として確定することに用いられる。
前記電子デバイスは、
少なくとも1つのプロセッサーと、
前記少なくとも1つのプロセッサーと通信しているメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサーによって実行される命令が記憶されており、前記命令が前記少なくとも1つのプロセッサーによって実行されることで、前記少なくとも1つのプロセッサーに前述した方法の実施例の何れか1つの路車協調における目標検出方法を実行させることができる。
0を操作するための各種のプログラムやデータが記憶されていることもできる。計算手段501、ROM 502及びRAM 503は、それぞれ、バス504によって接続する。入力/出力(I/O)インターフェース505も、バス504に接続されている。
タープログラムの部分又は全部は、ROM 502及び/又は通信手段509を介して、
デバイス500にロード及び/又はインストールされている。コンピュータープログラムは、RAM 503にロードされ、計算手段501によって実行されると、上述した路車
協調の目標検出方法の1つ又は複数のステップを実行することができる。選択的に、他の実施例では、計算手段501は、他の任意の適当な方式によって(例えば、ファームウェアによって)、実行路車協調の目標検出方法を実行するように構成されてよい。
んでよいが、これに限定されない。。機械可読記憶媒体のより具体的な例示としては、1本以上のワイヤに基づく電気接続、携帯型コンピューターディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバー、携帯型コンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶デバイス、磁気記憶デバイス、又はこれらの任意の適当な組み合わせを含んでよい。
Claims (21)
- 画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することと、
候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することと、
更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出することと、を含み、
前記候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することは、
領域セットから信頼度値が最も高い第1領域を選択し、領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することを、前記領域セットに1つの領域が含まれるまで繰り返すこと、を含み、
前記領域セットには、候補目標領域における選択されていない領域を含む、
路車協調における目標検出方法。 - 前記領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することは、
領域セットにおける他の領域と前記第1領域との間のIoUを計算することと、
前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定することと、
他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定することと、
前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整することと、を含む、
請求項1に記載の方法。 - 前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定することは、
前記IoUが予め設定されたIoU閾値より小さいか否やかを判断することと、
前記IoUが予め設定されたIoU閾値より小さい場合、第1信頼度調整値を1として確定することと、
前記IoUが予め設定されたIoU閾値以上の場合、前記第1信頼度調整値を1と前記IoUの差として確定することと、を含む、
請求項2に記載の方法。 - 前記他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定することは、
以下の式に従って第2信頼度調整値g(occ_pred)を確定することを含み、
請求項2に記載の方法。 - 前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整することは、
以下の式に従って、他の領域の信頼度値を調整することを含み、
S’=S*T1*T2
ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は前記第1信頼度調整値を表し、T2は前記第2信頼度調整値を表す、
請求項2-4のいずれか1つに記載の方法。 - 前記更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出することは、
更新された信頼度値が予め設定された信頼度閾値より大きい候補目標領域を選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、
又は、
更新された信頼度値が最も高い候補目標領域をプリセットした数で選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、を含む、
請求項1-4のいずれか1つに記載の方法。 - 前記画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することは、
異なる目標尺度ごとに、画像に対して目標検出を行い、前記画像内の異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得すること、を含む、
請求項1-4のいずれか1つに記載の方法。 - 前記画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することは、
予め訓練によって得られた目標検出モデルに画像を入力して、前記目標検出モデルによって出力された前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得し、ここで、前記目標検出モデルには、画像内の候補目標領域を検出するための目標検出層と、候補目標領域の被遮蔽度を予測するための遮蔽度予測層とを含むこと、を含む、
請求項1-4のいずれか1つに記載の方法。 - 画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得するための情報取得モジュールと、
候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新するための信頼度値更新モジュールと、
更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出するための目標検出モジュールと、を含み、
前記信頼度値更新モジュールは、領域セットから信頼度値が最も高い第1領域を選択し、領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することを、前記領域セットに1つの領域が含まれるまで繰り返すことに用いられ、
前記領域セットには、候補目標領域における選択されていない領域を含む、
路車協調における目標検出装置。 - 前記信頼度値更新モジュールは、
領域セットにおける他の領域と前記第1領域との間のIoUを計算するためのIoU計算手段と、
前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定するための第1調整値確定手段と、
他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定するための第2調整値確定手段と、
前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整するための信頼度値調整手段と、を含む、
請求項9に記載の装置。 - 前記第1調整値確定手段は、前記IoUが予め設定されたIoU閾値より小さいか否やかを判断することと、前記IoUが予め設定されたIoU閾値より小さい場合、第1信頼度調整値を1として確定することと、前記IoUが予め設定されたIoU閾値以上の場合、前記第1信頼度調整値を1と前記IoUの差として確定することと、に用いられる、
請求項10に記載の装置。 - 前記第2調整値確定手段は、以下の式に従って第2信頼度調整値g(occ_pred)を確定することに用いられ、
請求項10に記載の装置。 - 前記信頼度値調整手段は、以下の式に従って、他の領域の信頼度値を調整することに用いられ、
S’=S*T1*T2
ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は前記第1信頼度調整値を表し、T2は前記第2信頼度調整値を表す、
請求項10-12のいずれか1つに記載の装置。 - 前記目標検出モジュールは、
更新された信頼度値が予め設定された信頼度閾値より大きい候補目標領域を選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、
又は、
更新された信頼度値が最も高い候補目標領域をプリセットした数で選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、に用いられる、
請求項9-12のいずれか1つに記載の装置 - 前記情報取得モジュールは、異なる目標尺度ごとに、画像に対して目標検出を行い、前記画像内の異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することに用いられる、
請求項9-12のいずれか1つに記載の装置。 - 前記情報取得モジュールは、予め訓練によって得られた目標検出モデルに画像を入力して、前記目標検出モデルによって出力された前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することに用いられ、
前記目標検出モデルには、画像内の候補目標領域を検出するための目標検出層と、候補目標領域の被遮蔽度を予測するための遮蔽度予測層と、を含む、
請求項9-12のいずれか1つに記載の装置。 - 少なくとも1つのプロセッサーと、
前記少なくとも1つのプロセッサーと通信しているメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサーによって実行される命令が記憶されており、前記命令が前記少なくとも1つのプロセッサーによって実行されることで、前記少なくとも1つのプロセッサーに請求項1-8のいずれか1つに記載の方法を実行させる、
電子デバイス。 - コンピューター命令が記憶されている非一時的なコンピューター可読記憶媒体であって、前記コンピューター命令は、前記コンピューターに請求項1-8のいずれか1つに記載の方法を実行させることに用いられる、
非一時的なコンピューター可読記憶媒体。 - プロセッサーによって実行されると、請求項1-8のいずれか1つに記載の方法を実現する、
コンピュータープログラム。 - 請求項17に記載の電子デバイスを含む、路側機器。
- 請求項17に記載の電子デバイスを含む、クラウド側サーバー。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110721853.4A CN113420682B (zh) | 2021-06-28 | 2021-06-28 | 车路协同中目标检测方法、装置和路侧设备 |
CN202110721853.4 | 2021-06-28 | ||
PCT/CN2021/126163 WO2023273041A1 (zh) | 2021-06-28 | 2021-10-25 | 车路协同中目标检测方法、装置和路侧设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023536025A JP2023536025A (ja) | 2023-08-23 |
JP7436670B2 true JP7436670B2 (ja) | 2024-02-21 |
Family
ID=77717817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022535786A Active JP7436670B2 (ja) | 2021-06-28 | 2021-10-25 | 路車協調における目標検出方法、装置及び路側機器 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7436670B2 (ja) |
KR (1) | KR20220091607A (ja) |
CN (1) | CN113420682B (ja) |
WO (1) | WO2023273041A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113420682B (zh) * | 2021-06-28 | 2023-08-15 | 阿波罗智联(北京)科技有限公司 | 车路协同中目标检测方法、装置和路侧设备 |
CN114063079B (zh) * | 2021-10-12 | 2022-06-21 | 福瑞泰克智能***有限公司 | 目标置信度获取方法、装置、雷达***和电子装置 |
CN118043864A (zh) * | 2021-10-22 | 2024-05-14 | 深圳市速腾聚创科技有限公司 | 障碍物识别方法、装置、存储介质及电子设备 |
CN114005095B (zh) * | 2021-10-29 | 2023-06-30 | 北京百度网讯科技有限公司 | 车辆属性识别方法、装置、电子设备和介质 |
CN116071724B (zh) * | 2023-03-03 | 2023-08-04 | 安徽蔚来智驾科技有限公司 | 车载相机遮挡场景识别方法、电子设备、存储介质及车辆 |
CN116363631B (zh) * | 2023-05-19 | 2023-09-05 | 小米汽车科技有限公司 | 三维目标检测方法、装置及车辆 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109101859A (zh) | 2017-06-21 | 2018-12-28 | 北京大学深圳研究生院 | 使用高斯惩罚检测图像中行人的方法 |
CN110222764A (zh) | 2019-06-10 | 2019-09-10 | 中南民族大学 | 遮挡目标检测方法、***、设备及存储介质 |
US20200097756A1 (en) | 2018-09-26 | 2020-03-26 | Toyota Jidosha Kabushiki Kaisha | Object detection device and object detection method |
CN111986252A (zh) | 2020-07-16 | 2020-11-24 | 浙江工业大学 | 一种用于目标分割网络中候选边界框精准定位的方法 |
US20210042592A1 (en) | 2019-08-08 | 2021-02-11 | Toyota Jidosha Kabushiki Kaisha | Object detection device, object detection method, and computer program for object detection |
CN113011417A (zh) | 2021-01-08 | 2021-06-22 | 湖南大学 | 基于交并比覆盖率损失与重定位策略的目标匹配方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI393074B (zh) * | 2009-12-10 | 2013-04-11 | Ind Tech Res Inst | 移動物體偵測裝置與方法 |
CN102044151B (zh) * | 2010-10-14 | 2012-10-17 | 吉林大学 | 基于光照可见度辨识的夜间车辆视频检测方法 |
CN110009060B (zh) * | 2019-04-17 | 2021-07-23 | 东北大学 | 一种基于相关滤波与目标检测的鲁棒性长期跟踪方法 |
CN110428007B (zh) * | 2019-08-01 | 2020-11-24 | 科大讯飞(苏州)科技有限公司 | X光图像目标检测方法、装置及设备 |
CN110659600B (zh) * | 2019-09-19 | 2022-04-29 | 北京百度网讯科技有限公司 | 物体检测方法、装置及设备 |
CN111182491B (zh) * | 2019-12-31 | 2022-03-22 | 淮安中科晶上智能网联研究院有限公司 | 一种基于射频层析成像的无设备目标定位的方法及装置 |
CN113033456B (zh) * | 2021-04-08 | 2023-12-19 | 阿波罗智联(北京)科技有限公司 | 车辆车轮接地点的确定方法、装置、路侧设备及云控平台 |
CN113420682B (zh) * | 2021-06-28 | 2023-08-15 | 阿波罗智联(北京)科技有限公司 | 车路协同中目标检测方法、装置和路侧设备 |
-
2021
- 2021-06-28 CN CN202110721853.4A patent/CN113420682B/zh active Active
- 2021-10-25 JP JP2022535786A patent/JP7436670B2/ja active Active
- 2021-10-25 WO PCT/CN2021/126163 patent/WO2023273041A1/zh unknown
- 2021-10-25 KR KR1020227019941A patent/KR20220091607A/ko active Search and Examination
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109101859A (zh) | 2017-06-21 | 2018-12-28 | 北京大学深圳研究生院 | 使用高斯惩罚检测图像中行人的方法 |
US20200097756A1 (en) | 2018-09-26 | 2020-03-26 | Toyota Jidosha Kabushiki Kaisha | Object detection device and object detection method |
CN110222764A (zh) | 2019-06-10 | 2019-09-10 | 中南民族大学 | 遮挡目标检测方法、***、设备及存储介质 |
US20210042592A1 (en) | 2019-08-08 | 2021-02-11 | Toyota Jidosha Kabushiki Kaisha | Object detection device, object detection method, and computer program for object detection |
CN111986252A (zh) | 2020-07-16 | 2020-11-24 | 浙江工业大学 | 一种用于目标分割网络中候选边界框精准定位的方法 |
CN113011417A (zh) | 2021-01-08 | 2021-06-22 | 湖南大学 | 基于交并比覆盖率损失与重定位策略的目标匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20220091607A (ko) | 2022-06-30 |
WO2023273041A1 (zh) | 2023-01-05 |
CN113420682A (zh) | 2021-09-21 |
JP2023536025A (ja) | 2023-08-23 |
CN113420682B (zh) | 2023-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7436670B2 (ja) | 路車協調における目標検出方法、装置及び路側機器 | |
CN108197618B (zh) | 用于生成人脸检测模型的方法和装置 | |
EP3268933A1 (en) | Systems and methods for object tracking | |
CN104715249A (zh) | 物体跟踪方法和装置 | |
CN113691733B (zh) | 视频抖动检测方法、装置、电子设备和存储介质 | |
CN113901911B (zh) | 图像识别、模型训练方法、装置、电子设备及存储介质 | |
CN112863187B (zh) | 感知模型的检测方法、电子设备、路侧设备和云控平台 | |
CN111008631B (zh) | 图像的关联方法及装置、存储介质和电子装置 | |
WO2023273344A1 (zh) | 车辆跨线识别方法、装置、电子设备和存储介质 | |
US20230072632A1 (en) | Obstacle detection method, electronic device and storage medium | |
CN112528927A (zh) | 基于轨迹分析的置信度确定方法、路侧设备及云控平台 | |
CN114169425B (zh) | 训练目标跟踪模型和目标跟踪的方法和装置 | |
CN115511779A (zh) | 图像检测方法、装置、电子设备和存储介质 | |
AU2021204584A1 (en) | Methods, apparatuses, devices and storage media for detecting correlated objects involved in image | |
CN113627298A (zh) | 目标检测模型的训练方法及检测目标对象的方法、装置 | |
CN111310595B (zh) | 用于生成信息的方法和装置 | |
CN116824609A (zh) | 文档版式检测方法、装置和电子设备 | |
EP4080479A2 (en) | Method for identifying traffic light, device, cloud control platform and vehicle-road coordination system | |
CN114429631A (zh) | 三维对象检测方法、装置、设备以及存储介质 | |
CN115052154A (zh) | 一种模型训练和视频编码方法、装置、设备及存储介质 | |
CN114120423A (zh) | 人脸图像检测方法、装置、电子设备和计算机可读介质 | |
CN114549584A (zh) | 信息处理的方法、装置、电子设备及存储介质 | |
CN114220163A (zh) | 人体姿态估计方法、装置、电子设备及存储介质 | |
CN113657596A (zh) | 训练模型和图像识别的方法和装置 | |
CN112749707A (zh) | 利用神经网络进行目标分割的方法、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7436670 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |