JP7436670B2 - 路車協調における目標検出方法、装置及び路側機器 - Google Patents

路車協調における目標検出方法、装置及び路側機器 Download PDF

Info

Publication number
JP7436670B2
JP7436670B2 JP2022535786A JP2022535786A JP7436670B2 JP 7436670 B2 JP7436670 B2 JP 7436670B2 JP 2022535786 A JP2022535786 A JP 2022535786A JP 2022535786 A JP2022535786 A JP 2022535786A JP 7436670 B2 JP7436670 B2 JP 7436670B2
Authority
JP
Japan
Prior art keywords
region
candidate target
reliability
value
iou
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022535786A
Other languages
English (en)
Other versions
JP2023536025A (ja
Inventor
春▲ロン▼ 夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2023536025A publication Critical patent/JP2023536025A/ja
Application granted granted Critical
Publication of JP7436670B2 publication Critical patent/JP7436670B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

関連出願の相互参照
本願は、2021年06月28日に中国特許庁に提出された、出願番号が202110721853.4であり、発明の名称が「路車協調における目標検出方法、装置及び路側機器」である中国特許出願に基づき優先権を主張し、その全ての内容が援用により本願に組み込まれる。
本開示は、高度道路交通技術分野に関し、特に画像検出技術分野に関する。
路車協調V2X(Vehicle to everything、車両用無線通信技術)による道路監視や車
両の経路計画等の適用シナリオにおいて、画像収集装置により収集された画像を取得した後、画像内の人物、動物、車両等の目標を検出することで画像内の目標を位置決める必要があり、さらに、上記目標に対する処理操作をトリガーし、又は上記目標を結び付けて車両の経路計画等を行う。そのため、画像内の目標を検出するための路車協調における目標検出方法が必要である。
本開示は、路車協調における目標検出方法、装置及び路側機器を提供する。
本開示の一様態では、路車協調における目標検出方法を提供する。前記方法は、
画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することと、
候補目標領域間のIoU(Intersection over Union、物体検出における評価指標)と候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することと、
更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出することと、を含む。
本開示の一様態では、路車協調における目標検出装置を提供する。前記装置は、
画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得するための情報取得モジュールと、
候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新するための信頼度値更新モジュールと、
更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出するための目標検出モジュールと、を含む。
本開示の別の様態では、電子デバイスを提供する。前記電子デバイスは、
少なくとも1つのプロセッサーと、
前記少なくとも1つのプロセッサーと通信しているメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサーによって実行される命令が記憶されており、前記命令が前記少なくとも1つのプロセッサーによって実行されることで、前記少なくとも1つのプロセッサーに路車協調における目標検出方法を実現させる。
本開示の別の様態では、コンピューター命令が記憶されている非一時的なコンピューター可読記憶媒体を提供する。前記コンピューター命令は、前記コンピューターに路車協調における目標検出方法を実行させるために用いられる。
本開示の別の様態では、コンピュータープログラム製品を提供する。前記コンピュータープログラム製品は、コンピュータープログラムを含み、前記コンピュータープログラムがプロセッサーによって実行されると、路車協調における目標検出方法を実現する。
本開示の別の様態では、上記電子デバイスを含む路側機器を提供する。
本開示の別の様態では、上記電子デバイスを含むクラウドコントロールプラットフォームを提供する。
上記から分かるように、本開示の実施例による技術案を用いて目標検出を行う際に、まず、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新し、次に、更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出する。候補目標領域間のIoUが各候補目標領域間の重複度を反映でき、候補目標領域の被遮蔽度が候補目標領域の遮蔽される程度を反映できるため、上記のIoUと被遮蔽度とに基づいて、候補目標領域の信頼度値を更新する際に目標領域間の重なり具合を参考でき、候補目標領域の更新された信頼度値をより実際の状況に近づけることで、更新された信頼度値により画像に対して目標検出を行い、目標検出の精度を高めることができる。
この部分で記述された内容は、本開示の実施例の要旨又は重要な特徴を特定することを意図しておらず、本開示の範囲に対しても限定しないことを理解できる。本開示の他の特徴は、以下の細書によって容易に理解される。
以下の図面は、本技術案をより理解するためのものであり、本開示に対する限定にならない。
図1は、本開示の実施例による路車協調における目標検出方法の概略フローチャートである。 図2は、本開示の実施例による画像の模式図である。 図3aは、本開示の実施例によるネットワークモデルの構造の模式図である。 図3bは、本開示の実施例による別のネットワークモデルの構造の模式図である。 図4は、本開示の実施例による路車協調における目標検出装置の構造の模式図である。 図5は、本開示の実施例による電子機器の構造の模式図である。
以下、図面を参照しながら、本開示の例示的な実施例を説明する。本開示の実施例の様々な詳細は、本開示を理解し易いために含まれており、単に例示的なものとみなされるべきである。そのため、当業者は、本開示の範囲及び精神から逸脱することなく、本明細書に記載された実施例に対して様々な変更及び修正を行うことができることを理解できる。また、以下の説明では、明確且つ簡潔にするために、公知の機能や構造に関する説明を省略する。
本開示の実施例は、路車協調における目標検出方法、装置及び路側機器を提供する。
本開示の一実施例では、路車協調の目標検出方法を提供する。当該方法は、
画像に対して目標検出を行い、画像内の候補目標領域と、候補目標領域の信頼度値と、
候補目標領域の被遮蔽度とを取得することと、
候補目標領域間のIoU(Intersection over Union、オーバーラップ率とも呼ばれる
)と候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することと、
更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出することと、
を含む。
候補目標領域間のIoUは各候補目標領域間の重複度を反映でき、候補目標領域の被遮蔽度は候補目標領域の遮蔽される程度を反映できるため、上記のIoUと被遮蔽度とに基づいて候補目標領域の信頼度値を更新する際に、候補目標領域の更新された信頼度値がより実際の状況に近づくように、目標領域間の重なり具合を参考できることで、更新された信頼度値により画像に対して目標検出を行い、目標検出の精度を高めることができる。
以下、本開示の実施例に係る実行主体を説明する。
本開示の実施例に係る実行主体は、目標検出機能が搭載された電子機器であってよい。ここで、上記電子機器は、卓上型コンピュ-タ、ノートパソコン、サーバー、画像収集装
置等であってよい。そのうち、画像収集装置は、ビデオカメラ、カメラ、ドライブレコーダー等を含んでよい。
本開示の実施例による技術案は、路車協調V2Xによる道路監視、車両の経路計画等の適用シナリオにおいて収集された画像に対して目標検出を行うことに用いられる。
また、本開示の実施例による技術案は、他のシナリオにおいて収集された画像に対して目標検出を行うことにも用いられる。例えば、上記した他のシナリオは、地下鉄駅、デパート、コンサートなどの人混みの多いシナリオであってよい。このようなシナリオに対して画像の収集を行うと、収集された画像に含まれる人が密集する場合が多く、一部の人の顔が他の人の顔によって遮られることが発生し易い。また、上記シナリオは、博物館の入り口、銀行のロビーなどの人が比較的に密集するシナリオでもよい。このようなシナリオに対して画像収集を行うと、収集された画像において、人の顔が他の人又は建物等によって遮られる可能性がある。
上記は、本開示の実施例に係る適用シナリオの一例に過ぎず、本開示を限定するものではない。
上記目標は、人の顔、動物、車両等でよい。
以下、具体的に本開示の実施例による路車協調における目標検出方法を説明する。
図1を参照すると、図1は、本開示の実施例による路車協調の目標検出方法の概略フローチャートであり、上記方法は、以下のステップS101~ステップS103を含む。
ステップS101では、画像に対して目標検出を行い、画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得する。
上記画像は、具体的なシナリオに対する画像収集によって取得された画像であってよい。上記シナリオは、車両走行シナリオや駐車場のシナリオ等を含んでよく、この場合、上記目標は、車両であってよい。上記シナリオは、さらに、地下鉄駅や高速鉄道駅等の公共空間のシナリオを含んでよく、この場合、上記目標は、人であってよい。
目標検出を行う場合、一実施形態では、予め設定された目標検出アルゴリズムを用いて
画像に対して目標検出を行い、画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得してよい。
上記予め設定された目標検出アルゴリズムは、異なる種類の目標に対して採用される検出アルゴリズムであってよい。例えば、目標が人である場合、顔検出アルゴリズムや人体検出アルゴリズム等を採用してよい。目標が車両である場合、車両検出アルゴリズムや番号プレート検出アルゴリズム等を採用してよい。
目標検出を行う他の実施形態については、後述の実施例を参照すればよく、ここでは詳述しない。
候補目標領域とは、目標検出により目標が存在する可能性があると判断された領域を指す。図2を例とすると、図2における各矩形枠で囲まれた領域は、画像に対して動物検出を行うことで得られた候補目標領域である。
候補目標領域の信頼度値は、候補目標領域に目標が存在する可能性の大きさを反映している。上記信頼度値は、小数、パーセント等で表してよい。信頼度値の値が大きいほど、候補目標領域に目標が存在する可能性が高いことを示す。
例えば、目標が人である場合、候補目標領域Aの信頼度値が候補目標領域Bの信頼度値より大きいことは、候補目標領域Aに人が存在する可能性が候補目標領域Bに人が存在する可能性より高いことを示す。
候補目標領域の被遮蔽度は、候補目標領域が遮蔽される程度を反映している。上記被遮蔽度は、小数、パーセント等で表してもよく、被遮蔽レベル番号で表してもよい。例えば、被遮蔽レベル番号には1、2、3を含む場合、番号1は被遮蔽レベルが重度の遮蔽であること表し、番号2は被遮蔽レベルが中度の遮蔽であること表し、番号3は被遮蔽レベルが軽度の遮蔽であることを表してよい。
ステップS102では、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新する。
候補目標領域間のIoUは、2つの候補目標領域の間の重複度を表すためのものである。IoUが高いほど、2つの候補目標領域の間の重複度が高いことを示す。IoUが低いほど、2つの候補目標領域の間の重複度が低いことを示す。
具体的に、2つの候補目標領域の間の重なり面積を計算して第1面積を取得し、2つの候補目標領域の面積の合計を計算して第2面積を取得し、そして、第2面積と第1面積の差を計算して第3面積を取得し、第1面積と第3面積の比を候補目標領域間のIoUとして確定する。
例えば、候補目標領域Aの面積が48であり、候補目標領域Bの面積が32である場合、候補目標領域Aと候補目標領域Bの重なり面積が16であり、即ち、第1面積が16である。候補目標領域Aの面積と候補目標領域Bの面積の合計が(46+32)=80であ
り、即ち、第2面積が80である。第2面積と第1面積の差を計算した結果が(80-16)=64であり、即ち、第3面積が64である。第1面積と第3面積の比を計算した結果が16/64=0.25であり、この0.25が候補目標領域間のIoUである。
一実施形態では、各候補目標領域から基準領域を選択し、各候補目標領域における基準領域以外の他の候補目標領域のそれぞれに対して、当該他の候補目標領域と基準領域のI
oUを計算し、計算によって得られたIoUを、当該候補目標領域の信頼度値を更新するためのIoUとして確定することができる。
上記基準領域は、各候補目標領域において、信頼度値が最も大きい領域であってよい。
別の実施形態では、候補目標領域のそれぞれに対して、当該候補目標領域と他の各候補目標領域の間のIoUから1つのIoUを選択し、選択されたIoUを、当該候補目標領域の信頼度値を更新するためのIoUとして確定することもできる。
例えば、上記複数のIoUから、最大IoU、平均IoU、中央IoU、又は最小IoU等を選択してよい。
候補目標領域の信頼度値を更新する場合に、一実施形態では、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、予め設定された第1重み及び第2重みに従って調整係数を計算し、計算によって得られた調整係数に基づいて、候補目標領域の信頼度値を更新してよい。
具体的に、候補目標領域間のIoUと第1重みの間の積を計算し、候補目標領域の被遮蔽度と第2重みの間の積を計算し、計算によって得られた2つの積の合計を調整係数とする。
例えば、候補目標領域間のIoUが80%であり、候補目標領域の被遮蔽度が50%であり、予め設定された第1重みが0.8であり、予め設定された第2重みが0.2である場合、候補目標領域間のIoUと第1重みの間の積を計算した結果が0.8*80%=6
4%であり、候補目標領域の被遮蔽度と第2重みの間の積を計算した結果が0.2*50
%=10%であり、計算によって得られた2つの積の合計が64%+10%=74%であ
るため、調整係数が74%であることが得られる。
計算によって調整係数が得られた後、調整係数と候補目標領域の信頼度値の間の積を計算して、候補目標領域の更新された信頼度値としてよい。
候補目標領域の信頼度値を更新する他の実施形態については、後述の実施例を参照すればよく、ここでは詳述しない。
ステップS103では、更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出する。
本開示の一実施例では、更新された信頼度値が予め設定された信頼度閾値より大きい候補目標領域を選択し、選択された候補目標領域における目標を画像内の目標として確定してよい。
上記予め設定された信頼度閾値は、操作者により経験に基づいて設定される。例えば、信頼度値をパーセントで表す場合、予め設定された信頼度閾値が90%、95%等であってよい。
一例を挙げて、上記目標を確定する過程を説明する。仮に、更新された各候補目標領域の信頼度値が、それぞれ、80%、70%、90%、95%であり、予め設定された信頼度閾値が85%であり、85%より大きい更新された信頼度値が90%、95%であり、ここで、領域1の更新された信頼度値が90%であり、領域2の更新された信頼度値が95%であるとすると、領域1における目標及び領域2における目標が画像内の目標である
このように、信頼度値が予め設定された信頼度閾値より大きい候補目標領域について、これらの候補目標領域に目標が含まれる可能性は、他の候補目標領域に目標が含まれる可能性より高い。このため、信頼度値が予め設定された信頼度閾値より大きい候補目標領域における目標を、画像内の目標として確定し、得られた目標の正確度が高くなる。
本開示の一実施例では、更新された信頼度値が最も高い候補目標領域をプリセットした数で選択し、選択された候補目標領域における目標を画像内の目標として確定してもよい。
上記プリセットした数は、操作者によって経験に基づいて設定してよい。例えば、上記プリセットした数が1つ、3つ、5つ等であってよい。
一例を挙げて、上記目標を確定する過程を説明する。仮に、目標領域の信頼度値がそれぞれ80%、70%、90%、95%であり、プリセットした数が3個であるとすると、更新された信頼度値が最も大きい順に並べる上位3個は、それぞれ、95%、90%、80%であり、更新された信頼度値が95%、90%、80%である候補目標領域における目標を画像内の目標として確定する。
このように、信頼度値が最も大きいものから始まるプリセットした数の候補目標領域について、これらの候補目標領域に目標が含まれる可能性は他の候補領域に目標が含まれる可能性より高い。このため、信頼度値が最も大きいものから始まるプリセットした数の候補目標領域における目標を画像内の目標として確定し、得られた目標の正確度が高くなる。
上記から分かるように、本開示の実施例による技術案を用いて目標検出を行う際に、まず、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新し、次に、更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出する。候補目標領域間のIoUが各候補目標領域間の重複度を反映でき、候補目標領域の被遮蔽度が候補目標領域の遮蔽される程度を反映できるため、上記のIoUと被遮蔽度とに基づいて、候補目標領域の信頼度値を更新する際に、候補目標領域間の重なり具合を参考でき、候補目標領域の更新された信頼度値がより実際の状況に近づけることで、更新された信頼度値に基づいて画像に対して目標検出を行い、目標検出の精度を高めることができる。
なお、例えば人が密集しているシナリオや車両が密集しているシナリオ等のような密集シナリオでは、目標が遮蔽された状況は特に深刻である。これらの密集シナリオにおける画像について、各候補目標領域の被遮蔽度が高いため、候補目標領域内の目標が不完全であり、得られた候補目標領域の信頼度値には大きい誤差がある。候補目標領域の被遮蔽度によって候補目標領域の信頼度値を更新することにより、各候補目標領域が遮蔽された時に信頼度値への誤差の影響を効果的に除去できるため、更新された信頼度値の正確度を高めて、さらに、検出によって正確な目標を取得することができる。そのため、本開示の実施例による技術案は、密集シナリオにおいて遮蔽される場合によりよく適用されることができ、目標検出の正確度を高めることができる。
候補目標領域の信頼度値に対する更新を正確に行うために、本開示の一実施例では、領域セットから信頼度値が最も高い第1領域を選択し、領域セットにおける他の領域と第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新し、そして一回の信頼度値更新操作を完了する。領域セットには1つの領域が含まれるまで上
記操作を繰り返して行う。一回の信頼度値更新操作を1サイクルと称してよい。
上記領域セットには、候補目標領域内の選択されていない領域を含む。具体的に、第1サイクルの開始時に、領域セットにはステップS101で得られた各候補目標領域を含む。各サイクルで領域セットから第1領域を選択した後、既に選択された第1領域が領域セットに含まれなくなる。
第1サイクルの開始時に、第1領域は、ステップS101で得られた各候補目標領域における信頼度値が最も高い領域である。後続の各サイクルにおいて、第1領域は、前回のサイクルによって得られた更新された各領域における信頼度値が最も高い領域である。
上記他の領域とは、領域セットにおける第1領域以外の領域である。例えば、領域セットには、領域1、領域2、領域3を含み、ここで、領域1が第1領域であり、領域2、領域3が第1領域以外の領域である場合、領域2、領域3が他の領域である。
各サイクルでは、領域セットにおける各領域に亘って、各領域の信頼度値を高いものから低いものへ並び替えて、信頼度値が最も高い領域を第1領域として確定してよい。また、第1領域を予測セットに保存してよく、サイクル数の増加に伴って、予測セットに保存されている第1領域の数も増加する。
以下、具体的な例を参照しながら、上記サイクルの過程を説明する。
仮に、ステップS101で得られた各候補目標領域がb1、b2、b3、…bnである。
第1サイクルの開始時に、領域セットB={b1、b2、b3、…、bn}である。ここで、各候補目標領域における信頼度値が最も高い領域は領域b1であるため、領域b1を第1領域とする。領域セットBにおける領域b1以外の領域がb2、b3、…、bnであるため、{b2、b3、…、bn}が他の領域である。
他の領域{b2、b3、…、bn}と領域b1との間のIoUと、他の領域{b2、b3
、…、bn}の被遮蔽度とに基づいて、他の領域{b2、b3、…、bn}の信頼度値を更
新する。そして、第1領域b1を予測セットDに追加してよく、追加された予測セットD={b1}である。
第2サイクルの開始時に、領域b1が第1領域として既に選択されているため、領域セットBには領域b1を含んでおらず、領域セットB={b2、b3、…、bn}である。ここで、更新された{b2、b3、…、bn}における信頼度値が最も高い領域が領域b2であるため、領域b2を第1領域とする。領域セットBにおける領域b2以外の領域がb3、…、bnであるため、{b3、…、bn}が他の領域である。
他の領域{b3、…、bn}と領域b2との間のIoUと、他の領域{b3、…、bn}の被遮蔽度とに基づいて、他の領域{ b3、…、bn}の信頼度値を更新する。そして、第
1領域b2を予測セットDに追加してよく、追加された予測セットD={b1、b2}である。
第3サイクルの開始時に、領域b1、領域b2が第1領域として既に選択されているため、領域セットB={ b3、…、bn }である。ここで、更新された{ b3、…、bn}
における信頼度値が最も高い領域が領域b3であるため、領域b3を第1領域とする。領域セットBにおける領域b3以外の領域がb4、…、bnであるため、{b4、…、bn}
が他の領域である。
他の領域{b4、…、bn}と領域b3との間のIoUと、他の領域{b4、…、bn}の被遮蔽度とに基づいて、他の領域{ b4、…、bn}の信頼度値を更新する。そして、第
1領域b3を予測セットDに追加してよく、追加された予測セットD={b1,b2,b
3}である。
類似な方式によって、領域セットBにおける領域の数が1になるまで、上記処理を繰り返し、領域セットBにおける唯一の領域を直接に予測セットDに追加し、サイクルが終わり、更新された各領域の信頼度値を取得した。
このように、各サイクルでは、領域セットにおける他の領域と第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、領域セットにおける領域の信頼度値を更新する。ここで、他の領域の被遮蔽度が他の領域の遮蔽される程度を反映しており、領域が遮蔽された時に、検出によって得られた領域の信頼度値の正確度が低いため、他の領域の被遮蔽度を導入することで、更新された候補目標領域の信頼度値の正確度を高めることができる。そして、他の領域と第1領域との間のIoUは他の領域と第1領域との間の重複度を反映しており、且つ、第1領域は信頼度値が最も高い領域であるため、信頼度値が最も高い領域との間の重複度によって、他の領域の信頼度値を効果的に調整することもできる。このため、各サイクルでは、上記IoUと被遮蔽度とに基づいて、他の領域の信頼度値を効果的に更新することができる。そして、更新の過程を繰り替えすことで、更新された信頼度値の正確度をさらに高めることができる。
本開示の一実施例では、サイクル毎に他の領域の信頼度値を更新する際に、以下のステップA1-ステップA4によって実現することができる。
ステップA1では、領域セットにおける他の領域と第1領域との間のIoUを計算する。
具体的に、まず、他の領域と第1領域との間の重なり面積を計算し、他の領域と第1領域の面積の合計を計算する。次に、上記面積の合計と重なり面積との差を計算して目標面積を取得し、重複面積と目標面積との間の比を候補目標領域間のIoUとして確定する。
ステップA2では、IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定する。
上記予め設定されたIoU閾値は、操作者により経験に基づいて設定することができる。例えば、IoU閾値が90%、95%等であってよい。
一実施形態では、IoUが予め設定されたIoU閾値より小さいか否やかを判断し、IoUが予め設定されたIoU閾値より小さい場合、第1信頼度値調節値を第1プリセット値として確定し、IoUが予め設定されたIoU閾値以上の場合、第1信頼度調整値を第2プリセット値として確定してよい。
上記第1プリセット値及び第2プリセット値は、いずれも操作者により経験に基づいて設定されたものである。
本開示の一実施例では、IoUが予め設定されたIoU閾値より小さいか否やかを判断し、IoUが予め設定されたIoU閾値より小さい場合、第1信頼度調整値を1として確定し、IoUが予め設定されたIoU閾値以上の場合、第1信頼度調整値を1とIoUの差として確定してよい。
例えば、仮に、予め設定されたIoU閾値が90%であるとすると、他の領域と第1領域との間のIoUが95%である場合、IoU95%が予め設定されたIoU閾値90%
より大きいため、第1信頼度調整値が1-95%=5%であると確定し、他の領域と第1領域との間のIoUが50%である場合、IoU50%が予め設定されたIoU閾値90%より小さいため、第1信頼度調整値を1として確定する。
このように、IoUが予め設定されたIoU閾値より小さい場合、他の領域と第1領域との間の重複度が小さいことを示し、他の領域における小部分の画像の内容が遮蔽され、検出によって得られた当該他の領域の信頼度値の正確度が高いことを意味し、この場合、当該他の領域の信頼度値を調整しなくてもよい。第1信頼度調整値を1に設定することで、領域の信頼度値を調整しないことを実現できる。IoUが予め設定されたIoU閾値以上の場合、他の領域と第1領域との間の重複度が大きいことを示し、他の領域における大部分の画像の内容が遮蔽され、検出によって得られた当該他の領域の信頼度値の正確度が低いことを意味し、この場合、他の領域の信頼度値を調整する必要があり、第1信頼度調整値を1とIoUの差として設定することで、調整された信頼度値を実際の状況に近づけることができる。
ステップA3では、他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定する。
一実施形態では、他の領域の被遮蔽度と予め設定された調整係数との間の積を計算して、第2信頼度調整値とする。
上記予め設定された調整係数は、操作者により経験に基づいて設定してよく、例えば、予め設定された調整係数が1.2、1.5等であってよい。
本開示の一実施例では、以下の式に従って第2信頼度調整値g(occ_pred)を確定することもできる。
ここで、occ_predが他の領域の被遮蔽度であり、αが予め設定された常数であ
り、α>1である。
α>1であるため、第2信頼度調整値g(occ_pred)は、他の領域の被遮蔽度が増加するにつれて増加する。
領域の被遮蔽度が高い場合、当該領域の信頼度値の正確度が低いため、当該領域の信頼度値を大幅に調整することで、調整された信頼度値を実際の状況に近づけることが必要である。また、第2信頼度調整値g(occ_pred)が他の領域の被遮蔽度が増加するにつれて増加し、即ち他の領域の被遮蔽度が高いほど、第2信頼度調整値が大きいため、当該他の領域の信頼度値を大幅に調整することで、調整された他の領域の信頼度値実際の状況に近づけることができる。
ステップA4では、第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整する。
本開示の一実施例では、以下の式に従って他の領域の信頼度値を調整することができる。
S’=S*T1*T2
ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は第1信頼度調整値を表し、T2は第2信頼度調整値を表す。
このように、調整された信頼度値は、第1信頼度調整値と、第2信頼度調整値と、他の領域の信頼度値との間の積であるため、また、第1信頼度調整値、第2信頼度調整値は、異なる角度から他の領域の遮蔽される状況を反映しているため、上記調整された信頼度値が他の領域の遮蔽される状況を参考することで、調整された信頼度値をさらに実際の状況に近づける。
他の一実施形態では、第1信頼度調整値と、第2信頼度調整値と、他の領域の信頼度値との間の積を計算して参考信頼度値とし、予め設定された信頼度値誤差値によって上記参考信頼度値を調整して、調整された参考信頼度値を取得して、他の領域の調整された信頼度値とすることもできる。
具体的に、予め設定された信頼度値誤差値とパラメータ信頼度値の間の積を計算し、計算によって得られた積を他の領域の調整された信頼度値として確定することができる。
このように、第1信頼度調整値が他の領域と第1領域との間のIoUとによって確定され、IoUが他の領域と第1領域の重複度を反映しているため、且つ、第2信頼度調整値が他の領域の被遮蔽度によって確定され、被遮蔽度が他の領域の遮蔽される程度を反映しているため、第1信頼度調整値と第2信頼度調整値はいずれも、異なる角度から他の領域の遮蔽される状況を反映できる。このため、第1信頼度調整値と第2信頼度調整値とを用いて他の領域の信頼度値を調整する時に、第1信頼度調整値と第2信頼度調整値は、異なる角度から他の領域の遮蔽される状況を反映しているため、第1信頼度調整値と第2信頼度調整値とを用いて調整すると、より正確な他の領域の遮蔽される状況に基づいて信頼度値を調整することで、調整された信頼度値をさらに実際の状況に近づける。
以下、1つの具体的な実現過程によって、上記サイクルで信頼度値を更新する方式について説明する。
仮に、各候補目標領域がb1、b2、b3であり、予め設定されたIoU閾値Ntが90%であり、各候補目標領域の信頼度値及び被遮蔽度が以下の表1に示すとする。
第1サイクルの開始時に、領域セットB={b1、b2、b3}であり、ここで、領域b1の信頼度値Cv1が最も高く、領域b1が第1領域であり、領域b2、領域b3が他の領域である。
領域b2に対して、領域b2と領域b1との間のIoUを計算し、上記IoUと予め設定されたIoU閾値90%とに基づいて、第1信頼度調整値を確定する。領域b2の被遮蔽度Co2に基づいて、第2信頼度調整値を確定する。第1信頼度調整値と第2信頼度調整値とに基づいて、領域b2の信頼度値Cv2を調整し、更新された信頼度値がCv21である。
領域b3に対して、領域b3と領域b1との間のIoUを計算し、上記IoUと予め設
定されたIoU閾値90%とに基づいて、第1信頼度調整値を確定する。領域b3の被遮蔽度Co3に基づいて、第2信頼度調整値を確定する。第1信頼度調整値と第2信頼度調整値とに基づいて、領域b3の信頼度値Cv3を調整し、更新された信頼度値がCv31である。
第1サイクルで得られた更新された各候補目標領域の信頼度値は、以下の表2に示す。
第2サイクルの開始時に、領域b1が既に選択されたため、領域セットB={b2、b
3}である。ここで、領域b2の信頼度値Cv21が最も高く、領域b2が第1領域であ
り、領域b3が他の領域である。
領域b3に対して、領域b3と領域b2との間のIoUを計算し、上記IoUと予め設定されたIoU閾値90%とに基づいて、第1信頼度調整値を確定する。領域b3の被遮蔽度Co3に基づいて、第2信頼度調整値を確定する。第1信頼度調整値と第2信頼度調整値とに基づいて、領域b3の信頼度値Cv31を調整し、更新された信頼度値がCv311である。
領域b1、領域b3が既に選択されたため、領域セットB={b3}であり、1つの領域を含み、サイクルが終わる。
最終的に得られた更新された各候補目標領域の信頼度値は、以下の表3に示す。
本開示の一実施例では、上記ステップS101で異なる目標尺度ごとに、画像に対して目標検出を行い、画像内の異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することができる。
目標尺度とは、目標の寸法を指す。
目標尺度は、予め設定された尺度値であってよく、例えば、目標尺度は、16x16、32x32、64x64であってよい。
具体的に、画像に対して多層特徴抽出を行って、そして、異なる特徴に対して特徴融合を行って、異なる尺度の特徴を取得してよい。異なる尺度の特徴を用いて画像に対して目
標検出を行い、異なる尺度の候補目標領域を取得し、異なる尺度の候補目標領域の信頼度値及び被遮蔽度を取得する。
このように、異なる尺度の候補目標領域に含まれる画像特徴情報が異なるため、画像内の異なる尺度の候補目標領域を取得することで、候補目標領域の異なる尺度における特徴情報を強化した。
本開示の一実施例では、予め訓練によって得られた目標検出モデルに画像を入力して、目標検出モデルによって出力された画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することができる。
上記目標検出モデルには、画像内の候補目標領域を検出するための目標検出層と、候補目標領域の被遮蔽度を予測するための遮蔽度予測層と、を含む。
一実施形態では、目標検出層は、画像内の候補目標領域を検出することに加えて、候補目標領域の信頼度値を計算することもできる。この場合、目標検出モデルのネットワーク構造は、図3aのように示す。目標検出モデルには、目標検出層と遮蔽度予測層とを含む。
具体的に、画像が目標検出モデルに入力された後、モデルにおける目標検出層は、画像内の候補目標領域を検出し、候補目標領域の信頼度値を計算し、検出結果を遮蔽度予測層に伝送する。遮蔽度予測層は、各候補目標領域の被遮蔽度を予測する。目標検出モデルは、候補目標領域と、候補目標領域の信頼度値及び被遮蔽度とを出力する。
前述した実施例から分かるように、画像に対して目標検出を行う際に、目標尺度ごとに、異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得する。この場合、上記ネットワークモデルの上にFPN(Feature Pyr
amid Networks)を追加してよく、FPNは、各種の異なる尺度の候補目標
領域と、候補目標領域の信頼度値及び被遮蔽度とを取得するために用いられる。
FPNを追加したネットワークモデルのネットワーク構造は、図3bのように示す。図3bに示すネットワーク構造は、バックボーン(Backbone)とFPNとを含む。
ここで、バックボーンは、画像に対して特徴抽出を行い、画像内の異なる層の画像特徴を取得し、異なる層の画像特徴をFPNに入力するために用いられる。
例えば、バックボーンが畳み込みニューラルネットワークである場合、畳み込みニューラルネットワークの各畳み込み層は、いずれも画像に対して畳み込み操作を行うことで、異なる層の画像特徴を取得することができる。
FPNは、異なる層の画像特徴に対して特徴融合を行い、異なる尺度の画像特徴を取得し、異なる尺度の画像特徴に基づいて目標検出を行い、異なる尺度の候補目標領域を取得し、候補目標領域の信頼度値及び被遮蔽度を取得するために用いられ、異なる層の画像特徴に対して分割統治処理を行うことを実現する。
目標検出際に、サンプル画像を訓練サンプルとし、サンプル画像内の真の候補目標領域及び真の被遮蔽度を訓練ラベルとして、訓練終了条件が満たされるまで、予め設定されたニューラルネットワークモデルに対して訓練を行い、訓練済み目標検出モデルを取得する。
上記予め設定されたニューラルネットワークモデルは、CNN(Conv Neura
l Network)モデル、RNN(Recurrent Neural Networ
k)モデル、DNN(Deep Neural Network)モデル等であってよい。
具体的に、予め設定されたニューラルネットワークモデルにサンプル画像が入力された後、上記予め設定されたニューラルネットワークモデルは、サンプル画像に対して目標検出を行い、サンプル画像内の候補目標領域及び被遮蔽度を取得し、候補目標領域と真の目標領域との間の差と、候補目標領域の被遮蔽度と真の被遮蔽度との間の差を計算し、計算によって得られた差に基づいてニューラルネットワークモデルのパラメータを調整し、予め設定された訓練終了条件を満たすまで、パラメータの調整を繰り返す。
上記訓練終了条件は、訓練回数が予め設定された回数に達すること、モデルパラメータが予め設定されたモデルパラメータの収束条件を満たすこと等であってよい。
目標検出モデルが大量の訓練サンプルによって訓練されたものであるため、訓練過程において、目標検出モデルは、サンプル画像内の目標領域の特徴及び遮蔽された特徴を学習した。そのため、目標検出モデルが高いロバスト性を有するため、目標検出モデルにより画像に対して目標検出を行うと、正確な候補目標領域と、候補目標領域の信頼度値及び被遮蔽度とを出力することができる。
上記ステップS101では、目標検出モデルにより画像に対して目標検出を行うことに加えて、画像を複数の領域に区画して、領域ごとに当該領域における画像特徴を抽出し、画像特徴に基づいて領域から候補目標領域を確定する。
上記画像特徴は、テクスチャ特徴、色特徴、エッジ特徴等を含む。
各候補目標領域を取得した後、各候補目標領域の画像特徴に基づいて、各目標候補の信頼度値を予測する。
そして、各候補目標領域が属する層及び位置情報に基づいて、各候補目標領域の被遮蔽度を計算することもできる。
具体的に、候補目標領域が属する層及び位置間の相対関係に基づいて、候補目標領域の間に遮蔽が発生するか否やかを確定し、遮蔽された面積と遮蔽された領域の面積の間の比を計算して、候補目標領域の被遮蔽度とする。
例えば、候補目標領域Aが前景層にあり、候補目標領域Bが背景層にあり、且つ候補目標領域Aの位置情報と候補目標領域Bの位置情報との間に重なる場合、候補目標領域Bが遮蔽されていると確定することができ、候補目標領域Bの遮蔽された面積と候補目標領域Bの面積の比を計算し、候補目標領域Bの被遮蔽度とする。
上記路車協調における目標検出方法に対応し、本開示の実施例は、路車協調における目標検出装置をさらに提供する。
図4を参照すると、図4は、本開示の実施例による路車協調における目標検出装置の構造の模式図であり、上記装置は、以下のモジュール401-403を含む。
情報取得モジュール401は、画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得するためのものである。
信頼度値更新モジュール402は、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新するためのものである。
目標検出モジュール403は、更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出するためのものである。
上記から分かるように、本開示の実施例による技術案を用いて目標検出を行う際に、まず、候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新し、次に、更新された信頼度値に基づいて、候補目標領域から画像内の目標を検出する。候補目標領域間のIoUが各候補目標領域間の重複度を反映でき、候補目標領域の被遮蔽度が候補目標領域の遮蔽される程度を反映できるため、上記のIoUと被遮蔽度とに基づいて、候補目標領域の信頼度値を更新する際に目標領域間の重なり具合を参考でき、候補目標領域の更新された信頼度値をより実際の状況に近づける。このため、更新された信頼度値により画像に対して目標検出を行い、目標検出の精度を高めることができる。
本開示の一実施例では、前記信頼度値更新モジュール402は、具体的に、領域セットから信頼度値が最も高い第1領域を選択し、領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することを、前記領域セットに1つの領域が含まれるまで繰り返すために用いられる。ここで、前記領域セットには、候補目標領域における選択されていない領域を含む。
このように、各サイクルでは、領域セットにおける他の領域と第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、領域セットにおける領域の信頼度値を更新する。ここで、他の領域の被遮蔽度が他の領域の遮蔽される程度を反映しており、領域が遮蔽された時に、検出によって得られた領域の信頼度値の正確度が低いため、他の領域の被遮蔽度を導入することで、更新された候補目標領域の信頼度値の正確度を高めることができる。そして、他の領域と第1領域との間のIoUが他の領域と第1領域との間の重複度を反映しており、且つ、第1領域が信頼度値が最も高い領域であるため、信頼度値が最も高い領域との間の重複度によって、他の領域の信頼度値を効果的に調整することもできる。このため、各サイクルでは、上記IoUと被遮蔽度とに基づいて、他の領域の信頼度値を効果的に更新することができる。そして、更新の過程を繰り替えすことで、更新された信頼度値の正確度をさらに高めることができる。
本開示の一実施例では、前記信頼度値更新モジュール402は、
領域セットにおける他の領域と前記第1領域との間のIoUを計算するためのIoU計算手段と、
前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定するための第1調整値確定手段と、
他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定するための第2調整値確定手段と、
前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整するための信頼度値調整手段と、を含む。
このように、第1信頼度調整値が他の領域と第1領域との間のIoUとによって確定され、IoUが他の領域と第1領域の重複度を反映しているため、且つ、第2信頼度調整値が他の領域の被遮蔽度によって確定され、被遮蔽度が他の領域の遮蔽される程度を反映しているため、第1信頼度調整値と第2信頼度調整値はいずれも、異なる角度から他の領域の遮蔽される状況を反映できる。このため、第1信頼度調整値と第2信頼度調整値とを用いて他の領域の信頼度値を調整する時に、第1信頼度調整値、第2信頼度調整値は、異なる角度から他の領域の遮蔽される状況を反映しているため、第1信頼度調整値と第2信頼度調整値とを用いて調整すると、より正確な他の領域の遮蔽される状況に基づいて信頼度値を調整することで、調整された信頼度値をさらに実際の状況に近づける。
本開示の一実施例では、前記第1調整値確定手段は、具体的に、前記IoUが予め設定されたIoU閾値より小さいか否やかを判断することと、前記IoUが予め設定されたIoU閾値より小さい場合、第1信頼度調整値を1として確定することと、前記IoUが予め設定されたIoU閾値以上の場合、前記第1信頼度調整値を1と前記IoUの差として確定することと、に用いられる。
このように、IoUが予め設定されたIoU閾値より小さい場合、他の領域と第1領域との間の重複度が小さいことを示し、他の領域における小部分の画像の内容が遮蔽され、検出によって得られた当該他の領域の信頼度値の正確度が高いことを意味し、この場合、当該他の領域の信頼度値を調整しなくてもよい。第1信頼度調整値を1に設定することで、領域の信頼度値を調整しないことを実現できる。IoUが予め設定されたIoU閾値以上の場合、他の領域と第1領域との間の重複度が大きいことを示し、他の領域における大部分の画像の内容が遮蔽され、検出によって得られた当該他の領域の信頼度値の正確度が低いことを意味し、この場合、他の領域の信頼度値を調整する必要があり、第1信頼度調整値を1とIoUの差として設定することで、調整された信頼度値を実際の状況に近づけることができる。
本開示の一実施例では、前記第2調整値確定手段は、具体的に、以下の式に従って第2信頼度調整値g(occ_pred)を確定することに用いられる。
ここで、occ_predが他の領域の被遮蔽度であり、αが予め設定された常数であ
り、α>1である。
領域の被遮蔽度が高い場合、当該領域の信頼度値の正確度が低いため、当該領域の信頼度値を大幅に調整することで、調整された信頼度値を実際の状況に近づけることが必要である。また、第2信頼度調整値g(occ_pred)が他の領域の被遮蔽度が増加するにつれて増加し、即ち他の領域の被遮蔽度が高いほど、第2信頼度調整値が大きいため、当該他の領域の信頼度値を大幅に調整することで、調整された他の領域の信頼度値実際の状況に近づけることができる。
本開示の一実施例では、前記信頼度値調整手段は、具体的に、以下の式に従って他の領域の信頼度値を調整することに用いられる。
S’=S*T1*T2
ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は前記第1信頼度調整値を表し、T2は前記第2信頼度調整値を表す。
このように、調整された信頼度値は、第1信頼度調整値と、第2信頼度調整値と他の領域の信頼度値との間の積であるため、また、第1信頼度調整値、第2信頼度調整値は、異なる角度から他の領域の遮蔽される状況を反映しているため、上記調整された信頼度値が他の領域が遮蔽される状況を参考することで、調整された信頼度値をさらに実際の状況に近づける。
本開示の一実施例では、前記目標検出モジュール403は、具体的に、更新された信頼度値が予め設定された信頼度閾値より大きい候補目標領域を選択し、選択された候補目標
領域における目標を前記画像内の目標として確定すること、又は、更新された信頼度値が最も高い候補目標領域プリセットした数で選択し、選択された候補目標領域における目標を前記画像内の目標として確定することに用いられる。
このように、信頼度値が予め設定された信頼度閾値より大きい候補目標領域について、これらの候補目標領域に目標が含まれる可能性が他の候補目標領域に目標が含まれる可能性より高い。このため、信頼度値が予め設定された信頼度閾値より大きい候補目標領域における目標を画像内の目標として確定する場合、得られた目標正確度が高い。信頼度値が最も大きいものから始まるプリセットした数の候補目標領域について、これらの候補目標領域に目標が含まれる可能性が他の候補領域に目標が含まれる可能性より高い。このため、信頼度値が最も大きいものから始まるプリセットした数の候補目標領域における目標を画像内の目標として確定する場合、得られた目標の正確度が高い。
本開示の一実施例では、前記情報取得モジュール401は、具体的に、異なる目標尺度ごとに、画像に対して目標検出を行い、前記画像内の異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することに用いられる。
このように、異なる尺度の候補目標領域に含まれる画像特徴情報が異なるため、画像内の異なる尺度の候補目標領域を取得することで、候補目標領域の異なる尺度における特徴情報を強化にした。
本開示の一実施例では、前記情報取得モジュール401は、具体的に、予め訓練によって得られた目標検出モデルに画像を入力して、前記目標検出モデルによって出力された前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することに用いられる。ここで、前記目標検出モデルには、画像内の候補目標領域を検出するための目標検出層と、候補目標領域の被遮蔽度を予測するための遮蔽度予測層と、を含む。
このように、目標検出モデルが大量の訓練サンプルによって訓練されたものであるため、訓練過程において、目標検出モデルは、サンプル画像内の目標領域の特徴及び遮蔽された特徴を学習した。そのため、目標検出モデルが高いロバストを有するため、目標検出モデルにより画像に対して目標検出を行うと、正確な候補目標領域と、候補目標領域の信頼度値及び被遮蔽度とを出力することができる。
本開示の技術案において、ユーザーの個人情報に対する収集、保存、使用、加工、伝送、提供及び開示等の処理は、いずれも関連する法律および規制に準拠しており、公序良俗に違反することではない。
本開示の実施例によれば、本開示は、デバイス、可読記憶媒体、及びコンピュータープログラム製品をさらに提供する。
本開示の一実施例では、電子デバイスを提供する。
前記電子デバイスは、
少なくとも1つのプロセッサーと、
前記少なくとも1つのプロセッサーと通信しているメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサーによって実行される命令が記憶されており、前記命令が前記少なくとも1つのプロセッサーによって実行されることで、前記少なくとも1つのプロセッサーに前述した方法の実施例の何れか1つの路車協調における目標検出方法を実行させることができる。
本開示の一実施例では、コンピューター命令が記憶されている非一時的なコンピューター可読記憶媒体を提供する。前記コンピューター命令は、前記コンピューターに前述した方法の実施例の何れか1つの路車協調における目標検出方法を実行させるために用いられる。
本開示の一実施例では、コンピュータープログラム製品を提供する。前記コンピュータープログラム製品は、コンピュータープログラムを含み、前記コンピュータープログラムがプロセッサーによって実行されると、前述した方法の実施例の何れか1つの路車協調における目標検出方法を実現する。
本開示の一実施例では、上記電子デバイスを含む路側機器を提供する。
本開示の一実施例では、上記電子デバイスを含むクラウドコントロールプラットフォームを提供する。
図5は、本開示の実施例を実施するための例示の電子デバイス500の模式的なブロック図を示す。電子デバイスとしては、例えば、ラップトップパソコン、デスクトップパソコン、ワークステーション、パーソナルデジタルアシスタント、サーバー、ブレードサーバー、メインフレームコンピューター、及び他の適当なコンピューターなど、様々な形態のデジタルコンピューターである。電子デバイスとしては、さらに、例えば、パーソナルデジタルアシスタント、セルフォン、スマートフォン、ウェアラブル機器、及び他の類似の計算装置など、様々な形態のモバイル装置である。本明細書に記載のコンポーネント、その接続関係、及びその機能は例示的なものに過ぎず、本開示の実施に関して本明細書に記載及び/又は主張された内容に限定するものではない。
図5に示すように、デバイス500は、リードオンリーメモリ(ROM)502に記憶されているコンピュータープログラム、又は記憶手段508からランダムアクセスメモリ(RAM)503にロードされたコンピュータープログラムによって、各種の適当な動作や処理を実行する、計算手段501を含む。RAM 503には、さらに、デバイス50
0を操作するための各種のプログラムやデータが記憶されていることもできる。計算手段501、ROM 502及びRAM 503は、それぞれ、バス504によって接続する。入力/出力(I/O)インターフェース505も、バス504に接続されている。
デバイス500における複数のコンポーネントは、I/Oインターフェース505に接続されている。前記複数のコンポーネントは、キーボード、マウス等の入力手段506と、各種の型のディスプレー、スピーカー等の出力手段507と、ディスク、光ディスク等の記憶手段508と、通信手段509、例えばネットワークカード、モデム、無線通信トランシーバ等の通信手段509と、を含む。通信手段509によって、デバイス500は、例えばインターネット等のコンピューターネットワーク、及び/又は各種の通信ネットワークを介して、他のデバイスと情報/データを交換することが可能である。
計算手段501は、処理及び計算能力を有する、各種の汎用な及び/又は専用な処理コンポーネントであってよい。計算手段501のいくつかの例示は、中央処理ユニット(CPU)、画像処理ユニット(GPU)、各種の専用な人工知能(AI)演算チップ、機械学習モデルアルゴリズムを実行する各種の演算ユニット、デジタルシグナルプロセッサー(DSP)、及び任意の適当なプロセッサー、コントローラ、マイクロコントローラ等を含むが、これに限定されない。計算手段501は、上述した各方法や処理、例えば路車協調の目標検出方法を実行する。例えば、いくつかの実施例では、路車協調の目標検出方法は、コンピューターソフトウェアプログラムとして実現されることができ、例えば記憶手段508等の機械可読媒体に有形的に含まれている。いくつかの実施例では、コンピュー
タープログラムの部分又は全部は、ROM 502及び/又は通信手段509を介して、
デバイス500にロード及び/又はインストールされている。コンピュータープログラムは、RAM 503にロードされ、計算手段501によって実行されると、上述した路車
協調の目標検出方法の1つ又は複数のステップを実行することができる。選択的に、他の実施例では、計算手段501は、他の任意の適当な方式によって(例えば、ファームウェアによって)、実行路車協調の目標検出方法を実行するように構成されてよい。
本明細書において、上述したシステムや技術の各種実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、複合プログラマブルロジックデバイス(CPLD)、コンピューターハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現できる。これらの各種実施形態は、次のものを含んでもよい。1つ以上のコンピュータープログラムにおいて実施されており、当該1つ以上のコンピュータープログラムは、少なくとも1つのプログラマブルプロセッサーを含むプログラマブルシステムにおいて実行及び/又は解釈されてよく、当該プログラマブルプロセッサーは、専用又は汎用のプログラマブルプロセッサーであってよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送してよい。
好ましくは、路側機器は、電子デバイスを含むことのほか、通信コンポーネント等をさらに含んでよい。電子デバイスは、通信コンポーネントと一体化させてもよく、別々に構成されてもよい。電子デバイスは、感知デバイス(例えば、路側カメラ)のデータ、例えばピクチャーやビデオ等を取得することで、画像ビデオ処理及びデータ計算を行うことをできる。好ましくは、電子デバイス自体は、感知データを取得する機能や通信機能を有するものであってよく、例えば、AIカメラである。電子デバイスは、取得した感知データに基づいて、直接に画像ビデオ処理やデータ計算を行うことができる。
好ましくは、クラウドコントロールプラットフォームは、クラウド側で処理を実行する。クラウドコントロールプラットフォームに含まれる電子デバイスは、感知デバイス(例えば、路側カメラ)のデータ、例えばピクチャーやビデオ等を取得することで、画像ビデオ処理及びデータ計算を行うことをできる。クラウドコントロールプラットフォームは、路車協調管理プラットフォーム、エッジ計算プラットフォーム、クラウド計算プラットフォーム、センターシステム、クラウド側サーバー等と称してもよい。
本開示の方法を実施するためのプログラムコードは、1つ以上のプログラミング言語の任意の組み合わせを用いて編集してよい。これらのプログラムコードは、汎用コンピューター、専用コンピューター又は他のプログラマブルデータ処理装置のプロセッサー又はコントローラに提供されることで、プログラムコードがプロセッサー又はコントローラによって実行されると、フローチャート図及び/又はブロック図で規定された機能/操作を実施されることができる。プログラムコードは、完全的に機械で実行されることができ、部分的に機械で実行されることができ、独立なパッケージソフトウェアとして部分的に機械で実行され且つ部分的にリモート機械で実行される、又は完全的にリモート機械やサーバーで実行されることができる。
本開示の文脈では、機械可読媒体は、命令実行システム、装置又はデバイスが使用され、又は、命令実行システム、装置又はデバイスと結合して使用されるプログラムを含み又は記憶されている、有形の媒体であってよい。機械可読媒体は、機械可読シグナル媒体、又は機械可読記憶媒体であってよい。機械可読媒体は、電子、磁気、光学、電磁、赤外線、又は半導体のシステム、装置又はデバイス、又はこれらの任意の適当な組み合わせを含
んでよいが、これに限定されない。。機械可読記憶媒体のより具体的な例示としては、1本以上のワイヤに基づく電気接続、携帯型コンピューターディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバー、携帯型コンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶デバイス、磁気記憶デバイス、又はこれらの任意の適当な組み合わせを含んでよい。
ユーザーとのインタラクションを提供するために、上述したシステム及び技術は、コンピューターで実施することができる。当該コンピューターは、ユーザーに情報を表示することに用いられる表示装置(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニター)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザーは、当該キーボード及び当該ポインティングデバイスによって、コンピューターに入力情報を提供することができる。ユーザーとのインタラクションを提供するために、他の種類の装置も使える。例えば、ユーザーに提供されるフィードバックは、任意の形式の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってよい。また、任意の形式(音入力、音声入力、触覚入力を含む)によって、ユーザーからの入力を受信してよい。
ここで記述したシステム及び技術は、バックグラウンドコンポーネントを含む計算システム(例えば、データサーバーとして)、又は中間コンポーネントを含む計算システム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含む計算システム(例えば、グラフィカルユーザーインタフェース又はウェブブラウザーを備えるユーザーコンピューターであって、ユーザーは、当該グラフィカルユーザーインタフェース又は当該ウェブブラウザーによってここで記述したシステム及び技術の実施形態とインタラクションを行うことができる)、又はこのようなバックグラウンドコンポーネント、中間コンポーネント、又はフロントエンドコンポーネントの任意の組み合わせを含む計算システムで、実施することができる。任意の形式又は媒体によるデジタルデータ通信(例えば、通信ネットワーク)を介して、システムのコンポーネントを互いに接続することができる。通信ネットワークの例示としては、ローカル領域ネットワーク(LAN)と、ワイド領域ネットワーク(WAN)と、インターネットとを含む。
コンピューターシステムは、クライアントとサーバーとを含んでよい。クライアントとサーバーとは、通常、互いに離れており、通信ネットワークを介してインタラクションを行う。対応するコンピューターにおいて互いにクライアント-サーバー関係を有するコンピュータープログラムを実行することで、クライアントとサーバーとの関係を確立する。サーバーは、クラウドサーバー、分散システムのサーバー、又はブロックチェーンを結合したサーバーであってよい。
なお、上記の様々なプロセスを踏まえて、ステップを並べ替え、追加、又は削除することができる。例えば、本開示に記載の各ステップは同時に実行されてもよいし、順に実行されてもよいし、他の順番で実行されてもよく、本開示の技術的解決手段の所望の結果を得られるものであれば、本明細書では特に限定しない。
上記具体的な実施形態は、本開示の保護範囲を限定するものと見なされない。当業者が理解したように、設計上の要件や他の要素に基づいて、様々な修正や、組み合わせ、置き換えを行うことができる。本開示の趣旨においてなされた修正、同等な置き換えや改善等は、いずれも本開示の保護範囲に含まれる。

Claims (21)

  1. 画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することと、
    候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することと、
    更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出することと、を含
    前記候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新することは、
    領域セットから信頼度値が最も高い第1領域を選択し、領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することを、前記領域セットに1つの領域が含まれるまで繰り返すこと、を含み、
    前記領域セットには、候補目標領域における選択されていない領域を含む、
    路車協調における目標検出方法。
  2. 前記領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することは、
    領域セットにおける他の領域と前記第1領域との間のIoUを計算することと、
    前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定することと、
    他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定することと、
    前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整することと、を含む、
    請求項に記載の方法。
  3. 前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定することは、
    前記IoUが予め設定されたIoU閾値より小さいか否やかを判断することと、
    前記IoUが予め設定されたIoU閾値より小さい場合、第1信頼度調整値を1として確定することと、
    前記IoUが予め設定されたIoU閾値以上の場合、前記第1信頼度調整値を1と前記IoUの差として確定することと、を含む、
    請求項に記載の方法。
  4. 前記他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定することは、
    以下の式に従って第2信頼度調整値g(occ_pred)を確定することを含み、
    ここで、occ_predが他の領域の被遮蔽度であり、αが予め設定された常数であり、α>1である、
    請求項に記載の方法。
  5. 前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整することは、
    以下の式に従って、他の領域の信頼度値を調整することを含み、
    S’=S*T1*T2
    ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は前記第1信頼度調整値を表し、T2は前記第2信頼度調整値を表す、
    請求項のいずれか1つに記載の方法。
  6. 前記更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出することは、
    更新された信頼度値が予め設定された信頼度閾値より大きい候補目標領域を選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、
    又は、
    更新された信頼度値が最も高い候補目標領域をプリセットした数で選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、を含む、
    請求項1-のいずれか1つに記載の方法。
  7. 前記画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することは、
    異なる目標尺度ごとに、画像に対して目標検出を行い、前記画像内の異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得すること、を含む、
    請求項1-のいずれか1つに記載の方法。
  8. 前記画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することは、
    予め訓練によって得られた目標検出モデルに画像を入力して、前記目標検出モデルによって出力された前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得し、ここで、前記目標検出モデルには、画像内の候補目標領域を検出するための目標検出層と、候補目標領域の被遮蔽度を予測するための遮蔽度予測層とを含むこと、を含む、
    請求項1-のいずれか1つに記載の方法。
  9. 画像に対して目標検出を行い、前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得するための情報取得モジュールと、
    候補目標領域間のIoUと候補目標領域の被遮蔽度とに基づいて、候補目標領域の信頼度値を更新するための信頼度値更新モジュールと、
    更新された信頼度値に基づいて、候補目標領域から前記画像内の目標を検出するための目標検出モジュールと、を含
    前記信頼度値更新モジュールは、領域セットから信頼度値が最も高い第1領域を選択し、領域セットにおける他の領域と前記第1領域との間のIoUと他の領域の被遮蔽度とに基づいて、他の領域の信頼度値を更新することを、前記領域セットに1つの領域が含まれるまで繰り返すことに用いられ、
    前記領域セットには、候補目標領域における選択されていない領域を含む、
    路車協調における目標検出装置。
  10. 前記信頼度値更新モジュールは、
    領域セットにおける他の領域と前記第1領域との間のIoUを計算するためのIoU計算手段と、
    前記IoUと予め設定されたIoU閾値とに基づいて、第1信頼度調整値を確定するための第1調整値確定手段と、
    他の領域の被遮蔽度に基づいて、第2信頼度調整値を確定するための第2調整値確定手段と、
    前記第1信頼度調整値と第2信頼度調整値とを用いて、他の領域の信頼度値を調整するための信頼度値調整手段と、を含む、
    請求項に記載の装置。
  11. 前記第1調整値確定手段は、前記IoUが予め設定されたIoU閾値より小さいか否やかを判断することと、前記IoUが予め設定されたIoU閾値より小さい場合、第1信頼度調整値を1として確定することと、前記IoUが予め設定されたIoU閾値以上の場合、前記第1信頼度調整値を1と前記IoUの差として確定することと、に用いられる、
    請求項10に記載の装置。
  12. 前記第2調整値確定手段は、以下の式に従って第2信頼度調整値g(occ_pred)を確定することに用いられ、
    ここで、occ_predが他の領域の被遮蔽度であり、αが予め設定された常数であり、α>1である、
    請求項10に記載の装置。
  13. 前記信頼度値調整手段は、以下の式に従って、他の領域の信頼度値を調整することに用いられ、
    S’=S*T1*T2
    ここで、S’は調整された他の領域の信頼度値を表し、Sは調整される前の他の領域の信頼度値を表し、T1は前記第1信頼度調整値を表し、T2は前記第2信頼度調整値を表す、
    請求項1012のいずれか1つに記載の装置。
  14. 前記目標検出モジュールは、
    更新された信頼度値が予め設定された信頼度閾値より大きい候補目標領域を選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、
    又は、
    更新された信頼度値が最も高い候補目標領域をプリセットした数で選択し、選択された候補目標領域における目標を前記画像内の目標として確定すること、に用いられる、
    請求項12のいずれか1つに記載の装置
  15. 前記情報取得モジュールは、異なる目標尺度ごとに、画像に対して目標検出を行い、前記画像内の異なる尺度の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することに用いられる、
    請求項12のいずれか1つに記載の装置。
  16. 前記情報取得モジュールは、予め訓練によって得られた目標検出モデルに画像を入力して、前記目標検出モデルによって出力された前記画像内の候補目標領域と、候補目標領域の信頼度値と、候補目標領域の被遮蔽度とを取得することに用いられ、
    前記目標検出モデルには、画像内の候補目標領域を検出するための目標検出層と、候補目標領域の被遮蔽度を予測するための遮蔽度予測層と、を含む、
    請求項12のいずれか1つに記載の装置。
  17. 少なくとも1つのプロセッサーと、
    前記少なくとも1つのプロセッサーと通信しているメモリと、を含み、
    前記メモリには、前記少なくとも1つのプロセッサーによって実行される命令が記憶されており、前記命令が前記少なくとも1つのプロセッサーによって実行されることで、前記少なくとも1つのプロセッサーに請求項1-のいずれか1つに記載の方法を実行させる、
    電子デバイス。
  18. コンピューター命令が記憶されている非一時的なコンピューター可読記憶媒体であって、前記コンピューター命令は、前記コンピューターに請求項1-のいずれか1つに記載の方法を実行させることに用いられる、
    非一時的なコンピューター可読記憶媒体。
  19. ロセッサーによって実行されると、請求項1-のいずれか1つに記載の方法を実現する、
    コンピュータープログラ
  20. 請求項17に記載の電子デバイスを含む、路側機器。
  21. 請求項17に記載の電子デバイスを含む、クラウド側サーバー
JP2022535786A 2021-06-28 2021-10-25 路車協調における目標検出方法、装置及び路側機器 Active JP7436670B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110721853.4A CN113420682B (zh) 2021-06-28 2021-06-28 车路协同中目标检测方法、装置和路侧设备
CN202110721853.4 2021-06-28
PCT/CN2021/126163 WO2023273041A1 (zh) 2021-06-28 2021-10-25 车路协同中目标检测方法、装置和路侧设备

Publications (2)

Publication Number Publication Date
JP2023536025A JP2023536025A (ja) 2023-08-23
JP7436670B2 true JP7436670B2 (ja) 2024-02-21

Family

ID=77717817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022535786A Active JP7436670B2 (ja) 2021-06-28 2021-10-25 路車協調における目標検出方法、装置及び路側機器

Country Status (4)

Country Link
JP (1) JP7436670B2 (ja)
KR (1) KR20220091607A (ja)
CN (1) CN113420682B (ja)
WO (1) WO2023273041A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420682B (zh) * 2021-06-28 2023-08-15 阿波罗智联(北京)科技有限公司 车路协同中目标检测方法、装置和路侧设备
CN114063079B (zh) * 2021-10-12 2022-06-21 福瑞泰克智能***有限公司 目标置信度获取方法、装置、雷达***和电子装置
CN118043864A (zh) * 2021-10-22 2024-05-14 深圳市速腾聚创科技有限公司 障碍物识别方法、装置、存储介质及电子设备
CN114005095B (zh) * 2021-10-29 2023-06-30 北京百度网讯科技有限公司 车辆属性识别方法、装置、电子设备和介质
CN116071724B (zh) * 2023-03-03 2023-08-04 安徽蔚来智驾科技有限公司 车载相机遮挡场景识别方法、电子设备、存储介质及车辆
CN116363631B (zh) * 2023-05-19 2023-09-05 小米汽车科技有限公司 三维目标检测方法、装置及车辆

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101859A (zh) 2017-06-21 2018-12-28 北京大学深圳研究生院 使用高斯惩罚检测图像中行人的方法
CN110222764A (zh) 2019-06-10 2019-09-10 中南民族大学 遮挡目标检测方法、***、设备及存储介质
US20200097756A1 (en) 2018-09-26 2020-03-26 Toyota Jidosha Kabushiki Kaisha Object detection device and object detection method
CN111986252A (zh) 2020-07-16 2020-11-24 浙江工业大学 一种用于目标分割网络中候选边界框精准定位的方法
US20210042592A1 (en) 2019-08-08 2021-02-11 Toyota Jidosha Kabushiki Kaisha Object detection device, object detection method, and computer program for object detection
CN113011417A (zh) 2021-01-08 2021-06-22 湖南大学 基于交并比覆盖率损失与重定位策略的目标匹配方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI393074B (zh) * 2009-12-10 2013-04-11 Ind Tech Res Inst 移動物體偵測裝置與方法
CN102044151B (zh) * 2010-10-14 2012-10-17 吉林大学 基于光照可见度辨识的夜间车辆视频检测方法
CN110009060B (zh) * 2019-04-17 2021-07-23 东北大学 一种基于相关滤波与目标检测的鲁棒性长期跟踪方法
CN110428007B (zh) * 2019-08-01 2020-11-24 科大讯飞(苏州)科技有限公司 X光图像目标检测方法、装置及设备
CN110659600B (zh) * 2019-09-19 2022-04-29 北京百度网讯科技有限公司 物体检测方法、装置及设备
CN111182491B (zh) * 2019-12-31 2022-03-22 淮安中科晶上智能网联研究院有限公司 一种基于射频层析成像的无设备目标定位的方法及装置
CN113033456B (zh) * 2021-04-08 2023-12-19 阿波罗智联(北京)科技有限公司 车辆车轮接地点的确定方法、装置、路侧设备及云控平台
CN113420682B (zh) * 2021-06-28 2023-08-15 阿波罗智联(北京)科技有限公司 车路协同中目标检测方法、装置和路侧设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101859A (zh) 2017-06-21 2018-12-28 北京大学深圳研究生院 使用高斯惩罚检测图像中行人的方法
US20200097756A1 (en) 2018-09-26 2020-03-26 Toyota Jidosha Kabushiki Kaisha Object detection device and object detection method
CN110222764A (zh) 2019-06-10 2019-09-10 中南民族大学 遮挡目标检测方法、***、设备及存储介质
US20210042592A1 (en) 2019-08-08 2021-02-11 Toyota Jidosha Kabushiki Kaisha Object detection device, object detection method, and computer program for object detection
CN111986252A (zh) 2020-07-16 2020-11-24 浙江工业大学 一种用于目标分割网络中候选边界框精准定位的方法
CN113011417A (zh) 2021-01-08 2021-06-22 湖南大学 基于交并比覆盖率损失与重定位策略的目标匹配方法

Also Published As

Publication number Publication date
KR20220091607A (ko) 2022-06-30
WO2023273041A1 (zh) 2023-01-05
CN113420682A (zh) 2021-09-21
JP2023536025A (ja) 2023-08-23
CN113420682B (zh) 2023-08-15

Similar Documents

Publication Publication Date Title
JP7436670B2 (ja) 路車協調における目標検出方法、装置及び路側機器
CN108197618B (zh) 用于生成人脸检测模型的方法和装置
EP3268933A1 (en) Systems and methods for object tracking
CN104715249A (zh) 物体跟踪方法和装置
CN113691733B (zh) 视频抖动检测方法、装置、电子设备和存储介质
CN113901911B (zh) 图像识别、模型训练方法、装置、电子设备及存储介质
CN112863187B (zh) 感知模型的检测方法、电子设备、路侧设备和云控平台
CN111008631B (zh) 图像的关联方法及装置、存储介质和电子装置
WO2023273344A1 (zh) 车辆跨线识别方法、装置、电子设备和存储介质
US20230072632A1 (en) Obstacle detection method, electronic device and storage medium
CN112528927A (zh) 基于轨迹分析的置信度确定方法、路侧设备及云控平台
CN114169425B (zh) 训练目标跟踪模型和目标跟踪的方法和装置
CN115511779A (zh) 图像检测方法、装置、电子设备和存储介质
AU2021204584A1 (en) Methods, apparatuses, devices and storage media for detecting correlated objects involved in image
CN113627298A (zh) 目标检测模型的训练方法及检测目标对象的方法、装置
CN111310595B (zh) 用于生成信息的方法和装置
CN116824609A (zh) 文档版式检测方法、装置和电子设备
EP4080479A2 (en) Method for identifying traffic light, device, cloud control platform and vehicle-road coordination system
CN114429631A (zh) 三维对象检测方法、装置、设备以及存储介质
CN115052154A (zh) 一种模型训练和视频编码方法、装置、设备及存储介质
CN114120423A (zh) 人脸图像检测方法、装置、电子设备和计算机可读介质
CN114549584A (zh) 信息处理的方法、装置、电子设备及存储介质
CN114220163A (zh) 人体姿态估计方法、装置、电子设备及存储介质
CN113657596A (zh) 训练模型和图像识别的方法和装置
CN112749707A (zh) 利用神经网络进行目标分割的方法、设备和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240208

R150 Certificate of patent or registration of utility model

Ref document number: 7436670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150