JP2023523243A - 障害物検出方法及び装置、コンピュータデバイス、並びにコンピュータプログラム - Google Patents
障害物検出方法及び装置、コンピュータデバイス、並びにコンピュータプログラム Download PDFInfo
- Publication number
- JP2023523243A JP2023523243A JP2022564312A JP2022564312A JP2023523243A JP 2023523243 A JP2023523243 A JP 2023523243A JP 2022564312 A JP2022564312 A JP 2022564312A JP 2022564312 A JP2022564312 A JP 2022564312A JP 2023523243 A JP2023523243 A JP 2023523243A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- target
- depth
- network
- field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 94
- 238000004590 computer program Methods 0.000 title claims description 15
- 238000012545 processing Methods 0.000 claims abstract description 67
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000000605 extraction Methods 0.000 claims description 55
- 238000005259 measurement Methods 0.000 claims description 33
- 238000007781 pre-processing Methods 0.000 claims description 24
- 230000011218 segmentation Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 15
- 238000000638 solvent extraction Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 10
- 238000010606 normalization Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000001174 ascending effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2020年10月22日に中国国家知識産権局に提出した、出願番号が2020111386275、発明の名称が「障害物検出方法、装置、コンピュータデバイス及び記憶媒体」の中国特許出願の優先権を主張するものであり、その全ての内容は、参照により本願に組み込まれるものとする。
本願は、コンピュータの技術分野に関し、特に障害物検出方法、装置、コンピュータデバイス及び記憶媒体に関する。
目標車両の位置する道路の道路シーン画像を取得するステップと、
道路シーン画像に対して障害物識別処理を行い、道路シーン画像における各障害物にそれぞれ対応する領域情報と被写界深度情報を取得するステップと、
各障害物にそれぞれ対応する領域情報に基づいて、遮蔽関係を有する目標障害物を決定し、目標障害物の被写界深度情報に基づいて、各目標障害物間の相対的な被写界深度関係を決定するステップと、
目標車両に対応する測距装置が収集した各障害物に対する測距結果を取得するステップと、
各目標障害物間の相対的な被写界深度関係、及び各障害物の測距結果に基づいて、目標車両の位置する道路に対応する障害物検出結果を決定するステップと、を含む。
目標車両の位置する道路の道路シーン画像を取得する道路シーン画像取得モジュールと、
道路シーン画像に対して障害物識別処理を行い、道路シーン画像における各障害物にそれぞれ対応する領域情報と被写界深度情報を取得する障害物識別処理モジュールと、
各障害物にそれぞれ対応する領域情報に基づいて、遮蔽関係を有する目標障害物を決定し、目標障害物の被写界深度情報に基づいて、各目標障害物間の相対的な被写界深度関係を決定する相対的な被写界深度関係決定モジュールと、
目標車両に対応する測距装置が収集した各障害物に対する測距結果を取得する測距結果取得モジュールと、
各目標障害物間の相対的な被写界深度関係、及び各障害物の測距結果に基づいて、目標車両の位置する道路に対応する障害物検出結果を決定する障害物検出結果決定モジュールと、を含む。
目標車両の位置する道路の道路シーン画像を取得するステップと、
道路シーン画像に対して障害物識別処理を行い、道路シーン画像における各障害物にそれぞれ対応する領域情報と被写界深度情報を取得するステップと、
各障害物にそれぞれ対応する領域情報に基づいて、遮蔽関係を有する目標障害物を決定し、目標障害物の被写界深度情報に基づいて、各目標障害物間の相対的な被写界深度関係を決定するステップと、
目標車両に対応する測距装置が収集した各障害物に対する測距結果を取得するステップと、
各目標障害物間の相対的な被写界深度関係、及び各障害物の測距結果に基づいて、目標車両の位置する道路に対応する障害物検出結果を決定するステップと、を実行させる。
目標車両の位置する道路の道路シーン画像を取得するステップと、
道路シーン画像に対して障害物識別処理を行い、道路シーン画像における各障害物にそれぞれ対応する領域情報と被写界深度情報を取得するステップと、
各障害物にそれぞれ対応する領域情報に基づいて、遮蔽関係を有する目標障害物を決定し、目標障害物の被写界深度情報に基づいて、各目標障害物間の相対的な被写界深度関係を決定するステップと、
目標車両に対応する測距装置が収集した各障害物に対する測距結果を取得するステップと、
各目標障害物間の相対的な被写界深度関係、及び各障害物の測距結果に基づいて、目標車両の位置する道路に対応する障害物検出結果を決定するステップと、を実行させる。
Wout×Hout=(2×Win)×(2×Hin)
ここで、Woutは、出力画像の長さであり、Houtは、出力画像の幅であり、Winは、入力画像の長さであり、Hinは、入力画像の幅である。特徴ピラミッドネットワークは、拡大されたバックボーン特徴マップを取得した後、拡大されたバックボーン特徴マップを入力された目標バックボーン特徴マップと融合することにより、融合された4つの異なるスケールの特徴マップを取得し、特徴ピラミッドのダウンサンプリングモジュールにより4つの異なるスケールのバックボーン特徴マップにおける最小スケールのバックボーン特徴マップに対してダウンサンプリング処理を行い、新たなスケールの特徴マップを取得し、これにより特徴ピラミッドネットワークにより5つの異なるスケールの特徴マップを取得する。
道路シーン画像取得モジュール802は、目標車両の位置する道路の道路シーン画像を取得し、
障害物識別処理モジュール804は、道路シーン画像に対して障害物識別処理を行い、道路シーン画像における各障害物にそれぞれ対応する領域情報と被写界深度情報を取得し、
相対的な被写界深度関係決定モジュール806は、各障害物にそれぞれ対応する領域情報に基づいて、遮蔽関係を有する目標障害物を決定し、目標障害物の被写界深度情報に基づいて、各目標障害物間の相対的な被写界深度関係を決定し、
測距結果取得モジュール808は、目標車両に対応する測距装置が収集した各障害物に対する測距結果を取得し、
障害物検出結果決定モジュール810は、各目標障害物間の相対的な被写界深度関係、及び各障害物の測距結果に基づいて、目標車両の位置する道路に対応する障害物検出結果を決定する。
Claims (20)
- コンピュータデバイスが実行する障害物検出方法であって、
目標車両の位置する道路の道路シーン画像を取得するステップと、
前記道路シーン画像に対して障害物識別処理を行い、前記道路シーン画像における各障害物にそれぞれ対応する領域情報と被写界深度情報を取得するステップと、
各障害物にそれぞれ対応する領域情報に基づいて、遮蔽関係を有する目標障害物を決定し、前記目標障害物の被写界深度情報に基づいて、各目標障害物間の相対的な被写界深度関係を決定するステップと、
前記目標車両に対応する測距装置が収集した各障害物に対する測距結果を取得するステップと、
各目標障害物間の相対的な被写界深度関係、及び各障害物の測距結果に基づいて、前記目標車両の位置する道路に対応する障害物検出結果を決定するステップと、を含む、ことを特徴とする、
障害物検出方法。 - 目標車両の位置する道路の道路シーン画像を取得する前記ステップは、
前記目標車両が自動運転状態にある場合、前記目標車両に対応する画像収集装置から伝送された道路シーン画像を受信するステップであって、前記道路シーン画像は、前記画像収集装置が前記目標車両の位置する道路のリアルシーンを収集して得られた画像である、ステップを含む、ことを特徴とする、請求項1に記載の障害物検出方法。 - 前記道路シーン画像に対して障害物識別処理を行い、前記道路シーン画像における各障害物にそれぞれ対応する領域情報と被写界深度情報を取得する前記ステップは、
前記道路シーン画像を障害物識別モデルに入力するステップであって、前記障害物識別モデルは、特徴抽出ネットワーク、インスタンス分割ネットワーク及び被写界深度予測ネットワークを含む、ステップと、
前記特徴抽出ネットワークにより、前記道路シーン画像に対して特徴抽出を行い、異なるスケールに対応する複数の特徴マップを取得するステップと、
前記インスタンス分割ネットワークにより、前記異なるスケールの特徴マップに対してそれぞれインスタンス分割処理を行い、前記道路シーン画像における各障害物にそれぞれ対応する領域情報を取得するステップと、
前記被写界深度予測ネットワークにより、各障害物にそれぞれ対応する領域情報に基づいて、各障害物に対して被写界深度予測を行い、各障害物にそれぞれ対応する被写界深度情報を取得するステップと、を含む、ことを特徴とする、
請求項1に記載の障害物検出方法。 - 前記特徴抽出ネットワークは、特徴抽出バックボーンネットワーク及び特徴ピラミッドネットワークを含み、前記特徴抽出ネットワークにより、前記道路シーン画像に対して特徴抽出を行い、異なるスケールに対応する複数の特徴マップを取得する前記ステップは、
前記道路シーン画像を前記特徴抽出バックボーンネットワークに入力し、前記特徴抽出バックボーンネットワークにおける異なるスケールの畳み込みネットワーク層の処理により、異なるスケールに対応する複数のバックボーン特徴マップを取得するステップと、
前記異なるスケールのバックボーン特徴マップを前記特徴ピラミッドネットワークに入力し、前記特徴ピラミッドネットワークの処理により、異なるスケールに対応する複数の特徴マップを取得するステップと、を含む、ことを特徴とする、
請求項3に記載の障害物検出方法。 - 前記インスタンス分割ネットワークは、領域生成ネットワーク、目標分類ネットワーク及び目標分割ネットワークを含み、前記インスタンス分割ネットワークにより、前記異なるスケールの特徴マップに対してそれぞれインスタンス分割処理を行い、前記道路シーン画像における各障害物にそれぞれ対応する領域情報を取得する前記ステップは、
前記異なるスケールの特徴マップをそれぞれ前記領域生成ネットワークに入力し、前記領域生成ネットワークにおける予め定められたスケールの畳み込みネットワーク層の処理により、各特徴マップにそれぞれ対応する候補領域を取得するステップと、
前記目標分類ネットワークにより、各候補領域にそれぞれ対応する障害物種類を予測するステップと、
予測によって得られた各候補領域が属する障害物種類に基づいて、前記候補領域に対してインスタンス分割を行い、各障害物にそれぞれ対応する領域情報を取得するステップと、を含む、ことを特徴とする、
請求項3に記載の障害物検出方法。 - 各障害物にそれぞれ対応する領域情報に基づいて、遮蔽関係を有する目標障害物を決定するステップは、
各障害物にそれぞれ対応する領域情報に基づいて、障害物識別を行う過程において、各障害物にそれぞれ対応する候補領域を取得するステップと、
異なる障害物に対応する候補領域間の重複率を計算するステップと、
重複率が重複率閾値より大きい候補領域に対応する障害物を、遮蔽関係を有する目標障害物として決定するステップと、を含む、ことを特徴とする、
請求項1に記載の障害物検出方法。 - 前記目標障害物の被写界深度情報に基づいて、各目標障害物間の相対的な被写界深度関係を決定するステップは、
前記目標障害物の被写界深度情報に基づいて、各目標障害物を近い順にソートし、対応する被写界深度のソート結果を取得するステップと、
前記被写界深度のソート結果に基づいて、各目標障害物間の相対的な被写界深度関係を決定するステップと、を含む、ことを特徴とする、
請求項1に記載の障害物検出方法。 - 前記測距装置は、カメラ及びレーダのうちの少なくとも1種を含み、前記目標車両に対応する測距装置が収集した各障害物に対する測距結果を取得する前記ステップは、
前記目標車両に対応する前記測距装置が収集した測距データを取得するステップと、
前記測距装置に合わせたデータ前処理方式に応じて、前記測距データを前処理し、前処理後の測距データを取得するステップと、
前記測距装置に合わせた距離予測モデルにより、前記前処理後の測距データに対して距離推定処理を行い、各障害物に対する測距結果を取得するステップと、を含む、ことを特徴とする、
請求項1に記載の障害物検出方法。 - 各目標障害物間の相対的な被写界深度関係、及び各障害物の測距結果に基づいて、前記目標車両の位置する道路に対応する障害物検出結果を決定する前記ステップは、
各障害物の測距結果、及び前記障害物のうちの目標障害物間の相対的な被写界深度関係に基づいて、各障害物の危険レベルを決定するステップと、
各目標障害物間の相対的な被写界深度関係、各障害物の測距結果及び各障害物の危険レベルのうちの少なくとも1つを、前記目標車両の位置する道路に対応する障害物検出結果として決定するステップと、を含む、ことを特徴とする、
請求項1~8のいずれか一項に記載の障害物検出方法。 - 各障害物の測距結果、及び前記障害物のうちの目標障害物間の相対的な被写界深度関係に基づいて、各障害物の危険レベルを決定する前記ステップは、
各障害物の測距結果に基づいて、各障害物にそれぞれ対応する初期危険レベルを決定するステップと、
前記障害物のうちの目標障害物間の相対的な被写界深度関係に基づいて、前記目標障害物の初期危険レベルを補正し、対応する補正危険レベルを取得するステップと、
調整されていない障害物の初期危険レベル、及び前記目標障害物の補正危険レベルに基づいて、前記目標車両の位置する道路における各障害物にそれぞれ対応する危険レベルを決定するステップと、を含む、ことを特徴とする、
請求項9に記載の障害物検出方法。 - 目標車両の位置する道路の道路シーン画像を取得する道路シーン画像取得モジュールと、
前記道路シーン画像に対して障害物識別処理を行い、前記道路シーン画像における各障害物にそれぞれ対応する領域情報と被写界深度情報を取得する障害物識別処理モジュールと、
各障害物にそれぞれ対応する領域情報に基づいて、遮蔽関係を有する目標障害物を決定し、前記目標障害物の被写界深度情報に基づいて、各目標障害物間の相対的な被写界深度関係を決定する相対的な被写界深度関係決定モジュールと、
前記目標車両に対応する測距装置が収集した各障害物に対する測距結果を取得する測距結果取得モジュールと、
各目標障害物間の相対的な被写界深度関係、及び各障害物の測距結果に基づいて、前記目標車両の位置する道路に対応する障害物検出結果を決定する障害物検出結果決定モジュールと、を含む、ことを特徴とする、
障害物検出装置。 - 前記道路シーン画像取得モジュールは、さらに、
前記目標車両が自動運転状態にある場合、前記目標車両に対応する画像収集装置から伝送された道路シーン画像を受信し、前記道路シーン画像は、前記画像収集装置が前記目標車両の位置する道路のリアルシーンを収集して得られた画像である、ことを特徴とする、
請求項11に記載の障害物検出装置。 - 前記障害物識別処理モジュールは、さらに、
前記道路シーン画像を障害物識別モデルに入力し、前記障害物識別モデルは、特徴抽出ネットワーク、インスタンス分割ネットワーク及び被写界深度予測ネットワークを含み、
前記特徴抽出ネットワークにより、前記道路シーン画像に対して特徴抽出を行い、異なるスケールに対応する複数の特徴マップを取得し、
前記インスタンス分割ネットワークにより、前記異なるスケールの特徴マップに対してそれぞれインスタンス分割処理を行い、前記道路シーン画像における各障害物にそれぞれ対応する領域情報を取得し、
前記被写界深度予測ネットワークにより、各障害物にそれぞれ対応する領域情報に基づいて、各障害物に対して被写界深度予測を行い、各障害物にそれぞれ対応する被写界深度情報を取得する、ことを特徴とする、
請求項11に記載の障害物検出装置。 - 前記特徴抽出ネットワークは、特徴抽出バックボーンネットワーク及び特徴ピラミッドネットワークを含み、前記障害物識別処理モジュールは、さらに、
前記道路シーン画像を前記特徴抽出バックボーンネットワークに入力し、前記特徴抽出バックボーンネットワークにおける異なるスケールの畳み込みネットワーク層の処理により、異なるスケールに対応する複数のバックボーン特徴マップを取得し、
前記異なるスケールのバックボーン特徴マップを前記特徴ピラミッドネットワークに入力し、前記特徴ピラミッドネットワークの処理により、異なるスケールに対応する複数の特徴マップを取得する、ことを特徴とする、
請求項13に記載の障害物検出装置。 - 前記インスタンス分割ネットワークは、領域生成ネットワーク、目標分類ネットワーク及び目標分割ネットワークを含み、前記障害物識別処理モジュールは、さらに、
前記異なるスケールの特徴マップをそれぞれ前記領域生成ネットワークに入力し、前記領域生成ネットワークにおける予め定められたスケールの畳み込みネットワーク層の処理により、各前記特徴マップにそれぞれ対応する候補領域を取得し、
前記目標分類ネットワークにより、各候補領域にそれぞれ対応する障害物種類を予測し、
予測によって得られた各候補領域が属する障害物種類に基づいて、前記候補領域に対してインスタンス分割を行い、各障害物にそれぞれ対応する領域情報を取得する、ことを特徴とする、
請求項13に記載の障害物検出装置。 - 前記相対的な被写界深度関係決定モジュールは、さらに、
各障害物にそれぞれ対応する領域情報に基づいて、障害物識別を行う過程において、各障害物にそれぞれ対応する候補領域を取得し、
異なる障害物に対応する候補領域間の重複率を計算し、
重複率が重複率閾値より大きい候補領域に対応する障害物を、遮蔽関係を有する目標障害物として決定する、ことを特徴とする、
請求項11に記載の障害物検出装置。 - 前記相対的な被写界深度関係決定モジュールは、さらに、
前記目標障害物の被写界深度情報に基づいて、各目標障害物を近い順にソートし、対応する被写界深度のソート結果を取得し、
前記被写界深度のソート結果に基づいて、各目標障害物間の相対的な被写界深度関係を決定する、ことを特徴とする、
請求項11に記載の障害物検出装置。 - 前記測距装置は、カメラ及びレーダのうちの少なくとも1種を含み、前記測距結果取得モジュールは、さらに、
前記目標車両に対応する前記測距装置が収集した測距データを取得し、
前記測距装置に合わせたデータ前処理方式に応じて、前記測距データを前処理し、前処理後の測距データを取得し、
前記測距装置に合わせた距離予測モデルにより、前記前処理後の測距データに対して距離推定処理を行い、各障害物に対する測距結果を取得する、ことを特徴とする、
請求項11に記載の障害物検出装置。 - コンピュータ読み取り可能な命令が記憶されているメモリと、1つ又は複数のプロセッサと、を含む、コンピュータデバイスであって、前記コンピュータ読み取り可能な命令が前記プロセッサにより実行される場合、前記1つ又は複数のプロセッサに請求項1~10のいずれか一項に記載の方法のステップを実行させる、ことを特徴とする、コンピュータデバイス。
- 1つ又は複数のプロセッサが実行するコンピュータプログラムであって、請求項1~10のいずれか一項に記載の方法のステップを実行させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011138627.5A CN112417967B (zh) | 2020-10-22 | 2020-10-22 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN202011138627.5 | 2020-10-22 | ||
PCT/CN2021/120162 WO2022083402A1 (zh) | 2020-10-22 | 2021-09-24 | 障碍物检测方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023523243A true JP2023523243A (ja) | 2023-06-02 |
JP7430277B2 JP7430277B2 (ja) | 2024-02-09 |
Family
ID=74840400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022564312A Active JP7430277B2 (ja) | 2020-10-22 | 2021-09-24 | 障害物検出方法及び装置、コンピュータデバイス、並びにコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230014874A1 (ja) |
EP (1) | EP4109331A4 (ja) |
JP (1) | JP7430277B2 (ja) |
CN (1) | CN112417967B (ja) |
WO (1) | WO2022083402A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112417967B (zh) * | 2020-10-22 | 2021-12-14 | 腾讯科技(深圳)有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN115512316A (zh) * | 2021-06-04 | 2022-12-23 | 魔门塔(苏州)科技有限公司 | 静态障碍物接地轮廓线多帧融合方法、装置及介质 |
CN113689589B (zh) * | 2021-09-02 | 2023-04-21 | 广东电网有限责任公司 | 一种基于无人机的电缆线路巡视方法及装置 |
CN113790761B (zh) * | 2021-09-22 | 2023-08-04 | 腾讯科技(深圳)有限公司 | 驾驶端定位方法、装置、计算机设备和存储介质 |
WO2023065313A1 (zh) * | 2021-10-22 | 2023-04-27 | 深圳市速腾聚创科技有限公司 | 遮挡关系判断方法、装置、存储介质及电子设备 |
CN113902047B (zh) * | 2021-12-10 | 2022-03-04 | 腾讯科技(深圳)有限公司 | 图像元素匹配方法、装置、设备以及存储介质 |
CN114396911B (zh) * | 2021-12-21 | 2023-10-31 | 中汽创智科技有限公司 | 一种障碍物测距方法、装置、设备及存储介质 |
CN114274979B (zh) * | 2022-01-07 | 2024-06-14 | 中国第一汽车股份有限公司 | 自动驾驶的目标关注度等级判别方法、装置及存储介质 |
CN114627443B (zh) * | 2022-03-14 | 2023-06-09 | 小米汽车科技有限公司 | 目标检测方法、装置、存储介质、电子设备及车辆 |
CN114677425A (zh) * | 2022-03-17 | 2022-06-28 | 北京小马慧行科技有限公司 | 确定物体景深的方法与装置 |
CN114740867A (zh) * | 2022-05-10 | 2022-07-12 | 丰疆智能(深圳)有限公司 | 基于双目视觉的智能避障方法、装置、机器人及介质 |
CN114764911B (zh) * | 2022-06-15 | 2022-09-23 | 小米汽车科技有限公司 | 障碍物信息检测方法、装置、电子设备及存储介质 |
CN115331190B (zh) * | 2022-09-30 | 2022-12-09 | 北京闪马智建科技有限公司 | 一种基于雷视融合的道路隐患识别方法及装置 |
CN115375985B (zh) * | 2022-10-25 | 2023-03-24 | 杭州华橙软件技术有限公司 | 非限定类别障碍物检测方法、相关网络训练方法及装置 |
CN115840459B (zh) * | 2023-01-04 | 2023-05-16 | 北京科技大学 | 一种面向扑翼飞行器的单目视觉避障*** |
CN116052121B (zh) * | 2023-01-28 | 2023-06-27 | 上海芯算极科技有限公司 | 一种基于距离预估的多传感目标检测融合方法及装置 |
CN116416504B (zh) * | 2023-03-16 | 2024-02-06 | 北京瑞拓电子技术发展有限公司 | 基于车辆协同的高速公路异物检测***和方法 |
CN116012453B (zh) * | 2023-03-28 | 2023-06-09 | 常州星宇车灯股份有限公司 | 车辆智能驾驶的单目测距方法、装置、设备、介质及车辆 |
CN116563817B (zh) * | 2023-04-14 | 2024-02-20 | 禾多科技(北京)有限公司 | 障碍物信息生成方法、装置、电子设备和计算机可读介质 |
CN116704473B (zh) * | 2023-05-24 | 2024-03-08 | 禾多科技(北京)有限公司 | 障碍物信息检测方法、装置、电子设备和计算机可读介质 |
CN116434151B (zh) * | 2023-06-14 | 2023-08-29 | 云途信息科技(杭州)有限公司 | 路面异物识别方法、装置、计算机设备及存储介质 |
CN117934486B (zh) * | 2024-03-25 | 2024-06-07 | 国网辽宁省电力有限公司电力科学研究院 | 变压器元件检测方法、装置、电子设备和存储介质 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7741961B1 (en) * | 2006-09-29 | 2010-06-22 | Canesta, Inc. | Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles |
JP2015042952A (ja) | 2013-08-26 | 2015-03-05 | シャープ株式会社 | 障害物検知装置および電動車両 |
CN104537661A (zh) * | 2014-12-26 | 2015-04-22 | 张长隆 | 一种单目摄像头测量面积的方法和*** |
CN106226050B (zh) * | 2016-07-15 | 2019-02-01 | 北京航空航天大学 | 一种基于卷积神经网络的tfds故障图像自动识别方法 |
US10678846B2 (en) * | 2017-03-10 | 2020-06-09 | Xerox Corporation | Instance-level image retrieval with a region proposal network |
CN108229366B (zh) * | 2017-12-28 | 2021-12-14 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN108416776B (zh) * | 2018-03-16 | 2021-04-30 | 京东方科技集团股份有限公司 | 图像识别方法、图像识别装置、计算机产品和可读存储介质 |
CN108469825A (zh) * | 2018-04-19 | 2018-08-31 | 河南科技学院 | 一种基于车路协同的智能巡视***及其构建方法 |
CN108764186B (zh) * | 2018-06-01 | 2021-10-26 | 合肥工业大学 | 基于旋转深度学习的人物遮挡轮廓检测方法 |
CN109084724A (zh) * | 2018-07-06 | 2018-12-25 | 西安理工大学 | 一种基于双目视觉的深度学习障碍物测距方法 |
CN109212377B (zh) * | 2018-09-27 | 2021-08-20 | 国网智能科技股份有限公司 | 一种高压线路障碍物识别方法、装置、巡检机器人 |
CN109639896A (zh) * | 2018-12-19 | 2019-04-16 | Oppo广东移动通信有限公司 | 遮挡物检测方法、装置、存储介质及移动终端 |
JP2020167441A (ja) | 2019-03-28 | 2020-10-08 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置、及び電子機器 |
CN109931946A (zh) * | 2019-04-10 | 2019-06-25 | 福州大学 | 基于Android智能手机的盲人视觉测距导航方法 |
CN110070056B (zh) * | 2019-04-25 | 2023-01-10 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质及设备 |
WO2021026831A1 (zh) * | 2019-08-14 | 2021-02-18 | 珊口(深圳)智能科技有限公司 | 移动机器人及其控制方法和控制*** |
CN110942449B (zh) * | 2019-10-30 | 2023-05-23 | 华南理工大学 | 一种基于激光与视觉融合的车辆检测方法 |
CN111291809B (zh) * | 2020-02-03 | 2024-04-12 | 华为技术有限公司 | 一种处理装置、方法及存储介质 |
CN111339649B (zh) * | 2020-02-20 | 2022-02-08 | 西南交通大学 | 一种采集车辆轨迹数据的仿真方法、***及设备 |
CN111488812B (zh) * | 2020-04-01 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 障碍物位置识别方法、装置、计算机设备和存储介质 |
CN111680554A (zh) * | 2020-04-29 | 2020-09-18 | 北京三快在线科技有限公司 | 自动驾驶场景的深度估计方法、装置和自主车辆 |
CN111627057B (zh) * | 2020-05-26 | 2024-06-07 | 孙剑 | 一种距离测量方法、装置及服务器 |
CN111666921B (zh) * | 2020-06-30 | 2022-05-20 | 腾讯科技(深圳)有限公司 | 车辆控制方法、装置、计算机设备和计算机可读存储介质 |
CN112417967B (zh) * | 2020-10-22 | 2021-12-14 | 腾讯科技(深圳)有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
-
2020
- 2020-10-22 CN CN202011138627.5A patent/CN112417967B/zh active Active
-
2021
- 2021-09-24 JP JP2022564312A patent/JP7430277B2/ja active Active
- 2021-09-24 EP EP21881821.9A patent/EP4109331A4/en active Pending
- 2021-09-24 WO PCT/CN2021/120162 patent/WO2022083402A1/zh unknown
-
2022
- 2022-09-22 US US17/950,644 patent/US20230014874A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4109331A4 (en) | 2023-06-21 |
WO2022083402A1 (zh) | 2022-04-28 |
EP4109331A1 (en) | 2022-12-28 |
CN112417967A (zh) | 2021-02-26 |
JP7430277B2 (ja) | 2024-02-09 |
CN112417967B (zh) | 2021-12-14 |
US20230014874A1 (en) | 2023-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7430277B2 (ja) | 障害物検出方法及び装置、コンピュータデバイス、並びにコンピュータプログラム | |
EP3732657B1 (en) | Vehicle localization | |
US11798173B1 (en) | Moving point detection | |
US20230144209A1 (en) | Lane line detection method and related device | |
KR102052114B1 (ko) | 고정밀 전자지도 갱신을 위한 객체 변화 탐지 시스템 및 방법 | |
KR102103834B1 (ko) | 고정밀 전자지도 갱신을 위한 객체 변화 탐지 시스템 및 방법 | |
US11216705B2 (en) | Object detection based on machine learning combined with physical attributes and movement patterns detection | |
WO2021253245A1 (zh) | 识别车辆变道趋势的方法和装置 | |
CN112446227A (zh) | 物体检测方法、装置及设备 | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
US20230236038A1 (en) | Position estimation method, position estimation device, and position estimation program | |
CN114821507A (zh) | 一种用于自动驾驶的多传感器融合车路协同感知方法 | |
CN114359181A (zh) | 一种基于图像和点云的智慧交通目标融合检测方法及*** | |
CN112906777A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
Berriel et al. | A particle filter-based lane marker tracking approach using a cubic spline model | |
Kühnl et al. | Visual ego-vehicle lane assignment using spatial ray features | |
JP2022039188A (ja) | 位置姿勢算出方法および位置姿勢算出プログラム | |
US20220129685A1 (en) | System and Method for Determining Object Characteristics in Real-time | |
CN115187941A (zh) | 目标检测定位方法、***、设备及存储介质 | |
CN112699711A (zh) | 车道线检测方法、装置、存储介质及电子设备 | |
CN116665179A (zh) | 数据处理方法、装置、域控制器以及存储介质 | |
Ballinas-Hernández et al. | Marked and unmarked speed bump detection for autonomous vehicles using stereo vision | |
CN115359332A (zh) | 基于车路协同的数据融合方法、装置、电子设备及*** | |
CN114782496A (zh) | 一种对象的跟踪方法、装置、存储介质及电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7430277 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |