JP6817384B2 - 自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体 - Google Patents

自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP6817384B2
JP6817384B2 JP2019134756A JP2019134756A JP6817384B2 JP 6817384 B2 JP6817384 B2 JP 6817384B2 JP 2019134756 A JP2019134756 A JP 2019134756A JP 2019134756 A JP2019134756 A JP 2019134756A JP 6817384 B2 JP6817384 B2 JP 6817384B2
Authority
JP
Japan
Prior art keywords
neural network
network model
target
driving vehicle
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019134756A
Other languages
English (en)
Other versions
JP2020042794A (ja
Inventor
佳佳 陳
佳佳 陳
吉 万
吉 万
添 夏
添 夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2020042794A publication Critical patent/JP2020042794A/ja
Application granted granted Critical
Publication of JP6817384B2 publication Critical patent/JP6817384B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/004Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
    • B60Q9/005Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors using a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本願は、自動運転の技術分野に関し、特に自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体に関する。
情報技術の発展に伴い、自動運転車両は、スマート化車両研究の主な研究の方向性となっている。自動運転車両の運転過程では、自動運転車両は、リアルタイム的に視覚感知処理を行って、その視覚感知の結果に基づいて自動運転車両の運転を制御する必要がある。
従来技術において、自動運転車両は、視覚感知画像を収集することができ、そして自動運転車両が、収集した視覚感知画像における異なるターゲット対象(例えば障害物、車線又は交通マーク等)を識別する。識別する場合、視覚感知画像をそれぞれ異なるターゲット対象に対応するディープラーニングモデルに入力して特徴の抽出及び識別を行う必要があり、それによって対応するターゲット対象が確定される。
従来技術においては、視覚感知画像をそれぞれ異なるターゲット対象に対応するディープラーニングモデルに入力して特徴の抽出及び識別を行う必要があるため、このように、異なるターゲット対象をそれぞれ識別する手段には大きなタイムラグが存在し、ターゲット対象に対する識別速度が遅くなり、それによって自動運転車両の感度を低下させ、交通事故を引き起こすおそれがある。
本発明は、従来技術において、ターゲット対象に対する識別速度が遅く、自動運転車両の感度を低下させ、交通事故を引き起こしやすいという技術的問題を解決するためになされたものであり、自動運転車両に基づく視覚感知方法、自動運転車両に基づく視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体を提供する。
第1の態様では、本発明は、自動運転車両が収集した第1視覚感知画像を取得することと、前記第1視覚感知画像を第1ニューラルネットワークモデルに入力し、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別し、それによって前記第1視覚感知画像における余剰特徴情報を取り除くことと、前記少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得ることと、を含み、前記ターゲット識別対象と前記サブニューラルネットワークモデルとは一対一に対応することを特徴とする自動運転車両の視覚感知方法を提供する。
一つの選択可能な実施形態において、前記自動運転車両の視覚感知方法は、前記第1ニューラルネットワークモデルを取得することを更に含む。
一つの選択可能な実施形態において、前記第1ニューラルネットワークモデルを取得することは、第2視覚感知画像及び少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、第1プリセットニューラルネットワークモデルをトレーニングして前記第1ニューラルネットワークモデルを生成することを含み、前記第2視覚感知画像には、前記少なくとも1つのトレーニングサンプル対象が含まれている。
一つの選択可能な実施形態において、前記第2ニューラルネットワークモデルを取得することを更に含む。
一つの選択可能な実施形態において、前記第2ニューラルネットワークモデルを取得することは、少なくとも1つのトレーニングサンプル対象及び前記少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、それぞれ第2プリセットニューラルネットワークモデルにおける少なくとも1つのサブプリセットニューラルネットワークモデルをトレーニングし、前記第2ニューラルネットワークモデルを生成することを含み、前記トレーニングサンプル対象と前記サブプリセットニューラルネットワークモデルはと一対一に対応する。
一つの選択可能な実施形態において、前記自動運転車両が収集した第1視覚感知画像を取得することは、前記自動運転車両に設置された画像収集装置が収集した前記第1視覚感知画像を取得することを含む。
一つの選択可能な実施形態において、前記ターゲット識別対象は、ターゲット物体及びターゲットエリアのうち、少なくとも1つを含む。
第2の態様では、本発明は、自動運転車両が収集した第1視覚感知画像を取得するために用いられる第1取得モジュールと、前記第1視覚感知画像を第1ニューラルネットワークモデルに入力し、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別し、前記第1視覚感知画像における余剰特徴情報を取り除くために用いられる識別モジュールと、前記少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得るために用いられる確定モジュールと、を含み、前記ターゲット識別対象と前記サブニューラルネットワークモデルとは一対一に対応することを特徴とする自動運転車両の視覚感知装置を提供する。
一つの選択可能な実施形態において、前記第1ニューラルネットワークモデルを取得するために用いられる第2取得モジュールを更に含む。
一つの選択可能な実施形態において、前記第2取得モジュールは、第2視覚感知画像及び少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、第1プリセットニューラルネットワークモデルをトレーニングして前記第1ニューラルネットワークモデルを生成するために用いられ、前記第2視覚感知画像には、前記少なくとも1つのトレーニングサンプル対象が含まれている。
一つの選択可能な実施形態において、前記第2ニューラルネットワークモデルを取得するために用いられる第3取得モジュールを更に含む。
一つの選択可能な実施形態において、前記第3取得モジュールは、少なくとも1つのトレーニングサンプル対象及び前記少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、それぞれ第2プリセットニューラルネットワークモデルにおける少なくとも1つのサブプリセットニューラルネットワークモデルをトレーニングして前記第2ニューラルネットワークモデルを生成するために用いられ、前記トレーニングサンプル対象と前記サブプリセットニューラルネットワークモデルとは一対一に対応する。
一つの選択可能な実施形態において、前記第1取得モジュールは、前記自動運転車両における画像収集装置が収集した前記第1視覚感知画像を取得するために用いられる。
一つの選択可能な実施形態において、前記ターゲット識別対象は、ターゲット物体及びターゲットエリアのうち、少なくとも1つを含む。
第3の態様では、本発明は、メモリ及びプロセッサを含む制御機器であって、前記メモリは、コンピュータコマンドを記憶するために用いられ、前記プロセッサは、前記メモリに記憶された前記コンピュータコマンドを実行して第1の態様のいずれかの自動運転車両の視覚感知方法を実現するために用いられることを特徴とする制御機器を提供する。
第4の態様では、本発明は、コンピュータコマンドが記憶されたコンピュータ読み取り可能な記憶媒体であって、前記コンピュータコマンドは、第1の態様のいずれかの自動運転車両の視覚感知方法を実現するために用いられることを特徴とするコンピュータ読み取り可能な記憶媒体を提供する。
本実施例が提供する自動運転車両に基づく視覚感知方法、装置、機器及び媒体は、取得した自動運転車両が収集した第1視覚感知画像を第1ニューラルネットワークモデルに入力することにより、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別し、それによって前記第1視覚感知画像における余剰特徴情報を取り除く。更に、前記少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得て、ここで、前記ターゲット識別対象と前記サブニューラルネットワークモデルは一対一に対応する。本実施例において、第1ニューラルネットワークモデルによって前記第1視覚感知画像における余剰特徴情報を取り除き、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報のみをそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力して識別を行い、各サブニューラルネットワークモデルがそれぞれ余剰特徴情報を取り除く時間を減少することができ、ターゲット識別対象の識別速度を加速させ、それによって自動運転車両の感度を高め、自動運転車両の走行安全性を保証することができる。
本願の実施例又は従来技術における技術的解決手段をより明確に説明するために、以下、本願の実施例又は従来技術に対する説明に使用すべき図面を簡単に説明する。明らかに、以下、説明される実施例は本願の一部の実施例に過ぎず、当業者であれば、本願における実施例に基づき、創造的な労働をせずに、これらの図面から他の図面を得ることができる。
本願の一実施例が提供する自動運転車両に基づく視覚感知方法のフローチャートである。 本願の別の実施例が提供する自動運転車両に基づく視覚感知方法のフローチャートである。 本願の別の実施例が提供する自動運転車両に基づく視覚感知方法のフローチャートである。 本願の一実施例が提供する自動運転車両に基づく視覚感知装置の構造概略図である。 本願の一実施例が提供する制御機器の構造概略図である。
まず、本願の実施例の適用シーン及び一部の用語について説明する。
本願の実施例が提供する自動運転車両に基づく視覚感知方法、自動運転車両に基づく視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体は、自動運転車両が視覚感知を行い、自動運転車両を制御するための適用シーンに適用されることができる。本願の実施例は、ターゲット識別対象の識別速度を加速させ、それによって自動運転車両の感度を高め、自動運転車両の走行安全性を保証することができる。
本願の実施例が提供する自動運転車両に基づく視覚感知方法の実行主体は、自動運転車両に基づく視覚感知装置又は制御機器(説明の利便さのために、本実施例において、実行主体を自動運転車両に基づく視覚感知装置とすることを例として説明する)であってもよい。例示的に、当該装置はソフトウェア及び/又はハードウェアによって実現されることができる。
本願の実施例の係るターゲット識別対象は、ターゲット物体及び/又はターゲットエリアを含んでもよいが、それらに限定されない。例示的に、ターゲット物体は、障害物、車線又は交通マークのうち少なくとも1つを含んでもよいが、それらに限定されない。例示的に、ターゲットエリアは、立木エリア、運転エリア又は柵エリアのうち少なくとも1つを含んでもよいが、それらに限定されない。
本願の実施例の係るトレーニングサンプル対象は、物体サンプル及び/又はエリアサンプルを含んでもよいが、それらに限定されない。例示的に、物体サンプルは、障害物、車線又は交通マークのうち少なくとも1つを含んでもよいが、それらに限定されない。例示的に、エリアサンプルは、立木エリア、運転エリア又は柵エリアのうち少なくとも1つを含んでもよいが、それらに限定されない。
本願の実施例の係る第1ニューラルネットワークモデルとは、第1プリセットニューラルネットワークモデルをトレーニングし、得られたニューラルネットワークモデルである。例示的に、第1ニューラルネットワークモデルは、第1視覚感知画像における少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を抽出し、第1視覚感知画像における余剰特徴情報(識別する必要がない特徴情報)を取り除くために用いられる。例えば、余剰特徴情報は、識別する必要がない非ターゲット識別対象の特徴情報及び/又は識別する必要がないターゲット識別対象の特徴情報を含んでもよいが、それらに限定されない。
本願の実施例の係る第2ニューラルネットワークモデルとは、第2プリセットニューラルネットワークモデルにおける少なくとも1つのサブプリセットニューラルネットワークモデルをトレーニングし、得られたニューラルネットワークモデルである。ここで、各サブプリセットニューラルネットワークモデルは、一類別のトレーニングサンプル対象に対応する。例示的に、第2ニューラルネットワークモデルには、並列した少なくとも1つのサブニューラルネットワークモデルが含まれ、各サブニューラルネットワークモデルは、一類別のターゲット識別対象に対応する。
例示的に、第2ニューラルネットワークモデルにおけるいずれか1つのサブニューラルネットワークモデルは、対応するターゲット識別対象のマルチチャンネル特徴情報を識別し、それによってターゲット識別対象を得るために用いられる。
本実施例が提供する自動運転車両に基づく視覚感知方法、装置、機器及び媒体は、第1ニューラルネットワークモデルによって第1視覚感知画像における余剰特徴情報を取り除き、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報のみをそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力して識別し、各サブニューラルネットワークモデルがそれぞれ余剰特徴情報を取り除く時間を減少することができ、それによって従来技術において、ターゲット対象に対する識別速度が遅く、自動運転車両の感度を低下させ、交通事故を引き起こしやすいという技術的問題を解決する。
以下、具体的な実施例によって、本願の技術的解決手段及び本願の技術的解決手段によりいかに上記技術的問題を解決することについて詳しく説明する。以下のいくつかの具体的な実施例は相互に組み合わせることができ、同じ又は類似する概念又は過程については説明を省略することがある。
図1は本願の一実施例が提供する自動運転車両に基づく視覚感知方法のフローチャートである。図1に示すとおり、本実施例が提供する自動運転車両に基づく視覚感知方法は、ステップS101からステップS103を含む。
ステップS101において、自動運転車両が収集した第1視覚感知画像を取得する。
本ステップにおいて、自動運転車両に基づく視覚感知装置は、自動運転車両が収集した第1視覚感知画像を取得する(自動運転車両周辺の環境を指示するための画像情報)。
選択的に、自動運転車両に基づく視覚感知装置は、自動運転車両における画像収集装置が収集した第1視覚感知画像を取得することができる。例示的に、画像収集装置は、カメラ又はレーザプローブのうち少なくとも1つを含んでもよいが、それらに限定されない。
当然なことながら、自動運転車両に基づく視覚感知装置は、更に他の実施形態によって、自動運転車両が収集した第1視覚感知画像を取得することができ、本願の実施例においてこれを限定しない。
ステップS102において、第1視覚感知画像を第1ニューラルネットワークモデルに入力し、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別し、第1視覚感知画像における余剰特徴情報を取り除く。
本ステップにおいて、自動運転車両に基づく視覚感知装置は、第1視覚感知画像を第1ニューラルネットワークモデルに入力し、第1ニューラルネットワークモデルによって第1視覚感知画像に対して特徴抽出を行い、それによって第1視覚感知画像における少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別することで、第1視覚感知画像における余剰特徴情報(識別する必要がない特徴情報を指す)を取り除き、それによって第2ニューラルネットワークモデルが直接少なくとも1つのターゲット識別対象のマルチチャンネル特徴情報に対して素早く識別しやすい。
ステップS103において、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得て、ここで、ターゲット識別対象とサブニューラルネットワークモデルは一対一に対応する。
本願の実施例において、第2ニューラルネットワークモデルには、並列した少なくとも1つのサブニューラルネットワークモデルが含まれてもよく、各サブニューラルネットワークモデルは一類別のターゲット識別対象に対応する。例示的に、第2ニューラルネットワークモデルにおけるいずれか1つのサブニューラルネットワークモデルは、対応するターゲット識別対象のマルチチャンネル特徴情報を識別し、ターゲット識別対象を得るために用いられる。
例えば、第2ニューラルネットワークモデルには、サブニューラルネットワークモデル1、サブニューラルネットワークモデル2及びサブニューラルネットワークモデル3が含まれ、ここで、サブニューラルネットワークモデル1は、ターゲット識別対象Aのマルチチャンネル特徴情報を識別し、ターゲット識別対象Aを得るために用いられ、サブニューラルネットワークモデル2は、ターゲット識別対象Bのマルチチャンネル特徴情報を識別し、ターゲット識別対象Bを得るために用いられ、サブニューラルネットワークモデル3は、ターゲット識別対象Cのマルチチャンネル特徴情報を識別し、ターゲット識別対象Cを得るために用いられると仮定する。
本ステップにおいて、自動運転車両に基づく視覚感知装置は、第1ニューラルネットワークモデルが第1視覚感知画像における余剰特徴情報を取り除くことによって得られた少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける対応するサブニューラルネットワークモデルに入力し、対応するサブニューラルネットワークモデルによって対応するターゲット識別対象のマルチチャンネル特徴情報を識別し、対応するターゲット識別対象を得て、それによって自動運転車両の制御が便利になる。
例えば、少なくとも1つの認識すべきターゲット識別対象は、ターゲット識別対象A、ターゲット識別対象B及びターゲット識別対象Cを含み、第2ニューラルネットワークモデルは、サブニューラルネットワークモデル1、サブニューラルネットワークモデル2及びサブニューラルネットワークモデル3を含む。ここで、サブニューラルネットワークモデル1は、ターゲット識別対象Aに対応し、サブニューラルネットワークモデル2は、ターゲット識別対象Bに対応し、及びサブニューラルネットワークモデル3は、ターゲット識別対象Cに対応すると仮定する。
本ステップにおいて、1)自動運転車両に基づく視覚感知装置は、ターゲット識別対象Aのマルチチャンネル特徴情報を第2ニューラルネットワークモデルにおけるサブニューラルネットワークモデル1に入力し、サブニューラルネットワークモデル1によってターゲット識別対象Aのマルチチャンネル特徴情報を識別し、ターゲット識別対象Aを得ることができる。
2)自動運転車両に基づく視覚感知装置は、ターゲット識別対象Bのマルチチャンネル特徴情報を第2ニューラルネットワークモデルにおけるサブニューラルネットワークモデル2に入力し、サブニューラルネットワークモデル2によってターゲット識別対象Bのマルチチャンネル特徴情報を識別し、ターゲット識別対象Bを得ることができる。
3)自動運転車両に基づく視覚感知装置は、ターゲット識別対象Cのマルチチャンネル特徴情報を第2ニューラルネットワークモデルにおけるサブニューラルネットワークモデル3に入力し、サブニューラルネットワークモデル3によってターゲット識別対象Cのマルチチャンネル特徴情報を識別し、ターゲット識別対象Cを得ることができる。
なお、本実施例において、自動運転車両に基づく視覚感知装置が、ターゲット識別対象Aのマルチチャンネル特徴情報を第2ニューラルネットワークモデルにおけるサブニューラルネットワークモデル1に入力して識別し、自動運転車両に基づく視覚感知装置が、ターゲット識別対象Bのマルチチャンネル特徴情報を第2ニューラルネットワークモデルにおけるサブニューラルネットワークモデル2に入力して識別し、及び自動運転車両に基づく視覚感知装置が、ターゲット識別対象Cのマルチチャンネル特徴情報を第2ニューラルネットワークモデルにおけるサブニューラルネットワークモデル3に入力して識別するステップを並列に実行し、又は順次実行してもよく、本実施例においてこれを限定しない。
本実施例が提供する自動運転車両に基づく視覚感知方法は、取得された自動運転車両が収集した第1視覚感知画像を第1ニューラルネットワークモデルに入力することにより、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別するし、これによって第1視覚感知画像における余剰特徴情報を取り除く。更に、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得て、ここで、ターゲット識別対象とサブニューラルネットワークモデルは一対一に対応する。本願の実施例において、第1ニューラルネットワークモデルによって第1視覚感知画像における余剰特徴情報を取り除き、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報のみをそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力して識別を行い、各サブニューラルネットワークモデルがそれぞれ余剰特徴情報を取り除く時間を減少することができ、ターゲット識別対象の識別速度を加速させ、それによって自動運転車両の感度を高め、自動運転車両の走行安全性を保証することができる。
図2は本願の別の実施例が提供する自動運転車両に基づく視覚感知方法のフローチャートである。上記実施例を基に、図2に示すとおり、本実施例においては、上記ステップS102の前に、更にステップS100Aを含む。
ステップS100Aにおいて、第1ニューラルネットワークモデルを取得する。
本ステップにおいて、自動運転車両に基づく視覚感知装置が、第1ニューラルネットワークモデルを取得する必要があり、それによって自動運転車両に基づく視覚感知装置が、後に第1ニューラルネットワークモデルを用いて第1視覚感知画像に対して特徴抽出を行うことにより、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別し、第1視覚感知画像における余剰特徴情報を取り除く。
本実施例の下記部分は上記ステップS100Aの具体的な実施形態について説明する。
例示的に、第2視覚感知画像及び少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、第1プリセットニューラルネットワークモデルをトレーニングし、第1ニューラルネットワークモデルを生成し、ここで、第2視覚感知画像には、少なくとも1つのトレーニングサンプル対象が含まれている。
本実施例において、自動運転車両に基づく視覚感知装置は、第2視覚感知画像(少なくとも1つのトレーニングサンプル対象を含む)に基づき、第1プリセットニューラルネットワークモデルをトレーニングし、トレーニングによって得られたマルチチャンネル特徴情報と少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報が同じ又は類似する(例えば、同じ情報が占める割合が第1プリセット割合より大きい)まで行い、それによって第1ニューラルネットワークモデルを得る。
当然なことながら、本実施例において、他の実施形態によって第1ニューラルネットワークモデルを取得することもでき、本実施例においてこれを限定しない。
本実施例において、第1ニューラルネットワークモデルを取得することにより、第1ニューラルネットワークモデルに基づき、第1視覚感知画像における余剰特徴情報を取り除き、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報のみをそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力して識別し、各サブニューラルネットワークモデルがそれぞれ余剰特徴情報を取り除く時間を減少でき、ターゲット識別対象の識別速度を加速し、それによって自動運転車両の感度を高め、自動運転車両の走行安全性を保証することができる。
図3は本願の別の実施例が提供する自動運転車両に基づく視覚感知方法のフローチャートである。上記実施例を基に、図3に示すとおり、本実施例においては、上記ステップS103の前に、更にステップS100Bを含む。
ステップS100Bにおいて、第2ニューラルネットワークモデルを取得する。
本実施例において、第2ニューラルネットワークモデルは、並列した少なくとも1つのサブニューラルネットワークモデルを含むことができ、各サブニューラルネットワークモデルは、一類別のターゲット識別対象に対応する。例示的に、第2ニューラルネットワークモデルにおけるいずれか1つのサブニューラルネットワークモデルは、対応するターゲット識別対象のマルチチャンネル特徴情報を識別し、ターゲット識別対象を得るために用いられる。
本ステップにおいて、自動運転車両に基づく視覚感知装置は、第2ニューラルネットワークモデルを取得する必要があり、それによって自動運転車両に基づく視覚感知装置が、後に少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得る。
本実施例の下記部分は上記ステップS100Bの具体的な実施形態について説明する。
例示的に、少なくとも1つのトレーニングサンプル対象及び少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、それぞれ第2プリセットニューラルネットワークモデルにおける少なくとも1つのサブプリセットニューラルネットワークモデルをトレーニングし、第2ニューラルネットワークモデルを生成し、ここで、トレーニングサンプル対象とサブプリセットニューラルネットワークモデルは一対一に対応する。
本実施例の係る第2プリセットニューラルネットワークモデルは、並列した少なくとも1つのサブプリセットニューラルネットワークモデルを含み、各サブプリセットニューラルネットワークモデルは、一類別のトレーニングサンプル対象に対応する。例示的に、第2プリセットニューラルネットワークモデルにおけるいずれか1つのサブプリセットニューラルネットワークモデルは、対応するトレーニングサンプル対象のマルチチャンネル特徴情報を識別するために用いられる。
本実施例において、自動運転車両に基づく視覚感知装置は、少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、それぞれ第2プリセットニューラルネットワークモデルにおける対応するサブプリセットニューラルネットワークモデルをトレーニングし、トレーニングによって得られた対象がそれぞれ少なくとも1つのトレーニングサンプル対象と同じ又は類似する(例えば、同じ情報が占める割合が第2プリセット割合より大きい)まで行い、それによって第2ニューラルネットワークモデルを得る。
例えば、少なくとも1つのトレーニングサンプル対象は、トレーニングサンプル対象A、トレーニングサンプル対象B及びトレーニングサンプル対象Cを含み、第2プリセットニューラルネットワークモデルは、サブプリセットニューラルネットワークモデル1、サブプリセットニューラルネットワークモデル2及びサブプリセットニューラルネットワークモデル3を含み、ここで、サブプリセットニューラルネットワークモデル1は、トレーニングサンプル対象Aに対応し、サブプリセットニューラルネットワークモデル2は、トレーニングサンプル対象Bに対応し、及びサブプリセットニューラルネットワークモデル3は、トレーニングサンプル対象Cに対応すると仮定する。
本実施例において、1)自動運転車両に基づく視覚感知装置は、トレーニングサンプル対象Aのマルチチャンネル特徴情報に基づき、第2プリセットニューラルネットワークモデルにおけるサブプリセットニューラルネットワークモデル1をトレーニングし、トレーニングによって得られた対象がトレーニングサンプル対象Aと同じ又は類似する(例えば、同じ情報が占める割合が第2プリセット割合より大きい)まで行い、サブニューラルネットワークモデル1を得る。
2)自動運転車両に基づく視覚感知装置は、トレーニングサンプル対象Bのマルチチャンネル特徴情報に基づき、第2プリセットニューラルネットワークモデルにおけるサブプリセットニューラルネットワークモデル2をトレーニングし、トレーニングによって得られた対象がトレーニングサンプル対象Bと同じ又は類似する(例えば、同じ情報が占める割合が第2プリセット割合より大きい)まで行い、サブニューラルネットワークモデル2を得る。
3)自動運転車両に基づく視覚感知装置は、トレーニングサンプル対象Cのマルチチャンネル特徴情報に基づき、第2プリセットニューラルネットワークモデルにおけるサブプリセットニューラルネットワークモデル3をトレーニングし、トレーニングによって得られた対象がトレーニングサンプル対象Cと同じ又は類似する(例えば、同じ情報が占める割合が第2プリセット割合より大きい)まで行い、サブニューラルネットワークモデル3を得る。
上記トレーニングにより、第2ニューラルネットワークモデルを得る。例示的に、第2ニューラルネットワークモデルは、サブニューラルネットワークモデル1、サブニューラルネットワークモデル2及びサブニューラルネットワークモデル3を含む。
なお、本実施例において、自動運転車両に基づく視覚感知装置が、トレーニングサンプル対象Aのマルチチャンネル特徴情報に基づき、第2プリセットニューラルネットワークモデルにおけるサブプリセットニューラルネットワークモデル1をトレーニングし、自動運転車両に基づく視覚感知装置が、トレーニングサンプル対象Bのマルチチャンネル特徴情報に基づき、第2プリセットニューラルネットワークモデルにおけるサブプリセットニューラルネットワークモデル2をトレーニングし、及び自動運転車両に基づく視覚感知装置が、トレーニングサンプル対象Cのマルチチャンネル特徴情報に基づき、第2プリセットニューラルネットワークモデルにおけるサブプリセットニューラルネットワークモデル3をトレーニングすることができるステップを並列に実行し、又は順次実行することができ、本実施例においてこれを限定しない。
当然なことながら、本実施例において、更に他の実施形態によって第2ニューラルネットワークモデルを取得することができ、本実施例においてこれを限定しない。
なお、図3においてステップS100BをステップS102とステップS103との間に概略的に設定するが、ステップS100BはステップS101及び/又はステップS102の後に実行するように限定しない。図3はステップS100BをステップS103の前に設定することを概略的に表示するものにすぎず、ステップS101及びステップS102とステップS100Bとの前後の実行順番を限定しない。
本実施例が提供する自動運転車両に基づく視覚感知方法は、第2ニューラルネットワークモデルを取得することにより、第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに基づき、それぞれ対応するターゲット識別対象のマルチチャンネル特徴情報を直接に識別し、余剰特徴情報をそれぞれ取り除く必要がなく、ターゲット識別対象の識別速度を加速し、それによって自動運転車両の感度を高め、自動運転車両の走行安全性を保証することができる。
図4は本願の一実施例が提供する自動運転車両に基づく視覚感知装置の構造概略図である。図4に示すとおり、本実施例が提供する自動運転車両に基づく視覚感知装置40は、第1取得モジュール401、識別モジュール402及び確定モジュール403を含む。
ここで、第1取得モジュール401は、自動運転車両が収集した第1視覚感知画像を取得するために用いられる。
識別モジュール402は、第1視覚感知画像を第1ニューラルネットワークモデルに入力し、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別し、第1視覚感知画像における余剰特徴情報を取り除くために用いられる。
確定モジュール403は、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける少なくとも1つのサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得るために用いられ、ここで、ターゲット識別対象とサブニューラルネットワークモデルは一対一に対応する。
一つの選択可能な実施形態において、自動運転車両に基づく視覚感知装置は、更に第2取得モジュールを含む。
第2取得モジュールは、第1ニューラルネットワークモデルを取得するために用いられる。
一つの選択可能な実施形態において、第2取得モジュールは、具体的には、第2視覚感知画像及び少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、第1プリセットニューラルネットワークモデルをトレーニングし、第1ニューラルネットワークモデルを生成するために用いられ、ここで、第2視覚感知画像には、少なくとも1つのトレーニングサンプル対象が含まれている。
一つの選択可能な実施形態において、自動運転車両に基づく視覚感知装置は、更に第3取得モジュールを含む。
第3取得モジュールは、第2ニューラルネットワークモデルを取得するために用いられる。
一つの選択可能な実施形態において、第3取得モジュールは、具体的には、少なくとも1つのトレーニングサンプル対象及び少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、それぞれ第2プリセットニューラルネットワークモデルにおける少なくとも1つのサブプリセットニューラルネットワークモデルをトレーニングし、第2ニューラルネットワークモデルを生成するために用いられ、ここで、トレーニングサンプル対象とサブプリセットニューラルネットワークモデルは一対一に対応する。
一つの選択可能な実施形態において、第1取得モジュール401は、具体的には、自動運転車両における画像収集装置が収集した第1視覚感知画像を取得するために用いられる。
一つの選択可能な実施形態において、ターゲット識別対象は、ターゲット物体及びターゲットエリアのうち少なくとも1つを含む。
本実施例が提供する自動運転車両に基づく視覚感知装置は、本願の上記自動運転車両に基づく視覚感知方法実施例における技術的解決手段を実行するために用いられ、その技術的原理及び技術的効果が類似するため、ここでの説明を省略する。
図5は本願の一実施例が提供する制御機器の構造概略図である。例示的に、本実施例における制御機器は自動運転車両のコントローラ又は自動運転車両システムのコントローラ等であってもよい。図5に示すとおり、本実施例が提供する制御機器50はメモリ501及びプロセッサ502を含んでもよい。
ここで、メモリ501はコンピュータコマンドを記憶するために用いられる。
プロセッサ502は、メモリ501に記憶されたコンピュータコマンドを実行して本願の上記自動運転車両に基づく視覚感知方法の実施例における技術的解決手段を実現するために用いられる。その技術的原理及び技術的効果は同様であるため、ここでの説明を省略する。
本実施例は更にコンピュータ読み取り可能な記憶媒体を提供し、コンピュータコマンドを含み、コンピュータコマンドは、読み取り可能な記憶媒体に記憶され、コンピュータコマンドは、本願の上記自動運転車両に基づく視覚感知方法の実施例における技術的解決手段を実現するために用いられる。その技術的原理及び技術的効果は同様であるため、ここでの説明を省略する。
本実施例は、更にコマンドを実行するチップを提供し、チップは、本願の上記自動運転車両に基づく視覚感知方法の実施例における技術的解決手段を実現するために用いられる。その技術的原理及び技術的効果は同様であるため、ここでの説明を省略する。
本実施例は、更にプログラム製品を提供し、プログラム製品は、コンピュータプログラムを含み、コンピュータプログラムは、記憶媒体に記憶され、少なくとも1つのプロセッサは、記憶媒体からコンピュータプログラムを読み取ることができ、少なくとも1つのプロセッサが、コンピュータプログラムを実行する場合に本願の上記自動運転車両に基づく視覚感知方法の実施例における技術的解決手段を実現するために用いられる。その技術的原理及び技術的効果は同様であるため、ここでの説明を省略する。
上記プロセッサ502は中央処理ユニット(英語:Central Processing Unit、略称:CPU)であってもよく、他の汎用プロセッサ、デジタル信号プロセッサ(英語:Digital Signal Processor、略称:DSP)、専用集積回路(英語:Application Specific Integrated Circuit、略称:ASIC)等であってもよい。汎用プロセッサはマイクロプロセッサ又は任意の従来のプロセッサなどであってもよい。本実施例の開示する方法のステップはハードウェアプロセッサで実行して完成し、又はプロセッサにおけるハードウェア及びソフトウェアモジュールの組み合わせで実行して完成することで直接に体現できる。
当業者であれば、本願の各実施例において、上記各過程の番号の大きさは実行順番の前後を意味することはなく、各過程の実行順番はその機能及びインナーロジックで確定されるべきで、本実施例の実施過程を限定するものではないと理解できる。
当業者であれば、上記各方法の実施例におけるステップの全て又は一部をプログラムに関連するハードウェアによって実行させることができ、前述したプログラムはコンピュータ読み取り可能な記憶媒体に記憶されてもよいことは理解できる。当該プログラムは実行される場合、上記各方法の実施例を含むステップを実行する。前述した記憶媒体は、ROM、RAM、磁気ディスク又は光ディスク等プログラムコードを記憶することができる様々な媒体を含む。
最後に説明すべきことは、以上の各実施例は本願の技術的解決手段を説明するものにすぎず、それを限定するものではない。前述した各実施例を参照しながら本願の実施例について詳細に説明したが、当業者であれば、依然として前述した各実施例に記載される技術的解決手段を修正することができ、又はそのうちの一部もしくはすべての技術的特徴について均等置換を行うことができる。これらの修正又は置換は、対応する技術的解決手段の本質が本願の各実施例の技術的解決手段の趣旨及び範囲から逸脱するようにさせるものではないと理解すべきである。

Claims (16)

  1. 自動運転車両が収集した第1視覚感知画像を取得することと、
    前記第1視覚感知画像を第1ニューラルネットワークモデルに入力し、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別し、それによって前記第1視覚感知画像における余剰特徴情報を取り除くことと、
    前記少なくとも1つの認識すべきターゲット識別対象のそれぞれのマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける複数のサブニューラルネットワークモデルにおける対応するサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得ることと、を含み、
    前記複数のサブニューラルネットワークモデルは、それぞれ一類別のターゲット識別対象に対応することを特徴とする自動運転車両の視覚感知方法。
  2. 前記第1ニューラルネットワークモデルを取得することを更に含むことを特徴とする請求項1に記載の自動運転車両の視覚感知方法。
  3. 前記第1ニューラルネットワークモデルを取得することは、
    第2視覚感知画像及び少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、第1プリセットニューラルネットワークモデルをトレーニングして前記第1ニューラルネットワークモデルを生成することを含み、
    前記第2視覚感知画像には、前記少なくとも1つのトレーニングサンプル対象が含まれていることを特徴とする請求項2に記載の自動運転車両の視覚感知方法。
  4. 前記第2ニューラルネットワークモデルを取得することを更に含むことを特徴とする請求項1−3のいずれか1項に記載の自動運転車両の視覚感知方法。
  5. 前記第2ニューラルネットワークモデルを取得することは、
    少なくとも1つのトレーニングサンプル対象及び前記少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、それぞれ第2プリセットニューラルネットワークモデルにおける複数のサブプリセットニューラルネットワークモデルをトレーニングし、前記第2ニューラルネットワークモデルを生成することを含み、
    前記複数のサブプリセットニューラルネットワークモデルは、それぞれ一類別のトレーニングサンプル対象に対応することを特徴とする請求項4に記載の自動運転車両の視覚感知方法。
  6. 前記自動運転車両が収集した第1視覚感知画像を取得することは、
    前記自動運転車両に設置された画像収集装置が収集した前記第1視覚感知画像を取得することを含むことを特徴とする請求項1−3のいずれか1項に記載の自動運転車両の視覚感知方法。
  7. 前記ターゲット識別対象は、ターゲット物体及びターゲットエリアのうち、少なくとも1つを含むことを特徴とする請求項1−3のいずれか1項に記載の自動運転車両の視覚感知方法。
  8. 自動運転車両が収集した第1視覚感知画像を取得するために用いられる第1取得モジュールと、
    前記第1視覚感知画像を第1ニューラルネットワークモデルに入力し、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別し、前記第1視覚感知画像における余剰特徴情報を取り除くために用いられる識別モジュールと、
    前記少なくとも1つの認識すべきターゲット識別対象のそれぞれのマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける複数のサブニューラルネットワークモデルにおける対応するサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得るために用いられる確定モジュールと、を含み、
    前記複数のサブニューラルネットワークモデルは、それぞれ一類別のターゲット識別対象に対応することを特徴とする自動運転車両の視覚感知装置。
  9. 前記第1ニューラルネットワークモデルを取得するために用いられる第2取得モジュールを更に含むことを特徴とする請求項8に記載の自動運転車両の視覚感知装置。
  10. 前記第2取得モジュールは、
    第2視覚感知画像及び少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、第1プリセットニューラルネットワークモデルをトレーニングして前記第1ニューラルネットワークモデルを生成するために用いられ、
    前記第2視覚感知画像には、前記少なくとも1つのトレーニングサンプル対象が含まれていることを特徴とする請求項9に記載の自動運転車両の視覚感知装置。
  11. 前記第2ニューラルネットワークモデルを取得するために用いられる第3取得モジュールを更に含むことを特徴とする請求項8−10のいずれか1項に記載の自動運転車両の視覚感知装置。
  12. 前記第3取得モジュールは、
    少なくとも1つのトレーニングサンプル対象及び前記少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、それぞれ第2プリセットニューラルネットワークモデルにおける複数のサブプリセットニューラルネットワークモデルをトレーニングして前記第2ニューラルネットワークモデルを生成するために用いられ、
    前記複数のサブプリセットニューラルネットワークモデルは、それぞれ一類別のトレーニングサンプル対象に対応することを特徴とする請求項11に記載の自動運転車両の視覚感知装置。
  13. 前記第1取得モジュールは、
    前記自動運転車両における画像収集装置が収集した前記第1視覚感知画像を取得するために用いられることを特徴とする請求項8−10のいずれか1項に記載の自動運転車両に基づく視覚感知装置。
  14. 前記ターゲット識別対象は、ターゲット物体及びターゲットエリアのうち、少なくとも1つを含むことを特徴とする請求項8−10のいずれか1項に記載の自動運転車両の視覚感知装置。
  15. メモリ及びプロセッサを含む制御機器であって、
    前記メモリは、コンピュータコマンドを記憶するために用いられ、
    前記プロセッサは、前記メモリに記憶された前記コンピュータコマンドを実行して請求項1−7のいずれか1項に記載の自動運転車両の視覚感知方法を実現するために用いられることを特徴とする制御機器。
  16. コンピュータコマンドが記憶されたコンピュータ読み取り可能な記憶媒体であって、前記コンピュータコマンドは、請求項1−7のいずれか1項に記載の自動運転車両の視覚感知方法を実現するために用いられることを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2019134756A 2018-09-11 2019-07-22 自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体 Active JP6817384B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811055289.1 2018-09-11
CN201811055289.1A CN109376594A (zh) 2018-09-11 2018-09-11 基于自动驾驶车辆的视觉感知方法、装置、设备以及介质

Publications (2)

Publication Number Publication Date
JP2020042794A JP2020042794A (ja) 2020-03-19
JP6817384B2 true JP6817384B2 (ja) 2021-01-20

Family

ID=65405526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019134756A Active JP6817384B2 (ja) 2018-09-11 2019-07-22 自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体

Country Status (4)

Country Link
US (1) US11120275B2 (ja)
EP (1) EP3579144A3 (ja)
JP (1) JP6817384B2 (ja)
CN (1) CN109376594A (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10846593B2 (en) * 2018-04-27 2020-11-24 Qualcomm Technologies Inc. System and method for siamese instance search tracker with a recurrent neural network
CN111923919B (zh) * 2019-05-13 2021-11-23 广州汽车集团股份有限公司 车辆控制方法、装置、计算机设备和存储介质
US11120566B2 (en) * 2019-06-28 2021-09-14 Baidu Usa Llc Determining vanishing points based on feature maps
CN110406530B (zh) * 2019-07-02 2020-12-01 宁波吉利汽车研究开发有限公司 一种自动驾驶方法、装置、设备和车辆
US11182652B2 (en) 2019-08-16 2021-11-23 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and system for inferring perception based on augmented feature maps of a perception network
EP3806065A1 (en) * 2019-10-11 2021-04-14 Aptiv Technologies Limited Method and system for determining an attribute of an object at a pre-determined time point
CN111428859A (zh) * 2020-03-05 2020-07-17 北京三快在线科技有限公司 自动驾驶场景的深度估计网络训练方法、装置和自主车辆
CN111768333A (zh) * 2020-05-29 2020-10-13 北京沃东天骏信息技术有限公司 标识去除方法、装置、设备及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809704B (zh) * 2016-03-30 2019-03-15 北京小米移动软件有限公司 识别图像清晰度的方法及装置
US10943148B2 (en) * 2016-12-02 2021-03-09 Apple Inc. Inspection neural network for assessing neural network reliability
CA3046035A1 (en) 2016-12-05 2018-06-14 Avigilon Coporation System and method for cnn layer sharing
CN106778867B (zh) * 2016-12-15 2020-07-07 北京旷视科技有限公司 目标检测方法和装置、神经网络训练方法和装置
CN108241829A (zh) * 2016-12-23 2018-07-03 乐视汽车(北京)有限公司 车辆行驶图像识别方法
CN108230421A (zh) 2017-09-19 2018-06-29 北京市商汤科技开发有限公司 一种道路图生成方法、装置、电子设备和计算机存储介质
KR102610820B1 (ko) * 2017-09-27 2023-12-06 삼성전자주식회사 뉴럴 네트워크 시스템 및 뉴럴 네트워크 시스템의 동작방법
CN108230358A (zh) * 2017-10-27 2018-06-29 北京市商汤科技开发有限公司 目标跟踪及神经网络训练方法、装置、存储介质、电子设备
CN107885214A (zh) * 2017-11-22 2018-04-06 济南浪潮高新科技投资发展有限公司 一种基于fpga的加速自动驾驶视觉感知的方法及装置
US10762396B2 (en) * 2017-12-05 2020-09-01 Utac, Llc Multiple stage image based object detection and recognition
CN108154196B (zh) * 2018-01-19 2019-10-22 百度在线网络技术(北京)有限公司 用于输出图像的方法和装置
CN108319977B (zh) * 2018-01-30 2020-11-10 浙江大学 基于通道信息多模态网络的宫颈活检区域识别方法及装置
CN108510012B (zh) * 2018-05-04 2022-04-01 四川大学 一种基于多尺度特征图的目标快速检测方法

Also Published As

Publication number Publication date
CN109376594A (zh) 2019-02-22
US11120275B2 (en) 2021-09-14
EP3579144A2 (en) 2019-12-11
JP2020042794A (ja) 2020-03-19
US20200005051A1 (en) 2020-01-02
EP3579144A3 (en) 2020-03-04

Similar Documents

Publication Publication Date Title
JP6817384B2 (ja) 自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体
CN109426801B (zh) 一种车道线实例检测方法和装置
US11170525B2 (en) Autonomous vehicle based position detection method and apparatus, device and medium
WO2019047656A1 (zh) 用于控制无人驾驶车辆的方法和装置
JP2022505759A (ja) 運転者支援システムを試験するための方法及び装置
CN108133484B (zh) 基于场景分割的自动驾驶处理方法及装置、计算设备
EP3832260A1 (en) Real-time generation of functional road maps
KR102015939B1 (ko) 인공지능 영상 학습을 위한 동영상의 학습 대상 프레임 이미지 샘플링 방법, 장치, 프로그램 및 그 영상 학습 방법
EP3822830B1 (en) Feature processing method and device for motion trajectory, and computer storage medium
JP6700373B2 (ja) ビデオ動画の人工知能のための学習対象イメージパッケージング装置及び方法
US10913455B2 (en) Method for the improved detection of objects by a driver assistance system
CN113808098A (zh) 道路病害识别方法、装置、电子设备及可读存储介质
CN115223130B (zh) 基于改进YOLOv5的多任务全景驾驶感知方法与***
CN111539484A (zh) 训练神经网络的方法及装置
CN108399609B (zh) 一种三维点云数据的修补方法、装置和机器人
CN112289021A (zh) 一种交通信号灯的检测方法、装置及自动驾驶汽车
CN110751040A (zh) 一种三维物体的检测方法和装置、电子设备、存储介质
CN111210411B (zh) 图像中灭点的检测方法、检测模型训练方法和电子设备
CN109977884B (zh) 目标跟随方法和装置
JP6681965B2 (ja) 自律走行のための学習対象イメージ抽出装置及び方法
CN113085861A (zh) 自动驾驶车辆的控制方法及装置、自动驾驶车辆
CN110705479A (zh) 模型训练方法和目标识别方法、装置、设备及介质
WO2023170912A1 (ja) 情報処理装置、生成方法、情報処理方法、及びコンピュータ可読媒体
CN113590980B (zh) 训练神经网络的方法、预测轨迹的方法及装置
CN116189142A (zh) 一种基于深度学习边缘检测的车位线检测方法及***

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201224

R150 Certificate of patent or registration of utility model

Ref document number: 6817384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250