JP2023511454A - 車両走行路内のデブリの検出 - Google Patents

車両走行路内のデブリの検出 Download PDF

Info

Publication number
JP2023511454A
JP2023511454A JP2022545430A JP2022545430A JP2023511454A JP 2023511454 A JP2023511454 A JP 2023511454A JP 2022545430 A JP2022545430 A JP 2022545430A JP 2022545430 A JP2022545430 A JP 2022545430A JP 2023511454 A JP2023511454 A JP 2023511454A
Authority
JP
Japan
Prior art keywords
determining
debris
pixel group
candidate pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022545430A
Other languages
English (en)
Other versions
JP7454685B2 (ja
Inventor
ラマイア ナビーン クマール バンガロール
スブラタ クマール クンドゥ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JP2023511454A publication Critical patent/JP2023511454A/ja
Application granted granted Critical
Publication of JP7454685B2 publication Critical patent/JP7454685B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

いくつかの例では、1つまたは複数のプロセッサは、道路の少なくとも1つの画像を受信することができ、画像内の画素の少なくとも1つの候補画素グループを、道路上のデブリに対応する可能性があるものとして決定することができる。1つまたは複数のプロセッサは、候補画素グループに対して少なくとも2つの高さベースの特徴を決定することができる。例えば、少なくとも2つの高さベースの特徴は、道路表面に対して候補画素グループに関連付けられた最大高さ、および道路表面に対して候補画素グループに関連付けられた平均高さ、を含むことができる。さらに、1つまたは複数のプロセッサは、少なくとも2つの高さベースの特徴をそれぞれの閾値と比較することに基づいて少なくとも1つの重み係数を決定することができ、少なくとも比較に基づいて候補画素グループがデブリに対応するかどうかを判定することができる。【選択図】図1

Description

先進運転支援システム(ADAS)、ならびに半自律型車両システム、自動運転システム、またはその他の自動運転(AD)システムは、安全性の向上、ナビゲーションの自動化などを目的に、車両制御を自動化または強化するシステムである。これらのシステムは一般的に、衝突を回避するために、道路内の他の車両、大きな障害物、歩行者などを認識する機能を含んでいる。しかしながら、車両の走行経路内のデブリを検出して回避することは、一般にデブリのサイズが小さいこと、また、考えられるデブリの種類のばらつきが大きいことなどによって、もっと大きい障害物を検出することよりも困難であり得る。最近の調査によると、米国において2011年から2014年の間の約20万件の衝突事故がデブリに関与したもので、結果として約500人が死亡している。したがって、車道上のデブリを検出し回避することにより、車両の安全性を向上させ、事故を減らし、車両の損傷を軽減する、などのことが可能になる。
いくつかの実装形態では、1つまたは複数のプロセッサは、道路の少なくとも1つの画像を受信することができ、画像内の画素の少なくとも1つの候補グループを、道路上のデブリに対応する可能性のあるものとして決定することができる。1つまたは複数のプロセッサは、画素の候補グループに対して少なくとも2つの高さベースの特徴を決定することができる。例えば、少なくとも2つの高さベースの特徴は、道路表面に対して候補画素グループに関連付けられた最大高さ、および道路表面に対して候補画素グループに関連付けられた平均高さ、を含むことができる。さらに、1つまたは複数のプロセッサは、少なくとも2つの高さベースの特徴をそれぞれの閾値と比較することに基づいて少なくとも1つの重み係数を決定することができ、少なくとも比較に基づいて画素グループがデブリに対応するかどうかを判定することができる。
図1は、いくつかの実装形態による、車両経路内のデブリを検出するように構成された例示的なデブリ検出システムを示す。 図2は、いくつかの実装形態による、車両に含まれ得るデブリ検出および車両制御のシステムの例示的なアーキテクチャを示す。 図3は、いくつかの実装形態による、車両に含まれ得るデブリ検出および車両制御のシステムの例示的なアーキテクチャを示す。 図4は、いくつかの実装形態による、上述のシステムによって実行され得るデブリを検出するためのアルゴリズムを説明する例示的なプロセスを示すフロー図である。 図5は、いくつかの実装形態による、カメラシステム108を使用して左右の画像をキャプチャする例を示す。 図6は、いくつかの実施態様による、車線情報、視差画像、およびエッジ画像を決定する例を示す。 図7は、いくつかの実施態様による、閾値視差画像を生成するための例示的なプロセスを示すフロー図である。 図8は、いくつかの実施態様による、候補抽出を実行することによってデブリ候補およびノイズを決定する例を示す。 図9は、いくつかの実施態様による、デブリ候補からノイズを分離するための例示的なプロセスを示すフロー図である。 図10は、いくつかの実施態様による、路面平面を推定するための例示的なプロセスを示すフロー図である。 図11は、いくつかの実施態様による、画素検証の例示的なプロセスを示すフロー図である。 図12は、いくつかの実装形態による、行列形式の選択された候補の一例を示す。 図13は、いくつかの実装形態による、行列形式の3Dマップとして、図12の選択された候補の一例を示す。 図14は、いくつかの実装形態による、ステップサイズ選択の一例を示す。 図15は、いくつかの実装形態による、上り勾配および下り勾配を推定する例を示す。 図16は、いくつかの実装形態による、画素検証の前後の選択された候補のマスク行列の一例を示す。 図17は、いくつかの実装形態による、特徴および対応する特徴強度を含む例示的なデータ構造を示す。 図18は、いくつかの実装形態による、図17に関して上述した、デブリ検出と特徴に関する路面偽陽性との対比の一例を示す。 図19は、いくつかの実装形態による、例示的な強分類器アルゴリズムを示す。 図20は、いくつかの実装形態による、実行され得る弱分類器アルゴリズムの一例を示す。
本明細書のいくつかの実施態様は、例えばADASおよびADコントローラを支援するために、ならびに車両乗員の安全性および快適性を改善するために、車両の走行経路内の小さな障害物および他の種類のデブリを検出することが可能な技術および構成に関する。例えば、デブリ検出システムは、カメラからの入力のみを使用して、走行経路内のデブリの位置および高さをリアルタイムで検出することが可能であり得る。一例として、カメラは画像データを提供することができ、これを使用して、システムは、道路エッジを決定し、デブリ認識用の候補を抽出するための視差マップを生成することができる。さらに、システムは、画素検証技術を使用して複数の特徴を抽出することができ、強と弱の特徴ベースの分類器を使用して、従来技術よりも低コストでリアルタイムにデブリを検出することができる。例えば、従来技術では、カメラ、レーダ、LIDAR、およびフュージョンテクノロジなどの複数の異なるタイプのセンサを使用して、デブリ検出システムを提供することができるが、このシステムは、必要なハードウェアと必要な計算能力の両方において高価であり得る。
さらに、歩行者検出、車両検出、および障害物検出などの従来のADASおよびAD技術によって検出される障害物の高さは、一般に、通常の車道のデブリよりも比較的高くなっている。したがって、本明細書のいくつかの例では、検出されるデブリは、路面上にあって、車両または車両の乗員に危険であり得るか、そうでなければ車両の乗員に不快感をもたらす可能性のある、あらゆる小さな障害物または異物を含み得る。例えば、他の車両からの物体の落下、事故、道路工事などによりデブリが発生するかもしれない。車道上のデブリは、車両に損傷を与える可能性があり、場合によっては、運転者または他の車両乗員を危険にさらす可能性がある。例えば、デブリは、タイヤのパンクまたは他のタイヤ損傷を引き起こしたり、車両のサスペンションの損傷の原因となったり、運転者による急ブレーキを招いたりなど、する可能性がある。その結果、本明細書の実装形態は、早期にデブリを検出して、それにより、車両の走行に調整を加えてデブリを回避することができるように構成される。
本明細書のいくつかの例は、車両走行経路内の小さな障害物、破片、ゴミ、車両部品、および他の様々な種類のデブリを検出するためのカメラベースのシステムを含む。本明細書のシステムによって決定されたデブリ検出情報を使用して、車両制御システムがデブリを回避するために車両制御調整を行うこと、または検出されたデブリに基づいて適応することができるように、様々な車両制御システムを支援するか、あるいはそれらシステムに情報を提供することができる。さらに、本明細書に記載の自動デブリ検出技術は、ADASおよび/またはAD車両システムによって車両乗員の安全性および運転快適性の向上を可能にするための大きな利点をもたらすことができる。
さらに、いくつかの実施態様では、本明細書のシステムを使用して、道路の窪みを検出し、窪みの回避を可能にすることもできる。例えば、以下に説明する分類器機能によって使用される重みを変更することによって、システムは、舗装上面に上向きに延びるデブリを検出するのと同様の方法で、舗装の穴を検出することができる。本明細書の開示の利益を有する当業者には、多数の他の変形形態が明らかになるであろう。
場合によっては、検出されたデブリおよびデブリの位置に関する情報は、サーバまたは他のサービスコンピューティングデバイスにアップロードされてもよく、デブリ情報は、その後、他の車両に提供されてもよい。したがって、位置情報を使用することによって、他の車両は、デブリが検出されたルートまたは特定の車線を回避することができ、それによって他の車両に起こり得る損傷を回避することができる。さらに、サービスコンピューティングデバイスにアップロードされたデブリ検出情報は、道路管理作業員などによって使用され、路面をより迅速にきれいするためにデブリを見つけて除去することができる。したがって、本明細書に記載のデブリ検出システムは、センサとして1つまたは複数のカメラのみを使用してデブリを正確に検出することができ、車両の安全性を向上させ、車両の損傷を防止し、車両の乗員の快適性を向上させるための大きな利点をもたらすことができる。
議論の目的で、いくつかの例示的な実装形態は、車両の走行経路内のデブリを検出するために、画像をキャプチャし分析する環境において説明される。しかしながら、本明細書の実施態様は、提供される特定の例に限定されず、本明細書の開示に照らして当業者には明らかなように、他のタイプのカメラ、他のタイプの検知デバイス、他のタイプの車両、他のタイプの障害物、他のタイプのデブリ、窪みなどのような他のタイプの視認性の低い危険物など、に拡大され得る。
図1は、いくつかの実装形態による、車両102の経路内のデブリを検出するために構成された例示的なデブリ検出システム100を示す。この例では、車両102は、矢印106で示す方向で、車道または他の走行経路104を移動している。本明細書のデブリ検出システム100は、車両102に取り付けられ得る少なくとも1つのカメラシステム108を含むことができる。図示の例では、カメラシステム108はステレオカメラを含むことができるが、他の例では、カメラシステム108は、例えば、1つのモノカメラまたは複数のモノおよび/またはステレオのカメラを含むことができる。カメラ視野110は、車両102の前方の道路または他の走行経路104をキャプチャするのに十分な広さであり得る。場合によっては、カメラシステム108は、視野110の画像を連続的に、例えば毎秒15フレーム、毎秒30フレーム、毎秒60フレーム、または他の所望の頻度でキャプチャすることができ、この頻度は、回避行動を取るのに、あるいはデブリ112に適応にするのに間に合うよう、走行経路104内のデブリ112の識別を可能にするのに十分な速さで画像を提供する頻度である。さらに、いくつかの例では、カメラシステム108のキャプチャ頻度は、車速が増加するにつれて増加し得る。
車両102は、以下でさらに説明するように、1つまたは複数の車両コンピューティングデバイス114を含むことができる。車両コンピューティングデバイス114は、デブリ検出プログラム116および車両制御プログラム118を実行することができる。場合によっては、デブリ検出プログラム116は、カメラシステム108のカメラによってキャプチャされた画像を受信し、画像に対して解析を実行して、デブリ112が車両102の現在の走行経路104内にあるかどうかを判定することができる。デブリ検出プログラム116は、検出されたデブリ112に関するデブリ情報を車両制御プログラム118に提供することができ、車両制御プログラムは、デブリ情報に基づいて1つまたは複数のアクション、例えば、運転者への警告、車両102のブレーキ、車両102のステアリングなどを開始することができる。
場合によっては、カメラシステム108は、デブリ検出プログラム116を実行する少なくとも1つの車両コンピューティングデバイス114を含むことができる。他の場合には、車両コンピューティングデバイス114はカメラシステム108とは別個であってもよく、車両102の他の場所に配置されてデブリ検出プログラム116を実行してもよい。いずれの場合も、車両コンピューティングデバイス114は、カメラシステム108から画像を受信することができ、画像を分析してデブリ112を検出することができる。
いくつかの例では、デブリ検出プログラム116は、例えば、モノカメラ画像、ステレオカメラ画像、または複数のカメラから撮影された画像を使用して、受信した画像からパララックスマップを生成することができる。モノカメラを使用する場合、訓練された機械学習モデルを使用して深度マップを計算することができる。例えば、最初に、単眼画像のセットおよびそれらの対応するグランドトゥルースパララックスマップをキャプチャし、機械学習モデルを訓練するために使用することができる。続いて、機械学習モデルを使用して、新たにキャプチャした画像に応じてパララックスマップの近似値を予測することができる。
あるいは、ステレオカメラまたは複数のカメラの場合、画像は2つまたは3つ以上のカメラによってキャプチャされてもよい。キャプチャした画像を使って、セミグローバルブロックマッチングまたは任意の他の適切な技術などの、ブロックマッチング技術を使用してパララックスを計算することができる。本明細書のいくつかの例では、いくつかの例示的な実装形態を説明するための例示的なシステムとしてステレオカメラシステムが使用されているが、当業者であれば、単一のモノカメラまたは複数のモノカメラを有するシステムを使用して同様の構成および技術を適用し得ることも理解するであろう。
図2~図4、図7、図9~図11、図19および図20の少なくとも一部は、いくつかの実装形態による例示的なアルゴリズムまたは他のプロセスを示すフロー図を含む。プロセスは、一連の動作を表す論理フロー図のブロックの集合として示されており、その一部または全部は、ハードウェア、ソフトウェア、またはそれらの組み合わせで実施することができる。ソフトウェアの文脈では、ブロックは、1つまたは複数のコンピュータ可読媒体に格納されたコンピュータ実行可能命令を表すことができ、この命令は、1つまたは複数のプロセッサによって実行されると、列挙した動作を実行するようにプロセッサをプログラムする。一般に、コンピュータ実行可能命令は、特定の機能を実行するか、または特定のデータタイプを実装する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。ブロックを記述する順序は、限定として解釈されるべきではない。記述したブロックの任意の数を、任意の順序で、および/または並列に組み合わせて、前記プロセスまたは代替プロセスを実施することができ、すべてのブロックを実行する必要はない。議論の目的で、前記プロセスは、本明細書の例に記載されている環境、フレームワーク、およびシステムを参照して説明されているが、前記プロセスは、多種多様な他の環境、フレームワーク、およびシステムにおいて実施されてもよい。
図2は、いくつかの実装形態による、車両102に含まれ得るデブリ検出および車両制御システム200の例示的なアーキテクチャを示す。各車両コンピューティングデバイス114は、1つまたは複数のプロセッサ202、1つまたは複数のコンピュータ可読媒体204、および1つまたは複数の通信インターフェース(I/F)206を含むことができる。いくつかの例では、車両コンピューティングデバイス114は、1つまたは複数のECU(電子制御ユニット)、または様々な他のタイプのコンピューティングデバイスのいずれかを含むことができる。例えば、コンピューティングデバイス114は、ナビゲーション、ブレーキ、ステアリング、加速、減速などのADASおよび/またはADタスクを実行するために重要な車両システムを制御するための1つまたは複数のADAS/AD ECUを含むことができる。コンピューティングデバイス114はまた、他の車両システムを制御するための他のECUも含むことができる。
ECUは、車両内のシステム、サブシステム、または構成要素、のうちの1つまたは複数を制御する、任意の組み込みシステムの総称である。デブリ検出プログラム116および車両制御プログラム118などのソフトウェアは、1つまたは複数のECUによって実行されてもよく、ECUが組み込みシステムとして動作可能なように、それぞれのECUに関連するコンピュータ可読媒体204(例えば、プログラムROM)の一部に格納されてもよい。ECUは、通常、ビークルバスプロトコルにしたがってビークルバス208を介して互いに通信することができる。一例として、コントローラエリアネットワークバス(CANバス)プロトコルは、ECUならびに他の車両デバイスおよびシステムがホストコンピュータなしで相互に通信することを可能にするビークルバスプロトコルである。CANバスは、少なくとも2つの異なるタイプを含むことができる。例えば、高速CANは、バスが環境の端から端まで延びるアプリケーションで使用され得るが、フォールトトレラントCANは、ノードグループが互いに接続される場合に使用されることが多い。
各ECUまたは他の車両コンピューティングデバイス114は、1つまたは複数のプロセッサ202を含むことができ、これには、中央処理装置(CPU)、グラフィック処理装置(GPU)、マイクロプロセッサ、マイクロコンピュータ、マイクロコントローラ、デジタル信号プロセッサ、ステートマシン、論理回路、および/または動作命令に基づいて信号を操作する任意のデバイス、のうちの1つまたは複数が含まれ得る。一例として、プロセッサ202は、本明細書に記載のアルゴリズムおよび他のプロセスを実行するように特別にプログラムまたは構成された、任意の適切なタイプの1つまたは複数のハードウェアプロセッサおよび/または論理回路を含み得る。プロセッサ202は、コンピュータ可読媒体204に格納されたコンピュータ可読命令をフェッチして実行するように構成されてもよく、この命令は、本明細書に記載の機能を実行するようにプロセッサ202をプログラムすることができる。
コンピュータ可読媒体204は、コンピュータ可読命令、データ構造、プログラム、プログラムモジュール、および他のコードまたはデータなどの情報を格納するための任意のタイプの技術で実装された、揮発性および不揮発性メモリ、および/またはリムーバブルおよび非リムーバブル媒体を含むことができる。例えば、コンピュータ可読媒体204は、RAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、光学ストレージ、ソリッドステートストレージ、磁気ディスク、クラウドストレージ、または所望の情報を格納するために使用されコンピューティングデバイスによってアクセスされ得る任意の他の媒体を含むことができるが、これらに限定されない。車両コンピューティングデバイス114の構成に応じて、コンピュータ可読媒体204は、言及されている場合、非一時的コンピュータ可読媒体からエネルギー、搬送波信号、電磁波、および/または信号自体などの媒体を除外した範囲内において有形の非一時的媒体であってもよい。場合によっては、コンピュータ可読媒体204は車両コンピューティングデバイス114と同じ場所にあってもよいが、他の例では、コンピュータ可読媒体204は車両コンピューティングデバイス114から部分的に離れていてもよい。
コンピュータ可読媒体204は、プロセッサ202によって実行可能な任意の数の機能コンポーネントを格納するために使用され得る。多くの実装形態では、これらの機能コンポーネントは、プロセッサ202によって実行可能な命令またはプログラムを含み、これらが実行されると、本明細書では車両コンピューティングデバイス114に起因するアクションを行うように、プロセッサ202を特別にプログラムする。コンピュータ可読媒体204に格納された機能コンポーネントは、デブリ検出プログラム116および車両制御プログラム118を含むことができ、それらの各々は、1つまたは複数のコンピュータプログラム、アプリケーション、実行可能コード、またはこれらの一部を含むことができる。さらに、この例ではこれらのプログラムが一緒に図示されているが、使用中、これらのプログラムの一部またはすべては、別個の車両コンピューティングデバイス114上で実行されてもよい。
さらに、コンピュータ可読媒体204は、本明細書に記載の機能とサービスを実行するために使用されるデータ、データ構造、および他の情報を格納することができる。例えば、コンピュータ可読媒体204は、デブリ情報212、車両データ214、画像データ216、1つまたは複数の機械学習モデル218などを格納することができる。さらに、この例ではこれらのデータおよびデータ構造は一緒に示されているが、使用中、これらのデータおよび/またはデータ構造の一部またはすべては、別個の車両コンピューティングデバイス114に格納されてもよい。コンピューティングデバイス114はまた、他の機能コンポーネントおよびデータを含むかまたは維持することもでき、これらには、プログラム、ドライバなど、および機能コンポーネントによって使用または生成されるデータが含まれ得る。さらに、コンピューティングデバイス114は、多くの他の論理的、プログラム的、および物理的なコンポーネントを含むことができ、そのうちの上記のものは、本明細書の議論に関連する単なる例示にすぎない。
1つまたは複数の通信インターフェース206は、CANバス208および/または1つまたは複数のネットワーク220などを介して様々な他のデバイスとの通信を可能にするための、1つまたは複数のソフトウェアおよびハードウェアコンポーネントを含むことができる。例えば、通信インターフェース206は、本明細書の他の箇所にさらに列挙されているように、LAN、インターネット、ケーブルネットワーク、セルラネットワーク、無線ネットワーク(例えば、Wi-Fi)および有線ネットワーク(例えば、CAN、ファイバチャネル、光ファイバ、イーサネット)、直接接続、ならびにBLUETOOTH(登録商標)などの近距離通信のうちの1つまたは複数を介した通信を可能にすることができる。
コンピューティングデバイス114は、CANバス208、直接接続、またはカメラシステム108から画像データ216を受信するための任意の他の種類の接続を介して、カメラシステム108と通信することが可能であり得る。例えば、以下で詳細に説明するように、デブリ検出プログラムは、カメラシステム108から画像データ216を受信することができ、画像内に存在するあらゆるデブリを検出することができる。図2の例では、受信画像情報は、実質的な処理を行わずに生画像データとして受信されてもよい。あるいは、他の例では、例えば図3に関して以下でさらに説明するように、カメラシステム108は、生画像データ216を車両コンピューティングデバイス114へ送信するのではなく、デブリ検出を実行してもよい。
さらに、コンピューティングデバイス114は、車両内の他のシステムおよび/または他のセンサから車両データ214を受信することができる。例えば、車両は、車両制御プログラム118によって使用されるセンサ情報を提供できるカメラシステム108に加えて、複数の他のセンサ222を含むことができる。他のセンサのいくつかの非網羅的な例には、レーダ、LIDAR、超音波、全地球測位システム(GPS)受信機、および、例えば他の方角に向いている他のカメラなどが含まれ得る。さらに、車両制御プログラム118によって使用される車両データ214には、例えば、サスペンションシステムに関連するサスペンションコントローラ224、ステアリングシステムに関連するステアリングコントローラ226、制動および加速システムに関連する車速コントローラ228など、様々な車両システムから受信された、またはそれらに関連した情報が含まれ得る。
一例として、230に示すように、デブリ検出プログラム116は、例えば、車両が動いている間にカメラシステム108が車両の走行経路の画像をキャプチャしながら、カメラシステム108から画像データ216を連続的に受信することができる。さらに、232において、デブリ検出プログラム116は、受信画像におけるデブリの長さ、幅、高さなどのデブリのサイズ、デブリの位置、表面粗さなどを決定することができる。デブリ検出プログラム116は、デブリの検出に応答して1つまたは複数のアクションを取ることができる車両制御プログラム118に、サイズ、位置など、任意の検出デブリに関するデブリ情報を提供することができる。
例えば、234において、車両制御プログラム118は、ルールベースおよび/または人工知能ベースの制御アルゴリズムを使用して、車両制御用のパラメータを決定することができる。例えば、車両制御プログラム118は、ブレーキ、ステアリング、減速などの適切なアクションを決定するために、機械学習モデル218のうちの1つまたは複数を適用することができる。さらに、236に示すように、車両制御プログラム118は、検出されたデブリに応答して1つまたは複数の制御信号238を1つまたは複数の車両システムに送信することができる。例えば、車両制御プログラム118は、サスペンションコントローラ224、ステアリングコントローラ226、および/または車速コントローラ228に、制御信号238を送信することができる。例えば、制御信号238は、サスペンションコントローラ224に送信される特定のばね係数および/または減衰制御情報、ステアリングコントローラ226に送られる特定のステアリング角度、および/または車速コントローラ228に送信される特定のブレーキ制御情報もしくは減速制御情報を含むことができる。
それに加えて、またはその代わりに、車両が人間運転者の制御下にある場合などにおいて、車両制御プログラム118は、制御信号238をディスプレイ240に送信して、および/または可聴もしくは視覚の警告デバイスなどの1つ以上の警告デバイス242に送信して、警報を提示することができる。警告デバイス242の例には、可聴警報を生成することができるスピーカ、振動または他の種類の触覚警報を(例えば、シートまたはハンドルにおいて)生成することができる触覚デバイス、および/または視覚警報を生成することができる視覚信号デバイスが含まれる。
さらに、デブリ検出プログラム116はまた、デブリ情報212を、1つまたは複数のネットワーク220を介して1つまたは複数のサービスコンピューティングデバイス250に提供するように構成されてもよい。サービスコンピューティングデバイス250は、様々な方法で具現化することができる、1つまたは複数のサーバまたは他の種類のコンピューティングデバイスを含むことができる。例えば、サーバの場合、プログラム、他の機能コンポーネント、およびデータは、単一のサーバ、一群のサーバ、サーバファームまたはデータセンタ、クラウドホストコンピューティングサービスなどに実装されてもよいが、他のコンピュータアーキテクチャが追加的または代替的に使用されてもよい。
さらに、図は、サービスコンピューティングデバイス250の機能コンポーネントとデータを単一の場所に存在するものとして示しているが、これらのコンポーネントとデータは、代替的に、任意の方法で異なるコンピューティングデバイスおよび異なる場所に分散されてもよい。その結果、機能は、1つまたは複数のサービスコンピューティングデバイスによって実装されてもよく、本明細書に記載の様々な機能は、異なるコンピューティングデバイスにまたがって様々な方法で分散される。複数のサービスコンピューティングデバイス250は、一緒にまたは別々に配置されてもよく、例えば、仮想サーバ、サーババンク、および/またはサーバファームとして編成されてもよい。記載されている機能は、単一のエンティティまたは企業のサーバによって提供されてもよいし、または複数の異なるエンティティまたは企業のサーバおよび/またはサービスによって提供されてもよい。
図示の例では、各コンピューティングデバイス250は、1つまたは複数のプロセッサ252、1つまたは複数のコンピュータ可読媒体254、および1つまたは複数の通信インターフェース256を含むことができる。各プロセッサ252は、単一の処理ユニットまたはいくつかの処理ユニットであってもよく、単一もしくは複数のコンピューティングユニットまたは複数の処理コアを含んでもよい。プロセッサ252は、1つまたは複数のマイクロプロセッサ、マイクロコンピュータ、マイクロコントローラ、デジタル信号プロセッサ、中央処理装置、ステートマシン、論理回路、および/または動作命令に基づいて信号を操作する任意のデバイスとして実装することができる。例えば、プロセッサ252は、本明細書に記載のアルゴリズムおよび他のプロセスを実行するように特別にプログラムまたは構成された、任意の適切なタイプの1つまたは複数のハードウェアプロセッサおよび/または論理回路であり得る。プロセッサ252は、コンピュータ可読媒体254に格納されたコンピュータ可読命令をフェッチして実行するように構成されてもよく、この命令は、本明細書に記載の機能を実行するようにプロセッサ252をプログラムすることができる。
コンピュータ可読媒体254は、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータなどの情報を格納するための、任意の種類の技術で実装された揮発性および不揮発性メモリおよび/またはリムーバブルおよび非リムーバブル媒体を含むことができる。このようなコンピュータ可読媒体254は、RAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、光学ストレージ、ソリッドステートストレージ、磁気テープ、磁気ディスクストレージ、RAIDストレージシステム、ストレージアレイ、ネットワーク接続型ストレージ、ストレージエリアネットワーク、クラウドストレージ、または所望の情報を格納するために使用されコンピューティングデバイスによってアクセスされ得る任意の他の媒体を含むことができるが、これらに限定されない。サービスコンピューティングデバイス250の構成に応じて、コンピュータ可読媒体254は、コンピュータ可読記憶媒体の一種であってもよいし、および/または本明細書で言及されている場合、非一時的なコンピュータ可読媒体は、エネルギー、搬送波、電磁波、および信号自体などの媒体を除いた範囲内において有形の非一時的な媒体であってもよい。
コンピュータ可読媒体254は、プロセッサ252によって実行可能な任意の数の機能コンポーネントを格納するために使用されてもよい。多くの実装形態では、これらの機能コンポーネントは、プロセッサ252によって実行可能な命令またはプログラムを含み、これらが実行されると、サービスコンピューティングデバイス250に起因するアクションを実行するように、1つまたは複数のプロセッサ252を特別にプログラムする。コンピュータ可読媒体254に格納された機能コンポーネントは、通信プログラム258を含むことができ、通信プログラムを実行することで、サービスコンピューティングデバイス250がデブリ情報を受信してデブリ情報データ構造260に格納するように構成することができる。加えて、通信プログラム258はさらに、サービスコンピューティングデバイス252が、デブリ情報データ構造260からデブリ情報を検索し、デブリ情報を、デブリが検出された走行経路を走行する別の車両に送信するように構成することができる。
追加的または代替的に、通信プログラム258は、デブリ情報データ構造260内のデブリ情報を、デブリが識別された道路位置からデブリを除去している道路整備員などに提供することができる。いくつかの例では、サービスコンピューティングデバイス250は、同じ走行経路を通過する複数の車両からデブリ情報212を受信することができ、複数の車両からのデブリ情報を集約して、検出されたデブリの詳細な位置、ならびに検出されたデブリのサイズおよび形状をより正確に識別することができる。
さらに、コンピュータ可読媒体254は、本明細書に記載の動作を実行するために使用されるデータを格納することができる。したがって、コンピュータ可読媒体254は、上述のようにデブリ情報データ構造260を含むことができる。さらに、コンピューティングデバイス250はまた、図2には明確に示されていない他の機能的コンポーネントおよびデータを含むか、または維持することができ、これらには、プログラム、ドライバなど、および機能コンポーネントによって使用または生成されるデータが含まれ得る。加えて、コンピューティングデバイス250は、多くの他の論理的、プログラム的、および物理的なコンポーネントを含むことができ、そのうちの上述したものは、本明細書の議論に関連する単なる例示にすぎない。
さらに、図2は、サービスコンピューティングデバイス250のコンポーネントとデータを単一の場所に存在するものとして示しているが、これらのコンポーネントとデータは、代替的に、任意の方法で異なるコンピューティングデバイスおよび異なる場所に分散されてもよい。その結果として、機能は、1つまたは複数のサービスコンピューティングデバイスによって実装されてもよく、上述の様々な機能は、異なるコンピューティングデバイスにまたがって様々な方法で分散される。
通信インターフェース256は、例えばネットワーク220を介して、様々な他のデバイスとの通信を可能にするための1つまたは複数のインターフェースおよびハードウェアコンポーネントを含むことができる。例えば、通信インターフェース256は、本明細書の他の箇所にさらに列挙されているように、1つまたは複数のインターネット、ケーブルネットワーク、セルラネットワーク、無線ネットワーク(例えば、Wi-Fi)および有線ネットワーク(例えば、光ファイバおよびイーサネット)を介した通信を可能にすることができ、また、BLUETOOTH(登録商標)、BLUETOOTH(登録商標)ローエナジーなどの近距離通信を可能にすることができる。
1つまたは複数のネットワーク220は、任意の適切なネットワークを含むことができ、これには、セルラネットワークなどの無線ネットワーク、インターネットなどの広域ネットワーク、イントラネットなどのローカルエリアネットワーク、Wi-Fiなどのローカル無線ネットワーク、BLUETOOTH(登録商標)などの近距離無線通信、光ファイバおよびイーサネットを含む有線ネットワーク、これらの任意の組み合わせ、または任意の他の適切な通信ネットワークが含まれ得る。このような通信技術に使用されるコンポーネントは、ネットワークタイプまたは選択された環境またはその両方に、少なくとも部分的に依存し得る。そのようなネットワークを介して通信するためのプロトコルは周知であり、本明細書では詳細に説明しない。
図3は、いくつかの実装形態による、車両102に含まれ得るデブリ検出および車両制御システム300の例示的なアーキテクチャを示す。この例では、カメラシステム108は、車両コンピューティングデバイス114とは独立してデブリ情報212を決定するための処理機能を含むことができる。したがって、カメラシステム180は、1つまたは複数のプロセッサ302、1つまたは複数のコンピュータ可読媒体304、および1つまたは複数の通信インターフェース306を含む。1つまたは複数のプロセッサ302は、図2に関して上述したプロセッサ202、または本明細書に記載の動作を実行するための他の適切なプロセッサであってもよいし、またはこれらを含んでいてもよい。さらに、1つまたは複数のコンピュータ可読媒体302は、図2に関して上述したコンピュータ可読媒体204、または他の適切なコンピュータ可読媒体であってもよいし、またはこれらを含んでいてもよい。同様に、通信インターフェース306は、図2に関して上述した通信インターフェース206、または他の適切な通信インターフェースのいずれかであってもよいし、またはこれらを含んでいてもよい。
さらに、カメラシステム108は画像キャプチャハードウェア308を含み、これには、当技術分野で知られているように、1つまたは複数のレンズ、1つまたは複数の焦点調整システム、および1つまたは複数の画像センサが含まれ得る。この例では、カメラシステム108は、1つまたは複数のプロセッサ302上でデブリ検出プログラム116を実行することができる。したがって、画像キャプチャハードウェア308は、カメラシステム108の視野内の画像をキャプチャすることができ、キャプチャした画像310をコンピュータ可読媒体304に格納することができる。
314において、デブリ検出プログラム116は、キャプチャした画像を画像キャプチャハードウェアから受信する。例えば、デブリ検出プログラム116は、画像がキャプチャされると、キャプチャ画像した310を画像キャプチャハードウェア308から連続的に受信することができる。316において、デブリ検出プログラム116は、以下でさらに詳細に説明するように、デブリのサイズ、場所、表面粗さなどを決定することができる。次いで、デブリ検出プログラム116は、デブリ情報212または任意の識別デブリを車両コンピューティングデバイス114に送信することができる。次いで、車両制御プログラム118は、図2に関して上述したように、および以下でさらに説明するように、車両を制御するためにデブリ情報を処理することができる。さらに、デブリ検出プログラム116または車両制御プログラム118の少なくとも一方は、デブリ情報データ構造260に格納するために、ネットワーク220を介してサービスコンピューティングデバイス250にデブリ情報212を送信することができる。
図4は、いくつかの実装形態による、上述のシステム200、300によって実行され得るデブリを検出するためのアルゴリズムを示す例示的なプロセス400を示すフロー図である。いくつかの例では、プロセス400は、デブリ検出プログラム116を実行することで、上述したシステム200または300によって実行され得る。図示の例では、プロセス400は、入力402を受信すること、抽出404を実行すること、選択406を実行すること、検出408を実行すること、トラッキング410を実行すること、結果412を適用すること、を含む。例えば、最初に、パララックスおよび/または視差が、例えばステレオカメラシステム108などによって撮影された画像から、計算され得る。画像内の関心領域(ROI)を検出することができ、これには、小さな障害物または他のデブリを含む路面が含まれてもよく、画像からはデブリ候補を抽出することができる。制御決定論理の適用に基づいて、最初に抽出された候補から、有力候補が選択される。選択された有力候補は、有効画素ベースで強弱特徴ベースの分類器を使用して分類することができる。さらに、トラッキング技術を実行して、トラッキングと位置特定の目的で、次の画像フレーム内のデブリ位置を予測する。加えて、プロセス400の結果は、結果に基づいて少なくとも1つのアクションを実行するためにシステム200、300によって使用され得る。
この例では、受信した入力402には、上述したカメラシステム108から受信した画像、ならびに他の入力が含まれてもよい。入力402の例は、カメラシステム108から受信することができる左および/または右の画像414、車線情報416、閾値視差画像418、エッジ画像420、および車両データ422を含み得る。車線情報416、閾値視差画像418、およびエッジ画像420は、以下でさらに説明するように決定され得る。
抽出404の間に、左/右の画像414および車線情報416から関心領域(ROI)424を決定することができる。さらに、426において、プロセスは、関心領域424、閾値視差画像418、およびエッジ画像420に基づいて、デブリと見込まれる候補を抽出することができる。430に示すように、選択406の間、プロセスは、例えば、幅および高さ制限などの寸法制限に基づいて、候補道路デブリを選択することができる。
検出408の間、432で示すように、プロセスは、選択された有力候補道路デブリから有効画素を抽出することができ、434で、プロセスは、以下でさらに説明するように、強/弱の分類器を使用するなどして、強および/または弱の特徴を抽出することができる。436において、プロセスは、例えば有効画素ベースの高さ、幅および距離に基づいて、デブリ寸法を推定することができる。さらに、438において、プロセスは、道路平面を推定することができる。440において、推定された道路平面438および推定されたデブリ寸法に基づいて、プロセスは有効画素を分類することができる。
トラッキング410の間、プロセスは、442において、分類された有効画素に基づいて、さらに車両データ422に基づいて、次のフレーム内のデブリの位置を予測することを含む。さらに、プロセスは、444において、次のフレーム内の予測デブリ位置およびエッジ画像420に基づいて、予測補正を実行することができる。予測補正に続いて、プロセスは、446において、トラッキングデータ構造を照合し更新することができ、448において、デブリを決定するために候補をマージすることができる。結果412を適用する場合、プロセスは、450に示すように、デブリの高さ、幅および距離などの結果を出力することができ、452に示すように、結果に基づいて少なくとも1つのアクションを実行することができる。プロセス400の各ステージ402~412については、以下でさらに詳しく説明する。
図5は、いくつかの実装形態による、カメラシステム108を使用して左右の画像をキャプチャする例500を示す。この例では、カメラシステム108は、例えば右カメラ502および左カメラ504などの、2つのカメラを含むステレオカメラを含むことができる。左右のカメラ502および504は、互いに対して固定され、2つの異なる画角で同じシーンを観察するように配置される。したがって、カメラシステム108は、左画像506および右画像508をキャプチャすることができ、これらの各々は、それぞれの画像506、508内に同じデブリ510を含むことができる。さらに、本明細書のいくつかの実施態様ではステレオカメラが使用されているが、他の例では、本明細書の開示の利益を有する当業者には明らかなように、代わりにモノカメラが使用されてもよい。例えば、モノカメラを機械学習モデル218のうちの一方と共に使用して、連続画像の受信に基づいて、および/または車両の現在速度の受信に基づいて、カメラからの画像にある任意のポイントの距離を決定することができる。
図6は、いくつかの実施態様による、車線情報、視差画像、およびエッジ画像を決定する例600を示す。例えば、受信した左右の画像506および508に基づいて、システムは、デブリ検出プログラム116を実行して、線604で示すように車線情報を含む車線情報画像602などの追加の画像を生成することができる。場合によっては、道路標識、道路エッジ、道路サイズ情報などを使用して、車線情報604を決定することができる。
さらに、車線情報に基づいて、破線605で示すように、関心領域(ROI)603を決定することができる。例えば、ROI603は、カメラからの規定距離に基づいて決定されてもよく、これはデフォルトの距離であってもよい。場合によっては、例えば、車速が増加するにつれて規定距離を拡大させ、車速が減少するにつれて規定距離を縮小させることによって、車両の速度に基づいて規定距離を調整することができる。
場合によっては、ROI603を検出する場合、道路エッジおよび/または車線マーカ検出は、画像602全体のすべての画素行において左右の車線境界を計算するために、受信画像602上の数メートルごと、または数十センチメートルごとに、対応する画素行で実行されてもよい。ROI603の上側境界および下側境界を検出するための規定の範囲距離は、関心領域603を決定するための車線情報画像602に適用され得る。いくつかの非限定的な例として、ROI603を指定するために、下方範囲は3~10メートルであってもよく、上方範囲は30~50メートルであってもよいが、一方、左右の境界は車線境界に対応してもよい。ROI603が決定された後、ROI603内のデブリ候補が検出され得るが、ROI603の外側のデブリ候補は無視され得る。特に、いくつかの例では、全体的なプロセスをリアルタイム処理に適合させる助けとするために、入力画像(例えば、エッジ画像、視差マップ画像、および閾値視差画像)を、ROIに対してのみ処理することができ、したがって、これら画像の他の部分を処理するための余分な時間がかからない。したがって、いくつかの実施態様では、エッジ画像および閾値視差画像の画素は、それらの画素が検出されたROI603に属する場合にのみ抽出され得る。
さらに、システムは、左右の画像506および508を使用して、視差マップ画像606と呼ばれるパララックス画像を決定することができる。例えば、システムは、ブロックマッチング法に基づいて、2つのステレオ左右画像506および508を使用して視差マップ画像606を計算することができる。一例として、当技術分野で知られているように、左画像506内のポイントPL=(u1、v1)の場合、右画像508内の対応するポイントPR=(u2、v2)は、PLと同じ高さにあってもよく、すなわち、共通のベースラインから測定して、v1=v2であってもよい。したがって、パララックス測定は、パララックスを以下のように定義することができる単純なステレオカメラ理論を使用して決定することができる。
Figure 2023511454000002
視差は対応するパララックスに反比例するので、決定されたパララックスに基づいて、本明細書の実施態様は、パララックスから3Dポイントの深度情報を決定することによって視差画像606を決定することができる。したがって、深度は、例えば、以下のように、左右の画像および実際の視差を使用して計算することができる。
Figure 2023511454000003
ここで、Zはカメラ軸に沿った距離(深度)、fは画素単位の焦点距離、bはメートル単位のベースライン、dは画素単位の視差である。
さらに、エッジ画像608は、当技術分野で知られている様々なエッジ検出技術のいずれかを使用して、左または右の画像506または508の少なくとも一方から決定されてもよい。例えば、この例では、エッジ画像608は、右画像508から決定されてもよく、右画像508内で識別されたエッジを示すことができる。例えば、エッジ画像608について決定されたエッジ情報は、以下でさらに説明するように、後続の処理中に視差画像606からどれだけのノイズを除去するかを決定するのに役立ち得る。
図7は、いくつかの実施態様による、閾値視差画像701を生成するための例示的なプロセス700を示すフロー図である。いくつかの例では、プロセス700は、デブリ検出プログラム116の実行により、上述したシステム200または300によって実行され得る。例えば、図6に関して上述した視差画像608を計算した後、システムは、エッジ画像610を使用して、無効な視差値を有する画素を視差画像から除去して、閾値視差画像を取得することができる。例えば、エッジ画像610内のエッジ情報の量は、視差画像から除去するノイズの量および/または閾値視差画像に含める視差情報の量を制御することができる。
702において、システムは、新たに決定されたエッジ画像を受信し、704において、システムは、新たに決定された視差画像を受信する。例えば、エッジ画像および視差画像は、図6に関して上述したように決定することができる。
706において、システムは、エッジ画像内の各画素について、選択された現画素のエッジ値がエッジ閾値ETHより大きいかどうかを判定することができる。大きくない場合、プロセスは708に進む。大きい場合、プロセスは710に進む。一例として、エッジ閾値ETHは、大型の画像データセットに関する統計分析を使用して導出され得る。例えば、画像データは、異なる路面状況(例えば、アスファルトまたはコンクリートのような異なる路面色)、気象状況、時刻などの様々なシナリオをカバーすることができる。また、エッジ閾値ETHは、天候や路面状況に基づいて更新されてもよい。
708において、画素のエッジ値がエッジ閾値ETH以下である場合、システムはその画素の視差値を破棄することができる。
710において、画素のエッジ値がエッジ閾値ETHより大きい場合、システムは、現画素の視差値が視差閾値DTHより大きいかどうかを判定することができる。一例として、視差閾値DTHは、大型の画像データセットに関する統計分析を使用して導出され得る。例えば、画像データは、異なる路面状況(例えば、アスファルトまたはコンクリートのような異なる路面色)、気象状況、時刻などの様々なシナリオをカバーすることができる。さらに、視差閾値DTHは、天候および路面状況に基づいて更新されてもよい。システムは、704において受信された視差画像内の対応する画素位置から視差値を決定することができる。画素の視差値が視差閾値DTH以下である場合、プロセスは716に進む。画素の視差値が視差閾値DTHより大きい場合、プロセスは712に進む。
712において、現画素の視差値が視差閾値DTHより大きい場合、システムは、現画素の画素視差値を一時的なメモリ位置に格納することができる。
714において、システムは、現画素の視差値を閾値視差画像701に格納することができる。
716において、画素の視差値が視差閾値DTH以下である場合、システムは、一時的なメモリ位置から、以前に処理した画素(例えば、隣接画素)の以前に格納した画素視差値を検索し、検索した画素視差値を、現画素の視差値の代わりに閾値視差画像701に格納することができる。
図8は、いくつかの実施態様による、候補抽出を実行することによってデブリ候補およびノイズを決定する例800を示す。この例において、ROI603および閾値視差画像701の決定に続いて、本明細書のいくつかの例は、連結成分ラベリング(CCL)アルゴリズムを使用して、ROI603内の閾値視差画像701からデブリ候補およびノイズを抽出することができる。例えば、当技術分野で知られているように、CCLアルゴリズムは、デジタル画像内の連結領域の検出を含むことができる。特に、CCLアルゴリズムは、例えば明/暗値の差に基づいて、周囲の画素から区別可能な連結画素ブロブを識別し抽出することができる。CCLアルゴリズムを使用した抽出の結果として、画像804の破線円802の内側に示すように、候補のデブリおよびノイズがROIにおいて識別され得る。図9に関して以下で説明するように、抽出されたノイズは、その後、制御決定論理を使用してデブリ候補から分離され得る。
図9は、いくつかの実施態様による、デブリ候補からノイズを分離するための例示的なプロセス900を示すフロー図である。プロセス900は、デブリ検出プログラム116を実行するシステム200または300によって実行されてもよい。
902において、システムは、抽出された候補のうちの1つを処理用に選択することができる。例えば、上述したように、CCLアルゴリズムは、ROI603内の視差画像701から複数のブロブを抽出することができる。抽出されたブロブの各々を処理して、ブロブを廃棄するか、またはデブリ候補としてブロブを保持するかを決定することができる。
904において、システムは、ブロブサイズがブロブサイズスペシャルよりも小さいかどうかを判定することができる。例えば、ブロブは、規定のサイズよりも小さいオブジェクトが無視され得るように、例えばセンチメートルのような最小の高さおよび幅の要件を満たす必要があり得る。さらに、ブロブサイズ閾値は、カメラからブロブまでの推定距離に基づいて可変であり得る。例えば、カメラからさらに離れている、例えば40メートル離れている、と推定されるブロブは、カメラにより近いと推定されるブロブ、例えば20メートル未満の近さにあるブロブ、よりも小さいブロブサイズ閾値であり得る。ブロブサイズがブロブサイズ閾値よりも小さい場合、プロセスは906に進む。小さくない場合、プロセスは908に進む。
906において、選択された候補が破棄され、プロセスは914に進み、すべての候補が処理されたかどうかが判定される。
908において、ブロブサイズがブロブサイズ閾値以上である場合、システムは、選択された候補の画素数が最小画素数閾値PCMINよりも大きく、最大画素数閾値PCMAXよりも小さいかどうかを判定することができる。例えば、ブロブ内の画素数が最小閾値PCMIN未満である場合、候補ブロブは、小さすぎてデブリとは見なされない可能性がある。さらに、ブロブ内の画素数が最大閾値PCMAXより大きい場合、ブロブがデブリであるとは全く見なされない場合があり、障害物検出アルゴリズムなどに頼ることで、障害物との衝突を回避し得る。したがって、このステップは、大きなノイズ候補と併せて小さなノイズを除去することができる。さらに、説明したブロブサイズ検出ステップ904と同様に、画素数閾値は、カメラからのブロブまでの距離に依存し得る。例えば、カメラから遠いブロブは、カメラに近いブロブよりも最小および最大画素数閾値が小さい場合がある。選択された候補が最小画素数閾値と最大画素数閾値との間にある場合、プロセスは910に進む。そうでない場合、プロセスは906に進み、選択された候補を破棄する。
910において、システムは、選択された候補と車線エッジとの間の距離が最小距離DMIN未満であるかどうかを判定することができる。例えば、道路脇の候補は、車両に脅威を与える可能性が低く、したがって無視することができる。候補と車線エッジとの間の距離が最小距離未満である場合、プロセスは906に進み、選択された候補を破棄する。未満ではない場合、プロセスは912に進む。
912において、選択された候補がブロブサイズ閾値を超え、最小画素数と最大画素数との間の画素数を有し、道路エッジからの最小距離よりも大きいと判定されたため、選択された候補が保持される。
914において、システムは、すべての候補が処理されているかどうかを判定することができる。処理されていなければ、プロセスは902に戻り、次の処理候補を選択する。処理されている場合、残っている候補は、ノイズを除去した後に長方形918内の画像916に示された3つの候補に対応し得る。さらに、他の例では、プロセス900のすべてのブロックが実行されるわけではない。例えば、いくつかの例では、リアルタイム処理速度を向上させるために、動作904、908、または910のうち1つしか実行されなくてもよい。
図10は、いくつかの実施態様による、路面平面を推定するための例示的なプロセス1000を示すフロー図である。例えば、図5~図9に関して上述したように、1つまたは複数の候補が選択された後、システムは、各候補のデータを分析することができ、デブリと他のすべての候補(路面など)とを区別するために固有の特徴を抽出することができる。その後、各候補は、抽出された特徴に基づいて、デブリまたは非デブリとして分類され得る。検出フェーズは、3つのパート、すなわち、画素検証、特徴抽出、および強/弱特徴ベース分類器を使用した分類、に分割することができる。
しかしながら、画素検証および他の検出動作が実行される前に、本明細書の実装形態は、路面平面推定を実行して道路平面を推定し、上述した視差マップ画像を使用して各画素のX、Y、Z(実際の座標値)を計算することができる。各候補は個別に検討されてもよく、すべての画素はUV座標空間から地上空間(XYZ)座標に変換されてもよい。次いで、システムは、デブリ候補ごとに別々に路面平面を推定し、推定された路面平面に対してX、Y、Zを計算することができる。
1002において、システムは、道路平面推定のための候補の1つを選択することができる。
1004において、システムは、すべての画素をUV座標空間から地上空間座標、例えばXYZ座標、に変換することができる。
1006において、システムは、選択された候補ごとに別々に路面平面を推定することができる。
1008において、システムは、路面を計算するときに、選択された候補画素を無視しながら、路面のX、Y、Zを計算することができる。
1010において、システムは、すべての候補が処理されたかどうかを判定することができる。処理されている場合、プロセスは1012に進むことができる。処理されていなければ、プロセスは1002に戻り、次の処理候補を選択する。
1012において、すべての候補が処理された場合、システムは、以下にさらに説明するように、画素検証プロセスを進めることができる。
図11は、いくつかの実施態様による、画素検証の例示的なプロセス1100を示すフロー図である。この例では、X、Y、Z値を計算した後、現在のシーンにおける画素の幾何学的特性を使用して、各画素有効性の有効性を決定することができる。このプロセスではまた、セグメント化された候補領域を再定義して、小さな障害物または他のデブリの正確な形状と寸法の管理を抽出することができる。また、抽出された候補を0または1の値で表し、デブリ候補に属する画素と、路面などの周辺領域の画素とを区別することができる。
1102において、システムは、画素ごと候補ごとに、推定済み3Dデータを有する候補を選択することができる。
1104において、システムは、下り勾配、上り勾配、または高さ変位のうちの少なくとも1つのステップサイズを計算することができる。
1106において、システムは、下り勾配SDを計算することができる。
1108において、システムは、上り勾配SUを計算することができる。
1110において、システムは、高さ変位Hを計算することができる。
1012において、システムは、下り勾配SDが上り勾配SUよりも大きいかどうかを判定することができる。大きい場合、プロセスは1114に進む。大きくない場合、プロセスは1116に進む。
1114において、下り勾配が上り勾配よりも大きい場合、システムは、下り勾配SDと等しい勾配を設定する。
1116において、下り勾配が上り勾配よりも大きくない場合、システムは、上り勾配SUと等しい勾配を設定する。
1118において、システムは、勾配Sが第1閾値よりも大きいかどうかを判定する。大きい場合、プロセスは1120に進む。大きくない場合、プロセスは1122に進む。
1120において、勾配が第1閾値よりも大きいとき、システムは、高さ変位が第2閾値よりも大きいかどうかを判定する。大きい場合、画素は有効であり、プロセスは1124に進む。大きくない場合、画素は無効であり、プロセスは1126に進む。
1122において、勾配が第1閾値よりも大きくないとき、システムは、高さ変位が第3閾値よりも大きいかどうかを判定する。大きい場合、画素は有効であり、プロセスは1124に進む。大きくない場合、画素は無効であり、プロセスは1126に進む。
1124において、画素は有効であると判定されている。したがって、システムは、画素を有効な画素として保持することができる。
1126において、画素は無効であると判定されている。したがって、システムは、デブリ画像の一部としての画素を含んでいない。
したがって、従来のデブリ検出とは異なり、本明細書の実施態様は、最大勾配、平均勾配などの検出されたデブリの勾配を考慮して、デブリを検出するための検出距離を増加させることができる。さらに、画素検証アルゴリズムで使用するための上記の第1、第2、第3の閾値は、カメラシステムによってキャプチャされた既知のデブリのデータで訓練された1つまたは複数のモデルを使用する統計分析に基づいて、または様々な他の経験的技術のいずれかによって、決定され得る。
図12は、いくつかの実装形態による、行列形式の選択された候補の一例を示す。例えば図9に関して上述したように、以前に決定された画像916からの候補1202のうちの1つが画素検証のために選択されていると仮定する。選択された候補1202は、周囲領域と共に行列1204で表され、行列内の各数字は、デブリ候補に属する画素と隣接領域に属する画素とを区別するために0または1の値を有する画素を表す。特に、この例では、1は、デブリ候補1202に対応し得る白色領域に属する画素を示し、一方、0を有する画素は、路面などに属し得るような白色領域に隣接する領域に対応し得る。したがって、候補1202は、破線1206で囲まれた行列1204内の領域によって表される。
図13は、いくつかの実装形態による、行列形式の3Dマップとして、図12の選択済み候補1202の一例1300を示す。この例では、図12の選択された候補1202は、X、Y、Z値を有する3Dマップを提供する複数の行列1302、1304、1306によって表されてもよく、すなわち、行列1302はXYZ座標系のX軸を表すことができ、行列1304はY軸を表すことができ、行列1306はZ軸を表すことができる。一例として、X座標は横方向位置(右または左)情報を提供することができ、Y座標は高さ情報を提供することができ、Z座標は(例えば、進行方向の)距離情報を提供することができる。
視差マップと座標変換行列を用いて、画素毎にX、Y、Zの値を算出する。例えば、各画素をu-v座標の画像平面からXYZ座標の実世界3D平面に変換することができる。これらのX、Y、Z値を使用して、道路平面の推定を実行することができ、道路が平坦であるか勾配があるか(例えば、正の勾配または負の勾配)などに関する詳細な情報を提供する。道路平面を推定した後、推定した路面平面に基づいてY座標(すなわち、高さ情報)を更新することができる。X、Y、Z値を使用して、上り/下りの高さおよび勾配を推定することができる。XYZ値を行列形式で配置して、行列1302、1304、1306を提供することができる。
破線1308は、上り/下り計算に使用され得るXYZ情報を示す。図12に関して上述した選択済み候補1202は、例えば、それぞれの行列1302、1304、1306上の破線領域1308に対応し得る。例えば、3Dマップは、画素ごとに視差画像を用いて推定された、上り勾配、下り勾配、上り勾配高さ、および下り勾配高さを表すことができる。
図14は、いくつかの実装形態による、ステップサイズ選択の一例1400を示す。この例では、選択された候補は、図12に関して上述したように行列1204に表される。前の画素(n-1)から現在の画素(n)までと、現在から次の画素(n+1)までとの間のステップサイズは、カメラパラメータと車両からの現候補の距離とに基づいて、動的に推定することができる。例えば、行列1204の破線1402で示される領域1402では、ステップサイズ選択は1である。
現在選択している画素が行列1204の(4,4)にあると仮定する。ステップサイズが1の場合、前の画素(n-1)は(3,4)に位置し、次の画素(n+1)は(5,4)に位置する。あるいは、1404に示すように、前の画素(n-1)が(2,4)に位置し、次の画素(n+1)が(6,4)に位置する場合、ステップサイズ2を使用することができる。
図15は、いくつかの実装形態による、上り勾配および下り勾配を推定する例1500を示す。この例では、1502に示すように、デブリ候補1202の表面の上り勾配は、カメラ1504によってキャプチャされたときに、画素ごとに決定され得る。例えば、現在の画素がP1であると仮定すると、図14に関して上述したように、次行の画素はP2’であり、前行の画素はP2”である。この例では、上り勾配SUは、以下の式を使用して決定され得る。
Figure 2023511454000004
同様に、1506に示すように、デブリ候補1202の表面の下り勾配も決定することができる。この例では、現在の画素がP1であると仮定すると、図14に関して上述したように、次行の画素はP2’であり、前行の画素はP2”である。したがって、下り勾配SDは、以下の式を使用して決定され得る。
Figure 2023511454000005
さらに、上りの高さHDおよび下りの高さHUは、以下の式に基づいて画素ごとに決定され得る。
Figure 2023511454000006
図16は、いくつかの実装形態による、画素検証の前後の選択済み候補のマスク行列の一例1600を示す。選択済み候補の画素ごとに上り勾配、下り勾配および高さを計算した後、各画素を閾値と比較することができる。一例として、閾値は、統計分析または経験的技術を使用して選択されてもよい。この出力に基づいて、各画素を有効または無効として分類することができ、その分類をその後の特徴抽出に使用することができる。画素が有効か無効であるか判定されたことに基づいて、候補マスクを行列1204内で更新することができる。
この例では、元の候補マスク1602が行列1204の上側の例に示され、更新された候補マスク1604が行列1204の下側の例に示されている。元の候補マスク1602では、元の候補内の画素は、行列1204の行4、5、6の部分を占有した。画素検証の後、行6の画素はすべて無効である、すなわちデブリ候補に含まれない、と判定されたが一方、1606の行3の複数画素および行4の1つの画素(斜線アミで表示)はデブリ候補に含まれると判定された。さらに、矢印1608によって示すように、行4と5のいくつかの元の画素が有効であると判定された。
図17は、いくつかの実装形態による、特徴および対応する特徴強度を含む例示的なデータ構造1700を示す。例えば、上述のようにデブリ候補の画素を検証した後、特徴を抽出し、候補をデブリとして、またはデブリではないとして、正確に分類するために使用することができる。本明細書の例では、様々な異なる特徴を使用して、デブリと、車道またはデブリではない様々な他の画像異常と、を区別することができる。データ構造1700は、特徴1702、各特徴に対応する閾値1704、各特徴の偽陽性率1706、および各特徴の真陽性率1708を含む。
この例では、候補をデブリに分類するのに役立つ5つの主な特徴が指定されているが、他の例では、追加のまたは代替の特徴が使用されてもよい。この例の特徴は、デブリ候補の平均高さ1710、デブリ候補の最大高さ1712、デブリ候補の平均勾配1714、デブリ候補の最大勾配1716、および勾配>5などの画素割合に対応し得るピーク勾配割合1718を含む。したがって、本明細書の実施態様は、2つの高さベースの特徴および3つの勾配ベースの特徴を使用することができる。
場合によっては、閾値1704は、大型の画像データセットに関する統計分析を使用して決定され得る。例えば、画像データは、異なる路面状況(例えば、アスファルトまたはコンクリートのような路面色)、気象状況、時刻などの様々なシナリオをカバーすることができる。したがって、閾値1704は、天候および路面状況に基づいて更新されてもよい。
さらに、各特徴の偽陽性率1706および真陽性率1708は、高さベースの特徴が勾配ベースの特徴よりも正確である傾向があることを示す。したがって、高さベースの特徴1710および1712は、強特徴1720であると考えられ、勾配ベースの特徴1714、1716、1718は、弱特徴1722であると考えられる。例えば、強特徴1720は、重み乗数を減らして偽陽性を低減し、それによって検出精度を改善することができる。さらに、弱特徴1722は、重み乗数を増やすのに役立ち、それによって検出距離を改善することができる。
図18は、いくつかの実装形態による、図17に関して上述した、デブリ検出と特徴に関する路面偽陽性との対比の一例を示す。例えば、候補をデブリとして、またはデブリではないとして、分類するのに使用される特徴を候補ごとに抽出することができる。各特徴は、路面とデブリの区別を実現することができる。各特徴を他の特徴と比較して解析することができる。ノイズ/偽陽性に対する分離および免除に基づいて、図17に関して上述したように、特徴は、強特徴と弱特徴とに分類される。図18は、真陽性検出の総数とその特徴の偽陽性の総数との対比を含む各特徴の比較を示す。例えば、従来の技術は、画像の分析を実行するために画像内のすべての画素を使用することができるが、本明細書の実施態様は、まず使用する画素を検証し、検証した画素のみを、その後の特徴抽出および分類に使用することができ、これにより、検出したデブリについて有効な平均高さ、有効な最大高さ、有効な距離、および有効な幅情報を提供することができる。
図18の例では、平均高さには、1802で示されるように多数の真陽性結果が有り、偽陽性結果は無いことが示されている。同様に、最大高さには、多数の真陽性結果1802、および道路の一部がデブリとして誤って識別された2つの偽陽性結果1804があることが示されている。さらに、最大勾配特徴を有する画素の割合には、4つの偽陽性結果1804があることが示され、平均勾配特徴には、2つの偽陽性結果1804があることが示され、最大勾配特徴には、3つの偽陽性結果1804があることが示されている。さらに、1806、1808、1810に示すように、3つの勾配ベースの特徴の偽陽性結果1804のいくつかは、同じデブリ候補に対して発生し、結果的にその特定のデブリ候補に対して共通の偽陽性をもたらした。
図19は、いくつかの実装形態による、例示的な強特徴分類器アルゴリズム1900を示す。例えば、強分類器アルゴリズム1900は、図1~図3に関して上述したように、システム200または300上のデブリ検出プログラムによって実行され得る。例えば、選択された候補からすべての特徴が抽出された後、特徴は、図20に関して以下でさらに説明するように、最初に強特徴分類器アルゴリズム1900に適用され、次いで弱分類器子アルゴリズムに適用される。強特徴分類器および弱特徴分類器の組み合わせを使用して、デブリ候補を、高精度で、デブリとして分類することもできるし、デブリとして分類しないこともできる。以下の動作では、一例として、重み(例えば、W1、W2、W3、W4)は、それぞれの特徴の真陽性率に少なくとも部分的に基づいて決定されてもよく、閾値は、例えば、図17に関して上述したように決定されてもよい。
1902において、システムは、強特徴を処理するための候補を受信する。
1904において、システムは、平均高さが平均高さ閾値よりも大きいかどうかを判定する。大きい場合、プロセスは1910に進む。大きくない場合、プロセスは1908に進む。
1906において、システムはまた、候補に関連付けられた最大高さが最大高さ閾値よりも大きいかどうかを判定する。大きい場合、プロセスは1910に進む。大きくない場合、プロセスは1908に進む。
1908において、受信した候補の平均高さが平均高さ閾値以下である場合、または受信した候補の最大高さが最大高さ閾値以下である場合、受信した候補はデブリではないと分類され、システムは別の候補に対してアルゴリズム1900を開始することができる。
1910において、システムは、平均高さが第1閾値よりも大きいかどうか、最大高さが第2閾値よりも大きいかどうかを判定することができ、大きい場合、プロセスは1912に進む。大きくない場合、プロセスは1914に進む。
1912において、1910での条件が満たされた場合、システムは、重みWGを第1重みW1に等しく設定することができ、ブロック1924に進むことができる。
1914において、システムは、平均高さが第3閾値よりも大きいかどうか、最大高さが第4閾値よりも大きいかどうかを判定することができる。大きい場合、プロセスは1916に進む。大きくない場合、プロセスは1918に進む。
1916において、1914での条件が満たされた場合、システムは、重みWGを第2重みW2に等しく設定することができ、ブロック1924に進むことができる。
1918において、システムは、平均高さが第3閾値よりも大きいかどうか、最大高さが第5閾値よりも大きいかどうかを判定することができる。大きい場合、プロセスは1920に進む。大きくない場合、プロセスは1922に進む。
1920において、1918での条件が満たされた場合、システムは、重みWGを第3重みW3に等しく設定することができ、ブロック1924に進むことができる。
1922において、ブロック1918の条件が満たされない場合、システムは、重みWGを第4重みW4に等しく設定することができ、これはデフォルトの重み値でもあり得る。
1924において、システムは、選択された候補をさらに処理するために、重みWGを弱特徴分類器に送信することができる。
図20は、いくつかの実装形態による、実行され得る弱分類器アルゴリズム2000の一例を示す。例えば、弱分類器アルゴリズム2000は、例えば、図1~図3に関して上述したように、デブリ検出プログラム116によって実行され得る。この例では、候補が路面候補の大部分を除去する強特徴分類器1900を通過した後、強特徴アルゴリズム1900によって決定された候補および対応する重みWGは、弱特徴アルゴリズム2000によって受信され得る。例えば、強特徴に基づいて、重みWGが計算されてもよく、弱特徴の乗数として使用されてもよい。以下でさらに説明するように、弱特徴のいくつかまたはすべてからトータルの総計重みを合計し、候補をデブリとしてまたはデブリではないとして最終的に分類するために、1つまたは複数の閾値と比較することができる。以下の動作では、一例として、重み(例えば、第1重み、第2重み、第3重み)は、それぞれの特徴の真陽性率に少なくとも部分的に基づいて決定されてもよく、各閾値は、例えば、図17に関して上述したように決定されてもよい。上述したように、閾値は、天候、路面状況などに基づいて変化し得る。
2002において、弱特徴分類器アルゴリズム2000を実行するシステムは、図19に関して上述した強特徴分類器アルゴリズム1900から、重みWGおよび関連する候補の表示を受信する。
2004において、システムは、平均勾配にWGを乗算したものが平均勾配閾値より大きいかどうかを判定する。大きい場合、プロセスは2006に進む。大きくない場合、プロセスは2007に進む。
2006において、2004での条件が満たされると、システムは、ブロック2016に、重みWGと平均勾配特徴に関連付けられた別の重みとの積であり得る第1Wtを(例えば、平均勾配特徴の真陽性率に少なくとも部分的に基づいて)提供する。
2007において、2004での条件が満たされないとき、システムは、第1Wtを0に等しく設定し、この値をブロック2016に提供する。
2008において、システムは、最大勾配に重みWGを乗算したものが最大勾配閾値より大きいかどうかを判定することができる。大きい場合、プロセスは2010に進む。大きくない場合、プロセスは2011に進む。
2010において、2008での条件が満たされると、システムは第2Wtをブロック2016に提供する。例えば、第2Wtは、(例えば、最大勾配特徴の真の陽性率に少なくとも部分的に基づいて)重みWGと最大勾配特徴に関連する重みとの積であってもよい。
2011において、2008での条件が満たされないとき、システムは、第2Wtを0に等しく設定し、この値をブロック2016に提供する。
2012において、システムは、ピーク勾配割合に重みWGを乗算したものが、ピーク勾配割合閾値より大きいかどうかを判定する。大きい場合、プロセスは2014に進む。大きくない場合、プロセスは2015に進む。
2014において、2012での条件が満たされると、システムは第3Wtを2016のブロックに提供する。例えば、第3Wtは、重みWGにピーク勾配割合に関連する重みを(例えば、最大勾配特徴の真陽性率に少なくとも部分的に基づいて)乗算したものであってもよい。
2015において、2012での条件が満たされないとき、システムは、第3Wtを0に等しく設定し、この値をブロック2016に提供する。
2016において、システムは、ブロック2004、2008、2012で行われた決定にそれぞれ基づいて、受信した第1Wt、第2Wt、第3Wtを合計することによって総計重みを決定する。
2018において、システムは、総計重みが総計重み閾値より大きいかどうかを判定する。大きくない場合、プロセスは2020に進む。大きい場合、プロセスは2022に進む。
2020において、総計重みが総計重み閾値未満である場合、候補はデブリなしとして分類される。
2022において、総計重みが総計重み閾値を超えた場合、候補はデブリとして分類される。
1つまたは複数の候補が検出され、デブリとして分類された後、残りのフレームについてデブリがトラッキングされてもよく、対応する寸法情報が表示されるか、そうでなければ出力に関連付けられてもよい。一例として、識別されたデブリを含み、さらにデブリのサイズおよび距離情報を含む画像は、デブリの強調表示、警告信号の鳴動などを含めて、ディスプレイ上で車両の運転者に提示される道路の画像内に提示されてもよい。あるいは、ADまたはADAS車両の場合、例えば図1~図4に関して上述したように、デブリ位置およびサイズ情報が車両制御プログラム118に提供され得る。車両速度、デブリの位置およびサイズ、ならびに他の条件に基づいて、システムは、デブリを回避するために1つまたは複数の車両システムに送信する1つまたは複数の制御信号を決定することができる。
さらに、図1~図3に関して上述したように、デブリに関する位置、サイズおよび他の情報は、デブリ情報データ構造に格納するためにクラウドサーバまたは他のネットワークコンピュータデバイスにアップロードされてもよい。クラウド上のデブリ情報は、ネットワークコンピューティングデバイスで維持されるデブリ情報の精度を向上させるために、他の車両から受信した他のデブリ情報と集約されてもよい。さらに、他の車両は、リアルタイムでデブリ情報を受信することができ、受信したデブリ情報に基づいてデブリを回避することができる。さらに、車両または運転者によって計画されたすべてのルートについて、サービスコンピューティングデバイスは、特定された位置において車両走行経路内にデブリが残っていると判定している間に、デブリに関連する情報、デブリの位置、デブリのサイズ、優先ルート、および他の情報を提供することができる。
本明細書に記載の例示的なプロセスは、単に議論の目的で提供するプロセス例にすぎない。本明細書の開示に照らすと、当業者には、多数の他の変形形態が明らかであろう。さらに、本明細書の開示は、プロセスを実行するための適切なフレームワーク、アーキテクチャ、および環境のいくつかの例を記載しているが、本明細書の実装形態は、図示および説明された特定の例に限定されない。さらに、本開示は、記載されるように、また図面に示されるように、様々な例示的な実施態様を提供する。しかしながら、本開示は、本明細書に記載および図示された実施態様に限定されず、当業者に知られているように、または当業者に知られることになるように、他の実施態様に拡張することができる。
本明細書で説明される様々な命令、プロセス、および技術は、例えば、コンピュータ可読媒体に格納され、本明細書のプロセッサによって実行されるコンピュータプログラムおよびアプリケーションといった、コンピュータ実行可能命令の一般的な文脈で考慮され得る。一般に、プログラムおよびアプリケーションという用語は同義で使用されてもよく、特定のタスクを実行するため、または特定のデータタイプを実装するための、命令、ルーチン、モジュール、オブジェクト、コンポーネント、データ構造、実行可能コードなどを含んでもよい。これらのプログラム、アプリケーションなどは、ネイティブコードとして実行されてもよいし、仮想マシンまたは他のジャストインタイムコンパイル実行環境などで、ダウンロードおよび実行されてもよい。典型的には、プログラムおよびアプリケーションの機能は、様々な実施態様において所望に応じて組み合わされてもよいし、または分散されてもよい。これらのプログラム、アプリケーション、および技術の実装は、コンピュータ記憶媒体に格納されてもよいし、または何らかの形態の通信媒体を介して送信されてもよい。
主題は、構造的特徴および/または方法論的行為に特有の言語で記載されているが、添付の特許請求の範囲で定義される主題は、記載された特定の特徴または行為に必ずしも限定されないことを理解されたい。むしろ、特定の特徴および動作は、特許請求の範囲を実施する例示的な形態として開示されている。

Claims (20)

  1. システムであって、
    1つ以上のプロセッサと、
    実行可能命令を含む1つまたは複数の非一時的コンピュータ可読媒体であって、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
    道路の少なくとも1つの画像を受信することと、
    前記道路上のデブリに対応する可能性があるものとして前記画像内の画素の少なくとも1つの候補画素グループを決定することと、
    前記候補画素グループのための少なくとも2つの高さベースの特徴を決定することであって、前記少なくとも2つの高さベースの特徴は、前記道路の表面に対して前記候補画素グループに関連付けられた最大高さと、前記道路の表面に対して前記候補画素グループに関連付けられた平均高さとを含む、決定することと、
    前記少なくとも2つの高さベースの特徴をそれぞれの閾値と比較することに基づいて、少なくとも1つの重み係数を決定することと、
    前記候補画素グループと関連付けられた1つまたは複数の勾配ベースの特徴を決定することと、
    総計重みを決定するために、前記少なくとも1つの重み係数を、前記1つまたは複数の勾配ベースの特徴のうちの少なくとも1つに関連付けられた少なくとも1つの重みに適用することと、
    前記総計重みに少なくとも基づいて、前記候補画素グループがデブリに対応するかどうかを判定することと、
    を含む動作を行わせる非一時的コンピュータ可読媒体とを含むシステム。
  2. 前記動作がさらに、少なくとも前記候補画素グループ内の個々の画素が前記道路の表面を表すかどうかの判定に基づいて、前記候補画素グループ内の前記画素の有効性を判定することを含む、請求項1に記載のシステム。
  3. 前記画素の前記有効性の判定がさらに、前記画素のグループ内の前記個々の画素について、
    隣接する画素に対して個々の画素に関連付けられた上り勾配、
    前記隣接する画素に対して前記個々の画素に関連付けられた下り勾配、または、
    隣接する画素に対して前記個々の画素に関連付けられた高さ、
    のうち少なくとも1つを決定することに基づく、請求項2に記載のシステム。
  4. 前記動作がさらに、前記候補画素グループ内の前記画素の有効性を判定する前に、道路表面の道路平面推定を決定することを含む、請求項2に記載のシステム。
  5. 前記動作がさらに、
    前記画像から決定された車線情報に少なくとも部分的に基づいて、前記画像内の関心領域を決定することと、
    前記少なくとも1つの候補画素グループが前記関心領域内に位置することを少なくとも決定することに基づいて、前記画像内の前記少なくとも1つの候補画素グループを決定することと、
    を含む請求項1に記載のシステム。
  6. ステレオカメラから2つの画像が受信されると、前記動作がさらに、
    前記受信画像から視差画像を決定することと、
    前記受信画像のうちの少なくとも1つのエッジ情報を決定することと、
    前記視差画像と前記エッジ情報とに基づいて、修正された視差画像を決定することと、
    前記修正された視差画像から前記少なくとも1つの候補画素グループを決定することと、
    を含む請求項1に記載のシステム。
  7. 前記1つまたは複数の勾配ベースの特徴は、少なくとも、
    隣接画素に対して個々の画素に関連付けられた平均勾配、
    個々の画素に関連付けられた最大勾配、または
    規定値を超える勾配に関連付けられた前記候補画素グループ内の画素の割合、
    のうちの1つを含む請求項1に記載のシステム。
  8. 前記動作がさらに、前記候補画素グループがデブリに対応するという判定に基づいて少なくとも1つの制御信号を送信することを含み、前記少なくとも1つの制御信号は、
    車両に前記デブリを回避させるように前記車両を制御するための命令と、
    警報を発生させる命令と、
    前記デブリに関する情報をディスプレイに表示させる命令と、
    のうち少なくとも1つを含む請求項1に記載のシステム。
  9. 前記動作がさらに、
    前記候補画素グループがデブリに対応するという判定に基づいて、前記デブリに関連するデブリ情報をネットワークを介してコンピューティングデバイスに送信して、前記コンピューティングデバイスに、少なくとも部分的に前記デブリ情報をデータ構造に格納させることと、
    前記コンピューティングデバイスから追加のデブリ情報を受信することであって、前記デブリ情報が別の道路における追加のデブリの位置を示す、受信することと、
    少なくとも前記追加のデブリ情報に基づいて、目的地までのルートを決定することと、を含む請求項1に記載のシステム。
  10. 方法であって、
    1つまたは複数のプロセッサによって、道路の少なくとも1つの画像を受信することと、
    前記道路上のデブリに対応する可能性のあるものとして前記画像内の画素の少なくとも1つの候補画素グループを決定することと、
    前記候補画素グループに対して少なくとも2つの高さベースの特徴を決定することであって、前記少なくとも2つの高さベースの特徴は、前記道路の表面に対して前記候補画素グループに関連付けられた最大高さと、前記道路の表面に対して前記候補画素グループに関連付けられた平均高さとを含む、決定することと、
    前記少なくとも2つの高さベースの特徴をそれぞれの閾値と比較することに基づいて、少なくとも1つの重み係数を決定することと、
    少なくとも前記比較することに基づいて、前記候補画素グループがデブリに対応するかどうかを判定することと、
    を含む方法。
  11. 前記方法がさらに、候補画素グループに関連付けられた1つまたは複数の勾配ベースの特徴を決定することを含み、前記1つまたは複数の勾配ベースの特徴は、
    隣接画素に対して個々の画素に関連付けられた平均勾配、
    個々の画素に関連付けられた最大勾配、または、
    規定値を超える勾配に関連付けられた前記候補画素グループ内の画素の割合、
    のうちの少なくとも1つを含む請求項10に記載の方法。
  12. 前記方法がさらに、
    前記少なくとも2つの高さベースの特徴をそれぞれの閾値と比較することに基づいて、少なくとも1つの重み係数を決定することと、
    総計重みを決定するために、前記少なくとも1つの重み係数を、前記1つまたは複数の勾配ベースの特徴のうちの少なくとも1つに関連付けられた少なくとも1つの重みに適用することと、
    前記総計重みに少なくとも基づいて、前記候補画素グループがデブリに対応するかどうかを判定することと、
    を含む請求項11に記載の方法。
  13. 前記方法がさらに、少なくとも前記候補画素グループ内の個々の画素が前記道路の表面を表すかどうかという判定に基づいて、前記候補画素グループ内の前記画素の有効性を判定することを含む、請求項10に記載の方法。
  14. さらに、前記画像から決定された車線情報に少なくとも部分的に基づいて前記画像内の関心領域を決定することと、
    前記少なくとも1つの候補画素グループが前記関心領域内に位置することを決定することに少なくとも基づいて、前記画像内の前記少なくとも1つの候補画素グループを決定することと、
    を含む請求項10に記載の方法。
  15. ステレオカメラから2つの画像が受信されると、さらに、
    受信した画像から視差画像を決定することと、
    受信した画像のうちの少なくとも1つのエッジ情報を決定することと、
    前記視差画像と前記エッジ情報とに基づいて、修正された視差画像を決定することと、
    前記修正された視差画像から前記少なくとも1つの候補画素グループを決定することと、
    を含む請求項10に記載の方法。
  16. システムであって、
    1つ以上のプロセッサと、
    実行可能命令を含む1つまたは複数の非一時的コンピュータ可読媒体であって、前記1つまたは複数のプロセッサによって実行されると、前記1つ以上のプロセッサに、
    車両が走行する道路の少なくとも1つの画像を受信することと、
    前記道路上のデブリに対応する可能性があるものとして前記画像内の画素の少なくとも1つの候補画素グループを決定することと、
    前記候補画素グループに関連付けられた複数の勾配ベースの特徴を決定することであって、前記勾配ベースの特徴は、
    隣接する画素に対して個々の画素に関連付けられた平均勾配、
    前記個々の画素に関連付けられた最大勾配、または
    規定値を超える勾配に関連付けられた候補画素グループ内の画素の割合のうちの少なくとも1つを含む、決定することと、
    総計重みを決定するために、前記複数の勾配ベースの特徴のうちの少なくとも1つに関連する少なくとも1つの重みに少なくとも1つの重み係数を適用することと、
    少なくとも前記総計重みに基づいて、前記候補画素グループがデブリに対応するかどうかを判定することと、
    を含む動作を行わせる非一時的コンピュータ可読媒体を含むシステム。
  17. 前記動作がさらに、少なくとも前記候補画素グループ内の個々の画素が前記道路の表面を表すかどうかを判定することに基づいて、前記候補画素グループ内の前記画素の有効性を判定することを含む、請求項16に記載のシステム。
  18. 前記動作がさらに、
    前記候補画素グループについての1つまたは複数の高さベースの特徴を決定することであって、前記1つまたは複数の高さベースの特徴は、
    前記道路の表面に対して前記候補画素グループに関連付けられた最大高さ、または
    前記道路の表面に対して前記候補画素グループに関連付けられた平均高さ、のうちの少なくとも1つを含む、決定することと、
    前記高さベースの特徴のうちの少なくとも1つを閾値と比較することに基づいて、前記少なくとも1つの重み係数を決定することと、
    を含む請求項16に記載のシステム。
  19. 前記動作がさらに、
    前記画像から決定された車線情報に少なくとも部分的に基づいて、前記画像内の関心領域を決定することと、
    前記少なくとも1つの候補画素グループが前記関心領域内に位置することを決定することに少なくとも基づいて、前記画像内の前記少なくとも1つの候補画素グループを決定することと、
    を含む請求項16に記載のシステム。
  20. ステレオカメラから2つの画像が受信されると、前記動作がさらに、
    受信した画像から視差画像を決定することと、
    受信した画像のうちの少なくとも1つに関するエッジ情報を決定することと、
    前記視差画像と前記エッジ情報とに基づいて、修正された視差画像を決定することと、
    前記修正された視差画像から前記少なくとも1つの候補画素グループを決定することと、
    を含む請求項16に記載のシステム。
JP2022545430A 2020-03-30 2021-01-18 車両走行路内のデブリの検出 Active JP7454685B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/833,759 US11314974B2 (en) 2020-03-30 2020-03-30 Detecting debris in a vehicle path
US16/833,759 2020-03-30
PCT/JP2021/001439 WO2021199584A1 (en) 2020-03-30 2021-01-18 Detecting debris in a vehicle path

Publications (2)

Publication Number Publication Date
JP2023511454A true JP2023511454A (ja) 2023-03-17
JP7454685B2 JP7454685B2 (ja) 2024-03-22

Family

ID=77856373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022545430A Active JP7454685B2 (ja) 2020-03-30 2021-01-18 車両走行路内のデブリの検出

Country Status (4)

Country Link
US (1) US11314974B2 (ja)
JP (1) JP7454685B2 (ja)
DE (1) DE112021000482T5 (ja)
WO (1) WO2021199584A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230192067A1 (en) * 2021-11-23 2023-06-22 Motional Ad Llc Motion planner constraint generation based on road surface hazards
US20230415737A1 (en) * 2022-06-22 2023-12-28 Toyota Motor Engineering & Manufacturing North America, Inc. Object measurement system for a vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075800A (ja) * 2013-10-07 2015-04-20 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3868876B2 (ja) * 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法
US7741961B1 (en) * 2006-09-29 2010-06-22 Canesta, Inc. Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles
US8462988B2 (en) * 2007-01-23 2013-06-11 Valeo Schalter Und Sensoren Gmbh Method and system for universal lane boundary detection
JP5181602B2 (ja) * 2007-09-28 2013-04-10 コニカミノルタホールディングス株式会社 物体検出装置
JP5441549B2 (ja) * 2009-07-29 2014-03-12 日立オートモティブシステムズ株式会社 道路形状認識装置
JP5827508B2 (ja) * 2011-07-13 2015-12-02 ヤマハ発動機株式会社 車両用障害物検出装置及びそれを用いた車両
US9256791B2 (en) * 2012-12-04 2016-02-09 Mobileye Vision Technologies Ltd. Road vertical contour detection
JP5959073B2 (ja) 2014-09-30 2016-08-02 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 検出装置、検出方法、及び、プログラム
US9672446B1 (en) * 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US10296794B2 (en) * 2016-12-20 2019-05-21 Jayant Rtti On-demand artificial intelligence and roadway stewardship system
US10460180B2 (en) * 2017-04-20 2019-10-29 GM Global Technology Operations LLC Systems and methods for visual classification with region proposals
US10591605B2 (en) * 2017-10-19 2020-03-17 Gerard Dirk Smits Methods and systems for navigating a vehicle including a novel fiducial marker system
US10696257B2 (en) * 2018-07-17 2020-06-30 Denso International America, Inc. Automatic crowd sensing and reporting system for road incidents
US11338807B2 (en) * 2019-01-30 2022-05-24 Allstate Insurance Company Dynamic distance estimation output generation based on monocular video
WO2021174118A1 (en) * 2020-02-26 2021-09-02 Nvidia Corporation Object detection using image alignment for autonomous machine applications

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075800A (ja) * 2013-10-07 2015-04-20 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両

Also Published As

Publication number Publication date
US20210303875A1 (en) 2021-09-30
WO2021199584A1 (en) 2021-10-07
DE112021000482T5 (de) 2022-11-24
JP7454685B2 (ja) 2024-03-22
US11314974B2 (en) 2022-04-26

Similar Documents

Publication Publication Date Title
US20220284712A1 (en) Estimating object properties using visual image data
US9767368B2 (en) Method and system for adaptive ray based scene analysis of semantic traffic spaces and vehicle equipped with such system
KR102541559B1 (ko) 관심 객체를 검출하는 방법 및 장치
CN106485233B (zh) 可行驶区域检测方法、装置和电子设备
WO2021134441A1 (zh) 基于自动驾驶的车辆速度控制方法、装置和计算机设备
JP7301138B2 (ja) ポットホール検出システム
CN106647776B (zh) 车辆变道趋势的判断方法、判断装置和计算机存储介质
JP6082802B2 (ja) 物体検知装置
Haloi et al. A robust lane detection and departure warning system
JP6202635B2 (ja) 運転者支援システムのためのレーン相対位置推定の方法及びシステム
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
JP2018036796A (ja) 外界情報処理装置
KR20110001427A (ko) 관심영역 추출에 의한 차선 고속검출 방법
JP4937844B2 (ja) 歩行者検出装置
US11676403B2 (en) Combining visible light camera and thermal camera information
JP7454685B2 (ja) 車両走行路内のデブリの検出
JP2018026096A (ja) 物標検出装置
KR20210061069A (ko) 3차원 객체를 표시하는 방법 및 장치
Javadi et al. A robust vision-based lane boundaries detection approach for intelligent vehicles
Berriel et al. A particle filter-based lane marker tracking approach using a cubic spline model
CN112937582A (zh) 改进车道改变检测的***、非暂态计算机可读介质和方法
Kühnl et al. Visual ego-vehicle lane assignment using spatial ray features
JP7195200B2 (ja) 車載装置、車載システムおよび周辺監視方法
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
WO2022209373A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7454685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150