JP2020530608A - 車両のカメラによって取得された画像シーケンスを用いてオプティカルフローを求めるための方法および装置 - Google Patents

車両のカメラによって取得された画像シーケンスを用いてオプティカルフローを求めるための方法および装置 Download PDF

Info

Publication number
JP2020530608A
JP2020530608A JP2019572413A JP2019572413A JP2020530608A JP 2020530608 A JP2020530608 A JP 2020530608A JP 2019572413 A JP2019572413 A JP 2019572413A JP 2019572413 A JP2019572413 A JP 2019572413A JP 2020530608 A JP2020530608 A JP 2020530608A
Authority
JP
Japan
Prior art keywords
vehicle
image
optical flow
time lag
lag value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019572413A
Other languages
English (en)
Other versions
JP6884893B2 (ja
Inventor
ヘルボン・クリストファー
ドルンブッシュ・ダニエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2020530608A publication Critical patent/JP2020530608A/ja
Application granted granted Critical
Publication of JP6884893B2 publication Critical patent/JP6884893B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、車両(100)のカメラ(104)によって取得された画像シーケンスに基づいてオプティカルフローを求めるための方法に関する。この場合、前記車両(100)の少なくとも1つのセンサ(110)を用いて検知された車両周囲および/または前記車両(100)の走行状況、および/または前記オプティカルフローの事前の算出結果を表す少なくとも1つの入力信号(108)、および前記画像シーケンスを表す画像信号(106)が受信される。前記入力信号(108)を用いてタイムラグ値が決定される。前記画像信号(106)を用いて、前記画像シーケンスの前記タイムラグ値だけ互いにずらされた少なくとも2つの個別画像が選択される。最後に、一致するピクセルを用いて前記オプティカルフローを求めるために、前記個別画像内の一致するピクセルが検出される。【選択図】 図10

Description

本発明は、独立請求項の前提部に記載した方法または装置に関する。本発明の対象は、コンピュータプログラムでもある。
最近の車両は、運転者支援または自動運転を目的としてビデオカメラを装備していてよい。ビデオカメラによって取得された画像シーケンスは、例えばオプティカルフローを演算するために処理され得る。
このような背景から、ここに紹介された提案により、車両のカメラによって取得された画像シーケンスに基づいてオプティカルフローを求めるための方法、この方法を用いた装置、並びに最後に独立請求項に記載した相応のコンピュータプログラムが紹介される。従属請求項に記載した措置によって、独立請求項に記載した装置の好適な発展形態および改良が可能である。
車両のカメラによって取得された画像シーケンスに基づいてオプティカルフローを求めるための方法が提案されており、この場合、この方法は、
車両の少なくとも1つのセンサを用いて検知された車両周囲および/または車両の走行状況、および/またはオプティカルフローの事前の算出結果を表す少なくとも1つの入力信号、および画像シーケンスを表す画像信号を受信するステップと、
入力信号を用いてタイムラグ値を決定するステップと、
画像信号を用いて、画像シーケンスのタイムラグ値だけ互いにずらされた少なくとも2つの個別画像を選択するステップと、
一致するピクセルを用いてオプティカルフローを求めるために、個別画像内の一致するピクセルを検出するステップと、
を有している。
オプティカルフローとは、画像シーケンスの2つの個別画像間の画像平面内のまたはステレオカメラの左の画像と右の画像との間の画像平面内のピクセルの運動の記述と解釈されてよい。この場合、オプティカルフローは、個別画像間のそれぞれの時間的な間隔に依存している。センサは、例えばカメラ、加速度センサ、ステアリングホイール回転センサ、ホイール回転数センサ、レーダセンサ、ライダーセンサ、超音波センサ、GPSセンサ、光センサまたは雨センサであってよい。走行状況とは、例えば速度、加速度、ピッチレートまたはロールレート等の所定の車両パラメータによって特徴付けられた車両の状態であると解釈されてよい。入力信号は、例えば車両の運転者支援機能またはオプティカルフローの事前の演算との直接的または間接的なフィードバックによって生成されてよい。入力信号は、例えば従属するまたは独立した信号であるか、または少なくとも1つの従属する信号と独立した信号との組み合わせであってよい。従属する信号は、例えばそのフィードバックに基づいて閉ループ制御回路に達し、この閉ループ制御回路において、時点tでのオプティカルフローの結果が、時点t+Δtで結果に影響を及ぼす。タイムラグ値とは、特にミリ秒範囲の時間長さであると解釈されてよい。画像シーケンスとは、少なくとも2つの個別画像の連続であると解釈されてよい。ピクセルとは、個別画像の画素であると解釈されてよい。2つの個別画像間の1つのピクセルの運動は、オプティカルフローを表すフローベクトルとして算出され得る。2つの個別画像間の複数のピクセルの運動は、それぞれ複数のフローベクトルから例えば少なくとも1つのフローフィールドの形で算出され得る。この場合、フローベクトルの長さは同じであるかまたは異なっていてよい。
ここで紹介された提案は、車両カメラによって取得された画像シーケンスのオプティカルフローが、状況に応じて可変な時間ベースで算出され得る、という認識に基づいている。
取得されたシーンの内容およびカメラの固有運動の内容とは無関係に、オプティカルフローの演算時に一定のタイムラグが用いられる、従来の方法とは異なり、ここで紹介された提案を用いて、所定の入力信号の量に基づいて複数のカメラ画像間の時間的なずれを選択することによって、より高いダイナミックスを有するシーンにおけるオプティカルフローの損失の発生は避けられる。それと同時に、固有運動推定時の精度ポテンシャルが、僅かな変化を有するカメラポーズおよびシーンにおいて完全に利用し尽くされる。従って、静的なタイムラグの代わりに動的なタイムラグを用いることによって、状況に応じて可能な限り最高のフローデータが得られる。
一実施例によれば、決定するステップで、入力信号が、車両の検知された自動式の非常ブレーキングを表す場合に若しくは、追加的にまたは選択的に閾値を上回る車両のピッチレートを表す場合に、初期値を小さくすることによってタイムラグ値が決定される。これによって、高いダイナミックスを有する走行状況におけるオプティカルフローの損失は避けることができる。
この場合、決定するステップで、初期値を半分にすることによってタイムラグ値が決定され得る。これによって、特別に安価な演算コストでタイムラグ値を低下させることができる。
別の実施例によれば、決定するステップで、タイムラグ値を車両のロールレートまたは、追加的にまたは選択的に、車両と少なくとも1つの別の車両との間の相対速度に依存して決定するために、入力信号が用いられる。これによって、揺れ動く車両または揺れ動くカメラにおいてオプティカルフローの損失は避けられ、例えば低い相対速度においても、個別画像の十分に精確な走査が保証され得る。
この方法は、画像信号を取得するために、タイムラグ値を用いてカメラの画像再現率を変更するステップを有していてよい。これによって、タイムラグ値に依存する画像再現率を有する画像シーケンスの個別画像が取得され得る。
変更するステップで、画像シーケンスの個別画像がタイムラグ値だけ互いにずらされるように、画像再現率が変更されれば特に好適である。これによって、オプティカルフローを求めるための演算コストをできるだけ安価に維持することができる。
また、検出するステップで、一致するピクセルを検出するために、個別画像の部分セクションが検索されれば有利である。部分セクションとは、初期点を包囲する局所的に制限された検索範囲を描く検索窓と解釈されてよい。これによって、ピクセルの一致後に完全な個別画像が検索されることは避けられる。従って、一方ではリソース消費が低減され、他方では、一致の明確な検出が保証され得る。またこれによって、大抵は上方に向かって制限されている画像内容の運動に関する幾何学的な予備知識が、画像内の対象物の運動およびカメラの固有運動に依存して加えられる。
別の実施例に従って、決定するステップで、タイムラグ値とは異なる少なくとも1つの別のタイムラグ値が、入力信号を用いて決定され得る。選択するステップで、別のタイムラグ値だけ互いにずらされた、画像シーケンスの別の少なくとも2つの個別画像が選択され得る。それに対応して、検出するステップで、一致する別のピクセルを用いてオプティカルフローを求めるために、別の個別画像内の一致する別のピクセルが検出される。これによって、それぞれ1つの別の時間ベースを有する様々なフローフィールド内で、与えられたシナリオ内のオプティカルフローを求めることができる。
この場合、評価のステップで、車両周囲の第1の領域内のオプティカルフローを求めるために個別画像が評価され、車両周囲の第2の領域内のオプティカルフローを求めるために別の個別画像が用いられる。これによって、オプティカルフローを、それぞれの領域に適合されたそれぞれ1つの別の時間ベースを有する車両周囲の様々な領域内で同時に求めることができる。
この方法は、例えばソフトウエアまたはハードウエア、またはソフトウエアとハードウエアとの混合形で、例えばコントロールユニットにより実行されてよい。
ここに紹介された提案はさらに、ここに紹介された方法の変化のステップを相応のデバイスで実施し、制御し若しくは実行に移すために構成された装置を提供する。本発明のこのような装置の形の変化実施例によっても、本発明に基づく課題を迅速かつ効果的に解決することができる。
このために、この装置は、信号またはデータを処理するための少なくとも1つの演算装置、信号またはデータを記憶するための少なくとも1つの記憶装置、センサとのまたはセンサのセンサ信号を読み取るためのまたはデータ信号若しくは制御信号をアクチュエータにアウトプットするためのアクチュエータとの少なくとも1つのインターフェース、および/またはデータを読み取りまたはアウトプットするための、通信プロトコル内に埋め込まれた少なくとも1つの通信インターフェースを有していてよい。演算装置は、例えば信号処理装置、マイクロコントローラ等であってよく、この場合、記憶装置は、フラッシュメモリー、EPROMまたは磁気記憶装置であってよい。通信インターフェースは、データを無線誘導および/または有線誘導で読み取りまたはアウトプットするために構成されていてよく、この場合、有線誘導されたデータを読み取るかまたはアウトプットすることができる通信インターフェースは、これらのデータを例えば電気式または光学式に、対応するデータ伝送ケーブルから読み取るかまたは対応するデータ伝送ケーブルにアウトプットすることができる。
装置とは、ここでは、センサ信号を処理し、かつそれに応じて制御信号および/またはデータ信号をアウトプットする電気機器と解釈されてよい。装置はインターフェースを有していてよく、このインターフェースはハードウエア的および/またはソフトウエア的に構成されていてよい。ハードウエア的な構成においては、インターフェースは、装置の様々な機能を含む、例えばいわゆるシステムASICの部分であってよい。しかしインターフェースは、固有の集積回路であるかまたは少なくとも部分的に離散素子より成っていることも可能である。ソフトウエア的な構成においては、インターフェースは、例えば別のソフトウエアモジュールの隣のマイクロコントローラに設けられたソフトウエアモジュールであってよい。
好適な実施形態では、装置によって車両の制御が行われる。このために、装置は例えば、加速度信号、圧力信号、ステアリングアングル信号または周辺センサ信号等のセンサ信号にアクセスすることができる。制御は、車両のブレーキアクチュエータまたはステアリングアクチュエータまたはエンジンコントロールユニット等のアクチュエータを介して行われる。
機械読み取り可能な担体または記憶媒体、例えば半導体記憶装置、ハードディスク、または光学式記憶装置に記憶され、特にプログラム製品またはプログラムがコンピュータまたは装置で実行されるときに、前記実施例のいずれか1つによる方法のステップを実施、実行および/または制御するために使用されるプログラムコードを有するコンピュータプログラムまたはコンピュータプログラム製品も有利である。
一実施例による装置を備えた車両の概略図である。 図1による装置の概略図である。 一実施例による方法の流れを説明するためのブロック図である。 一実施例による方法のフローチャートである。 図1のカメラによって取得された2つの個別画像におけるオプティカルフローの概略図である。 図1のカメラによって取得された2つの個別画像におけるオプティカルフローの概略図である。 図1のカメラによって取得された2つの個別画像におけるオプティカルフローの概略図である。 図1のカメラによって取得された1つの個別画像のオプティカルフローの概略図である。 図1のカメラによって取得された1つの個別画像のオプティカルフローの概略図である。 図1のカメラによって取得された2つの個別画像におけるオプティカルフローの概略図である。
本発明の実施例が図面に示されていて、以下に詳しく説明されている。
以下に記載した本発明の好適な実施例では、様々な図面に示された類似の作用を有する要素には同じまたは類似の符号が付けられており、この場合、これらの要素の繰り返しの説明は省かれる。
図1は、一実施例による装置102を備えた車両100の概略図を示す。この装置102は、車両100のカメラ104に接続されている。カメラ104は、車両100の車両周囲の複数の個別画像から成る画像シーケンスを表す画像信号106を、装置102に伝送するために構成されている。さらに、装置102は、適切なインターフェースを介して少なくとも1つの入力信号108を受信する。この入力信号108は、図1では例として車両100のホイール回転数センサ110によって提供され、従って車両100のホイール回転数若しくは速度を表す。実施例に従って、入力信号108は、以下に詳しく説明されているように、車両100の様々なセンサを用いて提供された、車両周囲または車両100の走行状況を検知するための信号である。選択的にまたは追加的に、入力信号108はカメラ104の画像データの事前の評価より成る一時記憶されたデータも表す。装置102は、入力信号108を使用して、画像シーケンスに基づいてオプティカルフローを求めるためのタイムラグを決定するために構成されている。装置102は、事前に決定されたタイムラグと時間的な間隔が同じである画像シーケンスから少なくとも2つの個別画像を選択し、これに一致するピクセルを探し出す。一致したピクセルに基づいて装置102は画像シーケンスのオプティカルフローを算出し、相応のフローデータ112の形式でオプティカルフローを提供する。フローデータ112は、例えば車両100のコントロールユニットによって様々な運転者支援機能を制御するために評価される。
一実施例によれば、装置102は、入力信号108に基づいて決定されたタイムラグを用いてカメラ104の画像再現率を変えるために構成されている。つまり時間的な画像再現率は可変に調節可能である。この場合、特に装置102は、画像信号106によって表された画像シーケンスの個別画像がタイムラグに相当する相互の時間的な間隔を有するように、画像再現率を調整する。オプティカルフローを求めるために、過去の所定数のビデオ画像が記憶されていて、これらの画像のそれぞれへのアクセスが自主的に行われるようになっていれば好適である。
従って、タイムラグのダイナミックな適合によってオプティカルフローを求める際に、車両100の様々な状況が考慮され得る。
時間間隔が大きければ大きい程、画像の動きは大きくなるが、対応する画素の割当てもより困難になる。大きい時間間隔において、例えば車両100の停止状態において、ゆっくりと動く対象物、例えば歩行者が検知され得る。車両100が複数レーンの車道、例えば高速道路を別の車両と共に同じ方向に移動するケースでは、別の車両はオプティカルフローによって検出することができるが、これに対して背景の運動はもはや検出可能ではない。追加的に、通常は、時間間隔が比較的大きい場合、フローベクトルの大きさおよびひいてはその信号雑音比(SNR)は増大するが、これは例えば固有運動推定の際に利点である。
時間間隔が小さければ小さい程、高い固有速度を有する対象物が検出される確率が高くなる。これは、例えば並進運動または回転によってカメラ104の位置が高速で変化する場合にもあてはまる。強い制動、狭いカーブ走行またはでこぼこの地面上の走行時におけるような強いダイナミックスを伴う走行シナリオでは、装置102は、好適な形式でより短い時間間隔を選択する。従って、オプティカルフローの損失は避けられる。オプティカルフローを求めるための単数または複数の様々なタイムラグを選択する際の様々な基準、若しくはタイムラグを導き出すための規定を、以下に詳しく説明する。
図2は、図1に示した装置102の概略図を示す。装置102は、入力信号108または様々な入力信号108の量並びに画像信号106をも受信するための受信ユニット210を有している。評価ユニット220で、タイムラグを表すタイムラグ値を決定するための入力信号108の評価、並びに画像信号106によって表された画像シーケンスの、タイムラグ値だけ互いにずらされた少なくとも2つの個別画像を選択するための画像信号106の評価が行われる。さらに、評価ユニット220は、タイムラグ値だけ互いにずらされた個別画像を一致し合うピクセルかどうかを調べるために、かつこのピクセルに基づいて画像シーケンスのオプティカルフローを求めるために構成されている。この場合、演算コストをできるだけ安価に保つために、例えば個別画像の当該の部分セクションだけが一致し合うピクセルであるかどうか調べられる。この評価の結果として、評価ユニット220は、フローデータ112をさらに処理するためにアウトプットする。
図3は、一実施例による方法の流れを説明するためのブロック図を示す。図3に示された流れは、例えば図1および図2を用いて既に説明した装置によって実行される方法の流れに相当する。
独立した入力信号を表すブロック302、並びに従属する入力信号を表すブロック304が示されている。独立したおよび従属する入力信号は、ブロック306で評価され、最適なタイムラグΔt1…nを決定するために用いられる。別のブロック308で、画像lと画像lt−Δtとの間のオプティカルフローの演算が行われる。この場合、“t”は、一般的に最新の画像を表し、t−Δtは事前の画像を表す。演算結果は、例えばブロック310で車両の様々な測定プログラムまたは機能によってさらに処理される。測定プログラムの結果並びにオプティカルフローの統計は、再び入力信号として使用され得る。この場合、測定プログラムの結果は間接的なフィードバックを介してブロック306にインプットされ、これに対してブロック308で実行された演算の結果は、例えば統計の形で、直接的なフィードバックを介してブロック306にインプットされる。直接的若しくは間接的なフィードバックは、破線によって示されている。
独立した入力信号は、例えば次の情報を表す:
−例えば分類による、歩行者、自転車通行者、車両またはその他の対象物の検出;
−(ステレオ−)深度情報;
−外部の運動センサ、例えば加速度センサ、ステアリング回転センサまたはホイール回転数センサによって算出された車両の固有運動;
−画像情報、例えば画像相関関係によって算出されているが、オプティカルフローに基づいていない車両の固有運動;
−外部のセンサ、例えばレーダセンサ、ライダーセンサ、超音波センサ、GPSセンサ、光センサまたは雨センサによって算出された車両の固有運動;
−画像に基づく車線検知;
−校正結果の提供可能な精度、例えば焦点距離または画像中心点等のカメラの固有の内部パラメータ、ワールド座標を基準にした外部のパラメータ、相対的な外部のパラメータ(2つのカメラの相対関係)または関心領域;
−露出制御;
−ブラインドネス検知
−交通標識検知(速度制限を検知すると車両が自動的に制動される)
従属する入力信号は、例えば次の情報を表す:
−オプティカルフローの事前の演算から成る統計;
−フローに基づく固有運動推定;
−フローに基づく対象物検知;
−フローに基づく表面推定。
結合された入力信号は例えば:
―不一致およびオプティカルフローに基づく、後から分類された危険なステレオ対象物のための自動的な非常ブレーキ機能のAEB信号;
−より迅速な非常ブレーキの起動のためのブレーキ準備用のプレフィル信号。
このような形式の方法は、オプティカルフローを求めるための、状況に応じた単数または複数の最適なタイムラグを決定することを可能にする。この場合、最適なタイムラグは、次の測定プログラムの要求を考慮して、オプティカルフローの利用可能性が保証されている可能な最長の時間として規定されている。従って、例えば高ダイナミックスな状況において、画像内容の高周波の変化を受信するためには、最適なタイムラグは短い。これに対して、連続的な低速の直進走行においては、より精確な固有運動推定を実施するためには、より長いタイムラグがより適している。
リソースが限定されている場合、すべての可能なオプティカルフローが算出されるのではなく、入力信号に基づいて特に期待が持てるとみなされるオプティカルフローだけが算出されるべきである。このような形式で、演算時間およびハードウエアリソースは低減され得る。その結果、より多くの時間がその他の演算のために残され、熱の発生はより僅かであり、より好都合なハードウエアを使用することができる。
必要なタイムラグΔt1…iの量は、次のように規定され得る:
Figure 2020530608
この場合、含有された要素および演算子は次のように記載され、規定されている:
a k要素を有する入力値のベクトル
W 入力値を重み付けするためのj×k重み付けマトリックス、この場合、jは要求された条件の数である。
I Waを行毎に合計するための複数のk1を有するベクトル
t フロー演算のための所定のタイムラグを各行に配分するj値を有するベクトル、
閾値(a,T,T) 閾値ベクトルTおよびTを要素毎にaに適用し、Tl,i<a<Tu,iおよび0とは異なるときに、要素が1である2進ベクトルを取り消す。
○ アダマール積(要素毎の乗算)
unique(γ) ベクトルγ内のゼロではないすべての単一の要素を取り消す。
オプティカルフローは、連続的な入力信号のために例えば次のように計算される。
速度が例えば90km/hより高い場合、Δt=33msを有するフローが算出され、そうでなければ、Δt=66msを有するフローが算出される。しかしながら、少なくとも1つの検知された車両が画像内に存在すると、追加的にΔt=200msを有するフローが算出されるが、ピッチレートが数値的に1.5°/sよりも小さい場合に限られる。このことから次のように結論される:
Figure 2020530608
この場合、
=[0.250](速度)
∈{0,1}(2進法にされた値:車両が検知された:イエス/ノー)
=[−∞,∞](ピッチレート、理論上は上方および下方に無限である)
重み付けマトリックスは、速度のための2つの条件を2回評価するべきであり(重み付けマトリックスの最初の2行が、90km/hよりも高い場合および低い場合のために)、従って次のように選択される。第3の行は、対象物の存在およびピッチレートを第3の条件に導入するべきであることを意味する。
Figure 2020530608
閾値は次のように選択される:
Figure 2020530608
例えばa=115km/hの速度が与えられるべきである場合。別の車両が検知されており、従って、a=1である。最新のピッチレートはa=−0.7°/sである。
Figure 2020530608
閾値関数range((Wa)l,T,T)を用いると、次のような範囲が得られる:
Figure 2020530608
range((Wa)l,T,T)の用語は、ゼロおよび1を有するベクトルを提供し、これは、Wのそれぞれの行の条件が満たされているかまたは満たされていないかを意味する。この例では、速度が0〜90km/hの間であるという条件が満たされていない。90km/hよりも高いという条件が事実であり、車両の存在と同時にピッチレートが僅かであるということが同様に事実である。
要素毎にtを乗算することによって、1を有するベクトル書き込みにそれぞれのタイムラグが割り当てられる:
Figure 2020530608
最後のステップで、ベクトル内の2重の書き込みおよびゼロが取り除かれ、時間量が取り消される。
Figure 2020530608
2進入力信号のための演算例
2進入力信号が使用されると、幾つかの簡略化が得られる。下方の閾値は、例えば少なくとも必要な信号の数に減少される。
目的:自動式のまたは手動式のブレーキングの際に、Δt=33msであるか、さもなければΔt=66msでなければならない。このことから次のことが結論される:
Figure 2020530608
この場合、
∈{0,1}(自動式のブレーキング、イエス/ノー)および
∈{0,1}(手動式のブレーキング、イエス/ノー)
重み付けマトリックスは、2つの条件だけを含有するべきである。
1.ゼロではない要素の合計が1より大きいかまたは1と同じである?
2.ゼロではない要素の合計が1より小さい?
Figure 2020530608
例えば自動式の非常ブレーキが実行され、運転者が手動で制動しない場合、重み付けマトリックスと入力信号との積から次の結果が得られる:
Figure 2020530608
閾値が次のように選択されるので、条件のうちの少なくとも1つが事実でなければならない(閾値が0.5である場合)。追加的に、上側の閾値は無限であるので、実条件の最大数は存在しない。
Figure 2020530608
閾値の評価は次の結果を提供する:
Figure 2020530608
タイムラグベクトルを要素毎に乗算すると、ゼロとは異なる値だけが得られる:
Figure 2020530608
最後のステップで、ベクトル内の2重の書き込みが取り除かれ、時間量が取り消される:
Figure 2020530608
数学的表記法の代わりに、論理的表記法も考えられる。核心となる考え方は、複数の入力値が論理操作によって関連付けられるという点にある。2進法ではない入力値の場合、追加的に下側および上側の閾値が規定され、次いで閾値の結果が論理操作と関連付けられるべきである。
目的は、オプティカルフローのタイムラグを路面状態および最後のオプティカルフローの統計に適合させるということである。
路面の平滑性のための連続的な信号が与えられるべきである(0は非常に滑らかな路面、1は非常に凸凹の路面)。
Figure 2020530608
並びに、31ピクセルの最大長さに達したフローベクトルの数(このための基準は、タイムラグが長すぎるということである)。
Figure 2020530608
まず連続的な入力値が2進数値に移行される:
Figure 2020530608
値の例として、
=0.3およびa=634
Figure 2020530608
2進値を有する次のベクトルが得られる:
Figure 2020530608
考えられ得る論理的表示法においては、2つの入力値が第1のケースではアンド(&)にされ、第2のケースではオア(l)にされ、これに対して第3のケースでは2つの条件の失敗がキャッチされる。これは例えば次のとおりである。
Figure 2020530608
従って、具体的なケースでは、次の値が得られる。
Figure 2020530608
および
Figure 2020530608
図4は、一実施例による方法400のフローチャートを示す。オプティカルフローを求めるための方法400は、例えば、図1〜3を用いて記載した前記装置によって実行され得る。この場合、ステップ410で入力信号および画像信号が受信される。ステップ420でタイムラグ値が入力信号を用いて決定される。別のステップ430で、画像シーケンスの、タイムラグ値だけ互いにずらされた少なくとも2つの個別画像が画像信号を用いて選択される。ステップ440で、個別画像内の一致するピクセルが検出され、オプティカルフローを求めるために使用される。
図5は、図1に示したカメラによって取得された2つの個別画像500,502内のオプティカルフローの概略図を示す。個別画像500,502は、車道504を横断する子供506をそれぞれ示す。より良い比較のために、個別画像500,502が隣り合って並んで示されており、この場合、左の個別画像500がΔt=66ms(t−4からt−3)のタイムラグにおけるオプティカルフローを示し、右の個別画像502がΔt=33ms(t−3からt−2)のタイムラグにおけるオプティカルフローを示す。2つのフローフィールドは有用である。フローベクトルの数は概ね同じである。個別画像500内のフローベクトルの長さは、個別画像502内のフローベクトルの長さの概ね半分である。
オプティカルフローは、個別画像500,502内のハッチングを施した領域によって概略的に示されている。
図6は、図1に示したカメラによって取得された2つの個別画像600,602内のオプティカルフローの概略図を示す。オプティカルフローは、図5におけるよりも遅れた時間ステップを示す。左の個別画像600は、Δt=66ms(t−2からt)におけるオプティカルフローを示す。右の個別画像602には、Δt=33ms(t−1からt)におけるオプティカルフローが示されている。図6に示されているように、タイムラグが大きすぎると対象物上のオプティカルフローが失われる。より短いタイムラグへの早期の切替えによって著しく良好な特性がもたらされる。
図7は、図1に示したカメラによって取得された2つの個別画像700,702内のオプティカルフローの概略図を示す。ピッチレートが高い車両における車道504の撮影画面を示す。左の個別画像700(Δt=66ms)のフローフィールド内では、検索範囲の外側に位置する大きすぎるフローベクトルに基づいて画像の下部が欠けている。右側の個別画像702(Δt=33ms)のフローフィールドは完全に存在している。映像化において比較的不十分な視覚的印象は、比較的短いフローベクトルによって説明される。
図8は、図1に示したカメラによって取得された個別画像800内のオプティカルフローの概略図を示す。オプティカルフローは、図8に示された個別画像800内の画像中央に集中している。個別画像800の時間的な周辺において、車両の強いローリング運動に基づいてオプティカルフローは欠けている。
図9は、図1に示したカメラによって取得された個別画像900内のオプティカルフローの概略図を示す。個別画像900は、車両に先行する車両904が存在する道路902を示す。道路902上のフローベクトルは大きく、これに対して先行する車両904上のフローベクトルは短い。先行する車両904に割り当てられた、より大きいタイムラグを有する別のフローフィールドは、ここでは、2つの車両間の相対速度のより精確な演算をもたらす。
図10は、図1に示したカメラによって取得された2つの個別画像1000,1002内のオプティカルフローの概略図を示す。図10から分かるように、所定の画像範囲内のオプティカルフローが失われており、従って車両の大きすぎる固有運動を前提としている。
例えば、左の画像1000から、子供ダミーに対する非常ブレーキング中に発生したフローフィールドが明らかである。このような、前に計算されたフローフィールドと比較して、隣の画像1002では、子供ダミーが存在する画像中央の箇所においてそれぞれのフローの結果が欠けている。この場合、長さがゼロのフローベクトルが問題なのではなく、フロー測定の、存在しない検出が問題となる。従って、対象物の相対運動がオプティカルフローの検索範囲のためには大きすぎるということが推論される。この場合、前記本発明の一実施例に従って、異なるタイムラグを有する2つのフローフィールドへの分割が行われる。
次に、ここに提案された方法の様々な応用ケースについて説明する。
例えば、オプティカルフローは、子供ダミーに対する非常ブレーキング中に、所定の状況において近傍範囲内で失われ得る。これには2つの理由がある。
第1に、子供ダミーは、比較的小さい子供ダミーに自車が接近することによって画像中でよりいっそう下方に移動する。従って、その結果として生じるフローベクトルは、よりいっそう強く下方を指す。
それに加えて、非常ブレーキの起動後に、画像内容全体を垂直方向で移動させる車両のピッチング運動が生じる。最初のピッチング後に上方に向かう対向運動が生じ、この対向運動はダミー上のフローベクトルをさらに長くし、フローベクトルがもはや技術的な理由から著しく限定された検索範囲内に一致しなくなり、それによって子供ダミー上のフロー検出が失敗する。画像間のタイムラグを半分に、例えば66msから33msにすることによって、フロー結果は著しく改善される。しかしながら一般的に、33msをベースにしてすべての測定を実行することは望ましくない。従って、例えば相応の非常ブレーキ信号に基づく自動式の非常ブレーキの場合にだけ、このような時間ベースの切替えが実行される。この場合、非常ブレーキ信号は、不一致およびフローの評価によって検知され、かつ分類器で、例えば画像に基づく後分類によって、ブレーキに関わる対象物、例えば乗用車、トラック、歩行者または自転車に乗る人として確認された対象物の状況分析に基づいている。
車両の画像に基づくピッチレートは、例えばオプティカルフローとは無関係に算出される。ピッチレートが非常に大きければ、時間ベースは縮小されるので、運動の高いダイナミックスが補正される。
特に、トラックのような高い車両においては、例えば穴ぼこによる凸凹の路面上で高いロールレートが発生する。これは、画像の周辺におけるフローフィールドの消失を生ぜしめる。何故ならば、オプティカルフローが検索範囲から離れるからである。しかしながら画像の中央では、ロールレートも推定され得るフローがまだ見いだされる。このような場合、例えばロールレートおよび検索範囲の既知の大きさに基づいて、オプティカルフローの演算のための最も有意義なタイムラグが求められる。
車両センサおよび、オプティカルフローとは無関係に決定されたカメラの回転が、僅かな結果を提供し、それと同時に車両の速度が低い場合、スムーズな走行が推論されてよい。この場合、タイムベースは、フローに基づく固有運動推定の精度を高めるために、例えば延長される。
高速道路走行中は、ホイール回転数センサに基づく高い速度が検知されている。それと同時に、分類器によってオプティカルフローとは無関係に、自車の前方および隣の別の車両が検知される。この場合、固有運動推定および表面推定のための路面上のオプティカルフローを算出するために、例えば短いタイムラグΔtが決定される。追加的に、より長い第2のタイムラグΔtが導き出され、この第2のタイムラグΔtを用いて、自車と先行車両との間の相対速度がフローに基づいて非常に精確に推定される。
バックギヤに入れられると、駐車操作が開始される。ここでは、オプティカルフローのタイムベースとして、例えば平均的な値が設定され、これは同時に、固有運動推定の妥当な精度、およびフロー結果の入力までの十分に短い待ち時間を保証する。
オプティカルフローに依存する、画像に基づく表面推定が、凸凹の路面を記述すると、高いダイナミズムをキャッチするために、タイムラグは例えば短く選定される。しかしながら同時に、凸凹の表面を補正するためにサスペンションのアダプティブ制御が、マジックカーペット“Magic Carpet”とも呼ばれるようにアクティブであれば、タイムラグは再び相応に延長される。
一実施例が、第1の特徴と第2の特徴との間で「および/または」接続を有している場合、これは、この実施例が、一実施形態に従って第1の特徴も第2の特徴も有しており、また別の実施形態に従って第1の特徴だけまたは第2の特徴だけを有している、と読み取られるべきである。
100 車両
102 装置
104 カメラ
106 画像信号
108 入力信号
110 ホイール回転数センサ
112 フローデータ
210 受信ユニット
220 評価ユニット
302,304,306,308,310 ブロック
400 方法
410,420、430,440 ステップ
500,502,600,602,700,702,800,900,1000,1002 個別画像
504 車道
506 子供
902 第1の領域、道路
904 先行する車両
,lt−Δt 画像
Δt…n タイムラグ

Claims (12)

  1. 車両(100)のカメラ(104)によって取得された画像シーケンスに基づいてオプティカルフローを求めるための方法(400)であって、前記方法(400)が、
    前記車両(100)の少なくとも1つのセンサ(110)を用いて検知された車両周囲および/または前記車両(100)の走行状況、および/または前記オプティカルフローの事前の算出結果を表す少なくとも1つの入力信号(108)、および前記画像シーケンスを表す画像信号(106)を受信するステップ(410)と、
    前記入力信号(108)を用いてタイムラグ値(Δt)を決定するステップ(420)と、
    前記画像信号(106)を用いて、前記画像シーケンスの前記タイムラグ値(Δt)だけ互いにずらされた少なくとも2つの個別画像(502;602;702;900)を選択するステップ(430)と、
    一致するピクセルを用いて前記オプティカルフローを求めるために、前記個別画像(502;602;702;900)内の一致するピクセルを検出するステップ(440)と、
    を含む、車両(100)のカメラ(104)によって取得された画像シーケンスに基づいてオプティカルフローを求めるための方法(400)。
  2. 前記決定するステップ(420)で、前記入力信号(108)が、前記車両(100)の検知された自動式の非常ブレーキングを表し、かつ/または閾値を上回る前記車両(100)のピッチレートを表す場合に、初期値を小さくすることによって前記タイムラグ値(Δt)を決定する、請求項1に記載の方法(400)。
  3. 前記決定するステップ(420)で、前記初期値を半分にすることによって前記タイムラグ値(Δt)を決定する、請求項2に記載の方法(400)。
  4. 前記決定するステップ(420)で、前記タイムラグ値(Δt)を前記車両(100)のロールレートおよび/または前記車両(100)と少なくとも1つの別の車両との間の相対速度に依存して決定するために、前記入力信号(108)を用いる、請求項1から3までのいずれか1項に記載の方法(400)。
  5. 前記画像信号(106)を取得するために、前記タイムラグ値(Δt)を用いて前記カメラ(104)の画像再現率を変更するステップを有している、請求項1から4までのいずれか1項に記載の方法(400)。
  6. 前記変更するステップで、前記画像シーケンスの前記個別画像(502;602;702;900)が前記タイムラグ値(Δt)だけ互いにずらされるように、前記画像再現率を変更する、請求項5に記載の方法(400)。
  7. 前記検出するステップ(440)で、前記一致するピクセルを検出するために、前記個別画像(502;602;702;900)の部分セクションを検索する、請求項1から6までのいずれか1項に記載の方法(400)。
  8. 前記決定するステップ(420)で、前記タイムラグ値(Δt)とは異なる少なくとも1つの別のタイムラグ値を、前記入力信号(108)を用いて決定し、この際に、前記選択するステップ(430)で、前記別のタイムラグ値だけ互いにずらされた、前記画像シーケンスの少なくとも2つの別の個別画像を選択し、この際に、前記検出するステップ(440)で、一致する別のピクセルを用いてオプティカルフローを求めるために、前記別の個別画像内の一致する別のピクセルを検出する、請求項1から7までのいずれか1項に記載の方法(400)。
  9. 評価のステップで、車両周囲の第1の領域(902)内の前記オプティカルフローを求めるために前記個別画像(502;602;702;900)を評価し、前記車両周囲の第2の領域(904)内のオプティカルフローを求めるために別の個別画像を用いる、請求項8に記載の方法(400)。
  10. 請求項1から9までのいずれか1項に記載の方法(400)を実行しかつ/または制御するために構成されたユニット(210,220)を備えた装置(102)。
  11. 請求項1から9までのいずれか1項に記載の方法(400)を実行するために構成されたコンピュータプログラム。
  12. 請求項11に記載のコンピュータプログラムが記憶された、機械読み取り可能な記憶媒体。
JP2019572413A 2017-07-17 2018-07-13 車両のカメラによって取得された画像シーケンスを用いてオプティカルフローを求めるための方法および装置 Active JP6884893B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102017212175.0A DE102017212175A1 (de) 2017-07-17 2017-07-17 Verfahren und Vorrichtung zum Ermitteln eines optischen Flusses anhand einer von einer Kamera eines Fahrzeugs aufgenommenen Bildsequenz
DE102017212175.0 2017-07-17
PCT/EP2018/069161 WO2019016104A1 (de) 2017-07-17 2018-07-13 Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz

Publications (2)

Publication Number Publication Date
JP2020530608A true JP2020530608A (ja) 2020-10-22
JP6884893B2 JP6884893B2 (ja) 2021-06-09

Family

ID=62952074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019572413A Active JP6884893B2 (ja) 2017-07-17 2018-07-13 車両のカメラによって取得された画像シーケンスを用いてオプティカルフローを求めるための方法および装置

Country Status (6)

Country Link
US (1) US10949681B2 (ja)
EP (1) EP3655299B1 (ja)
JP (1) JP6884893B2 (ja)
CN (1) CN110944895B (ja)
DE (1) DE102017212175A1 (ja)
WO (1) WO2019016104A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL2025452B1 (en) * 2020-04-29 2021-11-09 Navinfo Europe B V System and method for 3D positioning a landmark in images from the real world
TWI728811B (zh) * 2020-05-19 2021-05-21 奇美車電股份有限公司 車輛轉向判斷方法
DE102021213934A1 (de) 2021-12-08 2023-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Reichweitenerhöhung eines LiDAR-Sensors

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175872A (ja) * 1999-12-15 2001-06-29 Clarion Co Ltd 画像処理装置及び方法並びに画像処理用ソフトウェアを記録した記録媒体
JP2006031162A (ja) * 2004-07-13 2006-02-02 Nissan Motor Co Ltd 移動障害物検出装置
JP2008276308A (ja) * 2007-04-25 2008-11-13 Sanyo Electric Co Ltd 動画像処理装置、動画像処理システムおよびナビゲーション装置
WO2009099022A1 (ja) * 2008-02-04 2009-08-13 Konica Minolta Holdings, Inc. 周辺監視装置及び周辺監視方法
JP2010249641A (ja) * 2009-04-15 2010-11-04 Toyota Motor Corp 物体検出装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10342388A1 (de) * 2003-09-13 2005-04-07 Hella Kgaa Hueck & Co. Optoelektronische Überwachungseinrichtung für Kraftfahrzeuge
JP4319928B2 (ja) * 2004-03-09 2009-08-26 株式会社デンソー 車両状態検知システムおよび車両状態検知方法
DE102007016868A1 (de) * 2007-04-10 2008-10-16 Robert Bosch Gmbh Verfahren zur Anzeige eines Fahrbahnverlaufs und Steuereinrichtung
EP2899692B1 (en) * 2014-01-28 2019-09-04 Honda Research Institute Europe GmbH Method, system, imaging device, movable device and program product for detecting static elements in video and image sources
CN104408743A (zh) * 2014-11-05 2015-03-11 百度在线网络技术(北京)有限公司 图像分割方法和装置
DE102015225900B3 (de) * 2015-12-18 2017-04-06 Continental Automotive Gmbh Verfahren und Vorrichtung zur kamerabasierten Verkehrszeichenerkennung in einem Kraftfahrzeug
US10108864B2 (en) * 2015-12-29 2018-10-23 Texas Instruments Incorporated Stationary-vehicle structure from motion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175872A (ja) * 1999-12-15 2001-06-29 Clarion Co Ltd 画像処理装置及び方法並びに画像処理用ソフトウェアを記録した記録媒体
JP2006031162A (ja) * 2004-07-13 2006-02-02 Nissan Motor Co Ltd 移動障害物検出装置
JP2008276308A (ja) * 2007-04-25 2008-11-13 Sanyo Electric Co Ltd 動画像処理装置、動画像処理システムおよびナビゲーション装置
WO2009099022A1 (ja) * 2008-02-04 2009-08-13 Konica Minolta Holdings, Inc. 周辺監視装置及び周辺監視方法
JP2010249641A (ja) * 2009-04-15 2010-11-04 Toyota Motor Corp 物体検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石井 抱: "実時間1000fpsオプティカルフロー", 画像ラボ 第21巻 第8号, vol. 2010.8, JPN6021004189, 10 August 2010 (2010-08-10), JP, pages 33 - 36, ISSN: 0004442555 *

Also Published As

Publication number Publication date
WO2019016104A1 (de) 2019-01-24
CN110944895A (zh) 2020-03-31
US20200151464A1 (en) 2020-05-14
CN110944895B (zh) 2023-06-09
US10949681B2 (en) 2021-03-16
JP6884893B2 (ja) 2021-06-09
DE102017212175A1 (de) 2019-01-17
EP3655299B1 (de) 2024-03-27
EP3655299A1 (de) 2020-05-27

Similar Documents

Publication Publication Date Title
US11093801B2 (en) Object detection device and object detection method
US11685405B2 (en) Vehicle controller, method, and computer program for vehicle trajectory planning and control based on other vehicle behavior
US10147002B2 (en) Method and apparatus for determining a road condition
US11308717B2 (en) Object detection device and object detection method
US9547912B2 (en) Method for measuring the height profile of a vehicle passing on a road
JP6884893B2 (ja) 車両のカメラによって取得された画像シーケンスを用いてオプティカルフローを求めるための方法および装置
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
US11829153B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
CA2261483A1 (en) Process for determining vehicle dynamics
US11003924B2 (en) System and method for detecting close cut-in vehicle based on free space signal
KR20170127036A (ko) 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치
JP2008033750A (ja) 物体傾き検出装置
US12033397B2 (en) Controller, method, and computer program for controlling vehicle
US11900690B2 (en) Apparatus, method, and computer program for identifying state of signal light, and controller
CN109421730A (zh) 使用相机的交叉车流检测
CN107209998A (zh) 车道线识别装置
WO2020241294A1 (ja) 信号処理装置、信号処理方法、および、測距モジュール
US20160173858A1 (en) Driver assistance for a vehicle
JP2012088217A (ja) 運転支援制御装置
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
WO2021233154A1 (zh) 可行驶区域检测方法、装置、设备及存储介质
JP3960146B2 (ja) 画像認識装置
US20230169797A1 (en) Traffic hand signal detection system and method thereof
CN116434180A (zh) 点亮状态识别装置、点亮状态识别方法以及点亮状态识别用计算机程序
KR20210129913A (ko) 운전자 보조 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191227

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210512

R150 Certificate of patent or registration of utility model

Ref document number: 6884893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250