JP6279090B6 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6279090B6
JP6279090B6 JP2016547792A JP2016547792A JP6279090B6 JP 6279090 B6 JP6279090 B6 JP 6279090B6 JP 2016547792 A JP2016547792 A JP 2016547792A JP 2016547792 A JP2016547792 A JP 2016547792A JP 6279090 B6 JP6279090 B6 JP 6279090B6
Authority
JP
Japan
Prior art keywords
unit
processing
image
distance
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016547792A
Other languages
English (en)
Other versions
JPWO2016039077A1 (ja
JP6279090B2 (ja
JPWO2016039077A6 (ja
Inventor
英彰 城戸
英彰 城戸
春樹 的野
春樹 的野
永崎 健
健 永崎
晋司 掛川
晋司 掛川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Publication of JPWO2016039077A1 publication Critical patent/JPWO2016039077A1/ja
Publication of JPWO2016039077A6 publication Critical patent/JPWO2016039077A6/ja
Application granted granted Critical
Publication of JP6279090B2 publication Critical patent/JP6279090B2/ja
Publication of JP6279090B6 publication Critical patent/JP6279090B6/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、画像処理装置に係り、例えば自動車等の車両に搭載された複数のカメラで撮像された画像を処理して車両周囲の環境を認識する画像処理装置に関する。
従来、自動車等の車両に搭載されたカメラ(車載カメラ)から得られる画像に基づいて当該車両の周囲に存在する車両を検知し、その検知結果をドライバーの運転支援に利用するシステムが開発されている。そのようなシステムの一例として、例えば、自車周囲に存在する車両との車間距離を自動的に維持する車間維持システム(ACC)や、自車周囲に存在する車両等との衝突可能性が生じた際に警報等でドライバーに注意を促し、さらに衝突が避けられない状況になった際に自動ブレーキ等で乗員に対する傷害を軽減する衝突回避システムなどが知られている。
特に、複数のカメラからなるステレオカメラ装置を利用する場合には、カメラで撮像された画像に寄る視覚的な情報とその画像に映る対象物の距離に関する情報とを同時に取得でき、車両周囲の様々な対象物(人、車両、立体物、路面、路面標識、看板標識など)を詳細に把握できるため、運転支援時の安全性の向上にも寄与すると考えられている。
上記した車間維持システムや衝突回避システムの中核を成す画像処理を用いた物体検知技術については、精度向上のための試みが継続して行われているが、その一方で、車載装置として利用し得る計算リソースには限界があり、また早い応答速度が求められている。そのため、当該分野では、検知精度向上と計算負荷低減や応答速度向上といった、互いに矛盾する要求に応える技術の開発が望まれている。
このような要請に対し、特許文献1には、画像に映る対象物までの距離を測定する際に、距離精度を向上させて当該対象物までの正確な距離を測定する技術が開示されている。
特許文献1に開示されている画像処理装置は、一対の撮像素子で同時刻に同方向を撮像した一対の画像の一方の画像から対象物の画像を含む一方画像対象物領域を抽出し、その一方画像対象物領域を構成する複数の画像構成部分についてそれぞれ対象物画像構成部分と背景画像構成部分のいずれであるかの確度である背景度を算出し、その背景度を用いて他方の画像内から一方画像対象物領域と類似した画像を有する他方画像対象物領域を抽出して、一方画像対象物領域と他方画像対象物領域との視差を算出する装置である。
特開2013−104740号公報
ところで、ステレオカメラ装置を利用した物体(特に車両)検知技術に用いる従来の画像処理装置は、一般に図7に示すような装置構成を有している。すなわち、従来の画像処理装置50'は、図7に示すように、主に、画像処理部52'を構成する右画像取得部501'と左画像取得部502'と視差情報取得部503'と、演算処理部53'を構成する車両検知部504'と距離算出部505'と照合処理部506'と相対速度算出部507'と算出結果出力部508'と、を備えている。
この従来の画像処理装置50'では、まず、左画像取得部502'及び右画像取得部501'によって、車両に搭載された左右一対のカメラから画像を取得する。次に、視差情報取得部503'によって、左右のカメラで撮像された2つの画像を互いに照合して視差を計算し、視差画像を出力する。次に、車両検知部504'によって、計算結果から得られた視差情報(視差画像)と左右の画像(左右のカメラで撮像された左画像と右画像)または一方の画像を使用して、画像に映る車両の検知・認識を行い、車両候補群の位置(画像中の位置)を出力する。次に、距離算出部505'によって、車両の検知結果(車両候補群の位置)と視差情報(視差画像)などを用いて、前記車両までの距離(車両候補群の距離)を算出・出力する。なお、その計算結果は登録テーブル509'に記録される。次に、照合処理部506'によって、フレーム間の検知された車両の位置情報(例えば、あるフレームTとその過去のフレームT−1の車両候補群の位置及び距離)や画像の見え方の情報を用いて、あるフレームでの検知結果とその次のフレームでの検知結果の対応付けを行う。なお、過去の情報が無い場合には当該照合処理部506'による照合処理は実施されない。次に、相対速度算出部507'によって、照合処理部506'により認識されたフレーム間の対応(すなわち、フレーム間で対応付けられた車両候補群の位置及び距離)を使用し、距離の変化率を認識して前記車両の相対速度を算出すると共に、そのフレームで求まった相対速度を車両の位置及び距離などの情報とともに登録テーブル509'に記録する。なお、相対速度は、拡大率から求めることも可能であるため、その場合には、右画像または左画像のどちらかを用いてもよい。そして、算出結果出力部508'によって、その計算結果を制御処理部などに出力する。なお、登録テーブル509'に記録された、あるフレームで計測された車両候補群の位置及び距離、相対速度などは、次のフレームでの処理に用いられる。
上記した視差情報取得部503'による視差算出処理では、図8に示すように、左右の画像での視差算出処理の対象エリアを領域511'と領域514'とした場合、領域511'をある一定のサイズの小領域に分割し、着目する小領域に対応する部分を領域514'の中から探す。具体的には、領域511'上の着目する小領域と同じサイズの領域512'を領域514'から切り出し、この切出し範囲を矢印513'方向(横方向)にシフトして、最も良く照合する場所を探す。この照合範囲は、予め定められたmadの範囲内で行うが、上記した細かな領域の照合を、立体視したい対象画像の全面に亘って行うために処理が重くなる。一般には、この処理は、画像処理を専用に行う素子で行うが、それでもその計算負荷が大きいことが知られている。
従来の画像処理装置50'による画像処理を時系列でより詳細に説明すると、図9に示すように、画像処理部52'におけるプロセスをS1'系列とし、演算処理部53'におけるプロセスをS2'系列とした場合、まず、画像処理部52'(S1'系列)において、右カメラからの右画像入力処理S501'と左カメラからの左画像入力処理S502'を行い、双方の画像が集積された段階で、視差算出処理S503'を行う。この視差算出処理S503'の結果、左右または一方の画像とそれに対応する視差情報(視差画像)が得られる。この視差算出処理S503'での処理結果を、タイミングT1'で演算処理部53'に転送し、演算処理部53'(S2'系列)では、その転送終了を待って、車両検知・認識処理S504'を行う。その後に、距離算出処理S505'、照合処理S506'、相対速度算出処理S507'、算出結果出力処理S508'が行われることとなる。
しかしながら、上記した従来の画像処理装置50'では、図8に基づき説明したように、視差情報取得部503'による視差算出処理S503'に要する時間があり、また、車両検知部504'による車両検知・認識処理S504'自身も画像処理と認識を多用するため、全体としての処理時間が長くなる傾向がある。その結果、算出結果出力までの応答速度が遅くなる、すなわち応答性能が劣化するといった問題が生じ得る。
また、カメラからの画像入力から算出結果出力までの応答の遅延は、単にステレオカメラ装置単体を用いて車両制御装置などへ通信するときだけでなく、他のセンサと組み合わせて車両周囲の情報を当該車両に提供するようなセンサフュージョンシステムにおいても、センサ間の応答の違いが大きくなり、その情報の統合が困難となるという問題も生じ得る。
本発明は、前記問題に鑑みてなされたものであって、その目的とするところは、距離等の認識精度を維持しながら、カメラからの画像入力から算出結果出力までの応答の遅延を抑制でき、認識精度向上と計算負荷低減(処理効率向上)や応答速度向上といった、互いに矛盾する要求に応えることのできる画像処理装置を提供することである。
上記する課題を解決するために、本発明に係る画像処理装置は、複数のカメラで同期して所定の周期で時系列的に撮像された複数のフレームのうちの所定の1つのフレームの複数の画像を処理して前記画像に映る対象物までの相対距離もしくは相対速度を計測する認識処理を行う画像処理装置であって、前記所定の1つのフレームの前記複数の画像のうちのいずれか一つの画像と前記対象物の過去の位置情報とに基づいて、前記対象物の現在の位置情報を求める追跡処理を実施する対象物追跡部と、前記対象物追跡部により求められた前記現在の位置情報と前記複数の画像のうちの少なくとも二つの画像とに基づいて、前記対象物までの相対距離を算出する第1距離算出部と、前記所定の1つのフレームの前記複数の画像のうちの少なくとも二つの画像から得られる視差情報に基づいて、前記対象物の現在の位置情報を求めて前記対象物を検知する対象物検知部と、前記対象物検知部における前記対象物の検知結果に基づいて前記対象物までの相対距離を算出する第2距離算出部と、前記対象物追跡部により求められる現在の位置情報と前記対象物検知部により求められる現在の位置情報の少なくとも一方に基づいて行う前記現在の位置情報の補正処理及び前記第1距離算出部により算出される相対距離と前記第2距離算出部により算出される相対距離の少なくとも一方に基づいて行う前記相対距離の補正処理の少なくとも一方の補正処理を行う補正処理部と、を備え、前記所定の1つのフレームに対する認識処理よりも前に少なくとも他の1つのフレームに対する認識処理を行った場合において、前記所定の1つのフレームに対する認識処理の前記第1距離算出部の処理開始タイミングは、前記対象物検知部の処理終了タイミングよりも前に設定されていることを特徴とする。



本発明によれば、第1距離算出部の処理開始タイミングは、前記対象物検知部の処理終了タイミングよりも前に設定されている、特に前記対象物検知部の処理開始タイミングの以前に設定され、対象物検知部による対象物検知・認識処理の終了前や開始前に、複数の画像のうちのいずれか一つの画像と予め記憶された対象物の過去の位置情報とに基づいて求められる対象物の現在の位置情報を用いて対象物までの相対距離を算出することにより、距離等の認識精度を維持しながら、カメラからの画像入力から算出結果出力までの応答の遅延を効果的に抑制することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明に係る画像処理装置の実施形態1が適用されたステレオカメラシステムのシステム構成を概略的に示すシステム構成図。 図1に示す画像処理装置の内部構成を概略的に示す内部構成図。 図2に示す画像処理装置の内部構成を示す内部構成図。 図1に示す画像処理装置の処理内容を時系列で説明するタイミングチャート。 本発明に係る画像処理装置の実施形態2の処理内容を時系列で説明するタイミングチャート。 本発明に係る画像処理装置の実施形態3の処理内容を時系列で説明するタイミングチャート。 従来の画像処理装置の内部構成を示す内部構成図。 視差情報取得部の一般的な処理内容を模式的に説明する模式図。 従来の画像処理装置による処理内容を時系列で説明するタイミングチャート。
以下、本発明に係る画像処理装置の実施形態を図面を参照して説明する。
[実施形態1]
図1は、本発明に係る画像処理装置の実施形態1が適用されたステレオカメラシステムのシステム構成を概略的に示したものである。図示するステレオカメラシステム1は、例えば自動車等の車両Vに搭載され、主に、複数(本実施形態では、2つ)のカメラからなるステレオカメラ装置11と、ステレオカメラ装置11の各カメラで同期して撮像された複数の画像を処理する画像処理装置10と、画像処理装置10で生成された制御信号に基づいて車両Vに搭載された各種装置(例えば、アクセル13、ブレーキ14、スピーカ15、ステアリング16など)を制御する制御装置12と、から構成されている。
ステレオカメラ装置11は、例えば車両Vの前方のフロントガラスの上部の手前に、車両Vの前方に向かって設置されており、車内ネットワークを介して、画像処理装置10や制御装置12、アクセル13、ブレーキ14、スピーカ15などと通信可能に接続されている。このステレオカメラ装置11は、車両Vの前方を撮像して画像情報を取得する一対の撮像手段としての右カメラ11aと左カメラ11bを備えている。右カメラ11aと左カメラ11bはそれぞれ、CCDなどの撮像素子を有しており、互いに車幅方向(左右方向)に離間した位置から車両Vの前方を撮像するように設置されている(図2参照)。
画像処理装置10は、ステレオカメラ装置11で所定の周期で時系列的に取得した車両Vの前方の撮影対象領域の画像情報に基づいて車外の環境を認識する装置であり、例えば、道路の白線、歩行者、車両、その他の立体物、信号、標識、点灯ランプなどの各種対象物を認識し、その認識結果に基づいて制御信号を生成して制御装置12へ出力する。制御装置12は、画像処理装置10から受信した制御信号に基づいて、当該車両V(自車両)のアクセル13やブレーキ14、ステアリング16などの調整を行うようになっている。
なお、画像処理装置10や制御装置12は、ステレオカメラ装置11内に組み込まれて当該スレテオカメラ装置11自身が処理を兼ねてもよいし、統合コントローラ内等に組み込まれてもよい。
図2は、図1に示す画像処理装置の内部構成を概略的に示したものである。図示する画像処理装置10は、主に、画像入力インタフェース21と、画像処理部22と、演算処理部23と、記憶部24と、CANインタフェース25と、制御処理部26とを有し、各部がバス20を介して通信可能に接続されている。
画像入力インタフェース21は、ステレオカメラ装置11の撮像を制御し、ステレオカメラ装置11(の各カメラ11a、11b)で撮像した画像を取り込むためのものである。この画像入力インタフェース21を通して取り込まれた各カメラ11a、11bの画像は、バス20を通して転送され、画像処理部22や演算処理部23で処理されると共に、処理途中の結果や最終結果となる画像データなどが記憶部24に記憶されるようになっている。
画像処理部22は、ステレオカメラ装置11の右カメラ11aの撮像素子から得られる右画像と、左カメラ11bの撮像素子から得られる左画像とを比較し、それぞれの画像に対して、撮像素子に起因するデバイス固有の偏差の補正やノイズ補間などの画像補正を行い、これを記憶部24に記憶する。また、右画像と左画像の間で相互に対応する箇所を計算し、視差情報を計算して視差画像(視差情報)を生成し、同様に、これを記憶部24に記憶する。
演算処理部23は、記憶部24に蓄えられた画像および視差情報(画像上の各点に対する距離情報)を使用し、車両Vの周辺の環境を知覚するために必要な、各種対象物の認識を行う。ここで、各種対象物としては、人、車両、その他の障害物、信号機、標識、車両のテールランプやヘッドライド、などが挙げられる。これらの認識結果や中間的な計算結果の一部は、同様に記憶部24に記憶される。
制御処理部26は、記憶部24に蓄えられた認識結果等を用いて車両Vの制動等を制御する制御信号を生成するものであり、その車両Vの制御方針に関する制御信号や対象物認識の認識結果の一部は、CANインタフェース25を介して車載ネットワークCAN27に伝送され、そこから前記制御装置12等に転送される。
図3は、図2に示す画像処理装置の内部構成をより具体的に示したものである。なお、以下では、対象物として当該車両Vの前方に存在する先行車両の存在を検知し、当該車両Vからその先行車両までの相対的な距離や速度を認識する場合について具体的に説明する。
図示するように、前記画像処理装置10は、主に、画像処理部22を構成する右画像取得部101と左画像取得部102と視差情報取得部103と、演算処理部23を構成する車両追跡部104と第1距離算出部105と相対速度算出部106と車両検知部107と第2距離算出部108と補正処理部109と算出結果出力部110と、を備えている。
前記画像処理装置10による認識処理(車両検知処理)の処理内容は、1回目における認識処理と2回目以降における認識処理とで異なるため、1回目における認識処理と2回目以降における認識処理とに分けて説明する。ここで、1回目における認識処理とは、対象とする車両が過去に検知されていない状態から初めて検知する処理を意味している。
1回目における認識処理では、まず、右画像取得部101及び左画像取得部102は、右カメラ11a及び左カメラ11bで撮像された右画像及び左画像を記憶部24から取得する。なお、右画像取得部101及び左画像取得部102は、画像入力インタフェース21を介してステレオカメラ装置11(の各カメラ11a、11b)から直接的に右画像及び左画像を取得してもよい。次に、視差情報取得部103は、右画像取得部101及び左画像取得部102で取得された右画像及び左画像を使用して視差計算を行い、視差画像(視差情報)を生成する。視差情報取得部103による視差計算の結果、画像と視差情報(ステレオ情報)が得られるので、車両検知部107は、これらの結果を使用して画像に映る車両の現在の位置情報(画像中の位置情報)を求めて当該車両の検知・認識を行う。第2距離算出部108は、その検知結果を用いて先行車両までの距離を算出する。車両検知部107や第2距離算出部108は、対象物の過去の位置情報として利用するために、その算出結果である位置情報や距離情報を記憶部24としての登録テーブル111に登録する。
一方、2回目以降における認識処理では、処理の効率化を図るべく、右画像取得部101にて右画像を取得した後に、車両追跡部104は、その右画像とすでに登録テーブル111に登録された検知済みの結果(すなわち、対象物の過去の位置情報)を使用して、先行車両の現在の位置情報(画像中の位置情報)を求める車両追跡処理を行う。詳細には、車両追跡部104は、右画像の情報を用いて検知済みの結果に含まれる位置の付近を探索し、先行車両の現在のフレームにおける位置を特定する。次に、第1距離算出部105は、車両追跡部104にて求められた位置情報と視差情報取得部103にて生成された視差画像(視差情報)とを用いて先行車両までの距離を算出し、相対速度算出部106は、第1距離算出部105による算出結果と当該第1距離算出部105により過去に算出された算出結果とを用いて先行車両の相対速度を算出する。そして、算出結果出力部110は、第1距離算出部105による算出結果や相対速度算出部106による算出結果を、記憶部24等を介して制御処理部26へ出力する。
すなわち、この2回目以降における認識処理では、車両追跡部104が、図7及び図9に基づき説明した従来の画像処理装置50'の照合処理部506'のように、現在のフレームの車両検知部504'による検知結果を受け取るのではなく、すでに登録テーブル111に登録された過去の情報から自身の処理の中で現在のフレームにおける対象物(先行車両)の位置を特定するようになっている。
一般に、車両検知部107による車両検知・認識処理では、様々なデザインや様々な外界環境下での車両の映像を認識するため、車両の画像事例を大量に登録した辞書(画像事例辞書)を使用して認識を行う。そのため、処理精度は良いが、計算量が大きくなり、処理時間が長くなる傾向がある。一方で、車両追跡部104による車両追跡処理は、既に一度検知した車両の画像を事例として、その周辺に対して追跡を行うため、計算量が小さくなり、画像入力から算出結果出力までの処理時間を非常に短くすることができる。
第1距離算出部105や相対速度算出部106にて距離計測や相対速度計測を行った後に、上記したように、車両検知部107は、視差情報取得部103による視差計算の結果を使用して当該フレームにおける先行車両の位置を求めて当該先行車両の検知・認識を行い、第2距離算出部108は、その検知結果を用いて先行車両までの距離を算出する。ここで、車両追跡部104でも現在のフレームでの対象物(先行車両)の位置が既に求められ、第1距離算出部105でも前記対象物(先行車両)までの距離が既に求められているため、車両検知部107や第2距離算出部108の結果と車両追跡部104や第1距離算出部105の結果とが存在するが、双方の結果は必ずしも一致しない。そこで、補正処理部109は、車両検知部107や第2距離算出部108の結果と車両追跡部104や第1距離算出部105の結果とを比較し、次のフレームでどの位置情報や距離情報を使用するかを決定する。例えば、補正処理部109は、どちらかの情報を優先して次のフレームで使用したり、双方で得られた位置の内分点を次のフレームで使用できるが、その補正方法は、特に限定されない。また、補正処理部109は、第2距離算出部108の結果と第1距離算出部105の結果に基づき、相対速度算出部106で求められた結果を補正することも可能である。補正処理部109は、次のフレームでの車両追跡処理などにおいて対象物の過去の位置情報などとして使用するため、求められた結果(位置情報や距離情報、相対速度情報など)を登録テーブル111に保存する。
上記した画像処理装置10による画像処理を時系列でより詳細に説明すると、図4に示すように、画像処理部22におけるプロセスをS1系列とし、演算処理部23におけるプロセスをS2系列とした場合、まず、画像処理部22(S1系列)において、右カメラ11aからの右画像入力処理S101と左カメラ11bからの左画像入力処理S102を行い、双方の画像が集積された段階で、視差算出処理S103を行う。この視差算出処理S103の結果、左右または一方の画像とそれに対応する視差情報(視差画像)が得られる。この視差算出処理S103での処理結果を、タイミングT1で演算処理部23に転送する。なお、ここまでの処理フローは、図9に基づき説明した従来の画像処理装置50'の処理フローと同様である。
一方、本実施形態では、視差算出処理S103での処理結果の転送タイミング(視差算出処理S103の処理終了タイミングの以後のタイミング)であるタイミングT1よりも前であって、右画像入力処理S101が終了した後のタイミングT0で、立体視データ(視差情報)を含まない、画像のみのデータを画像処理部22(S1系列)から演算処理部23(S2系列)に転送する。既に一度検知された車両については、画像のみを使用した車両追跡が可能であるため、演算処理部23(S2系列)では、画像処理部22(S1系列)における左画像入力処理S102と視差算出処理S103の時間を使って、現在のフレームにおける車両の位置を求める車両追跡処理S104を行う。その後、視差算出処理S103の以後のタイミングT1で転送されてくる視差情報を使用して、第1距離算出処理S105及び相対速度算出処理S106を実施し、この段階で第1距離算出処理S105や相対速度算出処理S106による算出結果を出力する算出結果出力処理S110を行う。これにより、画像入力から制御処理部26等への算出結果出力までの遅延が抑制される。
算出結果出力処理S110により算出結果を出力した後に、視差情報を使用して車両検知・認識処理S107を行い、その検知結果を用いて先行車両までの距離を算出する第2距離算出処理S108を行い、先に述べた車両追跡処理S104などの結果と車両検知・認識処理S107などの結果とに基づき、次のフレームで使用する位置などを決定する補正処理S109を実施して、このフレームでの処理が終了する。
このように、本実施形態1では、画像処理装置10における画像処理を細分化し、単眼系の処理フローと立体系の処理フローとに分割して構成し直し、CPUなどの計算リソースの効率的な配分を行うことで、距離等の認識精度を維持しながら、画像入力から算出結果出力までの応答の遅延を効果的に短縮することができる。
具体的には、車両追跡部104の処理開始タイミングを、視差情報取得部103の処理終了タイミングよりも前、特に視差情報取得部103の処理開始タイミングの以前に設定し、かつ、第1距離算出部105の処理開始タイミングを、車両検知部107の処理終了タイミングよりも前、特に車両検知部107の処理開始タイミングの以前に設定し、車両検知部107による車両検知・認識処理S107の終了前や開始前に、左右の画像のいずれかと予め登録テーブル111に記憶された車両の過去の位置情報とに基づいて求められる車両の現在の位置情報を用いて先行車両までの相対距離などを算出して出力することにより、距離等の認識精度を維持しながら、カメラからの画像入力から算出結果出力までの応答の遅延を効果的に抑制することができる。
[実施形態2]
図5は、本発明に係る画像処理装置の実施形態2の処理内容を時系列で説明したものでる。本実施形態2の画像処理装置は、上記した実施形態1の画像処理装置10に対し、主に第1距離算出部による距離算出処理の処理方法と処理開始・終了タイミングが相違している。すなわち、本実施形態2の画像処理装置の装置構成は、実施形態1の画像処理装置10の装置構成と同様であるため、その詳細な説明は省略し、以下では、画像処理装置による画像処理の処理内容を具体的に説明する。
本実施形態2では、図5に示すように、画像処理部22におけるプロセスをS1A系列とし、演算処理部23におけるプロセスをS2A系列とした場合、上記した実施形態1と同様、まず、画像処理部22(S1A系列)において、右カメラ11aからの右画像入力処理S101Aと左カメラ11bからの左画像入力処理S102Aを行い、双方の画像が集積された段階で、視差算出処理S103Aを行う。この視差算出処理S103Aの結果、左右または一方の画像とそれに対応する視差情報(視差画像)が得られる。この視差算出処理S103Aでの処理結果を、タイミングT1Aで演算処理部23に転送する。
また、視差算出処理S103Aでの処理結果の転送タイミングであるタイミングT1Aよりも前であって、右画像入力処理S101Aが終了した後のタイミングT0Aで、立体視データ(視差情報)を含まない、画像のみのデータ(右画像)を画像処理部22(S1A系列)から演算処理部23(S2A系列)に転送し、現在のフレームにおける車両の位置を求める車両追跡処理S104Aを行う。
更に、左画像入力処理S102Aが終了した後のタイミングT2Aで、視差情報を含まない画像のみのデータ(左画像のみ、もしくは、右画像と左画像の双方の画像)を画像処理部22(S1A系列)から演算処理部23(S2A系列)に転送する。距離計測及び相対速度計測は、右画像と左画像があれば、図8に基づき説明したのと同じ原理で計算範囲を限定することで実施可能であり、且つ、一般に視差算出処理S103Aよりも短い処理時間で実施可能である。そこで、車両追跡処理S104Aにて求められた位置情報とタイミングT0A、T2Aで転送されてくる右画像及び左画像とを用いて第1距離算出処理S105A及び相対速度算出処理S106Aを実施し、その後、第1距離算出処理S105Aや相対速度算出処理S106Aによる算出結果を出力する算出結果出力処理S110Aを行う。これにより、画像入力から制御処理部26等への算出結果出力までの処理時間を更に短縮することができる。
その後、視差算出処理S103Aの終了タイミング以後のタイミングT1Aで転送されてくる当該フレームでの視差情報を使用して車両検知・認識処理S107Aを行い、その検知結果を用いて先行車両までの距離を算出する第2距離算出処理S108Aを行い、先に述べた車両追跡処理S104Aなどの結果と車両検知・認識処理S107Aなどの結果に基づき、次のフレームで使用する位置などを決定する補正処理S109Aを実施する。
このように、本実施形態2では、第1距離算出部の処理開始タイミングを、視差情報取得部の処理終了タイミングよりも前に設定し、視差算出処理S103Aでの処理結果の転送タイミングであるタイミングT1Aよりも前の、各カメラからの画像入力処理が終了した段階で各画像を転送し、視差算出処理S103Aでの処理が終了する前であって、車両追跡処理S104Aが終了し且つ各カメラから各画像が転送された段階で、第1距離算出処理S105Aや相対速度算出処理S106Aを開始することで、距離等の認識精度を維持しながら、画像入力から算出結果出力までの応答の遅延を更に短縮することができる。
[実施形態3]
図6は、本発明に係る画像処理装置の実施形態3の処理内容を時系列で説明したものでる。本実施形態3の画像処理装置は、上記した実施形態2の画像処理装置に対し、主に演算処理部による演算処理を2つのCPUを利用して実施する点が相違している。すなわち、本実施形態3の画像処理装置の装置構成は、実施形態1、2の画像処理装置の装置構成と同様であるため、その詳細な説明は省略し、以下では、画像処理装置による画像処理の処理内容を具体的に説明する。
単眼系の車両追跡処理及びそれに関連する処理と立体系の車両検知・認識処理及びそれに関連する処理とは別々のデータを利用しており、車両追跡処理はステレオ情報が不要であること、及び、各処理が互いに独立であることから、演算処理部23における車両追跡処理等と車両検知・認識処理等とは、2つのCPUでそれぞれ独立して実施することができる。
本実施形態3では、図6に示すように、画像処理部22におけるプロセスをS1B系列とし、演算処理部23におけるプロセスを、2つのCPUを仮定してそれぞれのCPUで動くS2aB系列、S2bB系列とし、上記した実施形態1、2と同様、まず、画像処理部22(S1B系列)において、右画像入力処理S101Bと左画像入力処理S102Bと視差算出処理S103Bを行う。そして、この視差算出処理S103Bが終了したタイミングT1Bで、その処理結果(視差情報)を演算処理部23のS2bB系列に転送する。
右画像入力処理S101Bが終了した後のタイミングT0B(一方の画像を取得した後のタイミング)と、左画像入力処理S102Bが終了した後のタイミングT2B(双方の画像を取得した後のタイミング)で、視差情報を含まない画像のみのデータを画像処理部22(S1B系列)から演算処理部23のS2aB系列に転送し、演算処理部23のS2aB系列では、車両追跡処理S104Bと第1距離算出処理S105Bと相対速度算出処理S106Bと算出結果出力処理S110Bとを実施する。その後、算出結果出力処理S110Bが終了した以後の適宜のタイミングT3Bで、車両追跡処理S104B等の結果を演算処理部23のS2aB系列からS2bB系列に転送する。
一方、演算処理部23のS2bB系列では、視差算出処理S103Bの終了タイミング後のタイミングT1Bで転送されてくるそのフレームでの視差情報を使用して車両検知・認識処理S107Bと第2距離算出処理S108Bを実施する。その後、車両検知・認識処理S107Bなどの結果とS2aB系列から転送されてくる車両追跡処理S104Bなどの結果に基づき、次のフレームで使用する位置などを決定する補正処理S109Bを実施する。
このように、本実施形態3では、演算処理部23における車両追跡処理及びそれに関連する処理と車両検知・認識処理及びそれに関連する処理を2つのCPUのそれぞれで実施し、車両追跡部及び第1距離算出部などによる処理と対象物検知部及び第2距離算出部などによる処理とを時間的に並行して実施することで、仮に車両追跡処理S104B等に時間を要し、車両追跡から算出結果出力までの処理時間が長くなり、1CPUの場合では車両検知・認識処理の実行が遅延する場合であっても、車両検知・認識処理などを車両追跡処理などと並列して実施できる。そのため、画像処理装置による画像処理全体の処理時間(処理サイクル)を短縮でき、その処理効率を効果的に高めることができる。
なお、上記した実施形態1〜3では、左画像の前に右画像を取得し、その右画像を用いて車両追跡処理を実施する形態について説明したが、右画像の前に左画像を取得し、その左画像を用いて車両追跡処理を実施してもよいことは勿論である。
なお、本発明は上記した実施形態1〜3に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態1〜3は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1…ステレオカメラシステム、10…画像処理装置、11…ステレオカメラ装置、11a…右カメラ、11b…左カメラ、12…制御装置、20…バス、21…画像入力インタフェース21、22…画像処理部、23…演算処理部、24…記憶部、25…CANインタフェース、26…制御処理部、27…車載ネットワークCAN、101…右画像取得部、102…左画像取得部、103…視差情報取得部、104…車両追跡部(対象物追跡部)、105…第1距離算出部、106…相対速度算出部、107…車両検知部(対象物検知部)、108…第2距離算出部、109…補正処理部、110…算出結果出力部、111…登録テーブル

Claims (11)

  1. 複数のカメラで同期して所定の周期で時系列的に撮像された複数のフレームのうちの所定の1つのフレームの複数の画像を処理して前記画像に映る対象物までの相対距離もしくは相対速度を計測する認識処理を行う画像処理装置であって、
    前記所定の1つのフレームの前記複数の画像のうちのいずれか一つの画像と前記対象物の過去の位置情報とに基づいて、前記対象物の現在の位置情報を求める追跡処理を実施する対象物追跡部と、
    前記対象物追跡部により求められた前記現在の位置情報と前記複数の画像のうちの少なくとも二つの画像とに基づいて、前記対象物までの相対距離を算出する第1距離算出部と、
    前記所定の1つのフレームの前記複数の画像のうちの少なくとも二つの画像から得られる視差情報に基づいて、前記対象物の現在の位置情報を求めて前記対象物を検知する対象物検知部と、
    前記対象物検知部における前記対象物の検知結果に基づいて前記対象物までの相対距離を算出する第2距離算出部と、
    前記対象物追跡部により求められる現在の位置情報と前記対象物検知部により求められる現在の位置情報の少なくとも一方に基づいて行う前記現在の位置情報の補正処理及び前記第1距離算出部により算出される相対距離と前記第2距離算出部により算出される相対距離の少なくとも一方に基づいて行う前記相対距離の補正処理の少なくとも一方の補正処理を行う補正処理部と、を備え、
    前記所定の1つのフレームに対する認識処理よりも前に少なくとも他の1つのフレームに対する認識処理を行った場合において、前記所定の1つのフレームに対する認識処理の前記第1距離算出部の処理開始タイミングは、前記対象物検知部の処理終了タイミングよりも前に設定されていることを特徴とする画像処理装置。
  2. 前記第1距離算出部の処理開始タイミングは、前記対象物検知部の処理開始タイミングの以前に設定されていることを特徴とする、請求項1に記載の画像処理装置。
  3. 前記画像処理装置は、前記第1距離算出部の算出結果を外部へ出力する算出結果出力部を更に備えることを特徴とする、請求項1に記載の画像処理装置。
  4. 前記対象物追跡部は、前記補正処理部により補正された前記現在の位置情報及び前記相対距離の少なくとも一方を前記対象物の過去の位置情報として用いて前記追跡処理を実施することを特徴とする、請求項1に記載の画像処理装置。
  5. 前記画像処理装置は、前記複数の画像のうちの少なくとも二つの画像から前記視差情報を取得する視差情報取得部を更に備え、
    前記対象物追跡部の処理開始タイミングは、前記視差情報取得部の処理終了タイミングよりも前に設定されていることを特徴とする、請求項1に記載の画像処理装置。
  6. 前記対象物追跡部の処理開始タイミングは、前記視差情報取得部の処理開始タイミングの以前に設定されていることを特徴とする、請求項5に記載の画像処理装置。
  7. 前記第1距離算出部の処理開始タイミングは、前記視差情報取得部の処理終了タイミングの以後に設定されていることを特徴とする、請求項5に記載の画像処理装置。
  8. 前記第1距離算出部の処理開始タイミングは、前記視差情報取得部の処理終了タイミングよりも前に設定されていることを特徴とする、請求項5に記載の画像処理装置。
  9. 前記対象物追跡部及び前記第1距離算出部による処理と前記対象物検知部及び前記第2距離算出部による処理とが並行して実施されるようになっていることを特徴とする、請求項1に記載の画像処理装置。
  10. 前記画像処理装置は、前記第1距離算出部により算出される相対距離に基づいて前記対象物の相対速度を算出する相対速度算出部を更に備えることを特徴とする、請求項1に記載の画像処理装置。
  11. 前記補正処理部は、前記第1距離算出部により算出される相対距離と前記第2距離算出部により算出される相対距離とに基づいて、前記対象物の相対速度を補正することを特徴とする、請求項10に記載の画像処理装置。
JP2016547792A 2014-09-11 2015-08-17 画像処理装置 Active JP6279090B6 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014185577 2014-09-11
JP2014185577 2014-09-11
PCT/JP2015/072987 WO2016039077A1 (ja) 2014-09-11 2015-08-17 画像処理装置

Publications (4)

Publication Number Publication Date
JPWO2016039077A1 JPWO2016039077A1 (ja) 2017-04-27
JPWO2016039077A6 JPWO2016039077A6 (ja) 2017-04-27
JP6279090B2 JP6279090B2 (ja) 2018-02-14
JP6279090B6 true JP6279090B6 (ja) 2018-06-27

Family

ID=55458835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016547792A Active JP6279090B6 (ja) 2014-09-11 2015-08-17 画像処理装置

Country Status (5)

Country Link
US (1) US10247551B2 (ja)
EP (1) EP3193134B1 (ja)
JP (1) JP6279090B6 (ja)
CN (1) CN106662441B (ja)
WO (1) WO2016039077A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6920159B2 (ja) * 2017-09-29 2021-08-18 株式会社デンソー 車両の周辺監視装置と周辺監視方法
JP6620175B2 (ja) * 2018-01-19 2019-12-11 本田技研工業株式会社 距離算出装置及び車両制御装置
JP7042185B2 (ja) * 2018-07-27 2022-03-25 日立Astemo株式会社 距離算出装置
JP7291505B2 (ja) * 2019-03-19 2023-06-15 株式会社Subaru 車外環境検出装置
CN114071132B (zh) * 2022-01-11 2022-05-13 浙江华睿科技股份有限公司 一种信息延时的检测方法、装置、设备及可读存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10141913A (ja) * 1996-11-07 1998-05-29 Komatsu Ltd 移動体の位置、速度計測装置
JP2002024807A (ja) * 2000-07-07 2002-01-25 National Institute Of Advanced Industrial & Technology 物体運動追跡手法及び記録媒体
JP2003061075A (ja) * 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd 物体追跡装置、物体追跡方法および侵入者監視システム
JP4961234B2 (ja) * 2007-03-23 2012-06-27 株式会社日立製作所 物体追跡装置
JP5068782B2 (ja) * 2009-03-25 2012-11-07 富士フイルム株式会社 距離測定方法および装置
JP5870510B2 (ja) * 2010-09-14 2016-03-01 株式会社リコー ステレオカメラ装置、校正方法およびプログラム
JP5414714B2 (ja) * 2011-03-04 2014-02-12 日立オートモティブシステムズ株式会社 車戴カメラ及び車載カメラシステム
US9046364B2 (en) * 2011-06-14 2015-06-02 Nissan Motor Co., Ltd. Distance measurement device and environment map generation apparatus
JP5587852B2 (ja) * 2011-11-11 2014-09-10 日立オートモティブシステムズ株式会社 画像処理装置及び画像処理方法
JP5727356B2 (ja) 2011-11-30 2015-06-03 日立オートモティブシステムズ株式会社 物体検知装置
JP5587930B2 (ja) 2012-03-09 2014-09-10 日立オートモティブシステムズ株式会社 距離算出装置及び距離算出方法

Also Published As

Publication number Publication date
CN106662441B (zh) 2019-06-18
EP3193134B1 (en) 2022-10-12
US10247551B2 (en) 2019-04-02
WO2016039077A1 (ja) 2016-03-17
JPWO2016039077A1 (ja) 2017-04-27
EP3193134A1 (en) 2017-07-19
CN106662441A (zh) 2017-05-10
JP6279090B2 (ja) 2018-02-14
US20180321030A1 (en) 2018-11-08
EP3193134A4 (en) 2018-05-16

Similar Documents

Publication Publication Date Title
JP6279090B6 (ja) 画像処理装置
CN107209999B (zh) 退避控制装置以及退避控制方法
US10688997B2 (en) Lane merging determination apparatus
CN108541325B (zh) 驾驶辅助装置以及驾驶辅助方法
JP4211809B2 (ja) 物体検出装置
JP6222785B2 (ja) 操舵支援装置
US9574538B2 (en) Idling stop control system for vehicle
JP6313198B2 (ja) 車両制御装置
EP3168823B1 (en) Traffic signal detection device and traffic signal detection method
JPWO2016039077A6 (ja) 画像処理装置
JP6152673B2 (ja) 車線変更支援装置
WO2016194900A1 (ja) 車両制御装置、及び車両制御方法
JP2011242860A (ja) 障害物認識装置
JP2009169776A (ja) 検出装置
US20180370531A1 (en) Object detection device and object detection method
JP6837262B2 (ja) 走行可能領域検出装置及び走行支援システム
JP2018060422A (ja) 物体検出装置
JP2013161190A (ja) 物体認識装置
JP2008165610A (ja) 道路区画線認識装置
JP2006298254A (ja) 走行支援装置
JP5717416B2 (ja) 運転支援制御装置
JP2013161187A (ja) 物体認識装置
WO2019239471A1 (ja) 運転支援装置、運転支援システムおよび運転支援方法
WO2024029077A1 (ja) 物体検出方法及び物体検出装置
JP4324413B2 (ja) 車外監視装置および車外監視方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180116

R150 Certificate of patent or registration of utility model

Ref document number: 6279090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250