JP6253467B2 - 画像処理装置および画像処理プログラム - Google Patents

画像処理装置および画像処理プログラム Download PDF

Info

Publication number
JP6253467B2
JP6253467B2 JP2014060737A JP2014060737A JP6253467B2 JP 6253467 B2 JP6253467 B2 JP 6253467B2 JP 2014060737 A JP2014060737 A JP 2014060737A JP 2014060737 A JP2014060737 A JP 2014060737A JP 6253467 B2 JP6253467 B2 JP 6253467B2
Authority
JP
Japan
Prior art keywords
image
camera
dictionary
vehicle
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014060737A
Other languages
English (en)
Other versions
JP2015184907A (ja
Inventor
正憲 小崎
正憲 小崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2014060737A priority Critical patent/JP6253467B2/ja
Priority to US14/571,797 priority patent/US9305222B2/en
Priority to EP14199270.1A priority patent/EP2924607A3/en
Priority to CN201510030176.6A priority patent/CN104954663B/zh
Publication of JP2015184907A publication Critical patent/JP2015184907A/ja
Application granted granted Critical
Publication of JP6253467B2 publication Critical patent/JP6253467B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/28Mobile studios
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、画像処理装置および画像処理プログラムに関する。
最近、車両の周囲状況を撮像するための車載カメラを搭載した自動車などの車両が増えてきている。車載カメラにより撮像された画像は、画像中の対象物を検出することにより車両と対象物との衝突可能性の判定や駐車時のハンドル操作の支援などに利用することができるため、大変便利である。
対象物の検出処理の対象となる画像(処理対象画像、以下処理画像という)上における対象物を検出するための画像処理技術は、検出精度を向上させつつ検出に要する時間を短縮させるべく近年めざましく発展している。この種の物体検出技術には、たとえばHOG(Histogram of Oriented Gradients)特徴量を用いた技術などのパターンマッチング技術があげられる。
特開平5−278541号公報 特開2010−160757号公報
しかし、パターンマッチングでは、処理画像内の対象物の左右対称性が崩れると、対象物を検出することが極めて難しくなってしまう。たとえば、特許文献1に記載の技術では、画角の狭いカメラを用いている。このため、処理画像の中心位置から離れた位置にある対象物、すなわち自車の近くで横方向にずれた位置にある対象物は、そもそも処理画像内に収まらないか、収まっていても対象物の検出対象面(たとえば自車に後方から接近してくる自動車の前面)が完全な平面でない場合には左右対称性が崩れてしまうため、検出できない。
また、特許文献2に記載のように、左右対称性の崩れに対応するべく複数の方向から対象物を撮像した画像により各方向のそれぞれの辞書をあらかじめ作成しておく場合には、辞書の数だけ大きなメモリが必要となってしまう。
本発明の一実施形態に係る画像処理装置は、上述した課題を解決するために、車両に設けられ前記車両の周囲を広画角に撮像するカメラの所定の視線軸と、検出対象物の検出対象面の法線方向と、が平行となるように前記検出対象物を前記カメラの撮像範囲内の所定範囲の複数の位置に配置して、前記カメラにより前記複数の位置のそれぞれで事前に前記検出対象物を撮像した画像を用いてあらかじめ1つの辞書を生成しておく辞書生成部と、前記辞書の生成後に前記カメラにより撮像された画像から前記所定の視線軸を法線方向とする処理画像を生成する処理画像生成部と、前記処理画像に含まれる前記検出対象物を、前記辞書を用いて所定の特徴量を求めることにより検出する検出部と、を備えたものである。
本発明の一実施形態に係る画像処理装置の一構成例を示すブロック図。 図1に示す制御部のCPUにより、処理画像内の対象物の形状が変化しても柔軟に対象物を検出する際の手順の概略を示すフローチャート。 (a)は、通常画角のカメラを用い、視線軸が自車の進行方向に平行に真後ろを向いている場合に生成される処理画像の一例を示す説明図、(b)は通常画角のカメラを用い、視線軸が自車の進行方向に対し斜め真後ろを向いている場合に生成される処理画像の一例を示す説明図。 広画角のカメラを用い、視線軸が自車の進行方向に対し斜め後ろを向いている場合に生成される処理画像の一例を示す説明図。 広画角のカメラを用い、視線軸が自車の進行方向に平行に真後ろを向いている場合に生成される本実施形態に係る処理画像の一例を示す説明図。 図2のステップS1で辞書生成部により実行される辞書生成処理の詳細な手順の一例を示すサブルーチンフローチャート。 辞書生成部による辞書の生成時に設定される所定の範囲の一例を示す説明図。 カメラが左右および後部に設けられ、自車に並走する他車の前面を検出する場合における各カメラの視線軸および投影面の一例を示す説明図。 カメラが左右および前部に設けられ、自車に並走する他車の後面を検出する場合における各カメラの視線軸および投影面の一例を示す説明図。 カメラが左右、前部および後部に設けられ、自車に並走する他車の側面を検出する場合における各カメラの視線軸および投影面の一例を示す説明図。 処理画像生成部により生成されるピラミッド画像の一例を示す説明図。 HOG処理部によるHOG処理対象となる領域(検出対象面)について説明するための図。 処理画像の生成処理の第1変形例を説明するための図。 処理画像の生成処理の第2変形例を説明するための図。 処理画像の生成処理の第2変形例において、距離に応じて処理画像を湾曲させる場合の一例を示す説明図。 処理画像の生成処理の第3変形例を説明するための図。 処理画像の生成処理の第4変形例を説明するための図。
本発明に係る画像処理装置および画像処理プログラムの実施の形態について、添付図面を参照して説明する。
(全体構成)
図1は、本発明の一実施形態に係る画像処理装置10の一構成例を示すブロック図である。
画像処理装置10は、カメラ11、制御部12、記憶部13、灯火装置16、クラクション17、スピーカ18および表示装置19を有する。
カメラ11は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成され、自家用自動車等の車両の周囲の映像を取り込んで画像データを生成して制御部12に与える。
本実施形態において、カメラ11には広画角撮像を可能とするよう広角レンズや魚眼レンズが取り付けられる。
たとえば後方を監視する場合、カメラ11は車両後部のナンバープレート付近やリアウインドウの上部などに設けられる。また、広画角撮像が可能なカメラ11をサイドミラー付近に配設する場合、車両の側方に加えて車両の前方および後方を同時に撮像することも可能である。また、車両前方を監視する場合、カメラ11は車両前部のナンバープレート付近やフロントウインドウの上部などに設けられる。もちろん、複数のカメラ11を用いることにより広範な車外周囲画像を取り込むようにしてもよい。
カメラ11の広画角な撮像画像は、制御部12により、任意の視線軸を有する画像(以下、処理画像という)に変換(視線軸変換)される。換言すると、制御部12は、カメラ11により撮像された広画角な撮像画像にもとづいて、任意の視線軸を法線方向にもつ仮想的なカメラ投影面(以下、単に投影面という)に透視投影された画像(処理画像)を生成する。カメラ11の光軸は、地面と平行となるように、または地面と平行な線からやや下向きとなるように設定されるとよい。
制御部12は、たとえばCPU、RAM、ROMを備えたマイクロコントローラにより構成される。制御部12のCPUは、ROMなどの記憶媒体に記憶された画像処理プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って処理画像内の対象物の形状が変化しても柔軟に対象物を検出するための処理を実行する。
制御部12のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。制御部12のROMなどの記憶媒体は、画像処理プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。
なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は図示しないネットワーク接続部を介して電子ネットワークを介してダウンロードされるように構成してもよい。
なお、この場合、ネットワーク接続部は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装し、この各種プロトコルに従って制御部12と他の車両のECUなどの電気機器とを電子ネットワークを介して接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。
記憶部13は、制御部12によるデータの読み書きが可能な不揮発性のメモリであり、検出対象物を撮像した画像を用いてあらかじめ生成された画像辞書(モデル)などの種々の情報を記憶している。これらの情報は、電子ネットワークを介してまたは光ディスクなどの可搬型記憶媒体を介して更新されてもよい。
灯火装置16は、一般的なヘッドライトにより構成され、制御部12により制御されて点滅(いわゆるパッシング)を行うことにより、たとえば自車両の外部に対して警告を行う。
クラクション17は、制御部12により制御されて自車両の外部に対して警告音を出力する。
スピーカ18は、自車両の車内に設けられ、制御部12により制御されて自車両の運転者に対してビープ音や危険が迫っていることを知らせるための情報などの各種情報に対応した音声を出力する。
表示装置19は、運転者が視認可能な位置に設けられ、車載用の一般的なディスプレイやカーナビゲーションシステム、HUD(ヘッドアップディスプレイ)などの表示出力装置を用いることができ、制御部12の制御に従って、カメラ11の撮像画像や検出対象物の検出位置を示す画像などの各種情報を表示する。
(制御部12の構成および動作の概略)
続いて、制御部12のCPUによる機能実現部の構成および動作の概略について説明する。
図1に示すように、制御部12のCPUは、画像処理プログラムによって、少なくとも辞書生成部21、処理画像生成部22、検出部23および警告部24として機能する。検出部23は、HOG処理部31およびHOG結果判定部32を有する。
この各部21−24は、RAMの所要のワークエリアをデータの一時的な格納場所として利用する。なお、これらの機能実現部は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。
図2は、図1に示す制御部12のCPUにより、処理画像内の対象物の形状が変化しても柔軟に対象物を検出する際の手順の概略を示すフローチャートである。図2において、Sに数字を付した符号は、フローチャートの各ステップを示す。
ステップS1において、辞書生成部21は、あらかじめ検出対象物を撮像した画像を用いて画像辞書(モデル)を生成し記憶部13に記憶させておく。具体的には、カメラ11の所定の視線軸と、検出対象物の検出対象面の法線方向と、が平行となるように検出対象物をカメラ11の撮像範囲内の所定範囲の複数の位置に配置して、カメラ11により複数の位置のそれぞれで事前に検出対象物を撮像した画像を用いてあらかじめ1つの辞書を生成しておく。
辞書生成部21が生成する辞書は、特徴量にもとづいて画像から対象物を検出するための種々の技術に適用可能な内容を有する。以下の説明では、辞書生成部21が生成する辞書がHOG特徴量にもとづく対象物検出処理(以下、HOG処理という)に適した辞書(以下、HOG辞書という)であり、検出部23がHOG処理を行う場合の例について示す。
次に、ステップS2において、処理画像生成部22は、カメラ11から車両の周囲を広画角に撮像した撮像画像を取得する。
次に、ステップS3において、処理画像生成部22は、カメラ11による撮像画像にもとづいて、辞書生成に用いられた視線軸と同じ視線軸を法線方向とする投影面に透視投影された画像として処理画像を生成する。
次に、ステップS4において、検出部23のHOG処理部31は、HOG処理(たとえば特開2010−44438号公報、特開2010−55195号公報など参照)を行って尤度を出力する。HOG処理部31は、具体的には、処理画像を勾配方向画像に変換して検出対象物に応じた所定サイズの枠を走査し、HOG辞書を用いて走査位置ごとにHOG特徴量を求めることにより各走査位置に検出対象物が存在するもっともらしさを示す尤度を求める。HOG処理部31は、各走査位置の枠内画像を辞書にあてはめることで尤度(スコア)を求めることができる。尤度が高ければ高いほど、辞書にマッチングした画像であるといえる。
HOG特徴量は、縦、横、斜め方向のエッジがブロック内にどの程度あるのかを定量化したものである。このため、明るさの変化などの影響を受けにくく、形状の変化に対しても頑健であることが知られている。なお、HOG処理部31によるHOG処理は、共起性を利用した処理(coHOG処理)であってもよい。
次に、ステップS5において、検出部23のHOG結果判定部32は、HOG処理部31により得られた尤度が閾値より大きい結果を有効な結果とし、この有効な結果に対応する枠の位置に検出対象物を検出した旨の情報を警告部24に出力する。このとき、有効な結果が複数得られた場合は、HOG結果判定部32は、各結果のうち最も尤度の高い結果や各結果の単純な平均、尤度による加重平均などにより、最も有効な結果を1つ出力する。
次に、ステップS6において、警告部24は、HOG結果判定部32により検出された検出対象物の位置などの情報を自車の運転者に通知するべきか否かを判定する。HOG結果判定部32の出力結果を通知すべき場合はステップS7に進む。一方、通知せずともよい場合はステップS8に進む。たとえば、検出対象物の位置が自車から所定の距離以内の位置である場合にはユーザに通知すべきと判定するとよい。なお、このステップS6は実行されずともよい。
次に、ステップS7において、警告部24は、自車の運転者に対してスピーカ18を介した音声出力およびブザー出力ならびに表示装置19に対する警告表示の少なくとも1つにより、HOG結果判定部32により検出された検出対象物の情報を自車の運転者に通知してステップS8に進む。たとえば、警告部24は、HOG結果判定部32により出力された最も有効な結果が得られた処理画像と枠とを重畳して表示装置19に表示する。また、警告部24は、灯火装置16の点滅(いわゆるパッシング)やクラクション17の警告音により、自車両の外部に対して警告通知してもよい。
次に、ステップS8において、制御部12は一連の手順を終了するか否かを判定する。たとえば自車が所定時間以上停車している場合や運転者による入力指示があった場合には一連の手順は終了となる。手順を続行する場合はステップS2に戻り、カメラ11から次のフレームの画像を取得してステップS3−S7の処理を繰り返す。
以上の手順により、処理画像内の対象物の形状が変化しても柔軟に対象物を検出することができる。
(辞書の生成)
ここで、本実施形態に係る辞書生成部21により生成される辞書について説明する。
図3(a)は、通常画角のカメラを用い、視線軸40が自車41の進行方向に平行に真後ろを向いている場合に生成される処理画像の一例を示す説明図であり、(b)は通常画角のカメラを用い、視線軸40が自車41の進行方向に対し斜め真後ろを向いている場合に生成される処理画像の一例を示す説明図である。また、図4は、広画角のカメラを用い、視線軸40が自車41の進行方向に対し斜め後ろを向いている場合に生成される処理画像の一例を示す説明図である。
なお、図3および図4にはサイドミラー付近に配置したカメラ(サイドカメラ)により自車41の後方から接近する検出対象物42を検出する場合の例について示した。
検出対象物42の検出対象面が完全な平面の場合、検出対象面の法線方向と視線軸40(投影面43の法線方向)とが一致するように処理画像を生成すれば、処理画像上における検出対象物42の写る位置によらず処理画像上の検出対象面の形状は同一となる。しかし、検出対象面が完全な平面ではないときは、検出対象物42の写る位置に応じて処理画像上の検出対象面の形状が変化する。
たとえば、検出対象面が自動車の前面である場合を考える。自動車の前面は、ほぼ平面とみなせるものの完全な平面とはいえない。
この場合、通常画角のカメラを用い、自車41の進行方向に平行に真後ろを向いた視線軸40の処理画像を生成すると(図3(a)参照)、検出対象物42が遠くにあると検出対象物42の検出対象面(たとえば自動車の前面の全部または1部など)の全体が処理画像に写るとともに検出対象面が左右対称に見える。しかし、検出対象物42が自車41に近いと、検出対象物42の一部しか処理画像に写らない。
一方、通常画角のカメラを用い、自車41の進行方向に対し斜め真後ろを向いた視線軸40の処理画像を生成すると(図3(b)参照)、検出対象物42が近くにある場合には検出対象面の全体が処理画像に写るが左右対称には見えない。また、検出対象物42が遠いと、検出対象物42の一部しか処理画像に写らない。
また、広画角のカメラを用い、自車41の進行方向に対し斜め後ろを向いた視線軸40の処理画像を生成すると(図4参照)、遠くの検出対象物42は全体が処理画像に写るようになるものの、近くの検出対象物42は図3(b)に示す例と同様に左右対称には見えない。
図5は、広画角のカメラ11を用い、視線軸40が自車41の進行方向に平行に真後ろを向いている場合に生成される本実施形態に係る処理画像の一例を示す説明図である。
本実施形態では、広画角のカメラ11を用い、自車41の進行方向に平行に真後ろを向いた視線軸40の処理画像を生成する(図5参照)。
この場合、図3および図4に示す場合のように、左右対称性が大きく崩れてしまう場合やそもそも検出対象物42の一部しか処理画像に写らない場合に比べると、処理画像上の検出対象物42の写り具合は改善される。たとえば、検出対象物42が遠くにあると、検出対象物42の検出対象面の全体が処理画像に写るとともに検出対象面が左右対称に見える。一方、検出対象物42が近くにある場合には、検出対象面の全体が処理画像に写るとともに検出対象面が少し左右対称に見えない。これは、完全な平面でない場合には、左右で相対的な奥行きが違って見えるためである。
従来の辞書は、処理画像上で検出対象物42の形状が変化することを想定せず生成される。このため、従来の辞書を1つ用いるだけでは、図5に示す例で検出対象物42が近くにある場合には処理画像から検出対象物42を検出することができない。また、形状の変化に対応すべく複数の形状に応じた辞書を用いる場合、辞書の数だけ大きな記憶媒体が必要となってしまうとともに検出処理に大きな負荷がかかり処理時間もかかってしまう。
そこで、本実施形態に係る辞書生成部21は、図5に示すような視線軸40と検出対象面法線方向の位置関係で検出対象物42を検出することができるよう、カメラ11の所定の視線軸40と、検出対象物42の検出対象面の法線方向と、が平行となるように検出対象物42をカメラ11の撮像範囲内の所定範囲の複数の位置に配置して、カメラ11により複数の位置のそれぞれで事前に検出対象物42を撮像した画像を用いてあらかじめ1つの辞書を生成する。
図6は、図2のステップS1で辞書生成部21により実行される辞書生成処理の詳細な手順の一例を示すサブルーチンフローチャートである。なお、辞書生成は図2のステップS2以降が実行される以前に行われていればよい。このため、辞書生成にあたって必要な撮像画像は、自車41のカメラ11を用いて取得されてもよいし、他の固定カメラ等を用いて取得されてもよい。
また、図7は、辞書生成部21による辞書の生成時に設定される所定の範囲44の一例を示す説明図である。
ステップS11において、辞書生成部21は、所定の範囲44の複数の位置に配置された検出対象物42をカメラ11で撮像した撮像画像を取得する。各位置において、検出対象物42は、自車41の進行方向と検出対象面の法線方向とが一致するよう配置される。
検出対象面は、ある程度平面とみなせる面とするとよい。たとえば検出対象物42が自動車である場合、自動車の前面、側面および後面を検出対象面とするとよい。また、自車41がトラックやバスなどであってカメラ11を高い位置に取り付けられる場合は、自動車の上面を検出対象面としてもよい。もちろん、検出対象面は、自動車の各面に限られず、バイク側面などであってもよい。
次に、ステップS12において、辞書生成部21は、検出対象面の法線方向と平行な視線軸40を有するよう撮像画像を変換する。なお、カメラ11のいわゆる光軸をあらかじめ自車41の進行方向と一致するようにカメラ11を設置してありレンズ歪が補正されている場合は、このステップS12を実行せずともよい。
次に、ステップS13において、辞書生成部21は、視線軸40の画像から検出対象面を切り出す。
次に、ステップS14において、辞書生成部21は、切り出した画像を用いて辞書を生成し記憶部13に記憶させる。
所定の範囲44は、検出部23が検出対象とする範囲である。撮像画像の中心から大きくずれた位置では中心に比べて形状が大きく変化する。このため、所定の範囲44は、形状変化があまり大きすぎることのない範囲とするとよく、たとえば自車41の進行方向に平行な視線軸40から、自車41の外側に向かって30度から60度くらいまで(たとえば45度まで)の範囲とする。また、検出対象物42がトラックやバスなどの場合、検出対象面はより平行とみなせる。このため、所定の範囲44は、自車41の進行方向に平行な視線軸40から、自車41の外側に向かって85度くらいまで範囲を広げてもよい。
また、たとえば視線軸40から自車41の外側に向かって45度を超える範囲とする場合、検出対象物42の側面も見えるようになる。このため、45度を超える範囲とする場合は、検出対象物42の側面を検出対象面とし、視線軸40を側面の法線方向(自車41の進行方向に垂直な方向)と平行にした辞書を別に生成しておいてもよい。このとき、検出対象面は車両前方の一部の側面やタイヤなどの小さな領域としてもよい。視線軸40を側面の法線方向に平行とする場合の辞書において切り出す検出対象面を小さな領域とすれば、遠くほど解像度が少なくなる影響や遠くほど検出対象物42の側面が(完全な平面でないと)歪んでしまう影響を低減することができる。
図7には、自車41が走行する車線の隣の車線を走行して自車41から接近する他車を検出することを想定し、カメラ11から所定の距離以内までは視線軸40から自車41の外側に向かって45度までの範囲を、カメラ11から所定の距離より遠くでは視線軸40から自車外側に向かって所定距離の範囲を、所定の範囲44とする場合の例について示した。
以上の手順により、左右対称性がある程度損なわれた検出対象物42の画像を盛り込んだ、所定の範囲44に対応した1つの辞書を生成することができる。
辞書生成部21が生成する辞書は、検出対象面が完全な平面ではなく処理画像内で左右対称性が崩れる場合を想定し、左右対称性が損なわれた画像をも学習した辞書である。このため、検出部23は、この1つの辞書のみで処理画像中心から離れた位置に写り込んだ形状が少し歪んだ検出対象物42でも検出することができる。したがって、検出部23は、1つの辞書で広い範囲(所定の範囲44)に位置する検出対象物42を処理画像から検出することができるようになる。
(処理画像生成)
続いて、本実施形態に係る処理画像生成部22により生成される処理画像について説明する。
図3−5にはサイドミラー付近に配置したカメラ(サイドカメラ)により自車41の後方から接近する検出対象物42を検出する場合の例について示したが、本実施形態に係る画像処理装置10は、カメラ11を複数箇所に備えてもよいし、側方や前方から接近する検出対象物42を検出してもよい。
図8は、カメラ11が左右および後部に設けられ、自車41に並走する他車の前面を検出する場合における各カメラ11の視線軸40および投影面43の一例を示す説明図である。自車41に並走する他車の前面を検出する場合、処理画像生成部22は、カメラ11の撮像画像にもとづいて自車41の進行方向に平行で後方に向かう視線軸40をもつ投影面43に透視投影された処理画像を生成する。
図9は、カメラ11が左右および前部に設けられ、自車41に並走する他車の後面を検出する場合における各カメラ11の視線軸40および投影面43の一例を示す説明図である。自車41に並走する他車の後面を検出する場合、処理画像生成部22は、カメラ11の撮像画像にもとづいて自車41の進行方向に平行で前方に向かう視線軸40をもつ投影面43に透視投影された処理画像を生成する。
図10は、カメラ11が左右、前部および後部に設けられ、自車41に並走する他車の側面を検出する場合における各カメラ11の視線軸40および投影面43の一例を示す説明図である。自車41に並走する他車の側面を検出する場合、処理画像生成部22は、カメラ11の撮像画像にもとづいて自車41の進行方向に垂直な視線軸40をもつ投影面43に透視投影された処理画像を生成する。
図8−10のそれぞれは、各視線軸40に対応する個別の辞書を利用する。これらの辞書は辞書生成部21によりあらかじめ生成される。もちろん、全てに対応する辞書を用意しておき図8−10の全ての検出対象面(他車の前面、後面および側面)を検出対象としてもよい。
図11は、処理画像生成部22により生成されるピラミッド画像50の一例を示す説明図である。なお、図11には、最も縮小された画像(解像度が低い画像)から順に番号を0〜16として示した。また、図11には、複数の処理画像を拡大縮小率に応じて近距離用画像、中距離用画像、遠距離用画像にそれぞれ分類する場合の例について示した。また、図11には、近距離用画像(0−8)が互いに1.3倍の拡大率、中距離用画像(9−12)が互いに1.19倍の拡大率、遠距離用画像(13−16)が互いに1.19倍の拡大率である場合の例について示した。
辞書生成部21により生成される辞書は、検出対象物42に応じた所定サイズ(たとえば横×縦が24×12ピクセルなど)の画像に対応したものとしてもよい。この場合、検出部23は、処理画像上で所定サイズの枠(たとえば24×12ピクセルなど)を走査することになる。一方、処理画像上での検出対象物42の大きさは、自車41からの距離に応じて異なる。たとえば検出対象物42が自車41から遠い場合は、近い場合に比べて検出対象物42は処理画像上で小さく写ることになる。
このため、検出部23が処理画像上で一定のサイズの枠を走査する場合には、処理画像生成部22は、自車41から設定される投影面43の距離が互いに異なる複数の処理画像により構成される画像群(ピラミッド画像)50を生成するとよい。このとき、処理画像生成部22は、各処理画像が検出対象面の法線方向に平行な視線軸40を有するように、すなわち辞書生成に用いられた視線軸40と同一の視線軸40を有するように、各処理画像を生成する。
処理画像上の検出対象物42のサイズが枠のサイズと一致する場合における自車41から検出対象物42までの距離は、あらかじめ測定しておくことができる。このため、各処理画像は、あらかじめ自車41から検出対象物42までの距離と関連付けておくことができる。小さい処理画像ほど、関連付けられる自車41からの距離が短い。
なお、各処理画像は、自車41からの互いに異なる距離と関連付けることができればよく、カメラ11の撮像画像を複数の倍率で拡大縮小することにより生成されてもよいし、自車41から検出対象物42までの距離(たとえば2mなど)ごとに生成されてもよい。
ピラミッド画像50を生成する場合、処理画像生成部22は、自車41から所定の距離ごとに投影面43を設定し、この各投影面43を用いて撮像画像にもとづいて各処理画像を生成する。
各投影面43が同一の視線軸40を有する場合、検出部23はピラミッド画像50を構成する全ての処理画像に対して1つの辞書を適用することができる。ピラミッド画像50が生成されると、検出部23は、各処理画像上で所定サイズの枠を走査し、HOG特徴量にもとづいてHOG辞書を用いて検出対象物42の検出処理を行う。
(HOG処理領域)
図12は、HOG処理部31によるHOG処理対象となる領域(検出対象面)について説明するための図である。
検出対象面は、完全な平面でなくともある程度平面とみなせる領域であることが好ましい。このため、検出対象物42が自動車であって視線軸40が自車41の進行方向に平行である場合は、検出部23は自動車(他車)の前面のライトあたりを検出対象面(HOG処理領域)とするとよい。フロントガラス部分はライトよりも自車41から見て奥に位置するため、近くで自車41の横に位置する場合にはフロントガラス部分とライトあたりでは横位置がずれて処理画像が作成されてしまうためである。
なお、自車41から遠くの位置のみを所定の範囲44とする場合は、フロントガラス部分とライトあたりの奥行きが相対的に同じぐらいになるため、フロントガラスを含む自動車全体を検出対象面(HOG処理領域)としてもよい。
また、視線軸40が自車41の進行方向に垂直である場合は、他車の側面を検出対象面とすればよい。なお、検出対象面は車両前方の一部の側面やタイヤなどの小さな領域としてもよい。検出対象面を小さな領域とすれば、遠くほど解像度が少なくなる影響や遠くほど検出対象物42の側面が(完全な平面でない場合に)歪んでしまう影響を低減することができる。
本実施形態に係る画像処理装置10は、広範囲に位置する検出対象物42を検出可能な辞書を用いることができる。この辞書は、1つのみで、広画角のカメラ11により撮像される画像上に写った検出対象物42が画像中心から離れた位置に写っており、かつ画像中心に写った場合に比べて形状が歪んでいる場合にも対応したものである。このため、広画角なカメラ11を用いて広範囲を撮像した画像上において検出対象物42の形状が歪んでいても、1つの辞書で誤検出を抑制しつつ柔軟に安定して検出対象物42を検出することができる。
また、画像処理装置10は、1つの辞書で広い範囲に位置する検出対象物42を検出することができる。このため、複数の辞書を用いる場合に比べ、必要となる記憶容量を大幅に低減することができるとともに、検出処理にかかる負荷を低減し処理時間を削減することができる。
また、画像処理装置10は、他車が自車41に近い場合は、視線軸40を自車41の進行方向に垂直な方向とするとともに所定の範囲44を自車41の進行方向に沿った広い範囲とし、検出対象面を他車の側面や検出対象とすることもできる。このため、特にサイドミラー付近にカメラ11を設けておく場合、自車41を追い越す他車を自車41の近くをも監視することができる。
(処理画像生成の第1変形例)
図13は、処理画像の生成処理の第1変形例を説明するための図である。
他車が自車41の近くを並走している場合、広画角のカメラ11で撮像された撮像画像の画像データ上では、他車は横方向が圧縮されたデータとなっている。このため、正常な縦横比にするよう画像データにもとづいて横方向に伸張してしまうと、解像度が悪くなってしまう(図13の右上参照)。そこで、辞書生成部21は、正常な縦横比に対して横方向に圧縮した画像を用いて辞書を生成し、処理画像生成部22は、正常な縦横比に対して横方向に圧縮した処理画像を生成してもよい(図13の右下参照)。この場合、処理画像においてカメラ11が出力する画像データの解像度の比率を維持することができるため、検出対象物42の検出精度を向上させることができる。他車の側面を検出対象面とする場合も同様である。
また、撮像画像の画像データ上における検出対象物42の圧縮率は、自車41に対する検出対象物42の位置に応じて異なるため、位置に応じて画像と辞書の比率を変えてもよい。
また、インターレースで取得するカメラ11の場合は、検出対象物42に動きがあると、短冊状に見えてしまう。このため、奇数行偶数行のどちらかを取得することになり、画像データそのままの画像は横長となってしまう。この事情を考慮し、処理画像生成部22は処理画像として縦方向を圧縮した画像を生成してもよく、辞書生成部21は辞書を作成する際に縦を圧縮した画像を用いてもよい。
また、カメラ11のアスペクト比や魚眼カメラなどで、元画像の縦横比が違う状態がわかっていれば、それに合わせて縦横比を変えて処理画像を作成し、またそれに合わせて辞書を作成してもよい。たとえば、横長楕円の魚眼画像の場合、平面に変換するひずみ補正をする際に無理やり縦横を1:1にするように縦に伸ばすことをしないようにする。縦に伸ばさずに置くことで画像の縦方向の解像度の比率を維持することができ、画像中のエッジを鮮明なものとすることができる。
処理画像生成の第1変形例によれば、処理画像においてカメラ11が出力する画像データの解像度の比率を維持することができるため、検出対象物42の検出精度を向上させることができる。
(処理画像生成の第2変形例)
図14は、処理画像の生成処理の第2変形例を説明するための図である。
他車は、自車41に対して追い越すように接近する場合に限らず、様々な方向から自車41に近づいてくることが想定される場合がある。この場合、広画角のカメラ11が自車41の後部に設けられる場合には、処理画像生成部22は、カメラ11により撮像された画像から複数の視線軸40のそれぞれを法線方向とする複数の処理画像を生成するとよい。具体的には、処理画像生成部22は、複数の方向に投影面43を設定し、各投影面43に対応する処理画像をそれぞれ作成する。このとき、各投影面43で同じ検出対象面を検出対象とする場合には、全ての処理画像で1つの辞書を共用することができる。
複数の投影面43にそれぞれ対応する処理画像を用いることにより、検出部23は、カメラ11からずれた位置を車両が交差する場合(処理画像上で画像中心から離れた位置で検出対象物42が移動する場合)であっても、安定して検出対象物42を検出することができる。
また、隣り合う投影面43同士のなす角(ずらし角度)は、この角度の中間の角度で移動する検出対象物42が、隣り合う投影面43のいずれでも安定して検出できる角度(たとえば45度など)とするとよい。また、辞書生成部21が視線軸40と検出対象面の法線方向とを平行からある程度傾けた状態の画像も学習させた辞書をあらかじめ作成しておけば、1つの処理画像でカバーできる範囲が広がるため、隣り合う投影面43同士のなす角を広げることができる(たとえば70度など)。
また、辞書生成部21が視線軸40と検出対象面の法線方向とを平行からあまり傾けない状態の画像のみを学習させた辞書をあらかじめ作成しておき、隣り合う投影面43どうしのなす角を狭めておけば(たとえば30度など)、1つの処理画像でカバーできる範囲は狭まるものの精度の高い検出を行うことができる。
また、検出対象物42が自車41に近づくにつれて処理画像から検出対象物42がはみ出る可能性が高くなる。そこで、自車41の近くに対応する処理画像ほど隣り合う処理画像同士の重複領域が増えるようにしてもよい。そして、検出部23は、処理画像のそれぞれを処理画像としてあつかい、検出対象物42の検出処理を行う。なお、この場合、複数の処理画像から同時に検出対象物42が検出されることが考えられるため、HOG結果判定部32は、最も尤度が高い結果や最も自車41に近い処理画像で検出された結果(すなわち最も危険度が高いといえる結果)を抽出して有効な結果としてもよい。
図15は、処理画像の生成処理の第2変形例において、距離に応じて処理画像を湾曲させる場合の一例を示す説明図である。
カメラ11に魚眼レンズが取り付けられている場合には、自車41から遠い位置に対応する処理画像(拡大率が大きい処理画像)を球や円にしても処理画像上の物体の歪が少なくなる。このため、図15に示すように、自車41から遠い位置に対応する処理画像(拡大率が大きい処理画像)ほど球や円になるように湾曲させて処理画像数を少なくしてもよい。この場合、近くになるほど角度的にカメラ11からずれた位置に向かうことが想定されるため、自車41に近い位置に対応する処理画像ほど画像を平面とし処理画像数を増やしてもよい。
図15には、ピラミッド画像50の近距離用画像の投影面43が5面、中距離用画像の投影面43が4面、遠距離用画像の投影面43が1面、それぞれ用意される場合の例について示した。
処理画像生成の第2変形例によれば、様々な方向から自車41に近づいてくる検出対象物42を安定して検出することができる。また、自車41から遠い位置に対応する処理画像(拡大率が大きい処理画像)ほど球や円になるように湾曲させることにより、処理画像の必要生成枚数を減らすことができる。
(処理画像生成の第3変形例)
図16は、処理画像の生成処理の第3変形例を説明するための図である。
検出対象面が平面ではない場合であって検出対象面の湾曲度合いがあらかじめわかっている場合は、検出対象物42の検出対象面の形状に応じて投影面43を湾曲させて処理画像を湾曲させてもよい。
たとえば、図16に示すように検出対象面が自動車の前面である場合、検出対象面の左右端は検出対象面の中央付近よりも自車41からみて奥に位置する。この場合、図16に示すように投影面43の両端を奥に湾曲させてもよい。この場合、自車41から遠い側にある他車のライト部分が引き伸ばされるとともに近い側にあるライト部分が圧縮され、左右対称に見えやすくなり安定して検出しやすくなる(図16右下参照)。また、検出対象面の縦方向も同様である。投影面43を湾曲させる場合は、同様に湾曲させた画像を入れた辞書を作成しておくとよい。
また、自車41から遠い位置にある検出対象物42の湾曲は近い位置ほど目立たなくなる。このため、自車41から遠い位置に対応する処理画像(拡大率が大きい処理画像)ほど、検出対象面に応じた湾曲を解いて平面画像、円や球などの平坦な画像としてもよい。また、検出対象物42によっては、検出対象面(たとえば自動車の前面)が完全な平坦なものから湾曲したものまで種々な面を有する場合があるため、湾曲させず平面のままの処理画像と併用して処理してもよい。
また、自車41からの距離に応じて処理画像の湾曲度合いを変更する場合には、前のフレームで得られた検出対象物42の自車41からの位置を考慮して今回のフレームにおいて生成する処理画像を湾曲させてもよい。また、湾曲具合は、たとえば世に出ている自動車の平均を用いるとよい。その状態で取得した画像を入れた辞書を作成してもよい。
処理画像生成の第3変形例によれば、検出対象物42の検出対象面の形状に沿うように投影面43を設定することができるため、検出対象物42をより安定して正確に検出することができる。
(処理画像生成の第4変形例)
図17は、処理画像の生成処理の第4変形例を説明するための図である。
サイドカメラ(サイドミラー付近に設けたカメラ11)で車線数が複数ある場合に並走する車両を検出する場合には、車線のカーブや車線の位置を考慮し、作成する処理画像の投影面43の傾きや位置を変えてもよい。また、車線をまたいだ車を検出しやすいように、投影面43同士を少しずらしながら一部重複するように配置してもよい。
処理画像生成の第4変形例によれば、車線数が複数ある場合に並走する車両を検出することができる。また、自車41から遠い位置の画像ほど相対的に奥行きの割合が小さくなるため、自車41から遠い位置に対応する投影面43ほど配置する数を減らしつつ投影面43を広くしてもよい。この場合、処理画像の生成数を減らすことができるため全体の処理負荷を低減することができる。
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
たとえば、駐車場などで、リアカメラ(後部に設けたカメラ11)で車両を検出する場合などで、車両が移動する向きや位置が決まっている場合は、それに合わせた投影面43で処理画像を作成すればよい。この場合、決まった向きの投影面43に対応する処理画像のみが処理対象となるため処理の負荷を大幅に低減することができ高速な検出が可能となる。
また、視線軸40と検出対象面の法線方向を合わせた状態でも、検出対象面が完全に平面ではない場合、撮像画像の中心から離れるほど検出対象物42が歪んで見えることになる。そこで、辞書生成部21は、画像の中心から所定の距離ごと (たとえば焦点距離の半分ごと)と、その離れる方向ごと(たとえば45度ごと)に分けて辞書を生成してもよい。これらの辞書を用いる場合、より精度よく検出対象物42を検出することができる。
たとえば左右に分割する場合について説明する。並走する車両を検出する場合の左カメラと右カメラの違いや、リアカメラで右から横切るのと左から横切る違いなどのように、カメラ11に対してずれた位置を横切り、その方向が決まっている場合には、車両の左右の圧縮拡大のひずみ方が一方に偏る。たとえば、車線数が複数あり、右側を追い越される場合と左側を追い越される場合では、車両のひずみ方が逆になる。また、リアカメラで後ろを横切る車両を検出する場合にも、左右どちらを横切るかでひずみ方が逆になる。この場合、それぞれのカメラ設置位置ごとに対応する辞書を生成しておくことで、検出精度をより向上させることができる。
また、横の距離が同じでも奥行きが異なる場合、検出対象物42とカメラ11焦点を結ぶ直線と視線軸40とがなす角が変わるため歪み方の度合いが変わる。この場合、角度ごとに対応する辞書を作成しておくことで、検出精度をより向上させることができる。
また、画像処理装置10が利用する撮像画像は、車両に設けられたカメラ11の撮像画像でなくともよく、たとえば街灯に設置されたカメラなどの一般的な周辺監視カメラにより撮像された画像であってもよい。
10 画像処理装置
11 カメラ
18 スピーカ
19 表示装置
21 辞書生成部
22 処理画像生成部
23 検出部
24 警告部
40 視線軸
41 自車
42 検出対象物
44 所定の範囲

Claims (8)

  1. 車両に設けられ前記車両の周囲を広画角に撮像するカメラの所定の視線軸と、検出対象物の検出対象面の法線方向と、が平行となるように前記検出対象物を前記カメラの撮像範囲内の所定範囲の複数の位置に配置して、前記カメラにより前記複数の位置のそれぞれで事前に前記検出対象物を撮像した画像を用いてあらかじめ1つの辞書を生成しておく辞書生成部と、
    前記辞書の生成後に前記カメラにより撮像された画像から前記所定の視線軸を法線方向とする処理画像を生成する処理画像生成部と、
    前記処理画像に含まれる前記検出対象物を、前記辞書を用いて所定の特徴量を求めることにより検出する検出部と、
    を備えた画像処理装置。
  2. 前記検出部は、
    HOG特徴量にもとづいて、前記辞書を用いて前記処理画像に含まれる前記検出対象物を検出する、
    請求項1記載の画像処理装置。
  3. 前記処理画像生成部は、
    それぞれが前記所定の視線軸を法線方向にもちつつ互いに異なる倍率をもつよう前記カメラにより撮像された画像を拡大縮小することにより複数の処理画像を生成する、
    請求項2記載の画像処理装置。
  4. 前記辞書生成部は、
    前記カメラの複数の視線軸のそれぞれに対応する辞書をあらかじめ生成し、
    前記処理画像生成部は、
    前記カメラにより撮像された画像から前記複数の視線軸のそれぞれを法線方向とする複数の処理画像を生成し、
    前記検出部は、
    前記複数の処理画像のそれぞれに含まれる前記検出対象物を、各処理画像に対応する辞書を用いて所定の特徴量を求めることにより検出する、
    請求項1ないし3のいずれか1項に記載の画像処理装置。
  5. 前記カメラには魚眼レンズが取り付けられ、
    前記処理画像生成部は、
    自車からの距離が遠い処理画像である拡大率が大きい処理画像ほど湾曲するよう前記複数の処理画像を生成する、
    請求項3または4に記載の画像処理装置。
  6. 前記処理画像生成部は、
    前記検出対象物の前記検出対象面の形状に応じて前記処理画像を湾曲させる、
    請求項1ないし5のいずれか1項に記載の画像処理装置。
  7. 前記検出部により前記処理画像から前記検出対象物が検出されると、前記車両の運転者に対して、前記車両のスピーカを介した音声出力およびブザー出力ならびに前記車両の運転者が視認可能な位置に設けられた表示装置に対する警告表示の少なくとも1つにより、検出された前記検出対象物の情報を通知する警告部、
    をさらに備えた請求項1ないし6のいずれか1項に記載の画像処理装置。
  8. コンピュータを、
    車両に設けられ前記車両の周囲を広画角に撮像するカメラの所定の視線軸と、検出対象物の検出対象面の法線方向と、が平行となるように前記検出対象物を前記カメラの撮像範囲内の所定範囲の複数の位置に配置して、前記カメラにより前記複数の位置のそれぞれで事前に前記検出対象物を撮像した画像を用いてあらかじめ1つの辞書を生成しておく辞書生成部、
    前記辞書の生成後に前記カメラにより撮像された画像から前記所定の視線軸を法線方向とする処理画像を生成する処理画像生成部、および
    前記処理画像に含まれる前記検出対象物を、前記辞書を用いて所定の特徴量を求めることにより検出する検出部、
    として機能させるための画像処理プログラム。
JP2014060737A 2014-03-24 2014-03-24 画像処理装置および画像処理プログラム Active JP6253467B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014060737A JP6253467B2 (ja) 2014-03-24 2014-03-24 画像処理装置および画像処理プログラム
US14/571,797 US9305222B2 (en) 2014-03-24 2014-12-16 Image processing apparatus and image processing method
EP14199270.1A EP2924607A3 (en) 2014-03-24 2014-12-19 Image processing apparatus and image processing method
CN201510030176.6A CN104954663B (zh) 2014-03-24 2015-01-21 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014060737A JP6253467B2 (ja) 2014-03-24 2014-03-24 画像処理装置および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015184907A JP2015184907A (ja) 2015-10-22
JP6253467B2 true JP6253467B2 (ja) 2017-12-27

Family

ID=52146251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014060737A Active JP6253467B2 (ja) 2014-03-24 2014-03-24 画像処理装置および画像処理プログラム

Country Status (4)

Country Link
US (1) US9305222B2 (ja)
EP (1) EP2924607A3 (ja)
JP (1) JP6253467B2 (ja)
CN (1) CN104954663B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017158983A1 (ja) * 2016-03-18 2017-09-21 株式会社Jvcケンウッド 物体認識装置、物体認識方法及び物体認識プログラム
CN105711501B (zh) * 2016-04-19 2017-10-31 深圳市航盛电子股份有限公司 一种基于汽车环视相机的盲区中车辆监测方法及***
FR3062223B1 (fr) * 2017-01-25 2019-04-19 Valeo Schalter Und Sensoren Gmbh Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
KR102499398B1 (ko) * 2017-08-09 2023-02-13 삼성전자 주식회사 차선 검출 방법 및 장치
JP7021008B2 (ja) * 2018-06-04 2022-02-16 アルパイン株式会社 画像処理装置および画像処理方法
JP7340353B2 (ja) * 2019-05-22 2023-09-07 東芝テック株式会社 情報処理装置、物品識別装置、及び物品識別システム
JP7253000B2 (ja) * 2021-03-30 2023-04-05 本田技研工業株式会社 アプリケーションプログラム、情報提供方法、および情報提供装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2701651B2 (ja) 1992-04-01 1998-01-21 三菱電機株式会社 車両の後方監視装置
US7209221B2 (en) * 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
US6047234A (en) * 1997-10-16 2000-04-04 Navigation Technologies Corporation System and method for updating, enhancing or refining a geographic database using feedback
JP2004362128A (ja) * 2003-06-03 2004-12-24 Shimizu Corp モデル画像照合における3次元姿勢の補正手法
JP4569837B2 (ja) * 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
JP4970381B2 (ja) 2008-08-08 2012-07-04 株式会社東芝 特徴抽出装置、特徴抽出方法、画像処理装置、及び、プログラム
JP4547639B2 (ja) 2008-08-26 2010-09-22 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4710978B2 (ja) 2009-01-09 2011-06-29 ソニー株式会社 対象物検出装置、撮像装置、対象物検出方法およびプログラム
US8232872B2 (en) * 2009-12-03 2012-07-31 GM Global Technology Operations LLC Cross traffic collision alert system
US8791996B2 (en) 2010-03-31 2014-07-29 Aisin Aw Co., Ltd. Image processing system and position measurement system
JP2011238105A (ja) * 2010-05-12 2011-11-24 Toyota Motor Corp ワーク種別判別装置、及び、ワーク種別判別方法
JP5624370B2 (ja) * 2010-06-04 2014-11-12 東芝アルパイン・オートモティブテクノロジー株式会社 移動体検出装置及び移動体検出方法
WO2013106418A1 (en) * 2012-01-09 2013-07-18 Tk Holdings, Inc. Stereo-vision object detection system and method
WO2014041864A1 (ja) * 2012-09-14 2014-03-20 本田技研工業株式会社 対象物識別装置
US9064157B2 (en) * 2012-11-30 2015-06-23 National Chung Shan Institute Of Science And Technology Pedestrian detection systems and methods
US9052393B2 (en) * 2013-01-18 2015-06-09 Caterpillar Inc. Object recognition system having radar and camera input
JP5794255B2 (ja) * 2013-05-21 2015-10-14 株式会社デンソー 物体検出装置
CN103324920A (zh) * 2013-06-27 2013-09-25 华南理工大学 基于车辆正面图像与模板匹配的车型自动识别方法
CN103559791B (zh) * 2013-10-31 2015-11-18 北京联合大学 一种融合雷达和ccd摄像机信号的车辆检测方法
KR101503788B1 (ko) * 2013-12-27 2015-03-19 숭실대학교산학협력단 적분영상을 기반으로 하는 특징 정보 예측을 통한 보행자 검출 방법, 이를 수행하기 위한 기록 매체 및 단말기
US9158971B2 (en) * 2014-03-03 2015-10-13 Xerox Corporation Self-learning object detectors for unlabeled videos using multi-task learning

Also Published As

Publication number Publication date
EP2924607A2 (en) 2015-09-30
CN104954663A (zh) 2015-09-30
EP2924607A3 (en) 2015-12-02
US9305222B2 (en) 2016-04-05
CN104954663B (zh) 2018-03-20
US20150269448A1 (en) 2015-09-24
JP2015184907A (ja) 2015-10-22

Similar Documents

Publication Publication Date Title
JP6303090B2 (ja) 画像処理装置および画像処理プログラム
JP6253467B2 (ja) 画像処理装置および画像処理プログラム
JP6473571B2 (ja) Ttc計測装置およびttc計測プログラム
US10956757B2 (en) Image processing device, outside recognition device
WO2016002163A1 (ja) 画像表示装置、画像表示方法
JP5172314B2 (ja) ステレオカメラ装置
EP2437494A1 (en) Device for monitoring area around vehicle
JP6379779B2 (ja) 車両用表示装置
JPWO2016002006A1 (ja) 車両用表示装置及び車両用表示方法
JP5966513B2 (ja) 車両の後側方撮影装置
JP5915923B2 (ja) 画像処理装置及び運転支援システム
JP7263731B2 (ja) 画像処理装置
JP6379770B2 (ja) 車両用表示装置
US11377027B2 (en) Image processing apparatus, imaging apparatus, driving assistance apparatus, mobile body, and image processing method
JP5305750B2 (ja) 車両周辺表示装置およびその表示方法
JP6683245B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、物体認識装置及び機器制御システム
JP2016191988A (ja) 車外環境認識装置
JP2017182139A (ja) 判定装置、判定方法、および判定プログラム
JP5723561B2 (ja) 運転支援装置
JP5245471B2 (ja) 撮像装置、並びに、画像処理装置および方法
JP2008294616A (ja) 運転支援システム及び車両
JP4598011B2 (ja) 車両用表示装置
JP7253693B2 (ja) 画像処理装置
JP2012159989A (ja) 運転支援装置および運転支援方法
JP6425014B2 (ja) 移動体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171128

R150 Certificate of patent or registration of utility model

Ref document number: 6253467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250