JP5272041B2 - 環境認識装置および環境認識方法 - Google Patents

環境認識装置および環境認識方法 Download PDF

Info

Publication number
JP5272041B2
JP5272041B2 JP2011107688A JP2011107688A JP5272041B2 JP 5272041 B2 JP5272041 B2 JP 5272041B2 JP 2011107688 A JP2011107688 A JP 2011107688A JP 2011107688 A JP2011107688 A JP 2011107688A JP 5272041 B2 JP5272041 B2 JP 5272041B2
Authority
JP
Japan
Prior art keywords
luminance
road surface
white balance
value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011107688A
Other languages
English (en)
Other versions
JP2012238239A (ja
Inventor
辰之輔 木戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2011107688A priority Critical patent/JP5272041B2/ja
Priority to US13/455,543 priority patent/US8737689B2/en
Priority to DE102012103724.8A priority patent/DE102012103724B4/de
Priority to CN201210138539.4A priority patent/CN102975677B/zh
Publication of JP2012238239A publication Critical patent/JP2012238239A/ja
Application granted granted Critical
Publication of JP5272041B2 publication Critical patent/JP5272041B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、検出領域における対象物の輝度に基づいて、その対象物を認識する環境認識装置および環境認識方法に関する。
従来、自車両の前方に位置する車両や信号機等の障害物といった対象物を検出し、検出した対象物との衝突を回避したり、先行車両との車間距離を安全な距離に保つように制御する技術が知られている(例えば、特許文献1、2)。
また、このような技術では、対象物を一律に物として特定するのみならず、さらに高精度な制御を行うため、対象物が自車両と同速度で走行している先行車両であるのか、移動を伴わない固定された物であるのか等を判定する技術も存在する。ここで、対象物を、検出領域の撮像を通じて検出する場合、対象物が何であるかを特定する前に、撮像された画像から対象物自体を抽出(切り出し)しなければならない。
例えば、撮像された画像がカラー画像の場合、同一の輝度(色)を有する画素をグループ化し、信号機等の光源を対象物として認識する技術が知られている(例えば、特許文献3)。ただし、このような対象物は、太陽光や照明光等の環境光の影響を受けて色が変化することがある。そこで、環境光の影響を取り除くために、撮像された画像にホワイトバランス補正を施すことが考えられる。例えば、撮像された画像から道路面に相当する領域を抽出してホワイトバランス補正を行う技術が知られている(例えば、特許文献4)。
特許第3349060号 特開平10−283461号公報 特開2010−224925号公報 特開2006−338555号公報
自己の車両が道路を走行中であれば、検出領域内を道路が占有していることが多いので、道路面に相当する領域を抽出し、その道路面が灰色であることを前提に、道路面が灰色になるようなホワイトバランス補正を行うのが望ましい。しかし、一般の道路面には、スクールゾーンに代表される灰色以外の着色(例えば緑色)が施されているところもある。このような灰色以外の着色が施されている道路面を単純に灰色に変換するホワイトバランス補正を行うと、検出領域内のホワイトバランスが崩れてしまう。
そのような事態を回避すべく、灰色以外の着色が施されている道路が、灰色の道路に比べて少ないことに基づき、低域通過フィルタ等によって、そのような道路を排除することも考えられる。しかし、灰色以外の着色が施されている道路が一律に短いとは限らないので、低域通過フィルタのパラメータを一義的に定めることは困難である。また、トンネルの入口などの急激に環境光が変化する場合において、フィルタによる遅れが、制御の応答性に影響するおそれがある。
本発明は、このような課題に鑑み、応答遅延を伴うことなく、適切にホワイトバランス補正を実現可能な、環境認識装置および環境認識方法を提供することを目的としている。
上記課題を解決するために、本発明の環境認識装置は、輝度の範囲と特定物とを対応付けて保持するデータ保持部と、検出領域内に存在する対象部位の輝度を取得する輝度取得部と、取得された輝度の中から道路面の輝度および道路面以外の所定の参照部位の輝度を特定する輝度特定部と、道路面の輝度が所定色として認識できるように、ホワイトバランス補正値を導出するホワイトバランス導出部と、取得された輝度に、ホワイトバランス補正値によるホワイトバランス補正を施して補正輝度を導出するホワイトバランス実行部と、データ保持部に保持された対応付けに基づいて、対象部位の補正輝度から、対象部位に対応する特定物を仮決定する特定物仮決定部と、を備え、ホワイトバランス導出部は、参照部位の輝度が第2所定値以上変化していない状態において道路面の輝度が第1所定値以上変化し、道路面の変化後の輝度が所定色でなければ、変化時点から、道路面の輝度が所定色に戻るまで、変化する前のホワイトバランス補正値を維持することを特徴とする。
参照部位は、検出領域内における道路面上の走行路を制限する線であってもよい。
道路面は、参照部位に基づいて、参照部位の近傍領域としてもよい。
ホワイトバランス導出部は、検出領域中の所定の第1部分領域の相異なる時刻における、道路面の輝度および参照部位の輝度を求めることで、その変化を導出してもよい。
ホワイトバランス導出部は、検出領域中の所定の第1部分領域、および、検出領域中の、第1部分領域と高さ方向に離隔した第2部分領域それぞれにおける、道路面の輝度および参照部位の輝度を求めることで、その変化を導出してもよい。
ホワイトバランス導出部は、道路面における輝度が最大または最小となる色相それぞれの差分値同士の差分が第3所定値以上であれば輝度が変化したと判定する。
ホワイトバランス導出部は、道路面の色相毎の輝度の最大値を求め、輝度が最大値となった色相と異なる色相の輝度が最大値となるような比率をホワイトバランス補正値としてもよい。
ホワイトバランス導出部は、道路面の色相毎の輝度が2番目に大きい値を求め、輝度が2番目に大きい色相と異なる色相の輝度が2番目に大きい値となるような比率をホワイトバランス補正値としてもよい。
ホワイトバランス導出部は、道路面の色相毎の輝度の最小値を求め、輝度が最小値となった色相と異なる色相の輝度が最小値となるような比率をホワイトバランス補正値としてもよい。
輝度特定部は、検出領域内のうち、先行車両または車両前方の特定物の位置に基づいて鉛直方向に制限された所定領域から道路面の輝度および参照部位の輝度を特定してもよい。
上記課題を解決するために、本発明の環境認識方法は、検出領域内に存在する対象部位の輝度を取得し、取得した輝度の中から道路面の輝度および道路面以外の所定の参照部位の輝度を特定し、参照部位の輝度が第2所定値以上変化していない状態において道路面の輝度が第1所定値以上変化し、道路面の変化後の輝度が所定色でなければ、変化時点から、道路面の輝度が所定色に戻るまで、変化する前のホワイトバランス補正値を維持し、それ以外では、道路面の輝度が所定色として認識できるように、ホワイトバランス補正値を導出し、取得した輝度に、ホワイトバランス補正値によるホワイトバランス補正を施して補正輝度を導出し、データ保持部に保持された、輝度の範囲と特定物との対応付けに基づいて、対象部位の補正輝度から、対象部位に対応する特定物を仮決定することを特徴とする。
本発明によれば、道路面の輝度の変化が環境光によるものか道路面自体の着色によるものかを高精度に検出し、応答遅延を伴うことなく、適切にホワイトバランス補正を実現することが可能となる。
環境認識システムの接続関係を示したブロック図である。 輝度画像と距離画像を説明するための説明図である。 環境認識装置の概略的な機能を示した機能ブロック図である。 特定物テーブルを説明するための説明図である。 ホワイトバランス導出部の処理を説明するための説明図である。 位置情報取得部による三次元の位置情報への変換を説明するための説明図である。 輝度特定部の動作を説明するための説明図である。 特定物マップを説明するための説明図である。 環境認識方法の全体的な流れを示したフローチャートである。 ホワイトバランス補正値導出処理の流れを示したフローチャートである。 特定物マップ生成処理の流れを示したフローチャートである。 グループ化処理の流れを示したフローチャートである。 特定物決定処理の流れを示したフローチャートである。 ホワイトバランス準備処理の流れを示したフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、車両1内に設けられた、複数(本実施形態では2つ)の撮像装置110と、画像処理装置120と、環境認識装置130と、車両制御装置140とを含んで構成される。
撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、カラー画像、即ち、画素単位で3つの色相(赤、緑、青)の輝度を取得することができる。本実施形態においては、色と輝度とを同等に扱い、同一の文章に両文言が含まれる場合、互いを、色を構成する輝度、または、輝度を有する色と読み替えることができる。ここでは、撮像装置110で撮像されたカラーの画像を輝度画像と呼び、後述する距離画像と区別する。また、撮像装置110は、車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、車両1の前方の検出領域に存在する対象物を撮像した画像データを、例えば1/60秒毎(60fps)に連続して生成する。ここで、対象物は、車両、信号機、道路、ガードレールといった独立して存在する立体物のみならず、テールランプやウィンカー、信号機の各点灯部分等、立体物の部分として特定できる物も含む。以下の実施形態における各機能部は、このような画像データの更新を契機として各処理を遂行する。
画像処理装置120は、2つの撮像装置110それぞれから画像データを取得し、2つの画像データに基づいて、画像中の任意のブロック(所定数の画素を集めたもの)の視差、および、任意のブロックの画面中の位置を示す画面位置を含む視差情報を導出する。画像処理装置120は、一方の画像データから任意に抽出したブロック(例えば水平4画素×垂直4画素の配列)に対応するブロックを他方の画像データから検索する、所謂パターンマッチングを用いて視差を導き出す。ここで、水平は、撮像した画像の画面横方向を示し、実空間上の水平に相当する。また、垂直は、撮像した画像の画面縦方向を示し、実空間上の鉛直方向に相当する。
このパターンマッチングとしては、2つの画像データ間において、任意の画像位置を示すブロック単位で輝度値(Y色差信号)を比較することが考えられる。例えば、輝度値の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度値から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。画像処理装置120は、このようなブロック単位の視差導出処理を検出領域(例えば600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。
ただし、画像処理装置120では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような対象物の一部であるかを認識できない。したがって、視差情報は、対象物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報(後述する相対距離に相当)を画像データに対応付けた画像を距離画像という。
図2は、輝度画像124と距離画像126を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域122について図2(a)のような輝度画像(画像データ)124が生成されたとする。ただし、ここでは、理解を容易にするため、2つの輝度画像124の一方のみを模式的に示している。本実施形態において、画像処理装置120は、このような輝度画像124からブロック毎の視差を求め、図2(b)のような距離画像126を形成する。距離画像126における各ブロックには、そのブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。
視差は、画像のエッジ部分(隣り合う画素間で明暗の差分が大きい部分)で特定され易いので、距離画像126において黒のドットが付されている、視差が導出されたブロックは、輝度画像124においてもエッジとなっていることが多い。したがって、図2(a)に示す輝度画像124と図2(b)に示す距離画像126とは各対象物の輪郭について似たものとなる。
環境認識装置130は、画像処理装置120から輝度画像124と距離画像126とを取得し、輝度画像124に基づく輝度を用いて検出領域122における対象物がいずれの特定物に対応するかを特定する。ただし、本実施形態においては、輝度画像124にホワイトバランス補正を施すことで対象物の特定精度の向上を図っている。また、対象物を特定するために距離画像126に基づく車両1との相対距離も用いている。このとき、環境認識装置130は、距離画像126における、検出領域122内のブロック毎の視差情報を、所謂ステレオ法を用いて、相対距離を含む三次元の位置情報に変換している。ここで、ステレオ法は、三角測量法を用いることで、対象物の視差からその対象物の撮像装置110に対する相対距離を導出する方法である。かかる環境認識装置130に関しては、後ほど詳述する。
車両制御装置140は、環境認識装置130で特定された対象物との衝突を回避したり、先行車両との車間距離を安全な距離に保つ制御を実行する。具体的に、車両制御装置140は、操舵の角度を検出する舵角センサ142や車両1の速度を検出する車速センサ144等を通じて現在の車両1の走行状態を取得し、アクチュエータ146を制御して先行車両との車間距離を安全な距離に保つ。ここで、アクチュエータ146は、ブレーキ、スロットルバルブ、舵角等を制御するために用いられる車両制御用のアクチュエータである。また、車両制御装置140は、対象物との衝突が想定される場合、運転者の前方に設置されたディスプレイ148にその旨警告表示(報知)を行うと共に、アクチュエータ146を制御して車両1を自動的に制動する。かかる車両制御装置140は、環境認識装置130と一体的に形成することもできる。
(環境認識装置130)
図3は、環境認識装置130の概略的な機能を示した機能ブロック図である。図3に示すように、環境認識装置130は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
I/F部150は、画像処理装置120や車両制御装置140との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、特定物テーブル(対応付け)や、以下に示す各機能部の処理に必要な様々な情報を保持し、また、画像処理装置120から受信した輝度画像124、距離画像126を一時的に保持する。ここで、特定物テーブルは、以下のように利用される。
図4は、特定物テーブル200を説明するための説明図である。特定物テーブル200では、複数の特定物に対して、輝度の範囲を示す輝度範囲202と、特定物の大きさの範囲を示す幅範囲204とが対応付けられている。ここで、特定物としては、「信号機(赤)」、「信号機(黄)」、「信号機(青)」、「テールランプ(赤)」、「ウィンカー(橙)」、「道路標識(赤)」、「道路標識(青)」、「道路標識(緑)」等、道路を走行する上で視認を要する様々な物が想定されている。特定物は図4に記載された物に限定されないのは言うまでもない。また、特定物テーブル200では、特定物の特定に優先順位が定められており、当該環境認識処理はその優先順に従って、特定物テーブル200における複数の特定物から順次選択された1の特定物毎に行われる。特定物のうち、例えば、特定物「信号機(赤)」には、輝度(赤)「200以上」、輝度(緑)「50以下」、輝度(青)「50以下」、幅範囲「0.1〜0.3m」が対応付けられている。
本実施形態では、特定物テーブル200に基づいて、輝度画像124内の任意の対象部位のうち、任意の特定物に関する輝度範囲202の条件を満たした対象部位が特定物の候補となる。例えば、対象部位の輝度が特定物「信号機(赤)」の輝度範囲202に含まれていれば、その対象部位を特定物「信号機(赤)」の候補とする。そして、対象部位をグループ化した対象物が、特定物らしい態様で抽出されれば、例えば、グループ化した対象物の大きさが「信号機(赤)」の幅範囲「0.1〜0.3m」に含まれれば特定物と判定される。特定物と判定された対象部位は、特定物固有の識別番号によってラベリングされている。ここで、対象部位は、画素や画素を集めたブロックを想定しているが、本実施形態では、説明の便宜上、画素を用いることとする。
中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、輝度取得部160、ホワイトバランス導出部162、ホワイトバランス実行部164、位置情報取得部166、輝度特定部168、特定物仮決定部170、グループ化部172、特定物決定部174、パターンマッチング部176としても機能する。
輝度取得部160は、後述するホワイトバランス実行部164や特定物仮決定部170の制御指令に従って、受信した輝度画像124から、対象部位(画素)単位で輝度(画素単位で3つの色相(赤(R)、緑(G)、青(B))の輝度)を取得する。また、後述するホワイトバランス実行部164がホワイトバランス補正を実行した後は、その補正された補正輝度を取得する。
ホワイトバランス導出部162は、データ保持部152に保持されている前回取得した道路面の輝度を読み出し、ホワイトバランス補正値を導出する。そして、導出されたホワイトバランス補正値をデータ保持部152に保持する。
例えば、上記撮像装置110で撮像された輝度画像124中の物体は環境光に応じて不自然な色(輝度)となることがある。このとき、輝度画像124内の白色の物体を正確に白く映し出すように補正する、所謂ホワイトバランス補正が行われる。このようなホワイトバランス補正は、特定の対象物が本来あるべき輝度になっていない場合に、本来あるべき輝度となるように、例えば、色相単位(R、G、B)で輝度にホワイトバランス補正値(r、g、b)を乗じることで(r×R、g×G、b×B)実行される。したがって、ホワイトバランス補正のために参照される対象物は、画像上において比較的占有面積が大きく、その輝度値をある程度推定できるものであるのが望ましい。
例えば、ホワイトバランス導出部162は、検出領域122内における道路面の輝度を所定色(例えば灰色)として認識できるようにホワイトバランス補正値を導出する。当該環境認識システム100は、車両1に適用されているので、自ずと、走行路である灰色の道路面が検出領域122を占有することが多くなる。このように道路面を参照することで、適切なホワイトバランス補正値を安定して導出することが可能となる。
具体的に、ホワイトバランス導出部162は、道路面の色相毎の輝度の最大値を求め、輝度が最大値となった色相と異なる色相の輝度が同値(最大値)となるような比率をホワイトバランス補正値とする。仮に、道路面の輝度が(R、G、B)=(150、200、180)であれば、ホワイトバランス導出部162は、3つの色相のうちの最大値「200」に合わせるようにホワイトバランス補正値(r、g、b)を導出する。ここで、輝度が最大値「200」であるGのホワイトバランス補正値は1.00となり、輝度が「150」であるRのホワイトバランス補正値は、200/150=1.33、輝度が「180」であるBのホワイトバランス補正値は、200/180=1.11となる。このようにして、ホワイトバランス補正値(r、g、b)=(1.33、1.00、1.11)が得られる。
また、他の例として、ホワイトバランス導出部162は、道路面の色相毎の輝度が2番目に大きい値を求め、輝度が2番目に大きい色相と異なる色相の輝度が同値(2番目に大きい値)となるような比率をホワイトバランス補正値としてもよい。この場合、仮に、道路面の輝度が(R、G、B)=(150、200、180)であれば、ホワイトバランス導出部162は、3つの色相のうちの2番目に大きい値「180」に合わせるようにホワイトバランス補正値(r、g、b)を導出する。このようにして、ホワイトバランス補正値(r、g、b)=(1.20、0.90、1.00)が得られる。このように中間の色相に合わせることで、輝度が設定範囲の中心値に近づき、輝度自体の偏差が大きくなっても設定範囲に収まる可能性が高くなる。
さらに、他の例として、ホワイトバランス導出部162は、道路面の色相毎の輝度の最小値を求め、輝度が最小値となった色相と異なる色相の輝度が同値(最小値)となるような比率をホワイトバランス補正値としてもよい。この場合、仮に、道路面の輝度が(R、G、B)=(150、200、180)であれば、ホワイトバランス導出部162は、3つの色相のうちの最小値「150」に合わせるようにホワイトバランス補正値(r、g、b)を導出する。このようにして、ホワイトバランス補正値(r、g、b)=(1.00、0.75、0.83)が得られる。いずれのパターンを用いたとしても、道路面の輝度が本来の輝度に正されるので、特定物の特定精度の向上を図ることができる。
しかし、道路面には、アスファルトにより灰色で表される通常の道路(以下、単に「通常道路」という。)の他に、スクールゾーン等、例えば、緑色、赤色、黄色といった灰色以外の着色が施されている道路(以下、単に、「異色道路」という。)もある。したがって、通常道路の道路面を灰色に微調整するホワイトバランス補正を異色道路に適用することはできない。
そこで、本実施形態では、道路面の輝度の変化が、環境光によるものか道路面自体の着色によるものかを高精度に検出して、適切にホワイトバランス補正を実現することを目的とする。ここで、本願発明者は、以下の点に着目した。即ち、環境光による道路面の輝度の変化であれば、検出領域122全体に渡って環境光が影響するため、通常道路の道路面のみならず、道路面以外の所定の参照部位の輝度も変化するのに対して、異色道路の場合、当該異色道路のみ輝度が変化するという点である。以下、道路面の輝度と参照部位の輝度との変化を用いて道路面の輝度の変化が環境光によるものか道路面自体の着色によるものかを検出する構成を述べる。
ホワイトバランス導出部162は、まず、データ保持部152に保持されている前回取得した道路面の輝度および参照部位の輝度、ならびに、前々回取得した道路面の輝度および参照部位の輝度を読み出す。そして、前回取得した道路面の輝度および参照部位の輝度から前々回取得した道路面の輝度および参照部位の輝度を減算して、道路面の輝度の差分値および参照部位の輝度の差分値を導出する。
次に、ホワイトバランス導出部162は、参照部位の輝度の差分値が第2所定値未満を維持している状態(第2所定値以上変化していない状態)において道路面の輝度の差分値が第1所定値以上であるか否か判定する。このとき、道路面の輝度の差分値が第1所定値以上であり、かつ、前回の道路面の輝度(変化後の輝度)が所定色(例えば灰色(例えばR:G:B=128:128:128))でなければ、その道路を異色道路であると判定する。したがって、ホワイトバランス導出部162は、道路が異色道路であると判断した、道路面の輝度の変化時点(正確には変化があったことを把握した時点)から、通常道路に戻った道路面の輝度が所定色になるまで、前回の(変化する前の)ホワイトバランス補正値を維持する。かかるホワイトバランス補正値の維持は、データ保持部152に保持されたホワイトバランス補正値を更新しないことで為される。
ここで、上記参照部位は、比較的、検出領域122に現れやすい対象部位であることが望ましく、例えば、検出領域122内における道路面上の走行路を制限する線(横断歩道、中央線、停止線、路側帯等)としてもよい。ホワイトバランス補正は、バランスをとる色が白色に近似するほど、その精度が高くなる。ここでは、道路面において、比較的容易に抽出しやすい、走行路を制限する線を参照することで、適切なホワイトバランス補正値を安定して導出することが可能となる。また、このような走行路を制限する線は、道路面と共に検出領域122に出現することが多く、本実施形態のように、道路面の輝度と参照部位の輝度とを同時に要する構成に適している。
このとき、道路面は、参照部位である走行路を制限する線に隣接していることから、走行路を制限する線の近傍領域として抽出する。こうして、その形状が特定困難な道路面を特定することが可能となる。
図5は、ホワイトバランス導出部162の処理を説明するための説明図である。例えば、図5(a)に示すような通常道路を走行している場合、ホワイトバランス導出部162は、走行中に適宜特定された参照部位としての中央線210aの輝度と、その中央線210a近傍領域の道路面212aの輝度との過去2回分をデータ保持部152から読み出す。そして、その差分値を導出する。図5(a)の例では、道路面212や中央線210aの輝度がほぼ一定に維持されるので、いずれの差分値も第1所定値や第2所定値以上とならず、ホワイトバランス導出部162は、その道路を通常道路と認識して、ホワイトバランス補正値を更新する。
また、図5(b)に示すようなトンネル内を走行する場合、そのトンネルの入口近辺において環境光が太陽光から照明光に変わり、太陽光下における道路面212bの輝度が照明光下における道路面212cの輝度に変化する。かかる変化に伴う道路面の輝度の差分値は第1所定値以上となる。しかし、ここでは、太陽光下における中央線210bの輝度も照明光下における中央線210cの輝度に変化し、その差分値が第2所定値以上となる。したがって、ホワイトバランス導出部162は、その道路を、図5(a)同様、通常道路と認識して、ホワイトバランス補正値を更新する。
図5(c)に示すような異色道路を走行する場合、通常道路の道路面212dから異色道路の道路面212eに移行した際、中央線210dの輝度と中央線210eの輝度は変化しないので、輝度の差分値は第2所定値未満を維持することとなる。一方、道路面212dの輝度と道路面212eの輝度は変化し、輝度の差分値は第1所定値以上となる。また、変化後の道路面212eの輝度は灰色ではない。そうすると、ホワイトバランス導出部162は、その道路が異色道路であると判定し、ホワイトバランス補正値の更新を停止する。即ち、ホワイトバランス補正値の導出を停止し、データ保持部152に保持しているホワイトバランス補正値の前回値を今回のホワイトバランス補正値としてそのまま利用する。
また、図5(c)において、異色道路の道路面212eから通常道路の道路面212fに移行した場合、中央線210eの輝度と中央線210fの輝度は変化しないので、輝度の差分値は第2所定値未満を維持することとなる。一方、道路面212eの輝度と道路面212fの輝度は変化し、輝度の差分値は第1所定値以上となる。しかし、道路面212dから道路面212eへの移行と異なり、変化後の道路面212fの輝度は灰色である。道路面が灰色であると判定すると、ホワイトバランス導出部162は、その道路が通常道路であると判定し、ホワイトバランス補正値の更新を再開する。
また、図5(d)のように、通常道路と異色道路が交互に配されている場合であっても、ホワイトバランス導出部162は、図5(c)同様の処理を行う。即ち、中央線210の輝度の変化が第2所定値未満であり、道路面212の輝度の変化が第1所定値以上であり、道路面212の変化後の輝度が灰色ではない場合に、変化時点から、道路面212の輝度が灰色に戻るまで、変化する前のホワイトバランス補正値を維持する。ここでは、異色道路の区間が複数回あるので、その都度、ホワイトバランス補正値が維持されることとなる。
このように道路面212の輝度の変化と参照部位(ここでは中央線210)の輝度の変化とを用いて道路面212の輝度の変化が、通常道路に対する環境光によるものか、異色道路のような道路面自体の着色によるものかを適切に検出することが可能となる。
また、本実施形態において、ホワイトバランス導出部162は、輝度の変化の具体的な判定手段として、道路面212における輝度が最大または最小となる色相それぞれの差分値同士の差分が第3所定値以上であれば輝度が変化したと判定する。
例えば、前々回検出時の道路面212の輝度(R、G、B)が(100、110、90)であり、中央線210の輝度(R、G、B)が(190、210、200)であり、前回検出時の道路面212の輝度(R、G、B)が(90、110、100)であり、中央線210の輝度(R、G、B)が(180、200、190)であるとする。また、第3所定値は、道路面212に関し「30」、中央線210に関し「20」と予め定められているとする。
このとき、道路面212の輝度が最大となる色相はGであり、その差分値は|110−110|=0となる。また、道路面212の輝度が最小となる色相はRであり(前回検出時)、その差分値は|90−100|=10となる。したがって、最大または最小となる色相それぞれの差分値同士の差分は、|0−10|=10となる。また、中央線210の輝度が最大となる色相はGであり、その差分値は|200−210|=10となる。また、中央線210の輝度が最小となる色相はRであり、その差分値は|180−190|=10となる。したがって、最大または最小となる色相それぞれの差分値同士の差分は、|10−10|=0となる。
ここでは、道路面212に関する最大または最小となる色相それぞれの差分値同士の差分「10」が第3所定値「30」未満であり、中央線210に関する最大または最小となる色相それぞれの差分値同士の差分「0」が第3所定値「20」未満となる。したがって、ホワイトバランス導出部162は、道路面212も中央線210も変化なしと判定し、ホワイトバランス補正値を導出することとなる。また、上記では、差分が生じやすいという理由から輝度が最大および最小となる色相を用いているが、輝度が最大と2番目または最小と2番目の差分値同士の差分によって判定することもできる。
このようにして、例えば、太陽光が陰ることで道路面212や中央線210の輝度が多少変化した場合であっても、また、太陽光が徐々に強くなったり、弱くなっている状況下であっても、ホワイトバランス補正値を適切に導出することができる。
ホワイトバランス実行部164は、輝度取得部160が取得した輝度に、ホワイトバランス補正値によるホワイトバランス補正を施して補正輝度を導出する。
位置情報取得部166は、後述する特定物仮決定部170の制御指令に従い、距離画像126における検出領域122内のブロック毎の視差情報を、ステレオ法を用いて、水平距離x、高さyおよび相対距離zを含む三次元の位置情報に変換する。ここで、視差情報が、距離画像126における各対象部位の視差を示すのに対し、三次元の位置情報は、実空間における各対象部位の相対距離の情報を示す。したがって、相対距離や高さといった文言を用いる場合、実空間上の距離を指し、検出距離といった文言を用いる場合、距離画像126上の距離を指す。また、視差情報が画素単位ではなくブロック単位、即ち複数の画素単位で導出されている場合、その視差情報はブロックに属する全ての画素の視差情報とみなして、画素単位の計算を実行することができる。
図6は、位置情報取得部166による三次元の位置情報への変換を説明するための説明図である。位置情報取得部166は、まず、距離画像126を図6の如く画素単位の座標系として認識する。ここでは、図6中、左下隅を原点(0,0)とし、横方向をi座標軸、縦方向をj座標軸とする。したがって、視差dpを有する画素は、画素位置i、jと視差dpによって(i,j,dp)のように表すことができる。
本実施形態における実空間上の三次元座標系を、車両1を中心とした相対座標系で考える。ここでは、車両1の進行方向右側方をX軸の正方向、車両1の上方をY軸の正方向、車両1の進行方向(前方)をZ軸の正方向、2つの撮像装置110の中央を通る鉛直線と道路表面との交点を原点(0,0,0)とする。このとき、道路を平面と仮定すると、道路表面がX−Z平面(y=0)と一致することとなる。位置情報取得部166は、以下の(数式1)〜(数式3)によって距離画像126上のブロック(i,j,dp)を、実空間上の三次元の点(x,y,z)に座標変換する。
x=CD/2+z・PW・(i−IV) …(数式1)
y=CH+z・PW・(j−JV) …(数式2)
z=KS/dp …(数式3)
ここで、CDは撮像装置110同士の間隔(基線長)であり、PWは1画素当たりの視野角であり、CHは撮像装置110の道路表面からの配置高さであり、IV、JVは車両1の真正面における無限遠点の画像上の座標(画素)であり、KSは距離係数(KS=CD/PW)である。
したがって、位置情報取得部166は、対象部位の相対距離と、対象部位と同相対距離にある道路表面上の点と対象部位との距離画像126上の検出距離とに基づいて、道路表面からの高さを導出していることとなる。
輝度特定部168は、位置情報取得部166による対象部位の三次元座標を参照して、輝度取得部160が取得した輝度の中から道路面212および中央線210を抽出し、道路面212の輝度および参照部位としての中央線210の輝度を特定する。具体的に、輝度特定部168は、まず、中央線210を抽出し、その中央線210の近傍領域を道路面212としている。近傍領域は、中央線210の輝度を抽出した位置から所定距離未満の位置であり、少なくとも高さyに関して近接している位置である。そして、特定した道路面212の輝度および中央線210の輝度を、次回以降、前回値や前々回値としてホワイトバランス導出部162に利用させるため、データ保持部152に保持させる。
また、本実施形態では、検出領域122中の所定の第1部分領域の相異なる時刻における、道路面212の輝度および中央線210の輝度を求めることで、その変化を導出している。しかし、かかる場合に限らず、例えば、検出領域122中の所定の第1部分領域、および、検出領域122中の、第1部分領域と高さy方向(画像垂直方向)に離隔した第2部分領域それぞれにおける、道路面212の輝度および参照部位の輝度を求めることで、その変化を導出することもできる。この場合、道路の異なる領域(第1部分領域と第2部分領域)を同時に検出できるので、車両1が停車中であっても道路の輝度の変化を抽出することが可能となる。また、このような部分領域をさらに複数設け、それぞれの変化を計算することで、特定精度の向上を図ることが可能となる。
また、ここでは、道路面212や中央線210の領域において、それぞれ1の対象部位の輝度を特定しているが、かかる場合に限らず、目的とする対象部位周囲における複数の対象部位を合わせて評価し、その平均値を輝度として特定することも可能である。こうすることで、輝度のバラツキを抑え、輝度の変化を高精度に判定することができる。
また、輝度特定部168は、道路面212に相当する領域の任意の対象部位に関して輝度を特定しているが、その任意の対象部位を設定する範囲を、先行車両や車両前方の特定物の位置に基づいて鉛直方向に制限された所定領域としてもよい。
図7は、輝度特定部168の動作を説明するための説明図である。図7においては、自己の車両1(検出領域下端)から、先行車両214と自己の車両1との検出距離Dの中心Cまでのクロスハッチングを施した領域を所定領域216としている。したがって、輝度特定部168は、所定領域216内の道路面212および中央線210の輝度を特定することとなる。
ここで、先行車両や車両前方の特定物を検出しなかった場合には、検出領域122下端から、無限遠点に相当する位置と検出領域122下端との距離を2で除算した位置までを所定領域216とする。このように、対象部位を設定する領域を所定領域216に制限することで、輝度の誤検出を防止することができる。
特定物仮決定部170は、データ保持部152に保持された特定物テーブル200に基づいて、ホワイトバランス実行部164によってホワイトバランス補正が施された対象物の補正輝度から、対象物に対応する特定物を仮決定する。
具体的に、特定物仮決定部170は、まず、輝度画像124における任意の対象部位の補正輝度を、輝度取得部160に取得させる。続いて、特定物仮決定部170は、特定物テーブル200に登録されている特定物から任意の特定物を順次選択し、取得した1の対象部位の補正輝度が、順次選択した特定物の輝度範囲202に含まれるか否か判定する。そして、対象となる輝度範囲202に含まれれば、その対象部位に当該特定物を示す識別番号を付して、特定物マップを作成する。
特定物仮決定部170は、このような対象部位それぞれの補正輝度と特定物テーブル200に登録されている複数の特定物の輝度範囲202との一連の比較を、複数の対象部位毎に順次実行する。ここで、特定物の選択順は、上述したように特定物テーブル200に示された優先順位に従っている。即ち、図4の特定物テーブル200の例では、「信号機(赤)」、「信号機(黄)」、「信号機(青)」、「テールランプ(赤)」、「ウィンカー(橙)」、「道路標識(赤)」、「道路標識(青)」、「道路標識(緑)」の順に比較処理が実行される。
また、上記優先順位に従って比較した結果、対象部位の補正輝度が優先順位の高い特定物の輝度範囲202に含まれていると判定された場合、それより優先順位が低い特定物に関する比較処理は最早行われない。したがって、1の対象部位に関して多くとも1の特定物を示す識別番号しか付されることはない。これは、複数の特定物が空間上で重なり合うことはないので、特定物仮決定部170によって一旦任意の特定物と判定された対象物は、最早、他の特定物であるか否かを判定する必要がないという理由に基づく。このように対象部位を排他的に取り扱うことによって、既に特定物が仮決定された対象部位の重複した特定処理を回避することができ、処理負荷を軽減することが可能となる。
図8は、特定物マップ220を説明するための説明図である。特定物マップ220は、輝度画像124に特定物の識別番号を重ねたものであり、特定物と仮決定された対象部位に相当する位置に、その特定物の識別番号が対応付けられる。
例えば、特定物マップ220中の部分マップ220aでは、先行車両のテールランプに相当する複数の対象部位222の補正輝度が、特定物「信号機(赤)」、「信号機(黄)」、「信号機(青)」といった順に輝度範囲202と比較され、最終的に特定物「テールランプ(赤)」の識別番号「4」が対応付けられる。また、特定物マップ220中の部分マップ220bでは、信号機の右側点灯部分に相当する複数の対象部位224の補正輝度が特定物「信号機(赤)」の輝度範囲202に含まれているので、特定物「信号機(赤)」の識別番号「1」が対応付けられる。さらに、特定物マップ220中の部分マップ220cでは、先行車両の背面ランプ部に相当する複数の対象部位226の補正輝度が、特定物「信号機(赤)」、「信号機(黄)」、「信号機(青)」といった順に輝度範囲202と比較され、最終的に、特定物「テールランプ(赤)」の識別番号「4」および「ウィンカー(橙)」の識別番号「5」が対応付けられる。図8では、輝度画像124の複数の対象部位に識別番号が付された図を提示しているが、かかる表現は理解を容易にするための概念的なものであり、実際には対象部位にデータとして識別番号が登録されている。
グループ化部172は、仮決定された任意の対象部位を基点として、その対象部位と、水平距離xの差分および高さyの差分が所定範囲内にある、同一の特定物に対応すると仮決定された(同一の識別番号が付された)対象部位をグループ化し、対象物とする。ここで、所定範囲は実空間上の距離で表され、任意の値(例えば、1.0m等)に設定することができる。また、グループ化部172は、グループ化により新たに追加された対象部位に関しても、その対象部位を基点として、水平距離xの差分および高さyの差分が所定範囲内にある、特定物が等しい対象部位をグループ化する。結果的に、同一の特定物として仮決定された対象部位同士の距離が所定範囲内であれば、それら全てがグループ化されることとなる。
ここで、グループ化部172は、実空間上の水平距離や高さを用いて判定しているが、輝度画像124上や距離画像126上の検出距離で判定する場合に、グループ化のための所定範囲の閾値は、対象部位の相対距離に応じて変更される。図2等に示したように、輝度画像124や距離画像126では、遠近の物体が平面上に表されているため、本体遠方に位置する物体は小さく(短く)表され、近傍に位置する物体は大きく(長く)表される。したがって、輝度画像124や距離画像126における所定範囲の閾値は、例えば、遠方に位置する対象部位については短く、近傍に位置する対象部位については長く設定されることとなる。こうして、遠方と近傍とで検出距離が異なる場合であっても安定したグループ化が望める。
また、グループ化部172は、上述した水平距離xの差分や高さyの差分に加えて、相対距離zの差分が所定範囲内にある、同一の特定物に対応すると仮決定された対象部位をグループ化してもよい。実空間では、水平距離xや高さyが近似していたとしても、相対距離zが離れている場合、別体の対象物であることが想定される。したがって、水平距離x、高さyおよび相対距離zのいずれかが離れている場合、その対象部位のグループは独立した対象物とみなすこととする。こうして、高精度なグループ化を図ることができる。
また、ここでは、水平距離xの差分、高さyの差分および相対距離zの差分をそれぞれ独立して判定し、全てが所定範囲に含まれる場合のみ同一のグループとしているが、他の計算によることもできる。例えば、水平距離xの差分、高さyの差分および相対距離zの差分の二乗平均√((水平距離xの差分)+(高さyの差分)+(相対距離zの差分))が所定範囲に含まれる場合に同一のグループとしてもよい。かかる計算により、対象部位同士の実空間上の正確な距離を導出することができるので、グループ化精度を高めることができる。
特定物決定部174は、グループ化部172がグループ化した対象物が所定の条件を満たしていれば、その対象物を特定物として決定する。例えば、図4に示したように、特定物テーブル200に幅範囲204が対応付けられている場合、特定物決定部174は、特定物テーブル200に基づき、対象物の大きさ(対象物の水平距離xの幅および高さyの幅のいずれも)が、対象物について仮決定された特定物の幅範囲204に含まれていれば、その対象物を対象となる特定物として決定することとする。また、対象物の水平距離xの幅および高さyの幅それぞれについて幅範囲204を設定してもよい。ここでは、対象物が、特定物とみなすのに妥当な大きさであることを確認している。したがって、幅範囲204に含まれない場合、当該環境認識処理に不要な情報として除外することができる。
こうして、環境認識装置130では、輝度画像124から、1または複数の対象物を、特定物として抽出することができ、その情報を様々な制御に用いることが可能となる。例えば、特定物「信号機(赤)」を抽出することで、その対象物が、移動を伴わない固定された物であることが把握されると共に、その対象物が自車線に関する信号機であれば、車両1は、停止または減速すべきであることを把握することができる。また、特定物「テールランプ(赤)」を抽出することで、そこに車両1と共に走行している先行車両があり、かつ、その先行車両の背面が、特定物「テールランプ(赤)」の相対距離にあることを把握することができる。
パターンマッチング部176は、特定物決定部174が決定した特定物が例えば「標識」であり、その中には制限速度が表記されていることが想定される場合、さらに、表記されている数値についてパターンマッチングを実行し、その数値を特定する。こうして、環境認識装置130は、自車線の制限速度等を認識することができる。
本実施形態においては、まず、特定物決定部174によって複数に制限された特定物を抽出し、その抽出された特定物とのパターンマッチングのみ行えばよい。したがって、従来のように、輝度画像124全面に対してパターンマッチングを行うのに比べ処理負荷が格段に少なくなる。
(環境認識方法)
以下、環境認識装置130の具体的な処理を図9〜図14のフローチャートに基づいて説明する。図9は、画像処理装置120から距離画像(視差情報)126が送信された場合の割込処理に関する全体的な流れを示し、図10〜図14は、その中の個別のサブルーチンを示している。また、ここでは、対象部位として画素を挙げており、輝度画像124や距離画像126の左下隅を原点とし、画像水平方向に1〜600画素、垂直方向に1〜200画素の範囲で当該環境認識方法による処理を遂行する。また、ここでは、対象となる特定物の数を8つと仮定する。さらに、参照部位として仮に中央線210を用いる例を挙げている。
図9に示すように、距離画像126の受信を契機に当該環境認識方法による割込が発生すると、道路面の輝度が所定色(灰色)として認識できるように、ホワイトバランス補正値が導出され(S300)、画像処理装置120から取得した輝度画像124が当該ホワイトバランス補正値により補正されて、特定物マップ220が生成される(S302)。
続いて、仮決定された特定物がグループ化され(S304)、グループ化された対象物が特定物として決定される(S306)。決定された特定物からさらに情報を得る必要があれば、パターンマッチング部176によって、特定物のパターンマッチングが実行され(S308)、ホワイトバランス補正値導出処理S300のため道路面212や中央線210の輝度が特定される(S310)。以下、上記の処理を具体的に説明する。
(ホワイトバランス補正値導出処理S300)
図10を参照すると、ホワイトバランス導出部162は、まず、データ保持部152に保持されている前回取得した道路面212の輝度および中央線210の輝度、ならびに、前々回取得した道路面212の輝度および中央線210の輝度を読み出す(S350)。そして、前回取得した道路面212の輝度および中央線210の輝度から前々回取得した道路面212の輝度および中央線210の輝度を減算して、道路面212の輝度の差分値および中央線210の輝度の差分値を導出する(S352)。
次に、ホワイトバランス導出部162は、道路面212の輝度の差分値が第1所定値以上であり、中央線210の輝度の差分値が第2所定値未満であり、かつ、前回の道路面212の輝度が所定色(例えば灰色)ではないことを判定する(S354)。このとき、道路面212の輝度の差分値が第1所定値以上であり、中央線210の輝度の差分値が第2所定値未満であり、かつ、前回の道路面212の輝度が所定色(例えば灰色)でなければ(S354におけるYES)、ホワイトバランス導出部162は、異色道路フラグをONし(S356)、前回のホワイトバランス補正値を維持する(S358)。ここで、異色道路フラグは、異色道路であることを示すフラグであり、異色道路に移行してから、通常道路に戻るまで維持される。
また、道路面212の輝度の差分値が第1所定値以上、中央線210の輝度の差分値が第2所定値未満、前回の道路面212の輝度が所定色(例えば灰色)ではない、のいずれかの条件を満たさなければ(S354におけるNO)、異色道路フラグがONしており、かつ、前回の道路面212の輝度が所定色(例えば灰色)ではないことを判定する(S360)。このとき、異色道路フラグがONしており、かつ、前回の道路面212の輝度が所定色(例えば灰色)でなければ(S360におけるYES)、ホワイトバランス導出部162は、異色道路が継続していると認識して、前回のホワイトバランス補正値を維持する(S358)。即ち、データ保持部152に保持されているホワイトバランス補正値の更新を行わない。
また、異色道路フラグがONしている、前回の道路面212の輝度が所定色(例えば灰色)ではない、のいずれかの条件を満たさなければ(S360におけるNO)、通常道路に移行したと認識し、異色道路フラグをOFFする(S362)。そして、ホワイトバランス導出部162は、データ保持部152に保持されている前回取得した道路面212の輝度を読み出し、ホワイトバランス補正値を導出する(S364)。例えば、ホワイトバランス導出部162は、道路面212の色相毎の輝度の最大値を求め、輝度が最大値となった色相と異なる色相の輝度が最大値となるような比率をホワイトバランス補正値とする。そして、導出されたホワイトバランス補正値をデータ保持部152に保持する(S366)。
(特定物マップ生成処理S302)
図11を参照すると、ホワイトバランス実行部164は、ホワイトバランス導出部162が導出したホワイトバランス補正値をデータ保持部152から読み出す(S400)。特定物仮決定部170は、対象部位(画素)を特定するための垂直変数jを初期化(「0」を代入)する(S402)。続いて、特定物仮決定部170は、垂直変数jに「1」を加算(インクリメント)すると共に水平変数iを初期化(「0」を代入)する(S404)。次に、特定物仮決定部170は、水平変数iに「1」を加算し、特定物変数mを初期化(「0」を代入)する(S406)。ここで、水平変数iや垂直変数jを設けているのは、600×200の画素全てに対して当該特定物マップ生成処理を実行するためであり、特定物変数mを設けているのは、画素毎に8つの特定物を順次比較するためである。
続いて、ホワイトバランス実行部164は、輝度取得部160が取得した輝度に、ホワイトバランス補正値によるホワイトバランス補正を施して補正輝度を導出する(S408)。
特定物仮決定部170は、輝度画像124から対象部位としての画素(i,j)の補正輝度を輝度取得部160に取得させ(S410)、特定物変数mに「1」を加算し(S412)、特定物(m)の輝度範囲202を取得し(S414)、画素(i,j)の補正輝度が特定物(m)の輝度範囲202に含まれるか否か判定する(S416)。
画素(i,j)の補正輝度が特定物(m)の輝度範囲202に含まれていれば(S416におけるYES)、特定物仮決定部170は、その画素に特定物(m)を示す識別番号pを対応付けて、画素(i,j,p)とする(S418)。こうして、輝度画像124中の各画素に識別番号が付された特定物マップ220が生成される。また、画素(i,j)の補正輝度が特定物(m)の輝度範囲202に含まれていなければ(S416におけるNO)、特定物変数mが特定物の最大数である8を超えたか否か判定する(S420)。ここで、特定物変数mが最大値を超えていなければ(S420におけるNO)、ステップS412の特定物変数mのインクリメント処理からを繰り返す。また、特定物変数mが最大値を超えていれば(S420におけるYES)、当該画素(i,j)に対応する特定物は存在しないとして、次のステップS422に処理が移される。
続いて、特定物仮決定部170は、水平変数iが水平画素の最大値である600を超えたか否か判定し(S422)、水平変数iが最大値を超えていなければ(S422におけるNO)、ステップS406の水平変数iのインクリメント処理からを繰り返す。また、水平変数iが最大値を超えていれば(S422におけるYES)、特定物仮決定部170は、垂直変数jが垂直画素の最大値である200を超えたか否か判定する(S424)。そして、垂直変数jが最大値を超えていなければ(S424におけるNO)、ステップS404の垂直変数jのインクリメント処理からを繰り返す。また、垂直変数jが最大値を超えていれば(S424におけるYES)、当該特定物マップ生成処理を終了する。こうして、各画素に対応する特定物が仮決定される。
(グループ化処理S304)
図12を参照すると、グループ化部172は、対象部位をグループ化するための所定範囲を参照し(S450)、対象部位(画素)を特定するための垂直変数jを初期化(「0」を代入)する(S452)。続いて、グループ化部172は、垂直変数jに「1」を加算すると共に水平変数iを初期化(「0」を代入)する(S454)。次に、グループ化部172は、水平変数iに「1」を加算する(S456)。
グループ化部172は、輝度画像124から対象部位としての画素(i,j,p,dp,x,y,z)を取得する(S458)。そして、その画素(i,j,p,dp,x,y,z)に、特定物の識別番号pが対応付けられているか否か判定する(S460)。ここで、識別番号pが対応付けられていれば(S460におけるYES)、グループ化部172は、その画素(i,j,p,dp,x,y,z)の実空間上の座標(x,y,z)から所定範囲内に、等しい識別番号pが対応付けられている他の画素(i,j,p,dp,x,y,z)が存在するか否か判定する(S462)。
識別番号の等しい他の画素(i,j,p,dp,x,y,z)が存在すれば(S462におけるYES)、グループ化部172は、自己を含む所定範囲内の全ての画素のいずれかにグループ番号gが付されているか否か判定する(S464)。いずれかにグループ番号gが付されていたら(S464におけるYES)、グループ化部172は、所定範囲に含まれる全ての画素および同一のグループ番号gが付されている全ての画素に、その付されているグループ番号のうち最も小さいグループ番号g、および、グループ番号としてまだ利用されていない番号のうち最も小さい値のいずれか小さい方を付与して、画素(i,j,p,dp,x,y,z,g)とする(S466)。また、いずれにもグループ番号gが付されていない場合(S464におけるNO)、グループ番号としてまだ利用されていない番号のうち最も小さい値を、自己を含む所定範囲内の全ての画素に新規に付与する(S468)。
このように、所定範囲内に識別番号が等しい対象部位が複数存在する場合、1のグループ番号gを付すことによってグループ化を行う。このとき、複数の対象部位のいずれにも未だグループ番号gが付されていない場合、新規のグループ番号gを付すこととし、いずれかに既にグループ番号gが付されている場合、それと同一のグループ番号gを付すこととなる。ただし、複数の対象部位に複数のグループ番号gが存在する場合、1つのグループとみなすべきなので、その対象部位全てのグループ番号gを1のグループ番号gに置換することとする。
このとき、所定範囲に含まれる全ての画素のみならず、同一のグループ番号gが付されている全ての画素のグループ番号gを一度に変更しているのは、グループ番号gの変更により、すでに統一化されたグループを分離しないためである。また、最も小さいグループ番号gまたはグループ番号としてまだ利用されていない番号のうち最も小さい値のいずれか小さい方を採用しているのは、グループの採番において可能な限り欠番を出さないようにするためである。こうすることで、グループ番号gの最大値が無用に大きくなることがなくなり、処理負荷を軽減することが可能となる。
識別番号pが対応付けられていない場合(S460におけるNO)、または、識別番号pの等しい他の画素が存在しない場合(S462におけるNO)、次のステップS470に処理が移される。
続いて、グループ化部172は、水平変数iが水平画素の最大値である600を超えたか否か判定し(S470)、水平変数iが最大値を超えていなければ(S470におけるNO)、ステップS456の水平変数iのインクリメント処理からを繰り返す。また、水平変数iが最大値を超えていれば(S470におけるYES)、グループ化部172は、垂直変数jが垂直画素の最大値である200を超えたか否か判定する(S472)。そして、垂直変数jが最大値を超えていなければ(S472におけるNO)、ステップS454の垂直変数jのインクリメント処理からを繰り返す。また、垂直変数jが最大値を超えていれば(S472におけるYES)、当該グループ化処理を終了する。
(特定物決定処理S306)
図13を参照すると、特定物決定部174は、グループを特定するためのグループ変数kを初期化(「0」を代入)する(S500)。続いて、特定物決定部174は、グループ変数kに「1」を加算する(S502)。
特定物決定部174は、輝度画像124からグループ番号gがグループ変数kである対象物が存在するか否か判定し(S504)、存在すれば(S504におけるYES)、そのグループ番号gが付された対象物の大きさを計算する(S506)。そして、計算した大きさが、グループ番号gがグループ変数kである対象物に対応付けられた識別番号pで示される特定物の幅範囲204に含まれるか否か判定する(S508)。
大きさが識別番号pで示される特定物の幅範囲204に含まれていれば(S508におけるYES)、特定物決定部174は、その対象物を特定物として決定する(S510)。大きさが識別番号pで示される特定物の幅範囲204に含まれていない場合(S508におけるNO)、または、グループ番号gがグループ変数kである対象物が存在しない場合(S504におけるNO)、次のステップS512に処理が移される。
続いて、特定物決定部174は、グループ変数kが、グループ化処理において設定されたグループ番号の最大値を超えたか否か判定する(S512)。そして、グループ変数kが最大値を超えていなければ(S512におけるNO)、ステップS502のグループ変数kのインクリメント処理からを繰り返す。また、グループ変数kが最大値を超えていれば(S512におけるYES)、当該特定物決定処理を終了する。こうして、グループ化された対象物が正式に特定物として決定される。
(ホワイトバランス準備処理S310)
図14を参照すると、輝度特定部168は、先行車両や車両1前方の特定物の位置に基づいて鉛直方向に制限された所定領域216を導出し、その所定領域216内の道路面212の任意の対象部位を検出対象として設定する(S550)。続いて、輝度特定部168は、位置情報取得部166による対象部位の相対距離を参照して、輝度取得部160が取得した輝度の中から道路面212および中央線210を抽出し、道路面212の輝度および参照部位としての中央線210の輝度を特定する(S552)。そして、特定した道路面212の輝度および中央線210の輝度を、次回以降にホワイトバランス導出部162に利用させるため、データ保持部152に保持させる(S554)。
以上、説明したように、環境認識装置130によれば、道路面212の輝度の変化が環境光によるものか道路面212自体の着色によるものかを高精度に検出し、応答遅延を伴うことなく、適切にホワイトバランス補正を実現することが可能となる。
また、コンピュータを、環境認識装置130として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
上述した実施形態においては、まず、対象部位の補正輝度をいずれかの特定物に排他的に対応付け、対象部位をグループ化した対象物の大きさがその特定物として妥当であるか判定する例を挙げた。しかし、このような場合に限らず、特定物、補正輝度、大きさのいずれを基準にして判定してもよく、また、その判定順も任意に決定することが可能である。
また、上述した実施形態においては、対象物の三次元位置を複数の撮像装置110を用い画像データ間の視差に基づいて導出しているが、かかる場合に限られず、例えば、レーザレーダ測距装置等、既知の様々な距離測定装置を用いることができる。ここで、レーザレーダ測距装置は、検出領域122にレーザビームを投射し、このレーザビームが物体に当たって反射してくる光を受光し、この所要時間から物体までの距離を測定するものである。
また、上述した実施形態では、位置情報取得部166が、画像処理装置120から距離画像(視差情報)126を受けて三次元の位置情報を生成している例を挙げている。しかし、かかる場合に限られず、画像処理装置120において予め三次元の位置情報を生成し、位置情報取得部166は、その生成された三次元の位置情報を取得するとしてもよい。このようにして、機能分散を図り、環境認識装置130の処理負荷を軽減することが可能となる。
また、上述した実施形態においては、輝度取得部160、ホワイトバランス導出部162、ホワイトバランス実行部164、位置情報取得部166、輝度特定部168、特定物仮決定部170、グループ化部172、特定物決定部174、パターンマッチング部176は中央制御部154によってソフトウェアで動作するように構成している。しかし、上記の機能部をハードウェアによって構成することも可能である。
また、特定物決定部174は、例えば対象物の大きさが特定物の幅範囲204に含まれることをもって特定物と決定しているが、かかる場合に限らず、さらに、他の様々な条件を満たしている場合に特定物として決定してもよい。例えば、対象物中における水平方向および鉛直方向の相対距離の推移がほぼ等しい(連続する)場合や、z座標に対する相対移動速度が等しい場合に特定物とする。このとき対象物中における水平方向および鉛直方向の相対距離の推移は、ハフ変換あるいは最小二乗法による近似直線によって特定することができる。
なお、本明細書の環境認識方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
本発明は、検出領域における対象物の輝度に基づいて、その対象物を認識する環境認識装置および環境認識方法に利用することができる。
1 …車両
122 …検出領域
124 …輝度画像
126 …距離画像
130 …環境認識装置
152 …データ保持部
160 …輝度取得部
162 …ホワイトバランス導出部
164 …ホワイトバランス実行部
166 …位置情報取得部
168 …輝度特定部
170 …特定物仮決定部
172 …グループ化部
174 …特定物決定部
176 …パターンマッチング部
200 …特定物テーブル
202 …輝度範囲
220 …特定物マップ

Claims (11)

  1. 輝度の範囲と特定物とを対応付けて保持するデータ保持部と、
    検出領域内に存在する対象部位の輝度を取得する輝度取得部と、
    取得された前記輝度の中から道路面の輝度および該道路面以外の所定の参照部位の輝度を特定する輝度特定部と、
    前記道路面の輝度が所定色として認識できるように、ホワイトバランス補正値を導出するホワイトバランス導出部と、
    取得された前記輝度に、前記ホワイトバランス補正値によるホワイトバランス補正を施して補正輝度を導出するホワイトバランス実行部と、
    前記データ保持部に保持された対応付けに基づいて、前記対象部位の補正輝度から、該対象部位に対応する特定物を仮決定する特定物仮決定部と、
    を備え、
    前記ホワイトバランス導出部は、前記参照部位の輝度が第2所定値以上変化していない状態において前記道路面の輝度が第1所定値以上変化し、該道路面の変化後の輝度が前記所定色でなければ、変化時点から、該道路面の輝度が該所定色に戻るまで、変化する前のホワイトバランス補正値を維持することを特徴とする環境認識装置。
  2. 前記参照部位は、前記検出領域内における道路面上の走行路を制限する線であることを特徴とする請求項1に記載の環境認識装置。
  3. 前記道路面は、前記参照部位に基づいて、該参照部位の近傍領域とすることを特徴とする請求項2に記載の環境認識装置。
  4. 前記ホワイトバランス導出部は、前記検出領域中の所定の第1部分領域の相異なる時刻における、前記道路面の輝度および前記参照部位の輝度を求めることで、その変化を導出することを特徴とする請求項1から3のいずれか1項に記載の環境認識装置。
  5. 前記ホワイトバランス導出部は、前記検出領域中の所定の第1部分領域、および、前記検出領域中の、該第1部分領域と高さ方向に離隔した第2部分領域それぞれにおける、前記道路面の輝度および前記参照部位の輝度を求めることで、その変化を導出することを特徴とする請求項1から3のいずれか1項に記載の環境認識装置。
  6. 前記ホワイトバランス導出部は、前記道路面における輝度が最大または最小となる色相それぞれの差分値同士の差分が第3所定値以上であれば輝度が変化したと判定することを特徴とする請求項1から5のいずれか1項に記載の環境認識装置。
  7. 前記ホワイトバランス導出部は、前記道路面の色相毎の輝度の最大値を求め、該輝度が最大値となった色相と異なる色相の輝度が該最大値となるような比率を前記ホワイトバランス補正値とすることを特徴とする請求項1から6のいずれか1項に記載の環境認識装置。
  8. 前記ホワイトバランス導出部は、前記道路面の色相毎の輝度が2番目に大きい値を求め、該輝度が2番目に大きい色相と異なる色相の輝度が該2番目に大きい値となるような比率を前記ホワイトバランス補正値とすることを特徴とする請求項1から6のいずれか1項に記載の環境認識装置。
  9. 前記ホワイトバランス導出部は、前記道路面の色相毎の輝度の最小値を求め、該輝度が最小値となった色相と異なる色相の輝度が該最小値となるような比率を前記ホワイトバランス補正値とすることを特徴とする請求項1から6のいずれか1項に記載の環境認識装置。
  10. 前記輝度特定部は、前記検出領域内のうち、先行車両または車両前方の特定物の位置に基づいて鉛直方向に制限された所定領域から前記道路面の輝度および前記参照部位の輝度を特定することを特徴とする請求項1から9のいずれか1項に記載の環境認識装置。
  11. 検出領域内に存在する対象部位の輝度を取得し、
    取得した前記輝度の中から道路面の輝度および該道路面以外の所定の参照部位の輝度を特定し、
    前記参照部位の輝度が第2所定値以上変化していない状態において前記道路面の輝度が第1所定値以上変化し、前記道路面の変化後の輝度が所定色でなければ、変化時点から、前記道路面の輝度が前記所定色に戻るまで、変化する前のホワイトバランス補正値を維持し、それ以外では、該道路面の輝度が所定色として認識できるように、ホワイトバランス補正値を導出し、
    取得した前記輝度に、前記ホワイトバランス補正値によるホワイトバランス補正を施して補正輝度を導出し、
    データ保持部に保持された、輝度の範囲と特定物との対応付けに基づいて、前記対象部位の補正輝度から、前記対象部位に対応する特定物を仮決定することを特徴とする環境認識方法。
JP2011107688A 2011-05-12 2011-05-12 環境認識装置および環境認識方法 Active JP5272041B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011107688A JP5272041B2 (ja) 2011-05-12 2011-05-12 環境認識装置および環境認識方法
US13/455,543 US8737689B2 (en) 2011-05-12 2012-04-25 Environment recognition device and environment recognition method
DE102012103724.8A DE102012103724B4 (de) 2011-05-12 2012-04-27 Umgebungserkennungsvorrichtung und Umgebungserkennungsverfahren
CN201210138539.4A CN102975677B (zh) 2011-05-12 2012-05-07 环境识别装置及环境识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011107688A JP5272041B2 (ja) 2011-05-12 2011-05-12 環境認識装置および環境認識方法

Publications (2)

Publication Number Publication Date
JP2012238239A JP2012238239A (ja) 2012-12-06
JP5272041B2 true JP5272041B2 (ja) 2013-08-28

Family

ID=47070665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011107688A Active JP5272041B2 (ja) 2011-05-12 2011-05-12 環境認識装置および環境認識方法

Country Status (4)

Country Link
US (1) US8737689B2 (ja)
JP (1) JP5272041B2 (ja)
CN (1) CN102975677B (ja)
DE (1) DE102012103724B4 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2447672B (en) 2007-03-21 2011-12-14 Ford Global Tech Llc Vehicle manoeuvring aids
US8346426B1 (en) * 2010-04-28 2013-01-01 Google Inc. User interface for displaying internal state of autonomous driving system
US8260482B1 (en) 2010-04-28 2012-09-04 Google Inc. User interface for displaying internal state of autonomous driving system
US9102271B2 (en) 2011-04-19 2015-08-11 Ford Global Technologies, Llc Trailer monitoring system and method
US9283892B2 (en) 2011-04-19 2016-03-15 Ford Global Technologies, Llc Method and system for monitoring placement of a target on a trailer
US9102272B2 (en) 2011-04-19 2015-08-11 Ford Global Technologies, Llc Trailer target monitoring system and method
US9290204B2 (en) 2011-04-19 2016-03-22 Ford Global Technologies, Llc Hitch angle monitoring system and method
US9926008B2 (en) 2011-04-19 2018-03-27 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9854209B2 (en) 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US8930140B2 (en) 2011-04-19 2015-01-06 Ford Global Technologies, Llc Trailer target placement assist system and method
US9969428B2 (en) 2011-04-19 2018-05-15 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9374562B2 (en) 2011-04-19 2016-06-21 Ford Global Technologies, Llc System and method for calculating a horizontal camera to target distance
US10196088B2 (en) 2011-04-19 2019-02-05 Ford Global Technologies, Llc Target monitoring system and method
US9555832B2 (en) 2011-04-19 2017-01-31 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9500497B2 (en) 2011-04-19 2016-11-22 Ford Global Technologies, Llc System and method of inputting an intended backing path
US9296422B2 (en) 2011-04-19 2016-03-29 Ford Global Technologies, Llc Trailer angle detection target plausibility
US9723274B2 (en) 2011-04-19 2017-08-01 Ford Global Technologies, Llc System and method for adjusting an image capture setting
US9506774B2 (en) 2011-04-19 2016-11-29 Ford Global Technologies, Llc Method of inputting a path for a vehicle and trailer
US8825258B2 (en) 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
US9592851B2 (en) 2013-02-04 2017-03-14 Ford Global Technologies, Llc Control modes for a trailer backup assist system
US9511799B2 (en) 2013-02-04 2016-12-06 Ford Global Technologies, Llc Object avoidance for a trailer backup assist system
CN104132643A (zh) * 2013-08-27 2014-11-05 赵大宇 地形与环境安全识别***
US9352777B2 (en) 2013-10-31 2016-05-31 Ford Global Technologies, Llc Methods and systems for configuring of a trailer maneuvering system
US9464886B2 (en) 2013-11-21 2016-10-11 Ford Global Technologies, Llc Luminescent hitch angle detection component
US9464887B2 (en) 2013-11-21 2016-10-11 Ford Global Technologies, Llc Illuminated hitch angle detection component
US9296421B2 (en) 2014-03-06 2016-03-29 Ford Global Technologies, Llc Vehicle target identification using human gesture recognition
US9233710B2 (en) 2014-03-06 2016-01-12 Ford Global Technologies, Llc Trailer backup assist system using gesture commands and method
CN104184943B (zh) * 2014-07-29 2016-03-30 小米科技有限责任公司 图像拍摄方法与装置
US9779314B1 (en) 2014-08-21 2017-10-03 Waymo Llc Vision-based detection and classification of traffic lights
US10112537B2 (en) 2014-09-03 2018-10-30 Ford Global Technologies, Llc Trailer angle detection target fade warning
US9522677B2 (en) 2014-12-05 2016-12-20 Ford Global Technologies, Llc Mitigation of input device failure and mode management
US9533683B2 (en) 2014-12-05 2017-01-03 Ford Global Technologies, Llc Sensor failure mitigation system and mode management
US9607242B2 (en) 2015-01-16 2017-03-28 Ford Global Technologies, Llc Target monitoring system with lens cleaning device
CN107210020B (zh) * 2015-01-30 2020-07-14 日立乐金光科技株式会社 激光投射显示装置和该装置中使用的激光光源驱动部的控制方法
US9896130B2 (en) 2015-09-11 2018-02-20 Ford Global Technologies, Llc Guidance system for a vehicle reversing a trailer along an intended backing path
US9836060B2 (en) 2015-10-28 2017-12-05 Ford Global Technologies, Llc Trailer backup assist system with target management
US9934563B2 (en) 2015-10-29 2018-04-03 Empire Technology Development Llc 3D object rotation-based mechanical parts selection through 2D image processing
JP6211113B2 (ja) * 2016-02-03 2017-10-11 三菱電機株式会社 車両接近検出装置
JP6791645B2 (ja) * 2016-03-29 2020-11-25 本田技研工業株式会社 光通信装置、光通信システム、および光通信方法
JP6706792B2 (ja) * 2016-03-31 2020-06-10 パナソニックIpマネジメント株式会社 車載用表示装置
US10112646B2 (en) 2016-05-05 2018-10-30 Ford Global Technologies, Llc Turn recovery human machine interface for trailer backup assist
US10710585B2 (en) 2017-09-01 2020-07-14 Ford Global Technologies, Llc Trailer backup assist system with predictive hitch angle functionality
CN114609780B (zh) * 2020-12-09 2023-09-29 博泰车联网科技(上海)股份有限公司 Hud显示方法及显示装置、车辆、介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5420630A (en) * 1992-09-11 1995-05-30 Canon Kabushiki Kaisha Image pickup apparatus performing white balance control based on data from regions of a frame
JP3349060B2 (ja) 1997-04-04 2002-11-20 富士重工業株式会社 車外監視装置
JP3399506B2 (ja) * 1998-12-22 2003-04-21 アイシン・エィ・ダブリュ株式会社 車両用ナビゲーション装置
JP3782322B2 (ja) * 2001-07-11 2006-06-07 株式会社日立製作所 車載用画像処理カメラ装置
JP2006201548A (ja) * 2005-01-21 2006-08-03 Victor Co Of Japan Ltd 画像投射装置及び画像投射方法
JP4635695B2 (ja) * 2005-04-18 2011-02-23 トヨタ自動車株式会社 画像認識装置及び画像認識方法
JP4414369B2 (ja) * 2005-06-03 2010-02-10 本田技研工業株式会社 車両及び路面標示認識装置
JP2007034693A (ja) * 2005-07-27 2007-02-08 Denso Corp 安全運転支援装置
JP4595759B2 (ja) * 2005-09-09 2010-12-08 株式会社デンソー 環境認識装置
JP2007164737A (ja) * 2005-12-16 2007-06-28 Mitsubishi Heavy Ind Ltd 色識別方法
JP2008003331A (ja) * 2006-06-22 2008-01-10 Olympus Corp 顕微鏡装置
JP2008098858A (ja) * 2006-10-10 2008-04-24 Auto Network Gijutsu Kenkyusho:Kk 車両周辺監視装置
JP2009171122A (ja) * 2008-01-15 2009-07-30 Denso Corp 光源色温度推定方法、ホワイトバランス調整装置、及び画像認識装置
JP4797049B2 (ja) * 2008-08-11 2011-10-19 日立オートモティブシステムズ株式会社 道路標示認識装置
JP2010103672A (ja) * 2008-10-22 2010-05-06 Ricoh Co Ltd 撮像装置
JP5254102B2 (ja) * 2009-03-24 2013-08-07 富士重工業株式会社 環境認識装置
JP5180126B2 (ja) * 2009-03-24 2013-04-10 富士重工業株式会社 道路認識装置
WO2010116922A1 (ja) * 2009-04-07 2010-10-14 コニカミノルタオプト株式会社 画像入力装置
JP2010272934A (ja) * 2009-05-19 2010-12-02 Fuji Heavy Ind Ltd カラーバランス調整装置

Also Published As

Publication number Publication date
US8737689B2 (en) 2014-05-27
JP2012238239A (ja) 2012-12-06
DE102012103724B4 (de) 2015-02-05
CN102975677B (zh) 2015-05-13
DE102012103724A1 (de) 2012-11-15
CN102975677A (zh) 2013-03-20
US20120288156A1 (en) 2012-11-15

Similar Documents

Publication Publication Date Title
JP5272041B2 (ja) 環境認識装置および環境認識方法
JP5537492B2 (ja) 環境認識装置
JP5386538B2 (ja) 環境認識装置
JP5386537B2 (ja) 環境認識装置
JP5272042B2 (ja) 環境認識装置および環境認識方法
JP2012226689A (ja) 環境認識装置および環境認識方法
JP5537491B2 (ja) 環境認識装置
JP5386539B2 (ja) 環境認識装置
JP5666538B2 (ja) 車外環境認識装置
JP5499011B2 (ja) 車外環境認識装置および車外環境認識方法
JP5276140B2 (ja) 環境認識装置および環境認識方法
JP5592308B2 (ja) 環境認識装置
JP5798011B2 (ja) 車外環境認識装置
JP5548667B2 (ja) 車外環境認識装置
JP6378594B2 (ja) 車外環境認識装置
JP2015096390A (ja) 他車両検出装置及び他車両検出方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130513

R150 Certificate of patent or registration of utility model

Ref document number: 5272041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250