JP5423631B2 - 画像認識装置 - Google Patents

画像認識装置 Download PDF

Info

Publication number
JP5423631B2
JP5423631B2 JP2010214052A JP2010214052A JP5423631B2 JP 5423631 B2 JP5423631 B2 JP 5423631B2 JP 2010214052 A JP2010214052 A JP 2010214052A JP 2010214052 A JP2010214052 A JP 2010214052A JP 5423631 B2 JP5423631 B2 JP 5423631B2
Authority
JP
Japan
Prior art keywords
image
contrast
learning model
pedestrian
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010214052A
Other languages
English (en)
Other versions
JP2012068965A (ja
Inventor
展彦 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2010214052A priority Critical patent/JP5423631B2/ja
Publication of JP2012068965A publication Critical patent/JP2012068965A/ja
Application granted granted Critical
Publication of JP5423631B2 publication Critical patent/JP5423631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

撮像手段によって生成される画像から検知対象物を表す画像を検知する画像認識装置に関する。
従来、カメラ等の撮像手段によって生成された画像から、人間又は人間の顔等の検知対象物を表す画像を検知する画像認識の技術が知られている(例えば特許文献1及び特許文献2)。
このような技術の一種として、例えば特許文献1には、対象物検知装置及び学習用データベース生成装置が開示されている。対象物検知装置は、車両の周辺領域を撮影する画像入力装置と、検出用辞書を記憶する検出用辞書記憶装置と、画像入力装置によって撮像された画像から検出用辞書に基づいて対象物の画像を検知する識別装置と、を備えている。一方、学習用データベース生成装置は、上述した検出用辞書記憶装置に記憶される検出用辞書を、予め撮像された複数の画像を用いて作成する。このように、複数の画像を用いて作成した検出用辞書に基づくことにより、対象物検知装置の識別装置は、撮像された画像から対象物の画像を精度良く検知できるようになる。
また、特許文献2に開示の顔認識装置は、人物の顔を撮影するためのカメラと、複数の辞書情報を記憶する辞書情報保持部と、複数の辞書情報のうちの一つを選択する辞書切換部と、カメラによって撮像された画像から選択された辞書情報に基づいて顔の画像を検知する認識部と、を備えている。さらに特許文献2に開示の顔認識装置は、カメラによる画像が、顔の画像の検知に適切な照明環境下で撮影されたか否かを、当該画像の明るさに基づいて判定する照明環境判定部を備えている。この顔認識装置は、カメラによる画像を辞書情報として辞書情報保持部に蓄積する際、照明環境判定部による判定結果を属性情報として画像に付加する。
以上の構成により、特許文献2に開示の顔認識装置では、辞書切換部は、画像を撮影した際の照明環境の判定結果を照明環境判定部から取得し、当該判定結果に類似する辞書情報を、複数の辞書情報ら選択する。認識部は、類似した属性情報が付加された辞書情報に基づくことにより、カメラによって撮影された人物の顔を的確に検知できるようになる。
特開2007−272420号公報 特開2005−84815号公報
さて、特許文献2に開示の顔認識装置が備えるカメラと異なり、特許文献1に開示の対象物検知装置に用いられるカメラ等の画像入力装置は、車両の周辺領域の明るさに応じて撮像ゲインを変更することができる。車両に用いられる対象物検知装置では、車両の走行によって周辺領域の明るさが変化し易いためである。車両の走行によって周辺領域の明るさが変化した場合でも、カメラは、撮像ゲインを変更することにより、周辺領域の明るさに応じてコントラストの調整された画像を生成することができる。
以上のようなカメラが撮像手段として用いられた場合、撮像ゲインの変更に伴い、カメラによって撮像される周辺画像に写る検知対象物を表す画像と、背景の画像とのコントラストが変動する。特許文献1に開示の構成においては、様々なコントラストの画像を用いて検出用辞書を作成した場合、検知の精度を維持するためには、検出用辞書の容量が大きくなってしまう。すると、識別装置は、容量の増大した検出用辞書に基づいて検知を行わなければならなくなる。故に、対象物の検知が高速に行われなくなるおそれが生じてしまう。
そこで、検出用辞書の容量を低減するため、例えば特許文献2の構成のように、画像の明るさに基づいてカメラによる画像を複数の辞書情報に分類する形態を考える。しかし、画像の明るさは、検知対象物を表す画像と背景の画像とのコントラストに対応しない。例えば、全体として同じ明るさの画像であっても、暗い周辺領域を高い撮像ゲインにて撮像した画像と、明るい周辺領域を低い撮像ゲインにて撮像した画像とが存在する。前者では、検知対象物を表す画像と背景の画像とのコントラストは高くなるが、後者では、当該コントラストは低くなる。
故に、辞書切換手段が、画像の明るさの情報に類似した属性情報を有する辞書情報を選択したとしても、画像のコントラストと、辞書切換手段によって選択された辞書情報に含まれる画像のコントラストとは、互いに対応しない。このように、周辺画像のコントラストに対応した辞書情報を用いることができないので、認識部は、画像から対象物の画像を高精度に検知することができないのである。
本発明は、上記問題点に鑑みてなされたものであって、その目的は、検知対象物の検知性能が向上した画像認識装置を提供することである。
上記目的を達成するために、請求項1に記載の発明は、車両の周辺領域を撮影する撮像手段によって生成される周辺画像から、周辺領域に存在する検知対象物を表す画像を検知する画像認識装置であって、周辺領域の明るさに応じて撮像ゲインを変更することによりコントラストの調整された周辺画像、を生成する撮像手段と、学習の基準となる複数群のサンプル画像のコントラストに応じて作成された複数の事前学習モデルを記憶する記憶手段と、周辺画像を撮影した際に撮像手段が周辺領域明るさに応じて変更した撮像ゲインを撮像手段から取得し、当該撮像ゲインが高くなるほど、複数のサンプル画像群のうちでコントラストの高いサンプル画像群から作成された事前学習モデルを、記憶手段に記憶された複数の事前学習モデルから選択するモデル選択手段と、予め大きさの設定された探索ウィンドウを周辺画像の水平方向及び鉛直方向に移動させつつ、当該探索ウィンドウによって囲まれた範囲のウィンドウ画像を順に切り出すと共に、モデル選択手段によって選択される事前学習モデルに基づいて、ウィンドウ画像毎に、検知対象物を表す画像を検知する検知手段と、を備える。
この発明によれば、撮像手段においては、撮像ゲインの変更によって周辺画像のコントラストが調整されるので、撮像ゲインの情報は、周辺画像のコントラストを示す指標となる。選択手段は、この撮像ゲインの情報に対応する事前学習モデルを選択する。故に、周辺画像のコントラストと、モデル選択手段によって選択された事前学習モデルを作成する際に用いられたサンプル画像群のコントラストとが、互いに対応し得る。このように、周辺画像のコントラストに対応した事前学習モデルに基づくことによって、検知手段は、周辺画像から検知対象物を表す画像を高精度に検知できるようになる。
加えて、各事前学習モデルは、各サンプル画像群のサンプル画像のコントラストに応じて作成されている。各サンプル画像群に含まれるサンプル画像のコントラストが近似しているので、サンプル画像群毎のサンプル画像の数を抑えつつ、検知の精度を維持できる事前学習モデルが構築され得る。このようにサンプル画像の数を抑えることにより、事前学習モデルの容量は抑制される。故に、検出手段は、検知対象物を表す画像を検知するための処理を高速で行うことができるようになる。
これらにより、画像認識装置は、高精度且つ高速に検知対象物を表す画像を検知することができるようになる。したがって、画像認識装置による検知対象物の検知性能の向上が実現される。
加えてこの発明によれば、周辺領域が暗い場合、撮像手段は、撮像ゲインを高くする。これにより、コントラストの高い周辺画像が生成される。故に、撮像ゲインが高くなるほど、コントラストの高いサンプル画像群を用いて作成された事前学習モデルを選択する選択手段とすることにより、周辺画像のコントラストと、選択された事前学習モデルの作成に用いられたサンプル画像群のコントラストとが、確実に対応し得る。そして、周辺画像の高いコントラストに対応する、コントラストの高いサンプル画像群を用いて作成された事前学習モデルに基づくことによって、検知手段は、周辺画像から検知対象物を表す画像を高精度に検知できるようになる。
請求項に記載の発明では、各サンプル画像群は、検知対象物として想定されている想定物が写る想定物画像及び想定物以外の非想定物が写る非想定物画像を含み、各事前学習モデルは、想定物画像及び非想定物画像に基づいて、想定物を表す画像の特徴が学習されることにより構築されることを特徴とする。
この発明によれば、検知対象物として想定されている想定物を表す画像の特徴を、事前学習モデルに学習させるに際して、想定物の写る想定物画像及び想定物以外の非想定物の写る非想定物画像が用いられる。これにより、事前学習モデルは、想定物画像に想定物が写っていることを学習することができると共に、非想定物画像に写る非想定物が想定物でないことを学習することができる。以上の学習により、想定物と非想定物との差異を学習した事前学習モデルに基づくことによって、検知手段は、周辺画像から検知対象物を表す画像を、確実に選別して検知できるようになる。
請求項に記載の発明では、撮像手段は、周辺領域の赤外線を検出することにより、周辺画像を生成する赤外線カメラを有することを特徴とする。
この発明のように、撮像手段として赤外線カメラを有する場合、街灯及び対向車の前照灯等から放射される赤外線に起因して、当該赤外線カメラの撮像ゲインは著しく変化する。故に、周辺画像においては、検知対象物を表す画像と背景の画像とのコントラストが著しく変動する。しかし、上述した構成では、周辺画像のコントラストに対応した事前学習モデルに基づくことにより、検知手段は、周辺画像から検知対象物を表す画像を高精度に検知できる。このように、複数のサンプル画像群のコントラストに応じて作成された複数の事前学習モデルに基づくことによって検出精度を向上させる作用は、赤外線カメラにより周辺画像を生成する形態において、顕著に発揮されるのである。
本発明の一実施形態による画像認識装置の構成が概略的に示される構成図である。 画像認識回路が前方画像から歩行者を表す画像を検知するための処理を説明するための図である。 カメラゲインが高い場合の前方画像を説明するための図であって、(a)は前方画像が示される図であり、(b)及び(c)は前方画像に写る歩行者を表す画像が拡大して示される図である。 カメラゲインが中程度の場合の前方画像を説明するための図であって、(a)は前方画像が示される図であり、(b)は前方画像に写る歩行者を表す画像が拡大して示される図である。 カメラゲインが低い場合の前方画像を説明するための図であって、(a)は前方画像が示される図であり、(b)は前方画像に写る歩行者を表す画像が拡大して示される図である。 事前学習モデルについて説明するための図である。 前方画像から歩行者を表す画像を検知する画像認識回路の処理が示されるフローチャートである。
以下、本発明の一実施形態を図面に基づいて説明する。
図1には、本発明の一実施形態による画像認識装置100の構成が示されている。画像認識装置100は、図2に示されるような車両の前方領域を撮像した前方画像50から、当該前方領域に存在する歩行者等の検知対象物を表す画像50aを検知する。
図1に示されるように、画像認識装置100は、赤外線カメラ10及び画像認識回路20等によって構成されている。画像認識装置100は、表示装置40と接続されており、検知結果を当該表示装置40に出力する。
赤外線カメラ10は、近赤外線を検出することにより、可視光の少ない環境下においても撮像可能である。赤外線カメラ10は、車両の進行方向を向けて設置されており、車両の周辺領域のうち、特に車両の前方領域を撮影することができる。赤外線カメラ10は、車両の前方領域を撮影することにより、周辺画像としての前方画像50を生成する。そして赤外線カメラ10は、生成した前方画像50を、画像認識回路20及び表示装置40に逐次出力する。
画像認識回路20は、各種の演算処理を行うプロセッサ、当該演算処理に用いられるプログラム等が格納されたフラッシュメモリ、及び演算の作業領域として機能するRAM等によって構成されている。加えて画像認識回路20は、赤外線カメラ10と接続され当該赤外線カメラ10から情報を取得するインタフェースを有している。
画像認識回路20は、カメラゲイン取得部25、データベース30、最適モデル選択部27、及び歩行者認識部21を備えている。これら要素25、30、27、21は、画像認識回路20の機能ブロックである。これら要素25、30、27、21の機能は、画像認識回路20のプロセッサにおいて所定のプログラムが実行されることにより、当該画像認識回路20によって果たされる。
カメラゲイン取得部25は、赤外線カメラ10からカメラゲインを取得する。カメラゲイン取得部25は、赤外線カメラ10から画像認識回路20に出力されている前方画像50が当該赤外線カメラ10によって撮影された際のカメラゲインの情報を、赤外線カメラ10から取得する。取得したカメラゲインの情報は、カメラゲイン取得部25を通じて最適モデル選択部27に取得される。
データベース30は、複数の事前学習モデル31〜33を記憶している。これら事前学習モデル31〜33は、歩行者等の画像の特徴を学習させたものであって、後述する方法によって、学習の基準となる複数群のサンプル画像61a〜63aのコントラストに応じて作成されている。データベース30は、最適モデル選択部27と接続されており、当該最適モデル選択部27からの求めに応じて、記憶している複数の事前学習モデル31〜33のうちの一つを最適モデル選択部27に出力する。
最適モデル選択部27は、カメラゲイン取得部25を通じて取得したカメラゲインに対応する事前学習モデルを、データベース30に記憶されている複数の事前学習モデル31〜33から選択する。最適モデル選択部27は、取得したカメラゲインが高くなるほど、複数のサンプル画像群のうちでコントラストの高いものから作成された事前学習モデルを、複数の事前学習モデル31〜33から選択する。具体的に、最適モデル選択部27には、事前学習モデルを選択するためのカメラゲインの基準値が二つ予め設定されている。便宜的に、二つの基準値のうち、高い方を第一基準値、低い方を第二基準値とする。最適モデル選択部27は、取得したカメラゲインが第一基準値よりも高い場合、事前学習モデル31を選択する。最適モデル選択部27は、取得したカメラゲインが第一基準値以下であって且つ第二基準値よりも高い場合、事前学習モデル32を選択する。最適モデル選択部27は、取得したカメラゲインが第二基準値以下であった場合、事前学習モデル33を選択する。最適モデル選択部27によって選択された事前学習モデル34は、データベース30から読み出され、歩行者認識部21に出力される。
歩行者認識部21は、赤外線カメラ10、最適モデル選択部27、及び表示装置40と接続されている。歩行者認識部21は、赤外線カメラ10によって撮像された前方画像50を取得する。歩行者認識部21は、最適モデル選択部27によって選択された事前学習モデル34を取得する。歩行者認識部21は、歩行者等の検知対象物の検知結果を、表示装置40に出力する。
歩行者認識部21は、特徴量抽出部22及び照合部23を有している。
特徴量抽出部22は、前方画像50を走査し、当該前方画像50に写る物体の特徴量データを抽出する。具体的には、図2に示されるように、特徴量抽出部22は、予め大きさの設定された探索ウィンドウ55によって、赤外線カメラ10から取得する前方画像50を走査する。特徴量抽出部22は、前方画像50の水平方向及び鉛直方向に、探索ウィンドウ55を移動させつつ(図2に示される破線の矢印を参照)、当該探索ウィンドウ55によって囲まれた範囲の画像56(以下、ウィンドウ画像56)を順に切り出す。さらに特徴量抽出部22は、切り出されたウィンドウ画像56を検知処理に適した特徴量データに変換する。特徴量抽出部22は、変換された特徴量データを照合部23に逐次出力する。
照合部23は、最適モデル選択部27によって選択された事前学習モデル34に基づいて、前方画像50から歩行者を表す画像50aを検知する。具体的に照合部23は、特徴量抽出部22によって抽出された特徴量データを、選択された事前学習モデル34と照合し、当該特徴量データが選択された事前学習モデル34に学習されている歩行者を表す画像50aの特徴量データに適合するか否かを判定する。選択された事前学習モデル34に学習されている特徴量データに適合する物体が検知された場合、照合部23は、前方画像50における当該物体の位置情報を検知結果として、図1に示される表示装置40に出力する。
表示装置40は、車両室内のインスツルメントパネルの中央部等に配置される液晶ディスプレイの表示画面に種々の画像を表示することにより、運転者に種々の情報を提供する。本実施形態の表示装置40は、赤外線カメラ10と接続されており、当該赤外線カメラ10から前方画像50を取得することができる。表示装置40は、運転者等のユーザの操作に基づいて、表示画面に前方画像50を表示する。加えて表示装置40は、歩行者認識部21から取得する検出結果としての位置情報に基づいて、前方画像50における歩行者を表す画像50aを囲むように、枠状の画像を前方画像50に重畳して表示する(図3(a)等参照)。
次に、赤外線カメラ10によって撮像され、歩行者認識部21に出力される前方画像50について、図3〜5に基づいてさらに詳しく説明する。
赤外線カメラ10(図1参照)は、前方領域の明るさに応じて、カメラゲインを変更することができる。カメラゲインとは、赤外線カメラ10において光の強さを電気信号に変換する際の増幅量の大きさを示している。カメラゲインは、赤外線カメラ10の感度を示すものである。
図3に示されるのは、例えば、街灯及び交通量の少ない道路を車両が走行している等、前方領域が暗い場合に撮像される前方画像51である。前方領域が暗い場合、赤外線カメラ10は、カメラゲインを高めることにより、前方画像51のコントラストを調整する。この場合、前方画像51に写る歩行者を表す画像51a(図3(b),(c)参照)と、背景の画像とのコントラストは、高くなる。
図4に示されるのは、街灯及び交通量の比較的多い道路を車両が走行している等、図3に示される状態よりも前方領域が明るい場合に撮像される前方画像52である。前方領域が明るくなると、赤外線カメラ10は、カメラゲインを抑えることにより、街灯から放射される光及び対向車の前照灯から放射させる光等によって、前方画像52に強いハレーションが生じないように調節する。この場合、前方画像52に写る歩行者を表す画像52a(図4(b)参照)と、背景の画像とのコントラストは、前方領域が暗い場合の歩行者を表す画像51aと比較して、低くなる。
図5に示されるのは、街灯及び交通量の非常多い道路を車両が走行しているなど、図4に示される状態よりも前方領域がさらに明るい場合の前方画像53である。前方領域が明るい場合、赤外線カメラ10は、カメラゲインを低くすることにより、街灯から放射される光及び対向車の前照灯から放射させる光等によって、前方画像53に強いハレーションが生じないように調節する。この場合、前方画像53に写る歩行者を表す画像53a(図5(b)参照)と、背景の画像のコントラストは、上述した歩行者を表す画像52aと比較して、さらに低くなる。
次に、データベース30に記憶されている事前学習モデル31〜33について、図6に基づいて詳しく説明する。
図6に示されるように、事前学習モデル31〜33は、学習モデル作成装置70によって作成される。事前学習モデル31〜33を作成するため、多数のサンプル画像61a〜63aが用いられる。多数のサンプル画像61a〜63aは、各サンプル画像のコントラストに応じて、複数のサンプル画像群61〜63に分類されている。本実施形態では、事前学習モデルの数に対応し、サンプル画像61a〜63aは、コントラストが高いサンプル画像群61、コントラストが中程度のサンプル画像群62、及びコントラストが低いサンプル画像群63、という三つの画像群に分類されている。
各サンプル画像群61〜63には、検知対象物として想定されている想定物、即ち歩行者の写る想定物画像64、及び歩行者以外の悲想定物のみが写る非想定物画像(図示されない)が含まれている。非想定物とは、具体的には、歩行者以外の車両、信号機、及び標識等である。各事前学習モデル31〜33は、想定物画像及び非想定物画像に基づいて、検知対象物である歩行者を表す画像50aの特徴が学習されることにより構築される。尚、図6(a)〜(c)に示されている画像は、想定物画像の一部である。
学習モデル作成装置70は、サンプル画像を読み込み、歩行者認識部21と同様に、各サンプル画像を探索ウィンドウ55(図2参照)によって走査する。これにより、学習モデル作成装置70は、各サンプル画像からウィンドウ画像56(図2参照)を切り出す。そして、切り出されたウィンドウ画像56の特徴量データを学習する。本実施形態における学習モデル作成装置70では、特徴量データを学習するアルゴリズムとして、Adaboostアルゴリズムが使用される。
学習モデル作成装置70は、特徴量データに重み付けをすることにより、歩行者を表す画像50aの特徴を事前学習モデル31に学習させる。具体的には、学習モデル作成装置70は、想定物画像64から抽出される特徴量データの重み付けを増やす。一方で、学習モデル作成装置70は、非想定物画像から抽出されてしまう特徴量データの重み付けを減らす。このように、多数の想定物画像64及び非想定物画像を読み込むことにより、学習モデル作成装置70は、歩行者が写っている画像に対しては強い反応を示し、歩行者が写っていない画像に対しては反応を示さないか又は弱い反応しか示さない、識別器としての事前学習モデル31〜33が作成される。
これらの事前学習モデル31〜33を作成する際、目標とする認識率及び誤認識率が予め設定される。認識率とは、事前学習モデルが想定物画像64を正しく想定物画像64と認識できる確率である。誤認識率とは、非想定物画像を誤って想定物画像64と認識してしまう確率である。目標として設定された認識率を上回り、且つ目標として設定された誤認識率を下回るようになるまで学習モデル作成装置70にサンプル画像61a〜63aを読み込ませることにより、歩行者を表す画像50aの特徴を学習した事前学習モデル31〜33が作成される。
ここまで説明した学習モデル作成装置70に、分類された各サンプル画像群61〜63を読み込ませることにより、各事前学習モデル31〜33が作成される。コントラストの強いサンプル画像群61からは、カメラゲインが高いことにより歩行者を表す画像50aと背景の画像とのコントラストが高くなる場合に選択される事前学習モデル31が生成される。コントラストが中程度のサンプル画像群62からは、カメラゲインが中程度である場合に選択される事前学習モデル32が生成される。コントラストの低いサンプル画像群63からは、カメラゲインが低いことにより歩行者を表す画像50aと背景の画像とのコントラストが低い場合に選択される事前学習モデル33が生成される。以上により、照合部23は、カメラゲインが高い場合、コントラストの高いサンプル画像群61を用いて作成された事前学習モデル31に基づいて、前方画像50から歩行者を表す画像50aを検知することができる。一方照合部23は、カメラゲインが低い場合、コントラストの低いサンプル画像群63を用いて作成された事前学習モデル33に基づいて、前方画像50から歩行者を表す画像50aを検知することができる。
上述した事前学習モデル31〜33を生成する際に設定される認識率及び誤認識率の目標値は、事前学習モデル31〜33毎に異なっていてもよい。認識率は、事前学習モデルを作成するためのサンプル画像のコントラストが高くなるほど、高い値が設定されてよい。一方、誤認識率は、事前学習モデルを作成するためのサンプル画像のコントラストが低くなるほど、低い値が設定されてよい。
サンプル画像のコントラストが高ければ、歩行者を表す画像50aと背景の画像との輪郭が明確になる。故に、認識率の目標値が高く設定されても、又は、誤認識率の目標値が低く設定されても、これらの目標値を達成する事前学習モデル31が作成され得る。
一方、サンプル画像のコントラストが低い場合、歩行者を表す画像50aと背景の画像との輪郭が曖昧になる。故に、認識率の目標値が高すぎると、又は誤認識率の目標値が低すぎると、事前学習モデルの作成が困難になる場合がある。加えて、事前学習モデルが作成された場合でも、事前学習モデル33の容量が増大してしまう。故に、サンプル画像のコントラストが低い場合には、サンプル画像のコントラストが高い場合よりも、認識率及び誤認識率の目標値は緩和されるのがよいのである。
次に、画像認識装置100が、前方画像50から歩行者を表す画像50aを検知する処理について、図7に基づいて詳しく説明する。以下説明する処理は、例えば、表示装置40に前方画像50を表示させるための操作をユーザが行うことにより、画像認識回路20によって実施される。画像認識回路20による処理は、表示装置40への前方画像50の表示を停止する操作をユーザが行うまで繰り返される。
S101では、歩行者認識部21によって、赤外線カメラ10から前方画像50を取得し、S102に進む。S102では、カメラゲイン取得部25によって、赤外線カメラ10からカメラゲインを取得し、S103に進む。
S103では、S102において取得したカメラゲイン対応する事前学習モデルを、最適モデル選択部27によって選択し、S104に進む。最適モデル選択部27によって選択された事前学習モデル34は、歩行者認識部21の照合部23に出力される。
S104では、探索ウィンドウ55によって前方画像50からウィンドウ画像56を順に切り出す。そして、切り出された各ウィンドウ画像56から、特徴量抽出部22によって、特徴量データを抽出し、S105に進む。抽出された特徴量データは、特徴量抽出部22から照合部23に出力される。
S105では、S104において抽出された特徴量データを、S103において選択された事前学習モデル34に学習されている歩行者を表す画像50aの特徴量データと照合し、S106に進む。S105では、歩行者を表す画像50aの特徴量データに適合するウィンドウ画像56が検知された場合、前方画像50における当該ウィンドウ画像56の位置情報を記憶する。
S106では、S105における照合の結果に基づき、前方画像50から検知対象物である歩行者を表す画像50aを検知したか否かを判定する。S106において、歩行者を表す画像50aを検知していないと判定した場合、S101に戻る。一方、S106において、前方画像50から歩行者を表す画像50aを検知していると判定した場合、S107に進む。
S107では、S105において記憶した、ウィンドウ画像56の位置情報を検知結果として表示装置40に出力し、S101に戻る。表示装置40は、照合部23から取得した位置情報に基づいて、歩行者を表す画像50aを枠状の画像で囲んだ表示を、表示画面に映し出す。
ここまで説明した本実施形態では、カメラゲインの情報は、前方画像50のコントラストを示す指標となる。故に、前方画像50のコントラストと、カメラゲインに応じて選択された事前学習モデル34を作成する際に用いられたサンプル画像群のコントラストとが、互いに対応し得る。このように、前方画像50のコントラストに対応した事前学習モデル34に基づくことによって、歩行者認識部21は、前方画像50から検知対象物である歩行者を表す画像50aを高精度に検知できるようになる。
加えて、各事前学習モデル31〜33は、コントラストに応じて分類された各サンプル画像群61〜63から作成されている。各サンプル画像群61〜63に含まれるサンプル画像61a〜63aのコントラストが近似しているので、サンプル画像群61〜63毎のサンプル画像の数を抑えつつ、検知の精度を維持できる事前学習モデル31〜33が構築され得る。このようにサンプル画像61a〜63aの数を抑えることにより、事前学習モデル31〜33の容量は抑制される。故に、照合部23は、歩行者を表す画像50aを検知するための処理を高速で行うことができるようになる。
これらにより、画像認識装置100は、高精度且つ高速に歩行者を表す画像50aを検知することができるようになる。したがって、画像認識装置100による検知対象物の検知性能の向上が実現される。
加えて本実施形態では、最適モデル選択部27は、カメラゲインが高くなるほど、コントラストの高いサンプル画像郡61を用いて作成された事前学習モデルを選択する。カメラゲインが高くなるほど前方画像50のコントラストも高くなるので、前方画像50のコントラストと、選択された事前学習モデル34の作成に用いられたサンプル画像群61のコントラストとが、確実に対応し得る。そして、前方画像50のコントラストが高い場合には、コントラストの高いサンプル画像群61を用いて作成された事前学習モデル31に基づくことによって、前方画像50のコントラストが低い場合には、コントラストの低いサンプル画像群63を用いて作成された事前学習モデル33に基づくことによって、歩行者認識部21は、前方画像50から歩行者を表す画像50aを高精度に検知できるようになる。
また本実施形態では、検知対象物として想定されている歩行者を表す画像50aの特徴を事前学習モデル31〜33に学習させるに際して、想定物画像64及び非想定物画像が用いられてうた。これにより、各事前学習モデル31〜33は、想定物画像64に歩行者が写っていることを学習できると共に、非想定物画像に写るものが歩行者でないことを学習できていた。以上の学習により、歩行者と歩行者以外のものとの差異を学習した各事前学習モデル31〜33に基づくことによって、歩行者認識部21は、前方画像50から歩行者を表す画像50aを、確実に選別して検知できるようになる。
さらに本実施形態では、コントラストの高いサンプル画像群61を用いて作成される事前学習モデル31は、コントラストの低いサンプル画像群63を用いて作成される事前学習モデル33よりも、モデル作成時の認識率及び誤認識率の目標値が厳しく設定されている。故に、カメラゲインが高い場合には、歩行者認識部21は、厳しい目標値を達成した事前学習モデル31に基づくことによって、歩行者を表す画像51aを確実に検知することができる。一方、カメラゲインが低い場合には、歩行者認識部21は、目標値の緩和によって容量の抑制された事前学習モデル33に基づくことによって、歩行者を表す画像53aを高速に検知し得る。これらのように、画像認識装置100は、検知の精度と処理の早さとの両立が図られる。
さらに本実施形態で用いられる赤外線カメラ10は、街灯及び対向車の前照灯等から放射される赤外線に起因して、カメラゲインが著しく変化する。故に、前方画像50においては、歩行者を表す画像50aと背景の画像とのコントラストも著しく変動する。しかし、上述した構成では、前方画像50のコントラストに対応した事前学習モデル31〜33に基づくことにより、歩行者認識部21は、前方画像50から歩行者を表す画像50aを高精度に検知できるようになる。このように、複数のサンプル画像群61〜63のコントラストに応じて作成された複数の事前学習モデル31〜33に基づくことによって検出精度を向上させる作用は、赤外線カメラ10により前方画像50を生成する形態において、顕著に発揮されるのである。
尚、本実施形態において、赤外線カメラ10が特許請求の範囲に記載の「撮像手段」に相当し、歩行者認識部21が特許請求の範囲に記載の「検知手段」に相当し、カメラゲイン取得部25及び最適モデル選択部27が特許請求の範囲に記載の「モデル選択手段」に相当し、データベース30が特許請求の範囲に記載の「記憶手段」に相当し、前方画像50〜53が特許請求の範囲に記載の「周辺画像」に相当し、歩行者を表す画像50a〜53aが特許請求の範囲に記載の「検知対象物を表す画像」に相当し、カメラゲインが特許請求の範囲に記載の「撮像ゲイン」に相当する。
(他の実施形態)
以上、本発明による一実施形態について説明したが、本発明は上記実施形態に限定して解釈されるものではなく、その要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
上記実施形態において、最適モデル選択部27は、サンプル画像61a〜63aのコントラストに応じて作成された三つの事前学習モデル31〜33から、一つを選択していた。しかし、データベース30に記憶される事前学習モデルの数は、三つに限定されない。例えば、データベース30に記憶される事前学習モデルは、二つであってもよく、又は四つ以上であってもよい。
上記実施形態において、最適モデル選択部27は、取得したカメラゲインに対応する事前学習モデルを選択していた。しかし、最適モデル選択部27は、カメラゲインと共に、他の情報に基づいて、事前学習モデルを選択してもよい。例えば、前方画像50における歩行者を表す画像50aの写り方は、降雨や積雪等の車両周囲の気象条件によっても変化する場合がある。故に、移動体通信網等の車両の外部との通信が可能な通信機、或いはレインセンサ等と接続され、気象情報を取得する気象情報取得手段を画像認識装置に設ける。この気象情報取得手段によって、画像認識装置は、降雨情報及び積雪情報等を取得できるようになる。そしてさらに、カメラゲインと共に気象情報にも対応する事前学習モデルを学習モデル作成装置70に作成させ、データベース30に記憶させておく。以上の構成によって、画像認識装置は、種々の気象条件下においても、前方画像50から的確に歩行者を表す画像50aを検知することができるようになる。
上記実施形態において、各事前学習モデル31〜33に、歩行者を表す画像50aの特徴量データを学習させるアルゴリズムとして、Adaboostアルゴリズムが使用されていた。しかし、各事前学習モデル31〜33に特徴量データを学習させるために、種々の手法が用いられてよい。例えば、ニューラルネットワークを用いた特徴量の学習方法等が、事前学習モデルの作成に用いられてもよい。
上記実施形態において、各事前学習モデル31を作成する際の、認識率及び誤認識率の目標値は、各サンプル画像群61〜63のコントラストに応じて変更されていた。しかし、これら認識率及び誤認識率は、各サンプル画像群61〜63のコントラストにかかわらず、一定の値であってもよい。
上記実施形態では、前方画像50を撮像するための撮像手段として、赤外線カメラ10が用いられていた。しかし、前方画像50を撮像することができれば、撮像手段は、赤外線カメラ10に限定されない。例えば、可視光線を用いて撮像する可視光カメラが、撮像手段であってもよい。又は、撮像手段は、赤外線カメラ及び可視光カメラを共に有していてもよい。
上記実施形態では、画像認識装置100は、検知対象物として歩行者を検知していた。しかし、画像認識装置によって検知される検知対象物は、歩行者に限定されない。例えば、車両、自転車又は二輪車に搭乗する人間、及び鹿や猪等の動物等が検知対象物として設定されていてもよい。
10 赤外線カメラ(撮像手段)、20 画像認識回路、21 歩行者認識部(検知手段)、22 特徴量抽出部、23 照合部、25 カメラゲイン取得部(モデル選択手段)、27 最適モデル選択部(モデル選択手段)、30 データベース(記憶手段)、31〜34 事前学習モデル、40 表示装置、50〜53 前方画像(周辺画像)、50a〜53a 歩行者を表す画像、55 探索ウィンドウ、56 ウィンドウ画像、61〜63 サンプル画像群、61a〜63a サンプル画像、64 想定物画像、70 学習モデル作成装置、100 画像認識装置

Claims (3)

  1. 車両の周辺領域を撮影する撮像手段によって生成される周辺画像から、前記周辺領域に存在する検知対象物を表す画像を検知する画像認識装置であって、
    前記周辺領域の明るさに応じて撮像ゲインを変更することによりコントラストの調整された前記周辺画像、を生成する前記撮像手段と、
    学習の基準となる複数群のサンプル画像のコントラストに応じて作成された複数の事前学習モデルを記憶する記憶手段と、
    前記周辺画像を撮影した際に前記撮像手段が前記周辺領域明るさに応じて変更した前記撮像ゲインを前記撮像手段から取得し、当該撮像ゲインが高くなるほど、前記複数のサンプル画像群のうちでコントラストの高い前記サンプル画像群から作成された前記事前学習モデルを、前記記憶手段に記憶された複数の前記事前学習モデルから選択するモデル選択手段と、
    予め大きさの設定された探索ウィンドウを前記周辺画像の水平方向及び鉛直方向に移動させつつ、当該探索ウィンドウによって囲まれた範囲のウィンドウ画像を順に切り出すと共に、前記モデル選択手段によって選択される前記事前学習モデルに基づいて、前記ウィンドウ画像毎に、前記検知対象物を表す画像を検知する検知手段と、
    を備えることを特徴とする画像認識装置。
  2. 各前記サンプル画像群は、前記検知対象物として想定されている想定物が写る想定物画像及び前記想定物以外の非想定物が写る非想定物画像を含み、
    各前記事前学習モデルは、前記想定物画像及び前記非想定物画像に基づいて、前記想定物を表す画像の特徴が学習されることにより構築されることを特徴とする請求項1に記載の画像認識装置。
  3. 前記撮像手段は、前記周辺領域の赤外線を検出することにより、前記周辺画像を生成する赤外線カメラを有することを特徴とする請求項1又は2に記載の画像認識装置
JP2010214052A 2010-09-24 2010-09-24 画像認識装置 Active JP5423631B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010214052A JP5423631B2 (ja) 2010-09-24 2010-09-24 画像認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010214052A JP5423631B2 (ja) 2010-09-24 2010-09-24 画像認識装置

Publications (2)

Publication Number Publication Date
JP2012068965A JP2012068965A (ja) 2012-04-05
JP5423631B2 true JP5423631B2 (ja) 2014-02-19

Family

ID=46166153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010214052A Active JP5423631B2 (ja) 2010-09-24 2010-09-24 画像認識装置

Country Status (1)

Country Link
JP (1) JP5423631B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10846840B2 (en) 2016-10-20 2020-11-24 Denso Corporation Image recognition device

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9221461B2 (en) * 2012-09-05 2015-12-29 Google Inc. Construction zone detection using a plurality of information sources
US9195914B2 (en) 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
JP6589741B2 (ja) * 2016-05-25 2019-10-16 株式会社デンソー 画像処理装置
JP6878025B2 (ja) * 2017-02-03 2021-05-26 住友重機械工業株式会社 作業機械用周辺監視システム
JP7149459B2 (ja) * 2017-02-03 2022-10-07 パナソニックIpマネジメント株式会社 学習済みモデル提供方法および学習済みモデル提供装置
WO2019003355A1 (ja) * 2017-06-28 2019-01-03 株式会社オプティム 画像解析結果提供システム、画像解析結果提供方法、およびプログラム
KR101980354B1 (ko) * 2017-11-01 2019-05-21 한국해양과학기술원 극지해역의 해빙영역 탐지방법 및 이를 위한 탐지시스템
JP6727240B2 (ja) * 2018-03-08 2020-07-22 オムロン株式会社 データ出力装置、データ出力方法及びプログラム
JP6863326B2 (ja) * 2018-03-29 2021-04-21 日本電気株式会社 選別支援装置、選別支援システム、選別支援方法及びプログラム
JP6931369B2 (ja) * 2018-04-10 2021-09-01 キヤノン株式会社 画像処理装置および画像処理方法、ならびに撮像装置
JP6818798B2 (ja) * 2018-04-10 2021-01-20 キヤノン株式会社 画像処理装置および画像処理方法、ならびに撮像装置
JP6611865B1 (ja) * 2018-06-15 2019-11-27 三菱電機インフォメーションシステムズ株式会社 学習済みモデルを選定する方法、訓練データを生成する方法、学習済みモデルを生成する方法、コンピュータおよびプログラム
KR102107298B1 (ko) * 2018-06-20 2020-05-06 써모아이 주식회사 영상 분석 장치 및 방법
JP2020091667A (ja) * 2018-12-06 2020-06-11 トヨタ自動車株式会社 定点画像認識装置
KR102654003B1 (ko) * 2018-12-21 2024-04-04 주식회사 히타치하이테크 화상 인식 장치 및 방법
JP2020144778A (ja) * 2019-03-08 2020-09-10 日本放送協会 動画像カラー化装置、カラー情報推定モデル生成装置およびそれらのプログラム
WO2021221030A1 (ja) * 2020-04-27 2021-11-04 株式会社リョーワ 良否判定システム、良否判定方法、サーバ及びプログラム
JP7353438B2 (ja) * 2021-08-16 2023-09-29 花王株式会社 動画像判定方法
WO2023022072A1 (ja) * 2021-08-16 2023-02-23 花王株式会社 動画像判定方法
WO2023187958A1 (ja) * 2022-03-29 2023-10-05 日本電気株式会社 交通流分析装置、交通流分析方法及びプログラム記録媒体
JP2024001527A (ja) * 2022-06-22 2024-01-10 株式会社Jvcケンウッド 画像認識装置および画像認識方法
WO2024013933A1 (ja) * 2022-07-14 2024-01-18 日本電気株式会社 映像処理システム、映像処理装置及び映像処理方法
CN117593766B (zh) * 2023-12-28 2024-04-02 天科院环境科技发展(天津)有限公司 基于无人机拍摄图像处理的野生动物种群数量的调查方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3346679B2 (ja) * 1994-06-14 2002-11-18 日本電信電話株式会社 画像検査/認識方法、これに用いる参照データ作成方法およびこれらの装置
JPH08223485A (ja) * 1995-02-17 1996-08-30 Fujitsu Ltd 赤外線映像装置
JPH1011583A (ja) * 1996-06-27 1998-01-16 Sony Corp クラス分類適応処理装置、クラス分類適応処理用の学習装置および学習方法
CN101030259B (zh) * 2006-02-28 2011-10-26 东软集团股份有限公司 Svm分类器、利用svm分类器识别车辆图像的方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10846840B2 (en) 2016-10-20 2020-11-24 Denso Corporation Image recognition device

Also Published As

Publication number Publication date
JP2012068965A (ja) 2012-04-05

Similar Documents

Publication Publication Date Title
JP5423631B2 (ja) 画像認識装置
JP5228439B2 (ja) 操作入力装置
CN107506760B (zh) 基于gps定位与视觉图像处理的交通信号检测方法及***
JP4263737B2 (ja) 歩行者検知装置
CN104050620B (zh) 对象检测设备
JP5333080B2 (ja) 画像認識システム
JP5747549B2 (ja) 信号機検出装置及びプログラム
Eum et al. Enhancing light blob detection for intelligent headlight control using lane detection
JP5480917B2 (ja) 車両周辺監視装置
US9286512B2 (en) Method for detecting pedestrians based on far infrared ray camera at night
JP6358552B2 (ja) 画像認識装置および画像認識方法
JPWO2020090251A1 (ja) 物体認識装置、物体認識方法および物体認識プログラム
JP2018063680A (ja) 交通信号認識方法および交通信号認識装置
JPWO2012004938A1 (ja) 車両の周辺監視装置
JP2009276910A (ja) 画像処理装置、方法及びプログラム
JP2012164026A (ja) 画像認識装置及び車両用表示装置
JP5083164B2 (ja) 画像処理装置及び画像処理方法
JP2013093639A (ja) 車両周辺監視装置
JP7264428B2 (ja) 道路標識認識装置及びそのプログラム
CN102844767B (zh) 用于分析车辆的图像采集装置的图像的方法与设备
JP5447162B2 (ja) 移動体識別装置、コンピュータプログラム及び移動体識別方法
CN108256444B (zh) 一种用于车载视觉***的目标检测方法
JP2013106238A (ja) マーカの検出および追跡装置
JP5447164B2 (ja) 移動体識別装置、コンピュータプログラム及び移動体識別方法
JP4719605B2 (ja) 対象物検出用データ生成装置、方法及びプログラム並びに対象物検出装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

R151 Written notification of patent or utility model registration

Ref document number: 5423631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250