JP6280412B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP6280412B2
JP6280412B2 JP2014064746A JP2014064746A JP6280412B2 JP 6280412 B2 JP6280412 B2 JP 6280412B2 JP 2014064746 A JP2014064746 A JP 2014064746A JP 2014064746 A JP2014064746 A JP 2014064746A JP 6280412 B2 JP6280412 B2 JP 6280412B2
Authority
JP
Japan
Prior art keywords
likelihood
detection window
value
oblique
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014064746A
Other languages
English (en)
Other versions
JP2015187782A (ja
Inventor
雄基 原口
雄基 原口
長谷川 弘
弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2014064746A priority Critical patent/JP6280412B2/ja
Priority to PCT/JP2015/054599 priority patent/WO2015146389A1/ja
Publication of JP2015187782A publication Critical patent/JP2015187782A/ja
Application granted granted Critical
Publication of JP6280412B2 publication Critical patent/JP6280412B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検出装置に関し、さらに詳しくは、カメラにより撮影された撮影画像から対象物を検出する物体検出装置に関する。
カメラが撮影した画像などに検出対象が存在するか否かを判定する物体検出装置が存在する。物体検出装置は、たとえば、カメラとともに車両に搭載される。車両に搭載された物体検出装置は、カメラが撮影した画像から歩行者を検出することにより、運転手に歩行者の存在を知らせることができる。物体検出装置を利用することにより、運転手は、車両の外部の状況を容易に把握することができる。
カメラにより撮影された画像から歩行者を検出する対象物検出装置が、下記特許文献1に開示されている。
特許文献1に開示されている対象物検出装置は、カメラにより撮影された画像からウィンドウ画像を抽出する。この対象物検出装置は、歩行者の向き(前向き、後ろ向き、左向き、右向き)に応じた複数の識別モデルを用いて、ウィンドウ画像から前後向きのスコア、左向きのスコア、右向きのスコアを算出する。前後向きのスコアは、前又は後ろを向いた歩行者らしさを示す数値である。左向きのスコアは、左向きの歩行者らしさを示す数値である。右向きのスコアは、右向きの歩行者らしさを示す数値である。対象物検出装置は、これら3つのスコアを用いて、ウィンドウ画像に歩行者が含まれているか否かを判定する。
そして、対象物検出装置は、ウィンドウ画像に歩行者が含まれる場合、上記3つのスコアのうち最大のスコアに対応する向きを、ウィンドウ画像に含まれる歩行者の向きと判断する。
特開2012−221162号公報
特許文献1に開示されている対象物検出装置は、歩行者のパターンを学習するために、歩行者を含む複数の画像を前もって学習する。このとき、複数の画像は、歩行者の向きに従って分類される。対象物検出装置は、歩行者の向きごとに分類された画像を学習する。
具体的には、対象物検出装置は、前又は後ろを向く歩行者を検出するための識別モデルを生成する場合、前又は後ろを向く歩行者の画像を学習し、前又は後ろ以外の方向(右、左又は斜め方向)を向く歩行者の画像を学習しない。この理由は、前又は後ろ以外の方向を向く歩行者の画像を学習した場合、前又は後ろを向く歩行者の検出精度が低下するおそれがあるためである。
同様に、対象物検出装置は、右を向く歩行者を検出するための識別モデルを生成する場合、右以外の方向を向く歩行者の画像を学習しない。対象物検出装置は、左を向く歩行者を検出するための識別モデルを生成する場合、左以外の方向を向く歩行者の画像を学習しない。
このように、対象物検出装置は、斜めを向く歩行者を学習しない。対象物検出装置は、斜め方向を向く歩行者がウィンドウ画像内に存在したとしても、斜め方向を向く歩行者を検出することができない。
本発明の目的は、撮影画像から対象物を検出する精度を向上することができる物体検出装置を提供することである。
上記課題を解決するため、請求項1記載の発明は、フレーム画像に対して検出窓を設定する窓設定部と、前又は後ろを向いた対象物が検出窓内に存在するであろう前後尤度を前記検出窓から算出し、右又は左を向いた前記対象物が前記検出窓内に存在するであろう側面尤度を前記検出窓から算出し、斜めを向いた前記対象物が前記検出窓内に存在するであろう斜め尤度を前記検出窓から算出する尤度算出部と、前記尤度算出部により算出された前記前後尤度と前記側面尤度と前記斜め尤度とに基づいて、前記検出窓内に前記対象物が存在するか否かを判断する判断部と、を備える。
請求項2記載の発明は、請求項1に記載の物体検出装置であって、さらに、前記前後尤度と、前記側面尤度と、前記斜め尤度とを積算して尤度積算値を生成する積算部、を備え、前記判断部は、前記積算部により生成された前記尤度積算値に基づいて、前記検出窓内に前記対象物が存在するか否かを判断する。
請求項3記載の発明は、請求項1又は2に記載の物体検出装置であって、さらに、前記前後尤度と、前記側面尤度と、前記斜め尤度との中で最大尤度を特定する特定部、を備え、前記判断部は、前記最大尤度から、前記最大尤度ではない2つの尤度のうち一方の尤度を減算した第1減算値と、前記最大尤度から、前記最大尤度ではない2つの尤度のうち他方の尤度を減算した第2減算値とに基づいて、前記検出窓内に前記対象物が存在するか否かを判断する。
請求項4記載の発明は、請求項3に記載の物体検出装置であって、前記前後尤度が前記最大尤度である場合、前記第1減算値は、前記斜め尤度を前記前後尤度から減算することにより算出され、前記第2減算値は、前記側面尤度を前記前後尤度から減算することにより算出され、前記判断部は、前記第1減算値が所定の第1前後基準値以下であり、かつ、前記第2減算値が第2前後基準値以上である場合、前記検出窓内に前記対象物が存在すると判断する。
請求項5記載の発明は、請求項3又は請求項4に記載の物体検出装置であって、前記側面尤度が前記最大尤度である場合、前記第1減算値は、前記斜め尤度を前記側面尤度から減算することにより算出され、前記第2減算値は、前記前後尤度を前記側面尤度から減算することにより算出され、前記判断部は、前記第1減算値が所定の第1側面基準値以下であり、かつ、前記第2減算値が第2側面基準値以上である場合、前記検出窓内に前記対象物が存在すると判断する。
請求項6記載の発明は、請求項3ないし請求項5のいずれかに記載の物体検出装置であって、前記斜め尤度が前記最大尤度である場合、前記第1減算値は、前記前後尤度を前記斜め尤度から減算することにより算出され、前記第2減算値は、前記側面尤度を前記斜め尤度から減算することにより算出され、前記判断部は、前記第1減算値が所定の斜め基準値以下であり、かつ、前記第2減算値が前記斜め基準値以下である場合、前記検出窓内に前記対象物が存在すると判断する。
請求項7記載の発明は、請求項1ないし請求項6のいずれかに記載の物体検出装置であって、前記判断部は、前記前後尤度と前記斜め尤度とを積算した値が第1しきい値以上であり、前記前後尤度と前記側面尤度とを積算した値が第2しきい値よりも小さい場合、前記検出窓内に前記対象物が存在すると判断する。
請求項8記載の発明は、請求項1ないし請求項7のいずれかに記載の物体検出装置であって、前記判断部は、前記側面尤度と前記斜め尤度とを積算した値が第1しきい値以上であり、前記前後尤度と前記側面尤度とを積算した値が第2しきい値よりも小さい場合、前記検出窓内に前記対象物が存在すると判断する。
請求項9記載の発明は、請求項1ないし請求項8のいずれかに記載の物体検出装置であって、さらに、歩行者を含む複数の画像を学習して、前記前後尤度の算出の際に参照される特徴データを生成する前後学習部と、歩行者を含む複数の画像を学習して、前記側面尤度の算出の際に参照される特徴データを生成する側面学習部と、歩行者を含む複数の画像を学習して、前記斜め尤度の算出の際に参照される特徴データを生成する斜め学習部と、を備え、前記前後学習部により学習される画像は、前記斜め学習部により学習される複数の画像の一部と一致し、前記側面学習部により学習される画像は、前記斜め学習部により学習される複数の画像の一部と一致し、前記前後学習部により学習される画像は、前記側面学習部により学習される画像に一致しない。
請求項10記載の発明は、物体検出装置に搭載されるコンピュータに、フレーム画像に対して検出窓を設定するステップと、前又は後ろを向いた対象物が検出窓内に存在するであろう前後尤度を前記検出窓から算出するステップと、右又は左を向いた前記対象物が前記検出窓内に存在するであろう側面尤度を前記検出窓から算出するステップと、斜めを向いた前記対象物が前記検出窓内に存在するであろう斜め尤度を前記検出窓から算出するステップと、前記前後尤度と前記側面尤度と前記斜め尤度とに基づいて、前記検出窓内に前記対象物が存在するか否かを判断するステップと、を実行させるための物体検出プログラムである。
本発明の物体検出装置は、フレーム画像に設定された検出窓から、前又は後ろを向いた対象物が検出窓内に存在するであろう前後尤度と、右又は左を向いた対象物が検出窓内に存在するであろう側面尤度と、斜めを向いた対象物が検出窓内に存在するであろう斜め尤度とを算出する。本発明の物体検出装置は、算出された3つの尤度に基づいて、検出窓内に対象物が存在するか否かを判断する。前後尤度及び側面尤度だけでなく、斜め尤度を用いることにより、フレーム画像から対象物を検出する精度を向上することができる。
本発明の第1の実施の形態に係る物体検出装置の構成を示す機能ブロック図である。 図1に示す画像変換部により生成されるグレースケール画像の一例を示す図である。 図1に示す前後尤度算出部により学習される学習画像を示す図である。 図1に示す側面尤度算出部により学習される学習画像を示す図である。 図1に示す斜め尤度算出部により学習される学習画像を示す図である。 図1に示す物体検出装置の動作を示すフローチャートである。 図1に示す尤度算出部により算出された尤度の一例を示す図である。 図6に示す判定処理のフローチャートである。 図8に示す初期判定処理のフローチャートである。 図8に示す差分比較処理のフローチャートである。 本発明の第2の実施の形態に係る物体検出装置の構成を示す機能ブロック図である。 図11に示す判断部により実行される判定処理のフローチャートである。 図12に示す部分積算値比較処理のフローチャートである。
以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。
[第1の実施の形態]
{1.物体検出装置1の構成}
図1は、本発明の第1の実施の形態に係る物体検出装置1の構成を示す機能ブロック図である。物体検出装置1は、カメラ100が撮影したカラーの撮影画像21から、検出対象を検出する。物体検出装置1は、カメラ100とともに自動車などの車両に搭載される。本実施の形態では、検出対象は、歩行者である。ただし、検出対象は歩行者に限られるものではなく、他の物体(自動車、道路標識など)を検出対象としてもよい。
カメラ100は、自動車のダッシュボード上に設置され、前方の景色を撮影して画像データ20を生成する。画像データ20は、複数のフレームにより構成される動画像であり、フレーム単位で物体検出装置1に入力される。1つのフレームが1つの撮影画像21に相当する。物体検出装置1は、撮影画像21内に歩行者が存在するか否かを判定する。
図1に示すように、物体検出装置1は、画像変換部11と、検出窓設定部12と、尤度算出部13と、判断部14と、学習部15と、記憶部16とを備える。画像変換部11は、カラーの撮影画像21をグレースケール画像22に変換する。
検出窓設定部12は、グレースケール画像22に対して検出窓を設定し、設定した検出窓をグレースケール画像22から切り出す。検出窓は、撮影画像21から歩行者を検出するための単位領域である。
尤度算出部13は、検出窓に歩行者が存在するであろう尤度を算出する。尤度算出部13は、前後尤度算出部13aと、側面尤度算出部13bと、斜め尤度算出部13cとを備える。
前後尤度算出部13aは、ニューラルネットワークを用いて、前後尤度Lfbを算出する。前後尤度Lfbは、前又は後ろ向きの歩行者が検出窓内に存在するであろう度合いを示す数値である。前向き、後ろ向きの定義については、後述する。前後尤度Lfbは、0以上1以下の数値であり、前又は後ろを向く歩行者が検出窓内に存在する可能性が高いほど、1に近い値を有する。
側面尤度算出部13bは、ニューラルネットワークを用いて、側面尤度Lsを算出する。側面尤度Lsは、右又は左向きの歩行者が検出窓内に存在するであろう度合いを示す数値である。右向き、左向きの定義については、後述する。側面尤度Lsは、0以上1以下の数値であり、左又は右を向く歩行者が存在する可能性が高いほど、1に近い値を有する。
斜め尤度算出部13cは、ニューラルネットワークを用いて、斜め尤度Ldを算出する。斜め尤度Ldは、斜めを向いている歩行者が検出窓内に存在するであろう度合いを示す数値である。「斜め」とは、前、後ろ、右及び左のいずれでもない方向である。斜め尤度Ldは、0以上1以下の数値であり、斜めを向く歩行者が存在する可能性が高いほど、1に近い値を有する。
判断部14は、前後尤度Lfb、側面尤度Ls及び斜め尤度Ldを用いて、歩行者が検出窓内に存在するか否かを判断する。判断部14は、歩行者が検出窓内に存在するか否かを示す結果データ25を生成する。
物体検出装置1は、判断部14により生成された結果データ25を出力する。後述するように、1つの撮影画像21において、複数の検出窓が設定される。物体検出装置1の後段に接続される後処理部(図示省略)は、例えば、各検出窓に対応する結果データ25を用いて歩行者が検出された検出窓の分布図を作成し、分布図に基づいて撮影画像21内に存在する歩行者の位置を特定する。
学習部15は、前後学習部15aと、側面学習部15bと、斜め学習部15cとを含む。前後学習部15aと、側面学習部15bと、斜め学習部15cとは、ニューラルネットワークを用いて、歩行者のパターンを学習する
前後学習部15aは、学習グループ31に含まれる学習画像を用いて、前又は後ろを向いた歩行者のパターンを学習する。前後学習部15aは、学習の結果を反映させた特徴データ35aを生成する。特徴データ35aは、前後尤度Lfbの算出に用いられる。
側面学習部15bは、学習グループ32に含まれる学習画像を用いて、右又は左を向いた歩行者のパターンを学習する。側面学習部15bは、学習の結果を反映させた特徴データ35bを生成する。特徴データ35bは、側面尤度Lsの算出に用いられる。
斜め学習部15cは、学習グループ33に含まれる学習画像を用いて、斜めを向いた歩行者のパターンを学習する。斜め学習部15cは、学習の結果を反映させた特徴データ35cを生成する。特徴データ35cは、斜め尤度Ldの算出に用いられる。
記憶部16は、例えば、ハードディスク装置やフラッシュメモリなどである。記憶部16は、特徴データ35a〜35cを格納する。特徴データ35a〜35cについては、後述する。
{2.向きの定義}
図2は、画像変換部11により生成されるグレースケール画像22の一例を示す図である。図2に示すように、グレースケール画像22は、左上頂点を原点とし、横方向をx軸、縦方向をy軸とした座標系を有する。グレースケール画像22上に配置された検出窓23,23,・・・については、後述する。
前向き及び後ろ向きの定義について説明する。前向きは、図2に示すグレースケール画像22の撮影方向と反対方向を指す。前向きの歩行者は、正面を向いて立つ人物である。後ろ向きは、図2に示すグレースケール画像22の撮影方向を指す。後ろ向きの歩行者は、撮影画像21において、背中を向けて立つ人物である。
右向き及び左向きの定義について説明する。右向きは、撮影画像21において、+x方向である。右向きの歩行者は、図2に示すグレースケール画像22において、左から右へ進む人物である。左向きは、撮影画像21において、−x方向である。左向きの歩行者は、図2に示すグレースケール画像22において、右から左へ進む人物である。
斜め向きは、上述のように、前、後ろ、右、左のいずれでもない方向であり、右斜め前向き、左斜め前向き、右斜め後ろ向き、左斜め後ろ向きを含む。
以下、物体検出装置1の動作を、歩行者の学習と、歩行者の検出処理とに分けて説明する。
{3.歩行者の学習}
物体検出装置1は、撮影画像21から歩行者を検出する処理を開始する前に、検出対象となる歩行者を含む画像を歩行者の向きごとに学習する。
具体的には、前又は後ろを向いた歩行者の学習と、右又は左を向いた歩行者の学習と、斜めを向いた歩行者の学習とが、物体検出装置1において個別に実行される。なお、学習用の画像は、グレースケールであり、学習用の画像のサイズは、検出窓のサイズと同じである。
図3は、前後学習部15aにより学習される画像の一例を示す図である。図3に示すように、学習グループ31は、学習画像31a〜31fを含む。
学習画像31a〜31c,31eは、前を向いた歩行者を含み、学習画像31dは、後ろを向いた歩行者を含む。学習画像31fに含まれる歩行者は、前又は後ろ向きに近い斜めを向いている。前又は後ろ向きに近い斜めの向きとは、例えば、前後方向を基準にして±30度の範囲内にある方向である。前後学習部15aが学習画像31a〜31fを学習することにより、特徴データ35aが生成される。
このように、前後学習部15aは、前又は後ろを向いた歩行者を含む画像の他に、前又は後ろの向きに近い斜めを向く歩行者を含む画像を学習する。特徴データ35aには、前又は後ろを向いた歩行者のパターンだけでなく、前又は後ろ向きに近い斜めを向く歩行者のパターンが反映される。前後尤度算出部13aは、前後尤度Lfbを算出する際に、特徴データ35aを参照する。このため、前後尤度算出部13aは、斜めを向く歩行者を含む検出窓が入力された場合、0に近い値ではなく、中間的な範囲(0.5〜0.7)内の値を有する前後尤度Lfbを算出する。
図4は、側面学習部15bにより学習される画像の一例を示す図である。図4に示すように、学習グループ32は、学習画像32a〜32eを含む。
学習画像32a,32bは、左を向いた歩行者を含み、学習画像32cは、右を向いた歩行者を含む。学習画像32d、32eに含まれる歩行者は、右又は左向きに近い斜めを向いている。右又は左向きに近い斜めの方向とは、例えば、左右方向を基準にして±30度の範囲内にある方向である。側面学習部15bが、学習画像32a〜32eを学習することにより、特徴データ35bが生成される。
このように、側面学習部15bは、右又は左を向いた歩行者を含む画像の他に、右又は左向きに近い斜めを向く歩行者を含む画像を学習する。特徴データ35bには、右又は左を向いた歩行者のパターンだけでなく、右又は左向きに近い斜めを向く歩行者のパターンが反映される。側面尤度算出部13bは、側面尤度Lsを算出する際に、特徴データ35bを参照する。このため、側面尤度算出部13bは、斜めを向く歩行者を含む検出窓が入力された場合、0に近い値ではなく、中間的な範囲内の値を有する側面尤度Lsを算出する。
図5は、斜め学習部15cにより学習される画像の一例を示す図である。図5に示すように、学習グループ33は、学習画像33a〜33c,31f,32eを含む。学習画像33a〜33cに含まれる歩行者はいずれも、斜めを向いており、前、後ろ、右、及び左のいずれの方向を向いていない。斜め学習部15cは、学習グループ33に含まれる学習画像33a〜33c,31f,31eをそれぞれ学習することにより、斜めを向いた歩行者の特徴を示す特徴データ35cを生成する。
図3〜図5に示すように、学習画像31fは、学習グループ31,33にそれぞれ含まれる。学習画像32eは、学習グループ32,33にそれぞれ含まれる。つまり、前後学習部15aにより学習される一部の画像は、斜め学習部15cにより学習される一部の画像に一致する。側面学習部15bにより学習される一部の画像は、斜め学習部15cにより学習される一部の画像に一致する。
ただし、前後学習部15aにより学習される画像は、側面学習部15bにより学習される画像と一致しない。つまり、学習グループ31に属する学習画像に含まれる歩行者の向きの範囲が、学習グループ33に属する学習画像に含まれる歩行者の向きの範囲と重複しない。
これにより、歩行者を含む検出窓から算出される前後尤度Lfb及び側面尤度Lsが、ともに1に近い値を有しないようにしている。この理由については、後述する。
{4.歩行者の検出処理}
図6は、物体検出装置1の動作を示すフローチャートである。物体検出装置1が図6に示す処理を開始する前に、尤度算出部13は、特徴データ35a〜35cを生成して記憶部16に格納する。物体検出装置1は、カメラ100から撮影画像21が入力されるたびに、図6に示す処理を実行して、入力された撮影画像21から歩行者を検出する。
{4.1.動作概略}
物体検出装置1がカメラ100から撮影画像21を入力した場合、画像変換部11が、撮影画像21を変換してグレースケール画像22を生成する(ステップS1)。
検出窓設定部12は、画像変換部11により生成されたグレースケール画像22を入力する。検出窓設定部12は、入力されたグレースケール画像22に対して、歩行者を検出するための検出窓23(図2参照)を設定する(ステップS2)。つまり、ステップS2が実行されるたびに、検出窓23が1つ設定される。検出窓設定部12は、設定された検出窓23をグレースケール画像22から切り出す。切り出された検出窓23が、尤度算出部13へ供給される。
図6に示すように、ステップS2〜S5が繰り返されることにより、グレースケール画像22に対して複数の検出窓23が設定される。グレースケール画像22(図2参照)の左上頂点に位置する検出窓23が、最初に設定される。検出窓設定部12は、撮影画像21を左上から右下にかけてスキャンするように検出窓を設定する。新たに検出窓が設定される場合、検出窓設定部12は、既に設定された検出窓の一部と重複するように新しい検出窓を設定することが望ましい。
尤度算出部13において、検出窓設定部12から供給される検出窓23に対応する前後尤度Lfb、側面尤度Ls、及び斜め尤度Ldが算出される(ステップS3)。具体的には、前後尤度算出部13aが、特徴データ35aを用いて、検出窓23から前後尤度Lfbを算出する。側面尤度算出部13bが、特徴データ35bを用いて、検出窓23から側面尤度Lsを算出する。斜め尤度算出部13cが、特徴データ35cを用いて、検出窓23から斜め尤度Ldを算出する。
判断部14は、尤度算出部13から出力される前後尤度Lfb、側面尤度Ls及び斜め尤度Ldに基づいて、検出窓23に歩行者が存在するか否かを判定する(ステップS4)。判断部14は、検出窓23における歩行者の有無を示す結果データ25を出力する。判定処理(ステップS4)の詳細については、後述する。
次に、物体検出装置は、グレースケール画像22に対する検出窓23の設定が終了したか否かを確認する(ステップS5)。検出窓23の設定が終了していない場合(ステップS5においてNo)、物体検出装置1は、新たな検出窓23を設定するために、ステップS2に戻る。一方、検出窓23の設定が終了した場合(ステップS5においてYes)、物体検出装置1は、図6に示す処理を終了する。物体検出装置1は、新たな撮影画像21が入力された場合、図6に示す処理を再び実行する。
{4.2.前後尤度Lfb、側面尤度Ls、斜め尤度Ldの関係}
図7は、様々な検出窓から算出される前後尤度Lfb、側面尤度Ls、斜め尤度Ldの一例を示す図である。図7を参照しながら、各検出窓から算出される前後尤度Lfb、側面尤度Ls、斜め尤度Ldの関係について説明する。なお、図7において、検出窓23a〜23dは、図2に示す撮影画像21と別の撮影画像21から切り出された画像である。
以下の説明において、「検出窓23」を、検出窓23a〜23dを含む複数の検出窓の総称として使用する。
検出窓23aは、前を向く歩行者を含む。このため、検出窓23aから算出される前後尤度Lfbは、0.95であり、1に近い値(0.7以上)を有する。特徴データ35cには、斜め学習部15cが前又は後ろ向きに近い斜めを向く歩行者の画像を学習した結果が反映されている。このため、検出窓23aの斜め尤度Ldは、0.69であり、中間的な範囲(0.5〜0.7)内の値を有する。側面学習部15bにより生成される特徴データ35bには、前又は後ろを向く歩行者の画像、前又は後ろ向きに近い斜めを向く歩行者の画像を学習した結果が反映されていない。このため、検出窓23aの側面尤度Lsは、0.12であり、0に近い値(0.5以下)を有する。
検出窓23bは、右を向く歩行者を含む。このため、検出窓23bの側面尤度Lsは、0.88であり、1に近い値を有する。特徴データ35cには、斜め学習部15cが右又は左向きに近い斜めを向く歩行者の画像を学習した結果が反映されている。このため、検出窓23bの斜め尤度Ldは、0.62であり、中間的な範囲内の値を有する。前後学習部15aにより生成される特徴データ35aには、右又は左を向く歩行者の画像、及び右又は左向きに近い斜めを向く歩行者の画像を学習した結果が反映されていない。このため、検出窓23bの前後尤度Lfbは、0.21であり、0に近い値を有する。
検出窓23cは、右斜め前を向く歩行者を含む。このため、検出窓23cの斜め尤度Ldは、0.82であり、1に近い値を有する。特徴データ35aには、前後学習部15aが前又は後ろ向きに近い斜めを向く歩行者の画像を学習した結果が反映されている。特徴データ35bには、側面学習部15bが右又は左向きに近い斜めを向く歩行者の画像を学習した結果が反映されている。従って、検出窓23cの前後尤度Lfb及び側面尤度Lsは、それぞれ中間的な範囲内の値(0.59、0.51)を有する。
検出窓23dは、歩行者を含まない。従って、検出窓23dの前後尤度Lfb、側面尤度Ls、斜め尤度Ldは、いずれも0に近い値(0.13、0.27、0.09)を有する。
このように、検出窓が歩行者を含む場合、歩行者が前、後ろ、右、左、斜めのいずれかの方向を向いていたとしても、前後尤度Lfb、側面尤度Ls、斜め尤度Ldのうち、少なくとも2つの尤度が、中間的な値よりも大きい値(0.5以上)となる。また、1つの検出窓23から算出される前後尤度Lfb及び斜め尤度Ldが、ともに1に近い値(0.7以上)を有することはない。判断部14は、これらの関係を踏まえて、3つの尤度に基づいて、検出窓23に歩行者が存在するか否かを判断する。
{4.3.判定処理(ステップS4)}
図8は、判定処理(ステップS4)のフローチャートである。図8に示すように、判断部14は、尤度算出部13により算出された3つの尤度の積算値を用いて、検出窓23に歩行者がいるか否かを判定する初期判定処理を実行する(ステップS41)。
初期判定処理(ステップS41)により、検出窓23に歩行者が存在しないと判定された場合(ステップS42においてNo)、判断部14は、検出窓23に歩行者が存在しないことを示す結果データ25を生成し、図8に示す処理を終了する。
一方、検出窓23に歩行者が存在する可能性があると判定された場合(ステップS42においてYes)、判断部14は、差分比較処理(ステップS43)を実行する。差分比較処理(ステップS43)により、歩行者が検出窓23に存在するか否かが最終的に判断される。
以下、初期判定処理(ステップS41)及び差分比較処理(ステップS43)のそれぞれについて詳しく説明する。
{4.4.初期判定処理(ステップS41)}
図9は、初期判定処理(ステップS41)のフローチャートである。図7及び図9を参照しながら、初期判定処理(ステップS41)を詳しく説明する。
判断部14は、尤度算出部13により算出された3つの尤度を積算して、積算値Saを算出する(ステップS51)。判断部14は、積算値Saを予め設定されたしきい値Th1と比較する(ステップS52)。積算値Saがしきい値Th1以上である場合(ステップS52においてYes)、判断部14は、検出窓23に歩行者が存在する可能性があると判断する(ステップS53)。
上述のように、検出窓23が歩行者を含む場合、前後尤度Lfb、側面尤度Ls、斜め尤度Ldのうち少なくとも2つの尤度が、0.5以上の値を有する。従って、しきい値Th1を1.0に設定し、しきい値Th1を積算値Saと比較することにより、検出窓23に歩行者が存在するか否かを判定することができる。なお、しきい値Thは、1.0以外であってもよい。
具体例として、検出窓23aを対象として初期判定処理(ステップS41)を実行する場合を説明する。検出窓23aの3つの尤度を積算した積算値Saは、1.76であり、検出窓23aの積算値Saは、しきい値Th1よりも大きい(ステップS52においてYes)、この場合、判断部14は、検出窓23aに歩行者が存在する可能性があると判断する(ステップS53)。
同様に、検出窓23b,23cは歩行者を含む。判断部14は、検出窓23b,23cを対象として初期判定処理(ステップS41)を実行する場合においても、検出窓23b,23cに歩行者が存在する可能性があると判断する。
一方、検出窓23dは、歩行者を含まない。検出窓23dにおける3つの尤度の積算値Saは、0.49であり、しきい値Th1よりも小さい(ステップS52においてNo)。判断部14は、検出窓23dに歩行者が存在しないと判断する(ステップS54)。この場合、検出窓23dを対象とした差分比較処理(ステップS43)は、実行されない。
{4.5.差分比較処理(ステップS43)}
図10は、差分比較処理(ステップS43)のフローチャートである。図7及び図10を参照しながら、差分比較処理(ステップS43)を説明する。以下、検出窓23a〜23dのそれぞれに対して差分比較処理(ステップS43)を実行するときの判断部14の動作を説明する。
(検出窓23aの3つの尤度を用いる場合)
判断部14は、検出窓23aの3つの尤度のうち、最大尤度として前後尤度Lfbを特定する(ステップS601)。ステップS601は、差分値を計算するための基準となる尤度を特定するために実行される。
判断部14は、最大尤度が前後尤度Lfbである場合(ステップS602においてYes)、ステップS603〜S606を実行して、検出窓23aに歩行者が存在するか否かを判断する。
具体的には、判断部14は、検出窓23aの前後尤度Lfbから斜め尤度Ldを減算して差分値D1を算出する。図7に示す検出窓23aの前後尤度Lfb及び斜め尤度Ldから、差分値D1は、0.26となる。しきい値Th3は、例えば、0.3に設定される。差分値D1がしきい値Th3以下であるため(ステップS603においてYes)、判断部14は、ステップS604に進む。一方、差分値D1がしきい値Th3よりも大きい場合(ステップS603においてNo)、判断部14は、検出窓23aに歩行者が存在しないと判断する(ステップS606)。
ステップS603を実行する理由について説明する。検出窓23が前又は後ろを向く歩行者を含む場合、上述のように、前後尤度Lfbは、1に近い値となり、斜め尤度Ldは、中間的な範囲(0.5〜0.7)内の値となる。従って、検出窓23が前又は後ろを向く歩行者を含む場合、前後尤度Lfb及び斜め尤度Ldから得られる差分値D1は、0に近い値(0.3以下の範囲内の値)となると考えられる。判断部14は、差分値D1がこの範囲内にあるか否かを判断するために、差分値D1をしきい値Th3と比較する。
ステップS604において、判断部14は、前後尤度Lfbから側面尤度Lsを減算して差分値D2を算出する。図7に示す検出窓23aの前後尤度Lfb及び斜め尤度Ldから、差分値D2は、0.83となる。しきい値Th4は、例えば、0.5に設定される。差分値D2がしきい値Th4以上であるため(ステップS604においてYes)、判断部14は、検出窓23aに歩行者が存在すると判断する(ステップS605)。一方、差分値D2がしきい値Th4よりも小さい場合(ステップS604においてNo)、判断部14は、検出窓23aに歩行者が存在しないと判断する(ステップS606)。
ステップS604を実行する理由について説明する。検出窓が前又は後ろを向く歩行者を含む場合、上述のように、前後尤度Lfbは、1に近い値となり、側面尤度Lsは、0に近い値となる。従って、検出窓が前又は後ろを向く歩行者を含む場合、差分値D2は、一定の値(例えば、0.5)以上となると考えられる。この考えに基づいて、判断部14は、差分値D2をしきい値Th4と比較する。
(検出窓23bの3つの尤度を用いる場合)
検出窓23bに関して、側面尤度Lsが、図7に示す3つの尤度の中で最も大きい(ステップS602においてNo、ステップS607においてYes)。この場合、判断部14は、ステップS608〜S611を実行して、検出窓23bに歩行者が存在するか否かを判断する。
具体的には、判断部14は、検出窓23bの側面尤度Lsから斜め尤度Ldを減算して差分値D3を算出する。図7に示す検出窓23bの側面尤度Ls及び斜め尤度Ldから、差分値D3は、0.26となる。しきい値Th3が0.3に設定されているため、差分値D3は、しきい値Th3以下である(ステップS608においてYes)。このため、判断部14は、ステップS609に進む。一方、差分値D3がしきい値Th3よりも大きい場合(ステップS608においてNo)、判断部14は、検出窓23bに歩行者が存在しないと判断する(ステップS611)。
ステップS608を実行する理由について説明する。検出窓23が右又は左を向く歩行者を含む場合、上述のように、側面尤度Lsは、1に近い値となり、斜め尤度Ldは、中間的な範囲内の値となる。従って、右又は左を向く歩行者を含む検出窓における差分値D3は、0に近い値(0.3以下の範囲内の値)となると考えられる。判断部14は、差分値D3がこの範囲内にあるか否かを判断するために、差分値D3をしきい値Th3と比較する。
ステップS609において、判断部14は、側面尤度Lsから前後尤度Lfbを減算して差分値D4を算出する。図7に示す検出窓23bの側面尤度Ls及び前後尤度Lfbから、差分値D3は、0.67となる。しきい値Th4が0.5に設定されているため、差分値D4は、しきい値Th4以上である(ステップS609においてYes)。このため、判断部14は、検出窓23bに歩行者が存在すると判断する(ステップS610)。一方、差分値D4がしきい値Th4よりも小さい場合(ステップS609においてNo)、判断部14は、検出窓23bに歩行者が存在しないと判断する(ステップS611)。
ステップS609を実行する理由について説明する。検出窓が右又は左を向く歩行者を含む場合、上述のように、前後尤度Lfbは、0に近い値となり、側面尤度Lsは、1に近い値となる。従って、検出窓が右又は左を向く歩行者を含む場合、差分値D4は、0.5以上の値となると考えられる。判断部14は、この考えに基づいて、差分値D4をしきい値Th4と比較する。
(検出窓23cの3つの尤度を用いる場合)
検出窓23cに関して、斜め尤度Lsが、3つの尤度(図7参照)の中で最も大きい(ステップS602においてNo、ステップS607においてNo)。この場合、判断部14は、ステップS612〜S615を実行して、検出窓23cに歩行者が存在するか否かを判断する。
検出窓23が斜め方向を向く歩行者を含む場合、上述のように、斜め尤度Ldが1に近い値を有し、前後尤度Lfb及び側面尤度Lsが中間的な範囲(0.5〜0.7)内の値を有する。従って、斜め尤度Ldから前後尤度Lfbを減算した差分値D5と、斜め尤度Ldから側面尤度Lsを減算した差分値D6とは、一定の範囲(例えば、0.4以下)内の値となると考えられる。この考えに基づいて、判断部14は、検出窓23cに歩行者が存在するか否かを判定する。
判断部14は、差分値D5をしきい値Th5と比較する(ステップS612)。図7に示す検出窓23cの斜め尤度Ld及び前後尤度Lfbから、差分値D5は、0.23である。しきい値Th5は、例えば、0.4に設定される。判断部14は、差分値D5がしきい値Th5以下であるため(ステップS612においてYes)、ステップS613に進む。一方、差分値D5がしきい値Th5よりも大きい場合(ステップS612においてNo)、判断部14は、検出窓23cに歩行者が存在しないと判断する(ステップS615)。
図7に示す検出窓23cの斜め尤度Ld及び側面尤度Lsから、差分値D6は、0.31である。差分値D6がしきい値Th5以下であるため(ステップS613においてNo)、判断部14は、検出窓23cに歩行者が存在すると判断する(ステップS614)。一方、差分値D6がしきい値Th5よりも大きい場合(ステップS612においてNo)、判断部14は、検出窓23cに歩行者が存在しないと判断する(ステップS615)。
このように、物体検出装置1は、検出窓23から前後尤度Lfb、側面尤度Ls,斜め尤度Ldを算出し、斜め尤度Ldと前後尤度Lfbとの差分値、又は、斜め尤度Ldと側面尤度Lsとの差分値に基づいて、検出窓内に歩行者が存在するか否かを判断する。検出窓内に歩行者が存在するか否かを判断する際に、前、後ろ、右及び左以外を向く歩行者の尤度を用いることにより、歩行者を高精度で検出することができる。
[第2の実施の形態]
図11は、本発明の第2の実施の形態に係る物体検出装置2の構成を示す機能ブロック図である。図11に示すように、物体検出装置2は、図1に示す物体検出装置1と比較して、判断部14に代えて判断部54を備える。
以下、上記実施の形態に係る物体検出装置1と異なる点を中心に、物体検出装置2を説明する。
物体検出装置2は、物体検出装置1と同様に、図6に示す処理を実行して、グレースケール画像22に設定された検出窓23から歩行者を検出する。ただし、判断部54は、判定処理(ステップS4)において、図8に示す処理と異なる処理を実行する。
図12は、判断部54により実行される判定処理(ステップS4)のフローチャートである。図12に示すように、判断部54は、差分比較処理(ステップS43)に代えて、部分積算値比較処理(ステップS70)を実行する。部分積算値比較処理(ステップS70)は、前後尤度Lfbと側面尤度Lsと斜め尤度Ldとから算出される3種類の部分積算値に基づいて、検出窓23内に歩行者が存在するか否かを判定する処理である。
(部分積算値比較処理(ステップS70))
図13は、部分積算値比較処理(ステップS70)のフローチャートである。以下、検出窓23aから算出された前後尤度Lfb、側面尤度Ls、斜め尤度Ldを用いる場合を例にして、図13に示す処理を説明する。
判断部54は、3種類の部分積算値Ps1〜Ps3を算出する(ステップS71)。具体的には、部分積算値Ps1は、前後尤度Lfbと斜め尤度Ldとを積算することにより算出される。部分積算値Ps2は、側面尤度Lsと斜め尤度Ldとを積算することにより算出される。部分積算値Ps3は、前後尤度Lfbと側面尤度Lsとを積算することにより算出される。
図7に示す検出窓23aの前後尤度Lfb、側面尤度Ls、斜め尤度Ldは、それぞれ0.95、0.12、0.69であるため、部分積算値Ps1、PS2、Ps3は、それぞれ、1.64、0.81、1.07である。
判断部54は、部分積算値Ps1をしきい値Th6と比較する(ステップS72)。しきい値Th6は、例えば、1.1に設定される。部分積算値Ps1がしきい値Th6以上であるため(ステップS72においてYes)、判断部54は、ステップS73に進む。一方、部分積算値Ps1がしきい値Th6よりも小さい場合(ステップS72においてNo)、判断部54は、ステップS75に進む。ステップS75については、後述する。
検出窓23aのように、検出窓23が前又は後ろを向く歩行者を含む場合、前後尤度Lfbが1に近い値となり、斜め尤度Ldが、中間的な範囲(0.5〜0.7)内の値となる。従って、部分積算値Ps1は、一定の値(例えば、1.1)以上となると想定される。この考えに基づいて、しきい値Th6が設定される。
ステップS73において、判断部54は、部分積算値Ps3をしきい値Th7と比較する。しきい値Th7は、例えば、1.7に設定される。検出窓23aの部分積算値Ps3は、1.07であり、しきい値Th7以下である(ステップS73においてNo)。このため、判断部54は、検出窓23aに歩行者が存在すると判断する(ステップS74)。一方、検出窓23aの部分積算値Ps3がしきい値Th7よりも大きい場合(ステップS73においてYes)、判断部54は、検出窓23aに歩行者が存在しないと判断する(ステップS76)。
前又は後ろを向く歩行者を含む検出窓23において、前後尤度Lfbが1に近い値となり、側面尤度Lsが0に近い値となる。従って、部分積算値Ps3がとり得る最大の値は2であるが、前又は後ろを向く歩行者を含む検出窓の部分積算値Ps3は、1程度の値になると想定される。ステップS73では、部分積算値Ps3が1程度の値を有しているか否かを判定するために、しきい値Th7が設定される。
次に、検出窓23bから算出された3つの尤度を用いる場合を例にして、部分積算値比較処理(ステップS70)を説明する。
判断部54は、検出窓23bの部分積算値Ps1〜Ps3を算出する(ステップS71)。図7に示すように、検出窓23bから算出された前後尤度Lfb、側面尤度Ls、斜め尤度Ldは、それぞれ0.21、0.88、0.62である。検出窓23bの部分積算値Ps1〜Ps3は、それぞれ、0.83、1.5、1.09である。
部分積算値Ps1が0.83であり、しきい値Th6が1.1であるため、部分積算値Ps1は、しきい値Th6よりも小さい(ステップS72においてNo)。この場合、判断部54は、部分積算値Ps2をしきい値Th6と比較する(ステップS75)。部分積算値Ps2が1.5であり、しきい値Th6が1.1であるため、部分積算値Ps2は、しきい値Th6よりも大きい(ステップS75にいてYes)。この場合、判断部54は、ステップS73に進む。
検出窓23bのように、検出窓23が右又は左を向く歩行者を含む場合、側面尤度Lsが1に近い値となり、斜め尤度Ldが、中間的な範囲(0.5〜0.7)内の値となる。従って、部分積算値Ps2は、一定の値(例えば、1.1)以上となると想定される。この考えに基づいて、部分積算値Ps2がしきい値Th6と比較される(ステップS75)。
判断部54は、検出窓23bの部分積算値Ps3をしきい値Th7と比較する。部分積算値Ps3が0.83であり、しきい値Th7が1.7であるため、部分積算値Ps3は、しきい値Th7よりも小さい(ステップS73においてNo)。この場合、判断部54は、検出窓23bに歩行者が存在すると判断する(ステップS74)。
一方、部分積算値Ps3がしきい値Th7よりも大きい場合(ステップS73においてYes)、判断部54は、検出窓23bに歩行者が存在しないと判断する(ステップS76)。
次に、検出窓23cから算出された3つの尤度を用いる場合における、部分積算値比較処理(ステップS70)を説明する。
判断部54は、検出窓23cの部分積算値Ps1〜Ps3を算出する(ステップS71)。図7に示すように、検出窓から算出された前後尤度Lfb、側面尤度Ls、斜め尤度Ldは、それぞれ0.59、0.51、0.82である。検出窓23cの部分積算値Ps1〜Ps3は、それぞれ、1.41、1.33、1.1である。
部分積算値Ps1が1.41であり、しきい値Th6が1.1である。このため、判断部54は、部分積算値Ps1がしきい値Th6以上であると判断し(ステップS72においてYes)、ステップS73に進む。部分積算値Ps3が1.1であり、しきい値Th7が1.7である。このため、判断部54は、部分積算値Ps3がしきい値Th7よりも小さいと判断し(ステップS73においてNo)、検出窓23cに歩行者が存在すると判断する(ステップS74)。
検出窓23cのように、検出窓が斜めを向く歩行者を含む場合、上述のように、斜め尤度Ldが1に近い値を有し、前後尤度Lfb及び側面尤度Lsが中間的な範囲(0.5〜0.7)内の値を有する。従って、部分積算値Ps1、Ps2は、共に、しきい値Th6以上となると考えられる(ステップS72においてYes、又は、ステップS75においてYes)。また、部分積算値Ps3は、中間的な範囲内の値を有する前後尤度Lfbと側面尤度Lsとから算出されるため、しきい値Th7(1.7)よりも小さくなると考えられる(ステップS73においてYes)。このように、部分積算値比較処理(ステップS70)において、斜めを向く歩行者を含む検出窓の3つの尤度を用いても、この検出窓に歩行者が存在すると判断することができる。
このように、物体検出装置2は、前後尤度Lfbと斜め尤度Ldとを積算した部分積算値Ps1と、側面尤度Lsと斜め尤度Ldとを積算した部分積算値Ps2と、前後尤度Lfbと側面尤度Lsとを積算した部分積算値Ps3とを用いて、検出窓内に歩行者が存在するか否かを判断する。検出窓内に歩行者が存在するか否かを判断する際に、前、後ろ、右、左以外を向く歩行者の尤度を用いることにより、上記実施の形態と同様に、歩行者を高精度で検出することができる。
[その他の実施の形態]
判断部14及び判断部54は、前後尤度Lfb、側面尤度Ls、斜め尤度Ldのうち、少なくとも1つを重み付けした上で、判定処理(ステップS4)を実行してもよい。例えば、判断部14は、自動車の現在位置を取得し、取得した現在位置を地図データと照合する。自動車の現在位置が交差点の手前である場合、右又は左を向く歩行者が撮影画像21内に存在する可能性が高い。この場合、判断部14は、側面尤度Lsに1以上の重み付け係数を乗算してもよい。あるいは、自動車の現在位置が交差点のない***である場合、前又は後ろを向く歩行者が撮影画像21内に存在する可能性が高い。この場合、判断部14は、前後尤度Lfbに1以上の重み付け係数を乗算してもよい。
上記実施の形態において、前後尤度算出部13a、側面尤度算出部13b、斜め尤度算出部13c、前後学習部15a、側面学習部15b、及び斜め学習部15cがニューラルネットワークを用いる例を説明したが、これに限られない。前後学習部15a、側面学習部15b、及び斜め学習部15cは、ニューラルネットワーク以外のアルゴリズムを用いてもよい。例えば、サポートベクターマシンなどのアルゴリズムの利用が考えられる。また、前後学習部15a、側面学習部15b、及び斜め学習部15cには、互いに異なるアルゴリズムが実装されていてもよい。この場合、前後尤度算出部13aには、前後学習部15aに実装されるアルゴリズムと同じアルゴリズムが実装される。同様に、側面尤度算出部13b及び斜め尤度算出部13cには、側面学習部15b及び斜め学習部15cに実装されたアルゴリズムと同じアルゴリズムがそれぞれ実装される。
上記実施の形態において、学習画像及び検出窓がグレースケールである場合を例にして説明したが、これに限られない。例えば、物体検出装置1,2は、学習画像から特徴量を抽出する処理を実行して、学習用の特徴抽出データを生成してもよい。前後学習部15aは、特徴抽出データを学習して、前又は後ろを向く歩行者のパターンを学習する。特徴量を抽出する処理は、例えば、エッジを強調する処理や、HOG(Histograms of Oriented Gradients)特徴量を抽出する処理である。検出窓23には、学習画像に対して実行された特徴量を抽出する処理と同じ処理が実行される。例えば、学習グループ31に含まれる学習画像31a〜31fに対してエッジを強調処理が実行された場合、前後尤度算出部13aに入力される検出窓23に対して、エッジを強調する処理が実行される。学習グループ32に含まれる学習画像32a〜32eに対してHOG特徴量を抽出する処理が実行された場合、側面尤度算出部13bに入力される検出窓23に対して、HOG特徴量を抽出する処理が実行される。
なお、上記実施の形態において、初期判定処理(ステップS41)の後に差分比較処理(ステップS43)又は部分積算値比較処理(ステップS70)を実行する例を説明したが、これに限られない。判断部14は、初期判定処理(ステップS41)、差分比較処理(ステップS43)、部分積算値比較処理(ステップS70))のいずれか1つを実行して、検出窓23に歩行者が存在するか否かを判断してもよい。
なお、上記実施の形態において、物体検出装置1,2に入力される学習画像のサイズが検出窓のサイズと同じである例を説明したが、これに限られない。物体検出装置1,2に入力される学習画像のアスペクト比が検出窓23のアスペクト比に一致していれば、物体検出装置1,2に入力される学習画像のサイズが検出窓のサイズと同じでなくてもよい。この場合、検出窓23から尤度を算出する前、又は、検出窓23に対して特徴量を抽出する処理を実行する前に、検出窓23のサイズを学習画像のサイズに一致するように変更すればよい。
上記実施の形態で説明した物体検出装置1,2において、各機能部は、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されてもよい。集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサーで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
また、上記実施の形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記実施の形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリを挙げることができる。
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
1 物体検出装置
11 画像変換部
12 検出窓設定部
13 尤度算出部
13a 前後尤度算出部
13b 側面尤度算出部
13c 斜め尤度算出部
14,54 判断部
15 学習部
15a 前後学習部
15b 側面学習部
15c 斜め学習部
21 撮影画像
22 グレースケール画像
25 結果データ

Claims (10)

  1. フレーム画像に対して検出窓を設定する窓設定部と、
    対象物を含む複数の画像から生成された前後特徴データを参照して前又は後ろを向いた前記対象物が検出窓内に存在するであろう前後尤度を前記検出窓から算出し、前記対象物を含む複数の画像から生成された側面特徴データを参照して右又は左を向いた前記対象物が前記検出窓内に存在するであろう側面尤度を前記検出窓から算出し、前記対象物を含む複数の画像から生成された斜め特徴データを参照して斜めを向いた前記対象物が前記検出窓内に存在するであろう斜め尤度を前記検出窓から算出する尤度算出部と、
    前記尤度算出部により算出された前記前後尤度と前記斜め尤度とを用いた演算値と、前記尤度算出部により算出された前記側面尤度と前記斜め尤度とを用いた演算値とのうち少なくとも一方に基づいて、前記検出窓内に前記対象物が存在するか否かを判断する判断部と、
    を備える物体検出装置。
  2. 請求項1に記載の物体検出装置であって、さらに、
    前記前後尤度と、前記側面尤度と、前記斜め尤度とを積算して尤度積算値を生成する積算部、
    を備え、
    前記判断部は、前記積算部により生成された前記尤度積算値に基づいて、前記検出窓内に前記対象物が存在するか否かを判断する物体検出装置。
  3. 請求項1又は2に記載の物体検出装置であって、さらに、
    前記前後尤度と、前記側面尤度と、前記斜め尤度との中で最大尤度を特定する特定部、
    を備え、
    前記判断部は、前記最大尤度から、前記最大尤度ではない2つの尤度のうち一方の尤度を減算した第1減算値と、前記最大尤度から、前記最大尤度ではない2つの尤度のうち他方の尤度を減算した第2減算値とに基づいて、前記検出窓内に前記対象物が存在するか否かを判断する物体検出装置。
  4. 請求項3に記載の物体検出装置であって、
    前記前後尤度が前記最大尤度である場合、前記第1減算値は、前記斜め尤度を前記前後尤度から減算することにより算出され、前記第2減算値は、前記側面尤度を前記前後尤度から減算することにより算出され、
    前記判断部は、前記第1減算値が所定の第1前後基準値以下であり、かつ、前記第2減算値が第2前後基準値以上である場合、前記検出窓内に前記対象物が存在すると判断する物体検出装置。
  5. 請求項3又は請求項4に記載の物体検出装置であって、
    前記側面尤度が前記最大尤度である場合、前記第1減算値は、前記斜め尤度を前記側面尤度から減算することにより算出され、前記第2減算値は、前記前後尤度を前記側面尤度から減算することにより算出され、
    前記判断部は、前記第1減算値が所定の第1側面基準値以下であり、かつ、前記第2減算値が第2側面基準値以上である場合、前記検出窓内に前記対象物が存在すると判断する物体検出装置。
  6. 請求項3ないし請求項5のいずれかに記載の物体検出装置であって、
    前記斜め尤度が前記最大尤度である場合、前記第1減算値は、前記前後尤度を前記斜め尤度から減算することにより算出され、前記第2減算値は、前記側面尤度を前記斜め尤度から減算することにより算出され、
    前記判断部は、前記第1減算値が所定の斜め基準値以下であり、かつ、前記第2減算値が前記斜め基準値以下である場合、前記検出窓内に前記対象物が存在すると判断する物体検出装置。
  7. 請求項1ないし請求項6のいずれかに記載の物体検出装置であって、さらに、
    前記判断部は、前記前後尤度と前記斜め尤度とを積算した値が第1しきい値以上であり、前記前後尤度と前記側面尤度とを積算した値が第2しきい値よりも小さい場合、前記検出窓内に前記対象物が存在すると判断する物体検出装置。
  8. 請求項1ないし請求項7のいずれかに記載の物体検出装置であって、さらに、
    前記判断部は、前記側面尤度と前記斜め尤度とを積算した値が第1しきい値以上であり、前記前後尤度と前記側面尤度とを積算した値が第2しきい値よりも小さい場合、前記検出窓内に前記対象物が存在すると判断する物体検出装置。
  9. 請求項1ないし請求項8のいずれかに記載の物体検出装置であって、さらに、
    歩行者を含む複数の画像を学習して、前記前後特徴データを生成する前後学習部と、
    歩行者を含む複数の画像を学習して、前記側面特徴データを生成する側面学習部と、
    歩行者を含む複数の画像を学習して、前記斜め特徴データを生成する斜め学習部と、
    を備え、
    前記前後学習部により学習される複数の画像の一部は、前記斜め学習部により学習される複数の画像の一部と一致し、
    前記側面学習部により学習される複数の画像の一部は、前記斜め学習部により学習される複数の画像の一部と一致し、
    前記前後学習部により学習される画像は、前記側面学習部により学習される画像に一致しない物体検出装置。
  10. 物体検出装置に搭載されるコンピュータに、
    フレーム画像に対して検出窓を設定するステップと、
    対象物を含む複数の画像から生成された前後特徴データを参照して前又は後ろを向いた前記対象物が検出窓内に存在するであろう前後尤度を前記検出窓から算出するステップと、
    前記対象物を含む複数の画像から生成された側面特徴データを参照して右又は左を向いた前記対象物が前記検出窓内に存在するであろう側面尤度を前記検出窓から算出するステップと、
    前記対象物を含む複数の画像から生成された斜め特徴データを参照して斜めを向いた前記対象物が前記検出窓内に存在するであろう斜め尤度を前記検出窓から算出するステップと、
    前記前後尤度と前記斜め尤度とを用いた演算値と、前記側面尤度と前記斜め尤度とを用いた演算値とのうち少なくとも一方に基づいて、前記検出窓内に前記対象物が存在するか否かを判断するステップと、
    を実行させるための物体検出プログラム。
JP2014064746A 2014-03-26 2014-03-26 物体検出装置 Expired - Fee Related JP6280412B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014064746A JP6280412B2 (ja) 2014-03-26 2014-03-26 物体検出装置
PCT/JP2015/054599 WO2015146389A1 (ja) 2014-03-26 2015-02-19 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014064746A JP6280412B2 (ja) 2014-03-26 2014-03-26 物体検出装置

Publications (2)

Publication Number Publication Date
JP2015187782A JP2015187782A (ja) 2015-10-29
JP6280412B2 true JP6280412B2 (ja) 2018-02-14

Family

ID=54194924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014064746A Expired - Fee Related JP6280412B2 (ja) 2014-03-26 2014-03-26 物体検出装置

Country Status (2)

Country Link
JP (1) JP6280412B2 (ja)
WO (1) WO2015146389A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101936004B1 (ko) 2017-10-12 2019-01-08 (주)에이치엠씨 지능형 보행자 검출 방법
JP7376992B2 (ja) * 2018-06-25 2023-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置、情報処理方法、及び、プログラム
JP6677830B1 (ja) * 2019-01-18 2020-04-08 ソフトバンク株式会社 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4628882B2 (ja) * 2005-06-16 2011-02-09 富士フイルム株式会社 判別器の学習方法、顔判別方法および装置並びにプログラム
JP4640825B2 (ja) * 2006-02-23 2011-03-02 富士フイルム株式会社 特定向き顔判定方法および装置並びにプログラム
JP2009237669A (ja) * 2008-03-26 2009-10-15 Ayonix Inc 顔認識装置
JP4569670B2 (ja) * 2008-06-11 2010-10-27 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
WO2010109645A1 (ja) * 2009-03-27 2010-09-30 グローリー株式会社 被写体識別方法、被写体識別プログラムおよび被写体識別装置
JP2012221162A (ja) * 2011-04-07 2012-11-12 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP5529103B2 (ja) * 2011-11-18 2014-06-25 レノボ・シンガポール・プライベート・リミテッド 顔方向の検出方法および情報処理機器

Also Published As

Publication number Publication date
JP2015187782A (ja) 2015-10-29
WO2015146389A1 (ja) 2015-10-01

Similar Documents

Publication Publication Date Title
US10234957B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP6946831B2 (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
EP3510561A1 (en) Predicting depth from image data using a statistical model
US20130259310A1 (en) Object detection method, object detection apparatus, and program
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
JP5457606B2 (ja) 画像処理方法及び装置
JP2011138388A (ja) データ補正装置及び方法
JP6188592B2 (ja) 物体検出装置、物体検出方法、および物体検出プログラム
CN112785635A (zh) 用于深度图像生成的方法和设备
JP6280412B2 (ja) 物体検出装置
JP6110174B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP6340228B2 (ja) 物体検出装置
JP6340227B2 (ja) 人物検出装置
JP2010262576A (ja) 対象物検出装置及びプログラム
JP2021051347A (ja) 距離画像生成装置及び距離画像生成方法
JP7165353B2 (ja) 画像特徴量出力装置、画像認識装置、画像特徴量出力プログラム、及び画像認識プログラム
JP5020920B2 (ja) 歩行者検出装置及びプログラム
CN115131752A (zh) 学习方法、学习装置以及程序记录介质
JP6299103B2 (ja) オブジェクト認識装置及びそのオブジェクト認識装置に用いるオブジェクト認識用プログラム及び移動体制御システム
JP6423594B2 (ja) 物体検出装置
JP2024007172A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180119

R150 Certificate of patent or registration of utility model

Ref document number: 6280412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees