JP4482599B2 - 車両の周辺監視装置 - Google Patents

車両の周辺監視装置 Download PDF

Info

Publication number
JP4482599B2
JP4482599B2 JP2008274483A JP2008274483A JP4482599B2 JP 4482599 B2 JP4482599 B2 JP 4482599B2 JP 2008274483 A JP2008274483 A JP 2008274483A JP 2008274483 A JP2008274483 A JP 2008274483A JP 4482599 B2 JP4482599 B2 JP 4482599B2
Authority
JP
Japan
Prior art keywords
luminance value
temperature
outside air
air temperature
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008274483A
Other languages
English (en)
Other versions
JP2010102572A (ja
Inventor
幸大 松田
伸治 長岡
泉 高津戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008274483A priority Critical patent/JP4482599B2/ja
Priority to EP09821755.7A priority patent/EP2346015B1/en
Priority to PCT/JP2009/005261 priority patent/WO2010047055A1/ja
Priority to CN200980142182.3A priority patent/CN102197418B/zh
Priority to US13/124,171 priority patent/US20110234805A1/en
Publication of JP2010102572A publication Critical patent/JP2010102572A/ja
Application granted granted Critical
Publication of JP4482599B2 publication Critical patent/JP4482599B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/04Recognition of patterns in DNA microarrays

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

この発明は、赤外線カメラによって得られる撮像画像を用いて車両の周辺を監視するための装置に関し、より具体的には、該撮像画像の2値化処理によって対象物の抽出を行う車両周辺監視装置に関する。
従来、赤外線カメラを車両に搭載し、該カメラにより撮像された車両周辺の撮像画像を2値化して、歩行者や動物等の高温の対象物を抽出する装置が提案されている。下記の特許文献1では、赤外線カメラを用いて得られた撮像画像の輝度値ヒストグラムを作成し、該輝度値ヒストグラムに基づいて、背景画像と対象物画像とに二分する閾値を決定する手法が提案されている。このような閾値を用いた2値化処理により、高温対象物を背景と区別して抽出する。
特開2003−216949号公報
車両の周辺には、歩行者や動物等の生体の他に、電柱や壁等の人工の構造物が様々に存在しうる。歩行者や動物等の生体を、高温の対象物として背景から分離して抽出するためには、2値化処理において、このような人工構造物は背景に分類されるのが望ましい。しかしながら、人工構造物の種類やその配置、および周辺の温度等の車両の周辺環境に依存して、人工構造物は、それ以外の背景部分よりも高温なことがあり、結果として、上記のような従来の手法を採用しても、人工構造物を高温対象物として分類してしまうおそれがある。 したがって、車両の周辺環境に依存することなく、所望の対象物を、2値化処理においてより良好な精度で背景から分離して抽出することのできる手法が望まれている。
この発明の一つの側面によると、車両に搭載された赤外線カメラによって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置は、車両の外気温を検出する外気温検出手段と、外気温に基づいて推定された対象物の表面温度と前記外気温との温度差を求める温度差算出手段と、撮像画像における背景の輝度値および前記温度差に対応する輝度差に基づいて、該撮像画像における該対象物の輝度値を算出する対象物輝度値算出手段と、該対象物の輝度値を閾値として、前記赤外線カメラによって得られた撮像画像を2値化し、対象物を抽出する対象物抽出手段と、を備える。
対象物の表面温度と外気温との間の関係は予め決まっており、外気温から該表面温度を推定することができる。この発明は、この知見に基づいてなされたものであり、検出された外気温に基づいて推定された対象物の表面温度と、外気温との温度差を算出する。背景の輝度値は外気温に対応すると考えられるので、該背景の輝度値と、該温度差に対応する輝度差とに基づいて、対象物に対応する輝度値を算出することができる。該算出された輝度値を閾値として2値化することにより、対象物を、該対象物以外の背景部分から良好に分離して抽出することができる。したがって、たとえば歩行者を対象物とする場合には、歩行者の表面温度と外気温との間の関係を予め決めておくことにより、人工構造物などを対象物として誤って抽出するのを防止することができる。
本発明のその他の特徴及び利点については、以下の詳細な説明から明らかである。
次に図面を参照してこの発明の実施の形態を説明する。
図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。該装置は、車両に搭載され、遠赤外線を検出可能な2つの赤外線カメラ1Rおよび1Lと、車両周辺の外気の温度(外気温)を検出するセンサ5と、カメラ1Rおよび1Lによって得られる画像データに基づいて車両前方の対象物を検出するための画像処理ユニット2と、該検出結果に基づいて音声で警報を発生するスピーカ3と、カメラ1Rまたは1Lによって得られる画像を表示すると共に、運転者に車両前方の対象物を認識させるための表示を行うヘッドアップディスプレイ(以下、HUDと呼ぶ)4とを備えている。
図2に示すように、カメラ1Rおよび1Lは、車両10の前部に、車幅の中心を通る中心軸に対して対称な位置に配置されている。2つのカメラ1Rおよび1Lは、両者の光軸が互いに平行となり、両者の路面からの高さが等しくなるように車両に固定されている。赤外線カメラ1Rおよび1Lは、背景の温度よりも対象物の温度が高いほど、その出力信号のレベルが高くなる(すなわち、撮像画像における輝度値が大きくなる)特性を有している。
画像処理ユニット2は、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ3に対する駆動信号およびHUD4に対する表示信号などを出力する出力回路を備えている。カメラ1Rおよび1Lの出力信号およびセンサ5の出力信号は、デジタル信号に変換されてCPUに入力されるよう構成されている。HUD4は、図2に示すように、車両10のフロントウィンドウの、運転者の前方位置に画面4aが表示されるように設けられている。こうして、運転者は、HUD4に表示される画面を視認することができる。
図3は、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行されることができる。
ステップS11〜S13において、カメラ1Rおよび1Lの出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール画像である。
以下のステップS14〜S19は、2値化処理において、所望の対象物を、背景とは分離して抽出するための処理である。この実施例では、歩行者を、該所望の対象物として説明する。
ステップS14において、外気温センサ5によって検出された外気温i(℃)を取得する。ステップS15において、背景の輝度値Tbを決定する。
背景の輝度値は、任意の手法で決定されることができる。この実施例では、グレースケール画像に基づいて輝度値ヒストグラムを作成し、最も度数の高い輝度値を、背景の輝度値Tbとして用いる。撮像画像においては、通常、背景の占める面積が最も大きいからである。
ステップS16において、検出された外気温iに基づいて、図4に示すようなマップを参照する。ここで、該マップを説明する。歩行者の頭部は、主にその顔面において皮膚が外気にさらされており、熱源を妨げるものが少ない部位である。したがって、外気にさらされている頭部表面に着目する。頭部表面の温度(以下、表面温度と呼ぶ)fa(℃)と外気温i(℃)との間の関係を、実験やシミュレーション等で調べた結果、両者の間には、図4に示すような関係があることが判明した。この図において、横軸は外気温i(℃)を示し、縦軸は表面温度fa(℃)を示す。この図に示すように、外気温iから、表面温度faを推定することができる。
表面温度faは、外気温iに対して、曲線101に示すように推移し、外気温iが高くなるほど、表面温度faも高くなる。所与の外気温iにおいて、該外気温iに対する表面温度fa(i)の差が、曲線101と線103(これは、fa=iを表す直線である)の差によって表されており、これを、表面温度差と呼び、F(i)で表す。すなわち、F(i)=表面温度fa(i)― 外気温iである。図に示されるように、表面温度差F(i)は、外気温iが高くなるにつれて小さくなる傾向がある。
対象物の抽出精度をより向上させるため、この実施例では、F(i)を中心として、所定の余裕範囲(マージン)T(℃)を設定する。該余裕範囲の上限が点線101Uよって示されており、該上限と外気温iとの差を、F(i)maxで表す。該余裕範囲の下限が点線101Lによって示されており、該下限と外気温iとの差を、F(i)minで表す。
図4に示されるようなマップは、画像処理ユニット2のメモリに予め記憶される。画像処理ユニット2は、検出された外気温i(℃)に基づいて該マップを参照することにより、外気温iに対応する表面温度faを求め、該表面温度faと外気温iとの表面温度差F(i)を算出し、所定の余裕範囲Tを用いて、該表面温度差F(i)に対する上限値F(i)maxおよび下限値F(i)minを算出する。ここで、余裕範囲Tは、外気温iに従って変化させてもよいし、一定でもよい。
代替的に、各外気温iに対する表面温度差F(i)についての上限値F(i)maxおよび下限値F(i)minをメモリに記憶し、外気温iから表面温度faを求めることをスキップして、外気温iから直接上限値F(i)maxおよび下限値F(i)minを求めるようにしてもよい。
図3に戻り、ステップS17において、表面温度差F(i)の上限値F(i)maxおよび下限値F(i)minに対応する輝度差を算出する。遠赤外線カメラの仕様によって、温度変化に対する輝度値変化の割合は決まっており、これを、パラメータSiTFで表す。こうして、表面温度差F(i)の上限値F(i)maxおよび下限値F(i)minに対応して、以下の式(1)のように、輝度差の上限値dTmaxおよび下限値dTminがそれぞれ算出される。
dTmax=SiTF×F(i)max
dTmin=SiTF×F(i)min (1)
ステップS18において、2値化処理のための閾値を算出する。ここで図5を参照すると、ステップS13で取得されたグレースケール画像の輝度値ヒストグラムの一例が示されている。前述したように、ステップS15において、最も度数の高い輝度値(ピーク輝度値)が背景の輝度値Tbに設定されている。背景の輝度値Tbは、外気温iに対応すると考えることができる。したがって、以下の式(2)に示すように、外気温iに対して表面温度差の上限値F(i)maxを持つ表面温度の輝度値Tcmaxは、背景の輝度値Tbに対し、輝度差の上限値dTmaxを持つ。同様に、外気温iに対して表面温度差の上限値F(i)minを持つ表面温度の輝度値Tcminは、背景の輝度値Tbに対し、輝度差の下限値dTminを持つ。
Tcmax=Tb+dTmax
Tcmin=Tb+dTmin (2)
上限の輝度値Tcmaxおよび下限の輝度値Tcminは、2値化処理の閾値に設定される。これら2つの閾値によって画定される領域111が図5に示されており、該領域111が、抽出すべき対象物の輝度領域である。
ステップS19において、ステップS18において設定された閾値を用いて、ステップS13で取得されたグレースケール画像(この実施例では、カメラ1Rで得られた撮像画像を用いるが、カメラ1Lで得られた撮像画像でもよい)に対し、2値化処理を行う。撮像画像の各画素について、該画素の輝度値が輝度領域111内にあるときには、抽出すべき対象物であると判定されて、該画素を値1の白領域とし、該画素の輝度値が輝度領域111外にあるときには、背景であると判定されて、該画素を値ゼロの黒領域とする。
ここで、図6を参照すると、画像を模式的に表した図が示されている。(a)はグレースケール画像(撮像画像)を示し、図では、ハッチングの種類の違いによって階調の違いを表している。(b)は、従来の手法によって2値化された画像を示し、(c)は、上記ステップS14〜S19の手法によって2値化された画像を示す。図では、黒領域は、ハッチングされた領域で表している。
グレースケール画像には、歩行者121の他に、電柱125や自動車127のような人工構造物が撮像されている。従来は、2値化に用いる閾値に依存して、(b)に示すように、これら人工構造物125,127も、歩行者と同様の対象物として、すなわち白領域として抽出されることがあった。
それに対し、本願発明の上記手法によれば、外気温に対する対象物(この実施例では、歩行者)の表面温度が推定されて、該推定された表面温度の外気温に対する温度差に基づいて、対象物の輝度領域を設定するので、(c)の白領域131に示すように、歩行者121の頭部部分のみを抽出することができる(この領域を、以下、頭部領域と呼ぶ)。(a)に示されるように人工構造物125と歩行者121とが重なって撮像されていても、(c)の白領域131に示されるように歩行者121のみを容易に抽出することができる。このように、本願発明によれば、対象物を、該対象物以外の背景部分からより良好に分離して抽出することができる。
図3に戻り、ステップS20において、抽出された頭部領域に基づいて、撮像画像における歩行者全身の大きさを推定する。推定は、任意の手法で実現されることができ、ここでは、その一例を具体的に説明する。
図7を参照すると、(a)には、2値画像において抽出された頭部領域が黒の領域で表されており、その幅がw(画素数により表される)により示されている。幅wは、たとえば頭部領域に外接する四角形を設定し、その幅を求めることにより算出されることができる。歩行者の頭部以外の部分は点線で示されているが、これはまだ抽出されていない部分である。ステップS20では、歩行者の撮像画像における高さh(画素数により表される)を推定することを目的とする。
この推定のため、(b)に示すように、実空間における歩行者の一般的なサイズ、すなわち頭部の幅Waおよび身長Haが予め設定される。WaおよびHaには、たとえば、成人の平均値に基づく値を設定することができる(たとえば、Waは20(cm)、Haは、160〜170(cm)内の値)。
また、(c)は、カメラ1Rと対象物との配置の関係をXZ平面上に表した図であり、(d)は、カメラ1Rと対象物との配置の関係をYZ平面上に表した図である。ここで、Xは、車両10の車幅方向を示し、Yは、車両10の車高方向を示し、Zは、車両10から対象物への距離方向を示す。カメラ1Rは、撮像素子11Rおよびレンズ12Rを備えている。fは、レンズ12Rの焦点距離を示す。
(c)の図により、対象物までの距離をZ(cm)とすると、距離Zは、以下の式(3)のように算出される。ここで、pcwは、X方向の画素間隔すなわち1画素あたりの長さ(cm)を示す。
Z=Wa×f/(w×pcw) (3)
(d)の図により、距離Zを用いて、歩行者の撮像画像における高さh(cm)を、以下の式(4)のように算出することができる。ここで、pchは、Y方向の画素間隔すなわち1画素あたりの長さ(cm)を示す。
h=(Ha/pch)×f/Z (4)
こうして、撮像画像における歩行者の大きさは、幅wおよび高さhを持つと推定することができる。なお、頭部の幅よりも胴体の幅の方が一般的に広いことを考慮して、代替的に、頭部領域の幅wに所定の余裕値を加えた値を、上記の幅wの代わりに用いてもよい。
図3に戻り、ステップS21において、ステップS20で推定された歩行者の大きさに従って、撮像画像(グレースケール画像でもよいし、2値画像でもよい)上に対象物領域を設定する。ここで図8(a)を参照すると、前述したように抽出された頭部領域131が示されている。太枠で示すように、該頭部領域131の幅wを持ち、頭部領域131の頂点(図では、y座標値がyu)から高さhの対象物領域141が設定される。こうして、撮像画像における対象物の位置が特定される。
図3に戻り、この実施例では、ステップS22を実行して、設定された対象物領域141に対して対象物判定処理を実行し、該対象物領域141内に撮像されている対象物が歩行者かどうかを判定する。たとえば、周知の形状マッチング手法を用いた任意の適切な対象物判定手法により、歩行者を判定することができる(たとえば、特開2007−264778号公報)。この処理は、グレースケール画像を用いて行われる。図8(b)には、こうして形状判定された歩行者151が示されている。
ステップS22において対象物が歩行者と判定されたならば、ステップS23に進んで警報判定処理を行う。この処理では、運転者に対し、警報を実際に出力するかどうかを判定し、この判定結果が肯定であれば、警報を出力する。
たとえば、ブレーキセンサ(図示せず)の出力から、車両の運転者がブレーキ操作を行っているか否かを判別し、ブレーキ操作を行っていなければ、警報出力を行うことができる。警報出力は、スピーカ3を介して音声による警報を発するとともに、HUD4により、例えばカメラ1Rにより得られる画像を画面4aに表示し、歩行者を強調表示する。強調表示は任意の手法でよく、たとえば、色のついた枠で囲んで強調することができる。こうして、車両前方に存在する歩行者を、運転者はより確実に認識することができる。なお、警報および画像表示のいずれか一方を用いて警報出力を行ってもよい。
上記のステップS20の他の手法として、たとえば、頭部領域131の高さ(頭部領域131に外接する四角形の高さを用いることができ、画数で表される)と頭身数とから、撮像画像における歩行者の高さhを算出してもよい。たとえば、頭部領域131の高さがhbであり、成人の平均頭身数が7とすると、歩行者の高さhを、h=7×hbと推定することができる。
また、ステップS20およびS21のさらなる他の手法として、頭部領域131の下部領域の輝度値から路面を判定し、対象物領域141を特定する手法を採用してもよい。図9を参照してこの手法を簡単に説明すると、(a)はグレースケール画像(図では、頭部領域131以外のものは省略されている)であり、抽出された頭部領域131の下に、所定サイズのマスク161を設定し、該マスクによって覆われた領域内の輝度値の分散(代替的に、分散の平方根である標準偏差を用いてもよい)を算出する。路面は、輝度値がほぼ一様の画像領域として撮像されると考えられるので、分散が所定値より高ければ、該マスクが設定された領域は路面ではないと判定する。その場合、(b)に示すように、マスク161を下方に移動し、再び分散を算出する。この処理を、マスク161を下方に移動しながら繰り返す。マスク161によって覆われる領域が路面のみになると、分散は低い値を示す。(c)に示すように、分散が所定値より低くなったマスク161の位置が求められたならば、該マスク161の位置と、該マスク161の前回の位置(点線で表示)との間の境界(y座標値がyb)を、対象物領域141の底辺と判断することができる。こうして、幅wを持ち、頭部領域の頂部(y座標がyu)から該境界までの高さを持つ対象物領域141が抽出される。
上記実施例では、輝度値ヒストグラムにおいて、最も度数の高い輝度値を背景の輝度値Tbに設定し、これを、外気温に対応づけた。代替的に、外気温と路面の温度とを区別して、以下のように背景の輝度値Tbを決定してもよい。すなわち、図2に示すように車両前方に配置したカメラの場合、撮像画像に占める路面の面積が大きいため、通常、最も度数の高い輝度値は、路面温度に対応づけることができる。したがって、路面温度と外気温の関係を予めマップ(図示せず)に規定してこれをメモリに記憶しておく。該関係は、実験やシミュレーション等によって得られることができる。
検出された外気温iに基づいて該マップを参照し、対応する路面の温度Rを求める。路面温度Rと外気温iの温度差を算出する。前述したパラメータSiTFを用いて、該温度差を輝度差dTiに変換する。ここで、図10を参照すると、図5と同様の輝度値ヒストグラムが示されている。最も度数の高い輝度値Trは、路面温度Rに対応づけられている。路面の温度Rは、通常、外気温iより高いため、算出された輝度差dTiの分だけ、路面の輝度値Trから減算して、外気温iに対応する輝度値を算出し、これを、図3のステップS15の背景輝度値Tbとする。なお、外気温iの方が路面温度Rより高い場合には、路面の輝度値Trに対して輝度差dTiを加算し、外気温に対応する輝度値Tiを求めればよい。背景の輝度値Tbに対し、輝度差dTmaxおよびdTminを持つ輝度値TcmaxおよびTcminにより、対象物の輝度領域111が特定される。こうして、外気温と路面温度とを区別することにより、背景の輝度値をより正確に求めることができる。したがって、2値化処理に用いる閾値をより適切に設定することができ、対象物を抽出する精度をより高めることができる。
好ましくは、路面温度と外気温との間の温度差は、天候の状態(晴れているかどうか、風速、雨量等)や日没からの経過時間等の外部環境パラメータの値によって変動するおそれがあるので、予め設定された外部環境パラメータ値のそれぞれについてマップを作成して記憶し、その日の外部環境パラメータ値に応じたマップを用いるようにしてもよい。
同様に、図4のマップも、天候の状態等の外部環境パラメータの値ごとに設定してメモリに記憶するようにしてもよい。たとえば、風速が所定値以上の日とそうでない日とでそれぞれマップを作成して記憶し、その日の風速に応じたマップを用いることができる。
また、上記実施例では、図4を参照して説明したように、表面温度差F(i)について、余裕範囲Tを規定する上限値F(i)maxと下限値F(i)minを設定した。このような余裕範囲を設定することにより、より確実かつ良好な精度で対象物を抽出することができるように2値化処理の閾値を設定することができる。しかしながら、代替的に、このような余裕範囲Tを設定することなく、表面温度差F(i)に対応する輝度差dTを算出し、これを、背景の輝度値Tbに加算して、対象物の輝度値Tcを算出してもよい。輝度値Tcを閾値として2値化を行うことができる。たとえば、輝度値Tcに一致する輝度値を有する画素は、対象物であると判定して白領域に設定され、輝度値Tcに一致しない輝度値を有する画素は、対象物ではないと判定して黒領域に設定される。また、輝度値Tcを中心とした所定範囲を、対象物の輝度領域に設定してもよい。
さらに、上記実施例は、2値化処理において抽出すべき対象物が歩行者を例に説明している。代替的に、対象物は、動物等の他の生体でもよい。たとえば、所定の動物について、図3のようなマップを実験やシミュレーション等によって予め作成し、該マップを用いて、前述したような2値化処理の閾値を設定する。動物の場合には、ほぼ全身が外気にさらされていることが多いので、図3のステップS19の2値化処理において、その全身が抽出される。したがって、ステップS20およびS21をスキップし、ステップS22において、ステップS19で抽出された領域に対し、形状判定等を行って、対象物が動物であるかどうかを判定するようにしてもよい。動物と判定されたならば、ステップS23の警報判定が行われる。
また、本願発明は、図3のマップに示されるように、外気温との関係を予め実験やシミュレーション等によって規定することができる表面温度を有する対象物について適用可能であり、よって、対象物は、人間および動物のような生体に必ずしも限定されるものではない。
この発明の一実施例に従う、周辺監視装置の構成を示すブロック図。 この発明の一実施例に従う、カメラの取り付け位置を説明するための図。 この発明の一実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。 この発明の一実施例に従う、外気温と対象物の表面温度との間の関係を規定するマップを示す図。 この発明の一実施例に従う、2値化処理の閾値設定を説明するための図。 従来の2値化画像と、この発明の一実施例に従う2値化画像との比較を表す図。 この発明の一実施例に従う、撮像画像における対象物の大きさの推定を説明するための図。 この発明の一実施例に従う、対象物領域の設定および対象物判定を説明するための図。 この発明の一実施例に従う、対象物領域の設定の他の手法を説明するための図。 この発明の一実施例に従う、路面温度を用いて2値化処理の閾値を設定する手法を説明するための図。
符号の説明
1R,1L 赤外線カメラ(撮像手段)
2 画像処理ユニット
3 スピーカ
4 ヘッドアップディスプレイ

Claims (2)

  1. 車両に搭載された赤外線カメラによって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
    前記車両の外気温を検出する外気温検出手段と、
    前記外気温に基づいて路面温度を推定する路面温度推定手段と、
    前記路面温度と前記外気温との温度差に対応する輝度差に基づいて、前記撮像画像の輝度値ヒストグラムにおいて最も度数の高い輝度値を補正することにより、該外気温に対応する輝度値を求める手段と、
    前記外気温に対応する輝度値を、前記撮像画像における背景の輝度値に設定する手段と、
    前記外気温に基づいて推定された対象物の表面温度と前記外気温との温度差を求める温度差算出手段と、
    前記撮像画像における前記背景の輝度値および前記温度差算出手段により算出された前記温度差に対応する輝度差に基づいて、該撮像画像における該対象物の輝度値を算出する対象物輝度値算出手段と、
    前記対象物の輝度値を閾値として、前記赤外線カメラによって得られた撮像画像を2値化し、前記対象物を抽出する対象物抽出手段と、
    を備える、車両周辺監視装置。
  2. 前記推定された対象物の表面温度として、上限表面温度および下限表面温度があり、
    前記温度差算出手段は、前記推定された上限表面温度と前記外気温との第1の温度差を算出すると共に、前記推定された下限表面温度と前記外気温との第2の温度差を算出し、
    前記対象物輝度値算出手段は、前記背景の輝度値および前記算出された第1の温度差に対応する輝度差に基づいて、前記撮像画像における該対象物の上限の輝度値を算出すると共に、前記背景の輝度値および前記算出された第2の温度差に対応する輝度差に基づいて、該撮像画像における該対象物の下限の輝度値を算出し、
    前記対象物抽出手段は、前記閾値として、前記上限の輝度値および前記下限の輝度値を用い、前記撮像画像の各輝度値が該下限の輝度値と該上限の輝度値の間にあるかどうかに従って、該撮像画像の2値化を行う、
    請求項1に記載の車両周辺監視装置。
JP2008274483A 2008-10-24 2008-10-24 車両の周辺監視装置 Expired - Fee Related JP4482599B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008274483A JP4482599B2 (ja) 2008-10-24 2008-10-24 車両の周辺監視装置
EP09821755.7A EP2346015B1 (en) 2008-10-24 2009-10-08 Vehicle periphery monitoring apparatus
PCT/JP2009/005261 WO2010047055A1 (ja) 2008-10-24 2009-10-08 車両の周辺監視装置
CN200980142182.3A CN102197418B (zh) 2008-10-24 2009-10-08 车辆周围监测装置
US13/124,171 US20110234805A1 (en) 2008-10-24 2009-10-08 Vehicle periphery monitoring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008274483A JP4482599B2 (ja) 2008-10-24 2008-10-24 車両の周辺監視装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010015136A Division JP5149918B2 (ja) 2010-01-27 2010-01-27 車両の周辺監視装置

Publications (2)

Publication Number Publication Date
JP2010102572A JP2010102572A (ja) 2010-05-06
JP4482599B2 true JP4482599B2 (ja) 2010-06-16

Family

ID=42119110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008274483A Expired - Fee Related JP4482599B2 (ja) 2008-10-24 2008-10-24 車両の周辺監視装置

Country Status (5)

Country Link
US (1) US20110234805A1 (ja)
EP (1) EP2346015B1 (ja)
JP (1) JP4482599B2 (ja)
CN (1) CN102197418B (ja)
WO (1) WO2010047055A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5137981B2 (ja) * 2010-02-01 2013-02-06 株式会社ビートソニック 車載用監視カメラ
US9105115B2 (en) * 2010-03-16 2015-08-11 Honeywell International Inc. Display systems and methods for displaying enhanced vision and synthetic images
EP2579229B1 (en) * 2010-06-07 2016-06-29 Honda Motor Co., Ltd. Apparatus and method for monitoring surroundings of a vehicle
US20120013742A1 (en) * 2010-07-16 2012-01-19 Delphi Technologies, Inc. Vision system and method for displaying a field of view dependent upon detecting an object
US10046716B2 (en) 2011-02-10 2018-08-14 Denso Corporation In-vehicle camera and vehicle control system
JP6176028B2 (ja) 2013-09-26 2017-08-09 株式会社デンソー 車両制御システム、画像センサ
US9690997B2 (en) 2011-06-06 2017-06-27 Denso Corporation Recognition object detecting apparatus
JP5370413B2 (ja) 2011-06-06 2013-12-18 株式会社デンソー 認識対象検出装置
JP5782870B2 (ja) * 2011-07-05 2015-09-24 セイコーエプソン株式会社 検出装置及び検出方法
CN103797528A (zh) * 2011-09-28 2014-05-14 本田技研工业株式会社 生物体识别装置
US10565438B2 (en) * 2012-03-12 2020-02-18 Honda Motor Co., Ltd. Vehicle periphery monitor device
CN104335244A (zh) * 2012-06-26 2015-02-04 本田技研工业株式会社 对象物识别装置
JP6013884B2 (ja) * 2012-11-08 2016-10-25 日立オートモティブシステムズ株式会社 物体検出装置及び物体検出方法
JP6440115B2 (ja) 2014-03-06 2018-12-19 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、および表示制御プログラム
CN107107834A (zh) * 2014-12-22 2017-08-29 富士胶片株式会社 投影型显示装置、电子设备、驾驶者视觉辨认图像共享方法以及驾驶者视觉辨认图像共享程序
CN108909626A (zh) * 2017-10-16 2018-11-30 北京兴科迪电子技术研究院 一种厢式货车监控***
DE102020104182A1 (de) 2020-02-18 2021-08-19 HELLA GmbH & Co. KGaA Verfahren zur Bestimmung der Fahrbahntemperatur aus einem Fahrzeug
JPWO2022185085A1 (ja) * 2021-03-03 2022-09-09
JP2023062609A (ja) * 2021-10-21 2023-05-08 パナソニックIpマネジメント株式会社 人体領域検知システム、人体領域検知方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009140A (ja) * 2001-06-26 2003-01-10 Mitsubishi Motors Corp 歩行者検出装置
JP2003016458A (ja) * 2001-06-28 2003-01-17 Honda Motor Co Ltd 対象物抽出装置
JP2005128776A (ja) * 2003-10-23 2005-05-19 Nissan Motor Co Ltd 閾値設定装置及び閾値設定方法
JP2006101384A (ja) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd 人物検出装置及び方法
JP2007264732A (ja) * 2006-03-27 2007-10-11 Mazda Motor Corp 車両用方向者検出装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0481178A (ja) * 1990-07-24 1992-03-13 Fujitsu Ltd Irccd検知器の直流オフセット補正方法
US5196703A (en) * 1991-09-27 1993-03-23 Texas Instruments Incorporated Readout system and process for IR detector arrays
WO2000042399A1 (fr) * 1999-01-14 2000-07-20 Matsushita Electric Industrial Co., Ltd. Dispositif d'imagerie ir, vehicule equipe de ce dispositif et dispositif d'ajustement d'images ir
JP3771246B2 (ja) * 1999-01-14 2006-04-26 松下電器産業株式会社 赤外線画像撮像装置およびこれを搭載した車両
JP3900508B2 (ja) * 1999-07-12 2007-04-04 マツダ株式会社 車両の周囲情報報知装置
EP1083076A3 (en) * 1999-09-07 2005-01-12 Mazda Motor Corporation Display apparatus for vehicle
JP3756452B2 (ja) * 2002-01-18 2006-03-15 本田技研工業株式会社 赤外線画像処理装置
JP2004067031A (ja) * 2002-08-08 2004-03-04 Nissan Motor Co Ltd 操作者判別装置およびこれを用いた車載装置
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP3922245B2 (ja) * 2003-11-20 2007-05-30 日産自動車株式会社 車両周辺監視装置および方法
CN101185084B (zh) * 2005-05-31 2010-06-16 皇家飞利浦电子股份有限公司 用于夜间探测道路的方法和***
JP4536674B2 (ja) 2006-03-27 2010-09-01 本田技研工業株式会社 歩行者認識装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009140A (ja) * 2001-06-26 2003-01-10 Mitsubishi Motors Corp 歩行者検出装置
JP2003016458A (ja) * 2001-06-28 2003-01-17 Honda Motor Co Ltd 対象物抽出装置
JP2005128776A (ja) * 2003-10-23 2005-05-19 Nissan Motor Co Ltd 閾値設定装置及び閾値設定方法
JP2006101384A (ja) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd 人物検出装置及び方法
JP2007264732A (ja) * 2006-03-27 2007-10-11 Mazda Motor Corp 車両用方向者検出装置

Also Published As

Publication number Publication date
CN102197418A (zh) 2011-09-21
EP2346015A4 (en) 2012-04-11
WO2010047055A1 (ja) 2010-04-29
CN102197418B (zh) 2014-08-06
JP2010102572A (ja) 2010-05-06
US20110234805A1 (en) 2011-09-29
EP2346015B1 (en) 2014-06-18
EP2346015A1 (en) 2011-07-20

Similar Documents

Publication Publication Date Title
JP4482599B2 (ja) 車両の周辺監視装置
JP4203512B2 (ja) 車両周辺監視装置
JP4173901B2 (ja) 車両周辺監視装置
US10565438B2 (en) Vehicle periphery monitor device
US20130235202A1 (en) Vehicle periphery monitoring apparatus and method of determining type of object for use in vehicle periphery monitoring apparatus
JP4528283B2 (ja) 車両周辺監視装置
JP5687702B2 (ja) 車両周辺監視装置
JP4173902B2 (ja) 車両周辺監視装置
US20070211919A1 (en) Vehicle surroundings monitoring apparatus
JP5809751B2 (ja) 対象物認識装置
JP5760090B2 (ja) 生体認識装置
JPWO2011086807A1 (ja) 車両周辺監視装置
JP4813304B2 (ja) 車両周辺監視装置
JP5502149B2 (ja) 車両周辺監視装置
JP4765113B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP5149918B2 (ja) 車両の周辺監視装置
JP2011221630A (ja) 車両の周辺監視装置
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP2010092429A (ja) 車両周辺監視装置
JP5056679B2 (ja) ナイトビューシステム
JP4627305B2 (ja) 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム
JP4937243B2 (ja) 車両の周辺監視装置
JP5383246B2 (ja) 車両の周辺監視装置
JP5885640B2 (ja) 車両周辺監視装置
JP5907849B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100319

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees