JP4659906B2 - 暗視装置 - Google Patents

暗視装置 Download PDF

Info

Publication number
JP4659906B2
JP4659906B2 JP2009513905A JP2009513905A JP4659906B2 JP 4659906 B2 JP4659906 B2 JP 4659906B2 JP 2009513905 A JP2009513905 A JP 2009513905A JP 2009513905 A JP2009513905 A JP 2009513905A JP 4659906 B2 JP4659906 B2 JP 4659906B2
Authority
JP
Japan
Prior art keywords
image
area
luminance
value
irradiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009513905A
Other languages
English (en)
Other versions
JPWO2008139565A1 (ja
Inventor
誠也 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2008139565A1 publication Critical patent/JPWO2008139565A1/ja
Application granted granted Critical
Publication of JP4659906B2 publication Critical patent/JP4659906B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

本発明は、照射した赤外線の反射光を用いて被写体の画像を撮影する暗視装置に関するものである。
近年、夜間(あるいは低照度時)に車両を運転するドライバーの安全性を向上すべく、暗視装置を車両に搭載し、視認性の高い車両の前方路上の画像(暗視画像)をドライバーに表示する技術が実用化されている。車両搭載用の暗視装置としては、大きく分けて遠赤外線方式による暗視装置と近赤外線方式による暗視装置がある。
遠赤外線方式による暗視装置は、前方路上の人や車両が発する熱(遠赤外線)を遠赤外線カメラにより画像化することで機能を実現する。熱源そのものを可視化できるため、照明がない状況でも撮影ができるメリットがある。しかし、遠赤外線方式では、背景と物体との温度差がない場合には撮影することができず、道路標識や路面ペイントなども撮影することができない。また、遠赤外線方式による暗視装置が高価というデメリットもある。
一方、近赤外線方式による暗視装置は、近赤外線光を前方に照射し、反射光を、近赤外線波長域を撮影できるカメラで撮影して表示する。この方式では、熱を発しない物体でも撮影でき、目視に近い画像を得ることができる。また、近赤外線方式による暗視装置は、遠赤外線方式による暗視装置よりも安価である。
しかし、近赤外線方式による暗視装置は、対向車両のヘッドライトなど強い発光体の影響を受けやすく、また、再帰性反射素材による道路標識では、強い反射により標識を読み取れないなどの問題がある。
そこで、近赤外線照明をパルス状に発光させ、照明発行時の画像と照明非発行時の画像との差分画像を用いて暗視画像を補正することによって、発光体の影響を低減させるという技術が公開されている(特許文献1、特許文献2等参照)。
特開2002−274258号公報 特開2003−87644号公報
しかしながら、近赤外線方式の暗視装置を用いて暗視画像を撮影し、上述した従来の技術(例えば、特許文献1、特許文献2)によって暗視画像を補正した場合であっても、所定の特性を有する物体(例えば、再帰性反射素材の物体(道路標識など))の視認性を向上させることができないという問題があった。
本発明は、上記に鑑みてなされたものであって、物体の特性によらず、暗視画像の視認性を向上させることができる暗視装置を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、照射した赤外線の反射光を用いて被写体の画像を撮影する暗視装置であって、前記赤外線を照射した時点において撮影した画像を示す照射時画像の輝度値と前記赤外線を照射していない時点において撮影した画像を示す非照射時画像の輝度値とを基にして撮影した画像を複数の領域に分割する画像分割手段と、前記画像分割手段によって分割された領域の特徴に基づいて各領域の輝度補正を実行する輝度補正手段とを備え、前記画像分割手段は、前記非照射時画像の輝度値が第3の閾値よりも小さく、かつ、前記照射時画像の輝度値が第4の閾値よりも大きい画像上の領域を高反射領域として分割し、前記輝度補正手段は、前記高反射領域に分割された画像領域の輝度値を、前記非照射時画像の高反射領域の輝度値を輝度補正した値に基づいて補正することを特徴とする。
また、本発明は、上記発明において、前記画像分割手段は、前記非照射時画像の輝度値が第1の閾値よりも大きく、かつ、前記照射時画像の輝度値が第2の閾値よりも大きい画像上の領域を発光領域として分割し、前記輝度補正手段は、前記発光領域に分割された画像領域の輝度値を前記照射時画像または前記非照射時画像の発光領域に含まれる輝度値によって補正することを特徴とする。
また、本発明は、上記発明において、前記画像分割手段は、前記非照射時画像の輝度値が前記照射時画像の輝度値よりも大きくなる画像上の領域を低輝度領域として分割し、前記輝度補正手段は、前低輝度領域に分割された画像領域の輝度値を、前記照射時画像の低輝度領域の輝度値を輝度補正した値に基づいて補正することを特徴とする。
また、本発明は、上記発明において、前記被写体を可視光カメラによって撮影された可視光画像を取得する可視光画像取得手段をさらに備え、前記輝度補正手段は、前記可視光画像を用いて前記発行領域および前記高反射領域の画素値を生成することを特徴とする。
本発明によれば、赤外線を照射した時点において撮影した画像を示す照射時画像の輝度値と赤外線を照射していない時点において撮影した画像を示す非照射時画像の輝度値とを基にして撮影した画像を複数の領域に分割し、分割した領域の特徴に基づいて各領域の輝度補正を実行するので、被写体の特性のよらず暗視画像の視認性を向上させることができる。
また、本発明によれば、非照射時画像の輝度値が第1の閾値よりも大きく、かつ、照射時画像の輝度値が第2の閾値よりも大きい画像上の領域を発光領域として分割し、発光領域に分割された画像領域の輝度値を照射時画像または非照射時画像の発光領域に含まれる輝度値によって補正するので、発光領域を適切に輝度補正することができる。
また、本発明によれば、非照射時画像の輝度値が第3の閾値よりも小さく、かつ、前記照射時画像の輝度値が第4の閾値よりも大きい画像上の領域を高反射領域として分割し、高反射領域に分割された画像領域の輝度値を、非照射時画像の高反射領域の輝度値を輝度補正した値に基づいて補正するので、高反射領域に対する視認性を向上させることができる。
また、本発明によれば、前記非照射時画像の輝度値が前記照射時画像の輝度値よりも大きくなる画像上の領域を低輝度領域として分割し、低輝度領域に分割された画像領域の輝度値を、照射時画像の低輝度領域の輝度値を輝度補正した値に基づいて補正するので、低輝度領域を適切に輝度補正することができる。
また、本発明によれば、被写体を可視光カメラによって撮影された可視光画像を取得し、可視光画像を用いて前記発行領域および前記高反射領域の画素値を生成するので、暗視画像の視認性をさらに向上させることができる。
以下に添付図面を参照して、この発明にかかる暗視装置の実施例を詳細に説明する。
まず、本実施例1にかかる暗視装置の概要および特徴について説明する。図1は、本実施例1にかかる暗視装置の概要および特徴を説明するための図である。同図に示すように、暗視装置は、近赤外線カメラが撮影した画像(以下、入力フィールド画像と表記する)を奇数フィールド画像と偶数フィールド画像とに分離する(入力フィールド画像は、奇数フィールド画像および偶数フィールド画像を合わせた画像となる)。ここで、奇数フィールド画像は、被写体に赤外線を照射していない時点の画像を示し、偶数フィールド画像は、被写体に赤外線を照射している時点の画像を示す。
そして、暗視装置は、奇数フィールド画像の輝度値および偶数フィールド画像の輝度値に基づいて画像を複数の領域に分割し、分割した各領域をそれぞれの領域の特徴にあわせて輝度補正を行う。本実施例1にかかる暗視装置は、画像を発光領域、高反射領域、低輝度領域に分割する。
発光領域は、自ら発光する被写体を含んだ領域であり、対向車両のヘッドライト、先行車両のテールライト、街路照明、発光標識などに該当する。高反射領域は、赤外線、可視光などの光を強く反射する領域であり、道路標識、視線誘導標、先行車両の後部リフレクタ、車両ボディ(鏡面反射)などに該当する。
また、低輝度領域は、入力フィールド画像の領域のうち、発光領域および高反射領域のいずれの領域にも属さない領域であり、路面、歩行者、他車両ボディ(拡散反射)、建築物、空、背景などに該当する。
このように、本実施例1にかかる暗視装置は、入力フィールド画像を奇数フィールド画像および偶数フィールド画像に分離し、暗視装置は、奇数フィールド画像の輝度値および偶数フィールド画像の輝度値に基づいて画像を複数の領域に分割し、分割した各領域をそれぞれの領域の特徴にあわせて輝度補正を行うので、被写体の特性によらず、暗視画像の視認性を向上させることができる。
つぎに、本実施例1にかかる暗視装置を搭載した車両の構成の一例について説明する。図2は、本実施例1にかかる暗視装置を搭載した車両の構成を示す図である。同図に示すように、この車両10は、ヘッドライト20、ディスプレイ30、撮影光学系レンズ40、照明光学系レンズ50、近赤外線光源(レーザダイオード、発光ダイオードなど)60、近赤外線カメラ70、照明制御部80、暗視画像処理部100を備える。
このうち、近赤外線光源60は、近赤外線カメラ70の視野を照らすように予め設定されているものとする。近赤外線光源60としては、LED(発光ダイオード)を複数的に組合せて用いてもよいし、レーザダイオードの拡散照射を用いてもよい。
また、近赤外線カメラ70は、暗視画像を作成する車両前方路上を撮影するように設置され、例えば、車両10上部に水平に設置される。近赤外線カメラ70としては、近赤外線帯域に感度を持つモノクロCCDカメラ等を用いる。近赤外線カメラ70に可視光カットフィルタを装着してもよい。
照明制御部80は、近赤外線光源60を制御して断続的に赤外線を発光させる処理部である。図3は、近赤外線光源60の赤外線発光タイミングと近赤外線カメラ70の露光タイミングとの関係を示す図である。同図に示すように、照明制御部80は、近赤外線カメラ70が偶数フィールド画像を撮影するタイミング(偶数フィールド露光タイミング)と赤外線発光タイミングとが同期するように、近赤外線光源60を制御する。
すなわち、図3に示すタイミングによって近赤外線カメラ70が奇数フィールド画像および偶数フィールド画像を撮影し(近赤外線カメラ70が30fpsインタレースで動作し)、照明制御部80が近赤外線光源60を制御することによって、奇数フィールドでは環境光による画素値が記録される。そして、奇数フィールドの露光タイミングに対して、偶数フィールド露光タイミングでは、環境光と照射した近赤外線の反射光による画素値が1/60secの時間差で記録される。
暗視画像処理部100は、奇数フィールド画像の輝度値および偶数フィールド画像の輝度値に基づいて画像を複数の領域に分割し、分割した各領域をそれぞれの領域の特徴にあわせて輝度補正を行う処理部である(暗視画像処理装置100が、本発明にかかる暗視装置に対応する)。図4は、本実施例1にかかる暗視画像処理部100の構成を示す機能ブロック図である。
同図に示すように、この暗視画像処理部100は、フィールド分離部110と、スミア除去部120と、領域分割処理部130と、発光領域処理部140と、高反射領域処理部150と、低輝度領域処理部160と、合成処理部170とを備えて構成される。
フィールド分離部110は、近赤外線カメラ70から入力フィールド画像のデータを取得し、取得した入力フィールド画像を奇数フィールド画像および偶数フィールド画像に分離する処理部である。フィールド分離部110は、分離した奇数フィールド画像および偶数フィールド画像のデータをスミア除去部120に出力する。
スミア除去部120は、奇数フィールド画像および偶数フィールド画像のデータを取得し、奇数フィールド画像および偶数フィールド画像に存在するスミアを除去する処理部である。図5は、スミア除去部120の処理を説明するための図である。
まず、スミア除去部120は、奇数フィールド画像を走査して各垂直ラインの最小輝度値を判定する。そして、スミア除去部120は、各垂直ラインの最小輝度値を奇数フィールド画像の左端の垂直ラインの最小輝度値から順に並べた最小輝度値配列S(x)を生成する。最小輝度配列S(x)に配列される最後の最小輝度値は、奇数フィールド画像の右端の垂直ラインの最小輝度値となる。
スミア除去部120は、最小輝度配列S(x)を基にして、奇数フィールド画像の全体の輝度値を調整する。例えば、スミア除去部120は、最小輝度配列S(n)(nは正の整数)の最小輝度値がAだった場合には、奇数フィールド画像の左端からn番目の垂直ラインに含まれる各輝度値から最小輝度値Aをそれぞれ減算する。その他の垂直ラインに含まれる各輝度値も、対応する最小輝度値を減算する。
このように、スミア除去部120が、各垂直ラインに含まれる輝度値から最小輝度値を減算することによって、図5の右側の画像のようにスミアの影響を除去することができる。なお、スミア除去部120は、偶数フィールド画像に対しても、奇数フィールド画像の場合と同様の手法を用いてスミアの影響を除去する。
領域分割処理部130は、スミア除去部120からスミアが除去された奇数フィールド画像(以下、単に奇数フィールド画像)およびスミアが除去された偶数フィールド画像(以下、単に偶数フィールド画像)のデータを取得し、取得した奇数フィールド画像および偶数フィールド画像に基づいて、画像を複数の領域(発光領域、高反射領域、低輝度領域)に分割する処理部である。
具体的に、領域分割処理部130は、その内部に領域分割テーブルを保持しており、かかる領域分割テーブルと、奇数フィールド画像の輝度値と、偶数フィールド画像の輝度値とを比較して各領域に分割する。図6は、領域分割テーブルのデータ構造の一例を示す図である。図6に示す閾値1〜4は、管理者が予め設定しておくものとする。領域分割処理部130は、奇数フィールド画像、偶数フィールド画像の画素単位で、輝度値を比較してもよいし、所定の領域ごとに輝度値を比較してもよい。
図6に示すように、奇数フィールド画像の輝度値が閾値1よりも大きく、かつ、偶数フィールド画像の輝度値が閾値2よりも大きい場合には、領域分割処理部130は、対応する部分(画素)を発光領域と判定する。
一方、偶数フィールド画像の輝度値が閾値3よりも小さく、かつ、偶数フィールド画像の輝度値が閾値4よりも大きい場合には、領域分割処理部130は、対応する部分(画素)を高反射領域と判定する。領域分割処理部130は、発光領域および高反射領域のいずれにも属さない部分(画素)、あるいは、偶数フィールド画像の輝度値よりも奇数フィールド画像の輝度値が大きくなる部分(画素)を低輝度領域と判定する。
そして、領域分割処理部130は、判定結果に基づいて、画像を発光領域、高反射領域および低輝度領域に分割し、発光領域の画像のデータ、高反射領域の画像のデータ、低輝度領域の画像のデータを発光領域処理部140、高反射領域処理部150、低輝度領域処理部160に出力する。
ところで、領域分割処理部130は、各種標識形状のデータを保持しており、標識形状と分割した高反射領域の形状とを比較し、形状が一致するか否かを判定する。形状が一致すれば、高反射領域をそのまま高反射領域の画像のデータとして高反射領域処理部150に出力する。
一方、形状が一致しない場合には、領域分割処理部130は、形状が一致しなかった高反射領域を低輝度領域の画像のデータとして低輝度領域処理部160に出力する。
発光領域処理部140は、領域分割処理部130から発光領域の画像のデータを取得し、発光領域に応じた輝度補正を行う処理部である。具体的に、発光領域処理部140は、発光領域に含まれる各画素の輝度値を、かかる発光領域に対応する偶数フィールド画像(あるいは奇数フィールド画像)に含まれる画素の輝度値に補正する。
例えば、発光領域に含まれるある点(x,y)の輝度値を、偶数フィールド画像の点(x,y)の輝度値に補正する。発光領域処理部140は、発光領域に含まれる全ての画素に対して輝度補正を実行する。発光領域処理部140は、輝度補正を行った発光領域の画像(以下、補正発光領域画像)のデータを合成処理部170に出力する。
高反射領域処理部150は、領域分割処理部130から高反射領域の画像のデータを取得し、高反射領域に応じた輝度補正を行う処理部である。具体的に、高反射領域処理部150の処理を説明すると、高反射領域処理部150は、まず、奇数フィールド画像中の高反射領域の輝度値に基づいて、高反射領域輝度変換テーブルを生成する。
ここで、高反射領域輝度変換テーブルの生成手法の一例について説明する。高反射領域処理部150は、奇数フィールド画像中の高反射領域に含まれる各輝度値から最大輝度値を検出し、検出した最大輝度値が255となる倍率Bを算出する。
例えば、高反射領域の最大輝度値をCとすると、倍率Bは、
B=255/C
となる。簡単のため、最大輝度値を100とすると、倍率Bは、2.55となるので、高反射領域輝度変換テーブルは、図7のように表すことができる。図7は、高反射領域輝度変換テーブルのデータ構造の一例を示す図である。
高反射領域処理部150は、奇数フィールド画像の高反射領域に含まれる輝度値と高反射領域輝度変換テーブルの入力輝度値とを比較し、補正後の輝度値(出力輝度値)となるように該当画素に対して輝度補正を行う。例えば、輝度値が2である場合には、補正後の輝度値を5.1に設定する(図7参照)。高反射領域処理部150は、高反射領域に含まれる全ての画素に対して輝度補正を実行する。高反射領域処理部150は、輝度補正を行った高反射領域の画像(以下、補正高反射領域画像)のデータを合成処理部170に出力する。
低輝度領域処理部160は、領域分割処理部130から低輝度領域の画像のデータを取得し、低輝度領域に応じた輝度補正を行う処理部である。具体的に、低輝度領域処理部160の処理を説明すると、低輝度領域処理部160は、まず、偶数フィールド画像中の低輝度領域の輝度値に基づいて、低輝度領域変換テーブルを生成する。
ここで、低輝度領域変換テーブルの生成手法の一例について説明する。低輝度領域処理部160は、偶数フィールド画像中の低輝度領域に含まれる各輝度値から最大輝度値を検出し、検出した輝度値が255となる倍率Dを算出する。
例えば、低輝度領域の最大輝度値をEとすると、倍率Dは、
D=255/E
となる。簡単のため、最大輝度値を80とすると、倍率Dは、3.19となるので、低輝度領域変換テーブルは、図8のように表すことができる。図8は、低輝度領域変換テーブルのデータ構造の一例を示す図である。
低輝度領域処理部160は、偶数フィールド画像の低輝度領域に含まれる輝度値と低輝度領域変換テーブルの入力輝度値とを比較し、補正後の輝度値(出力輝度値)となるように該当画素に対して輝度補正を行う。例えば、輝度値が2である場合には、補正後の輝度値を6.38に設定する(図8参照)。低輝度領域処理部160は、輝度補正を行った低輝度領域の画像(以下、補正低輝度領域画像)のデータを合成処理部170に出力する。
合成処理部170は、発光領域処理部140から補正発光領域画像のデータ、高反射領域処理部150から高反射領域画像のデータ、低輝度領域処理部160から補正低輝度領域画像のデータを取得し、取得した各画像を合成する処理部である。合成処理部170は、合成した画像のデータを暗視画像として、ディスプレイ30に出力する。
図9は、本手法による暗視画像と従来の手法にかかる暗視画像を示す図である。同図に示すように、本手法にかかる暗視画像は、従来の暗視画像と比較して、スミアの影響が低減されているとともに、高反射領域の視認性を向上させることができる。
次に、本実施例1にかかる暗視画像処理部100の処理手順について説明する。図10は、本実施例1にかかる暗視画像処理部100の処理手順を示すフローチャートである。同図に示すように、暗視画像処理部100は、フィールド分離部110が入力フィールド画像のデータを取得し(ステップS101)、入力フィールド画像を奇数フィールド画像と偶数フィールド画像に分離する(ステップS102)。
そして、スミア除去部120が、スミア除去処理を実行して奇数フィールド画像と偶数フィールド画像のスミアを除去し(ステップS103)、領域分割処理部130が画像を発光領域、高反射領域、低輝度領域に分割する(ステップS104)。
続いて、発光領域処理部140は、発光領域処理を実行し(ステップS105a)、高反射領域処理部150は、高反射領域処理を実行し(ステップS105b)、低輝度領域処理部160は、低輝度領域処理を実行する(ステップS105c)。
合成処理部170は、発光領域処理部140から補正発光領域画像のデータ、高反射領域処理部150から補正高反射領域画像のデータ、低輝度領域処理部160から補正低輝度領域画像のデータをそれぞれ取得して合成処理を実行し(ステップS106)、ディスプレイ30に画像を出力する(ステップS107)。
暗視画像処理部100が処理を継続して行う場合には(ステップS108,No)、ステップS101に移行し、処理を終了する場合には(ステップS108,Yes)、処理を終了する。
次に、図10のステップS103に示したスミア除去処理について説明する。図11は、スミア除去処理の処理手順を示すフローチャートである。同図に示すように、スミア除去部120は、奇数フィールド画像を走査し、各垂直ライン中の最小輝度値配列S(x)を生成し(ステップS201)、奇数フィールド画像の未処理の任意の点(x,y)の輝度値からS(x)を減算する(ステップS202)。
スミア除去部120は、奇数フィールド画像上の全画素に対して処理が終了したか否かを判定し(ステップS203)、処理が終了していない場合には(ステップS204,No)、ステップS202に移行する。
一方、処理が終了している場合には(ステップS204,Yes)、スミア除去部120は、偶数フィールド画像を走査し、各垂直ライン中の最小輝度値配列S(x)を生成し(ステップS205)、偶数フィールド画像の未処理の任意の点(x,y)の輝度値からS(x)を減算する(ステップS206)。
スミア除去部120は、偶数フィールド画像上の全画素に対して処理が終了したか否かを判定し(ステップS207)、処理が終了していない場合には(ステップS208,No)、ステップS206に移行し、処理が終了している場合には(ステップS208,Yes)、スミア除去処理を終了する。
このように、スミア除去部120が、奇数フィールド画像および偶数フィールド画像に存在するスミアを除去するので、各領域に対する輝度補正をより正確に実行することができるとともに、暗視画像の視認性を向上させることができる。
次に、図10のステップS104に示した領域分割処理について説明する。図12は、領域分割処理の処理手順を示すフローチャートである。同図に示すように、領域分割処理部130は、領域分割されていない画素値を取得し(ステップS301)、奇数フィールド画像の輝度値が閾値1より大きく、かつ、偶数フィールド画像の輝度値が閾値2よりも大きくなるか否かを判定し(ステップS302)、条件を満たす場合には(ステップS303,Yes)、かかる画素を発光領域として登録し(ステップS304)、ステップS311に移行する。
一方、条件を満たさない場合には(ステップS303,No)、奇数フィールド画像の輝度値が閾値3未満、かつ、偶数フィールド画像の輝度値が閾値4より大きくなるか否かを判定し(ステップS305)、条件を満たさない場合には(ステップS306,No)、かかる画素を低輝度領域として登録し(ステップS307)、ステップS311に移行する。
一方、条件を満たす場合には(ステップS306,Yes)、判定対象となる画素によって分割される領域が標識形状であるか否かを判定し(ステップS308)、標識形状でない場合には(ステップS309,No)、ステップS307に移行する。
一方、標識形状である場合には(ステップS309,Yes)、かかる画素を高反射領域として登録する(ステップS310)。そして、領域分割処理部130は、全画素に対して処理が終了していない場合には(ステップS311,No)、ステップS301に移行し、処理が終了している場合には(ステップS311,Yes)、領域分割処理を終了する。
次に、図10のステップS105aに示した発光領域処理について説明する。図13は、発光領域処理の処理手順を示すフローチャートである。同図に示すように、発光領域処理部140は、補正されていない輝度値(画素値)を取得し(ステップS401)、発光領域か否かを判定する(ステップS402)。
発光領域でない場合には(ステップS403,No)、該当輝度値をnullに設定し(ステップS404)、ステップS406に移行する。一方、発光領域である場合には(ステップS403,Yes)、偶数フィールド画像の輝度値を領域の輝度値に設定する(ステップS405)。
発光領域処理部140は、全画素に対する処理が終了したか否かを判定し、全画素に対する処理が終了していない場合には(ステップS406,No)、ステップS401に移行し、処理が終了している場合には(ステップS406,Yes)、発光領域処理を終了する。
このように、発光領域処理部140が、発光領域の輝度値を、偶数フィールド画像の輝度値(最高輝度値)に置き換えるので、対向車両のヘッドライトなどを精度よく暗視画像に表示させることができる。
次に、図10のステップS105bに示した高反射領域処理について説明する。図14は、高反射領域処理の処理手順を示すフローチャートである。同図に示すように、高反射領域処理部150は、奇数フィールド画像中の高反射領域の輝度値に基づいて高反射領域輝度変換テーブルを生成し(ステップS501)、補正されていない輝度値を取得する(ステップS502)。
そして、高反射領域処理部150は、高反射領域か否かを判定し(ステップS503)、高反射領域でない場合には(ステップS504,No)、輝度値をnullに設定し(ステップS505)、ステップS507に移行する。
一方、高反射領域である場合には(ステップS504,Yes)、奇数フィールド画像の輝度値を高反射領域輝度変換テーブルに基づいて変換し、領域の輝度値に設定する(ステップS506)。
高反射領域処理部150は、全画素に対する処理が終了したか否かを判定し、全画素に対する処理が終了していない場合には(ステップS507,No)、ステップS502に移行し、処理が終了している場合には(ステップS507,Yes)、高反射領域処理を終了する。
このように、高反射領域処理部150が、画像の高反射領域を高反射領域輝度変換テーブルに基づいて輝度補正するので、再帰性反射素材によって生成された道路標識などの視認性を向上させることができる。
次に、図10のステップS105cに示した低輝度領域処理について説明する。図15は、低輝度領域処理の処理手順を示すフローチャートである。同図に示すように、低輝度領域処理部160は、偶数フィールド画像中の低輝度領域の輝度値に基づいて低輝度領域変換テーブルを生成し(ステップS601)、補正されていない輝度値を取得する(ステップS602)。
そして、低輝度領域処理部160は、低輝度領域か否かを判定し(ステップS603)、低輝度領域でない場合には(ステップS604,No)、該当画素をnullに設定し(ステップS605)、ステップS607に移行する。
一方、低輝度領域である場合には(ステップS604,Yes)、偶数フィールド画像の輝度値を低輝度領域変換テーブルに基づいて変換し、領域の輝度値に設定する(ステップS606)。
低輝度領域処理部160は、全画素に対する処理が終了したか否かを判定し、全画素に対する処理が終了していない場合には(ステップS607,No)、ステップS602に移行し、処理が終了している場合には(ステップS607,Yes)、低輝度領域処理を終了する。
このように、低輝度領域処理部160が、画像の低輝度領域を低輝度領域輝度変換テーブルに基づいて輝度補正するので、低輝度領域の画像の視認性を向上させることができる。
次に、図10のステップS106に示した合成処理について説明する。図16は、合成処理の処理手順を示すフローチャートである。同図に示すように、合成処理部170は、処理されていない輝度値を取得し(ステップS701)、取得した輝度値を、高反射領域の輝度値と発光領域の輝度値と低輝度領域の輝度値を加算した輝度値に設定する(ステップS702)。
そして、合成処理部170は、全画素に対する処理が終了したか否かを判定し、全画素に対する処理が終了していない場合には(ステップS703,No)、ステップS701に移行し、処理が終了している場合には(ステップS703,Yes)、合成処理を終了する。
上述してきたように、本実施例1にかかる暗視画像処理部100(暗視装置)は、近赤外線カメラ70から取得した入力フィールド画像を奇数フィールド画像と偶数フィールド画像に分離し、奇数フィールド画像および偶数フィールド画像に含まれる各画素の輝度値に基づいて画像を複数の領域(発光領域、高反射領域、低輝度慮域)に分割する。そして、暗視画像処理部100は、各領域の特徴に合わせて輝度補正を実施するので、暗視画像の視認性を向上させることができる。
ところで、図4に示した高反射領域処理部150は、高反射領域の輝度補正を実施する場合に、奇数フィールド画像を基にしたγ補正などの輝度補正を実施してもよい。また、低輝度領域処理部160は、低輝度領域の輝度補正を実施する場合に、偶数フィールド画像を基にしたγ補正などの輝度補正を実施してもよい。
次に、本実施例2にかかる暗視装置の概要および特徴について説明する。本実施例2にかかる暗視装置は、実施例1において示した同様の手法によって、各領域(発光領域、高反射領域、低輝度領域)の輝度補正を行うとともに、カラーカメラによって撮影したカラー画像を利用して発光領域、高反射領域を色つきで表示させる。
このように、本実施例2にかかる暗視装置は、暗視画像上の発光領域および高反射領域を色つきで表示させるので、視認性をさらに向上させることができる。
つぎに、本実施例2にかかる暗視装置を搭載した車両の構成の一例について説明する。図17は、本実施例2にかかる暗視装置を搭載した車両の構成を示す図である。同図に示すように、この車両15は、ヘッドライト20、ディスプレイ30、撮影光学系レンズ40、照明光学系レンズ50、近赤外線光源60、近赤外線カメラ70、照明制御部80、カラーカメラ90、暗視画像処理部200を備える。
このうち、ヘッドライト20、ディスプレイ30、撮影光学系レンズ40、照明光学系レンズ50、近赤外線光源60、近赤外線カメラ70、照明制御部80は、図2に示したヘッドライト20、ディスプレイ30、撮影光学系レンズ40、照明光学系レンズ50、近赤外線光源60、近赤外線カメラ70、照明制御部80と同様であるため、説明を省略する。
カラーカメラ90は、近赤外線カメラ70と撮影範囲を同一に設定されたか可視光カメラである。図18は、近赤外線カメラと撮影範囲を同一にするカラーカメラの構成例を示す図である。
図18に示すように、撮影光学系レンズ40から入射された光が、ビームスプリッタ90aによって分割され、近赤外線カメラ70およびカラーカメラ90(赤外線カットフィルタ90bを介してカラーカメラ90)に出力される。図18のように、近赤外線カメラ70、カラーカメラ90を構成することによって、近赤外線カメラと撮影範囲を同一にすることができる。
暗視画像処理部200は、実施例1において示した同様の手法によって、各領域(発光領域、高反射領域、低輝度領域)の輝度補正を行うとともに、カラーカメラ90によって撮影したカラー画像を利用して発光領域、高反射領域を色つきでディスプレイ30に表示させる処理部である。
ここで、本実施例2にかかる暗視画像処理部200の構成について説明する。図19は、本実施例2にかかる暗視画像処理部200の構成を示す機能ブロック図である。同図に示すように、この暗視画像処理部200は、フィールド分離部210と、スミア除去部220と、領域分割処理部230と、発光領域処理部240と、高反射領域処理部250と、低輝度領域処理部260と、合成処理部270とを備えて構成される。
なお、フィールド分離部210、スミア除去部220、領域分割処理部230、低輝度領域処理部260、合成処理部270が行う処理内容は、図4において説明したフィールド分離部110、スミア除去部120、領域分割処理部130、低輝度領域処理部160、合成処理部170と同じであるため説明を省略する。
発光領域処理部240は、カラーカメラ90からカラー画像のデータを取得し、領域分割処理部230から発光領域の画像のデータを取得し、発光領域に応じた輝度補正を行う処理部である。具体的に、発光領域処理部240は、発光領域に含まれる各画素値、各輝度値を、かかる発光領域に対応するカラー画像の画素値および輝度値に置き換える。
例えば、発光領域に含まれるある点(x,y)の画素値、輝度値を、カラー画像の点(x,y)の画素値、輝度値に置き換える。発光領域処理部240は、発光領域に含まれる全ての画素に対して輝度補正(置き換え)を実行する。発光領域処理部240は、輝度補正を行った発光領域の画像のデータを合成処理部270に出力する。
高反射領域処理部250は、カラーカメラ90からカラー画像のデータを取得し、領域分割処理部230から高反射領域の画像のデータを取得し、高反射領域に応じた輝度補正を行う処理部である。具体的に、高反射領域処理部250の処理を説明すると、まず、カラー画像中の高反射領域の輝度値に基づいて、高反射領域輝度変換テーブルを生成する。高反射領域輝度変換テーブルの生成手法は、実施例1において説明した手法と同様である。また、高反射領域輝度変換テーブルのデータ構造も同様である(図7参照)。
高反射領域処理部250は、カラー画像中の高反射領域に含まれる輝度値と高反射領域輝度変換テーブルの入力輝度値とを比較し、補正後の輝度値(出力輝度値)となるように、カラー画像の画素に対して輝度補正を実行する。高反射領域処理部250は、輝度補正を行った高反射領域の画像のデータを合成処理部270に出力する。
次に、本実施例2にかかる暗視画像処理部200の処理手順について説明する。なお、ここでは、実施例1に示した暗視画像処理部100の処理と異なる発光領域処理および高反射領域処理について説明する。まず、発光領域処理について説明する。図20は、本実施例2にかかる発光領域処理の処理手順を示すフローチャートである。
図20に示すように、発光領域処理部240は、補正されていない輝度値を取得し(ステップS801)、発光領域か否かを判定する(ステップS802)。発光領域でない場合には(ステップS803,No)、輝度値をnullに設定し(ステップS804)、ステップS806に移行する。
一方、発光領域である場合には(ステップS803,Yes)、カラー画像の画素値、輝度値を発光領域の画素値、輝度値に設定する(ステップS805)。そして、発光領域処理部240は、全画素に対する処理が終了したか否かを判定し、全画素に対する処理が終了していない場合には(ステップS806,No)、ステップS801に移行し、処理が終了している場合には(ステップS806,Yes)、発光領域処理を終了する。
次に、高反射領域処理について説明する。図21は、本実施例2にかかる高反射領域処理の処理手順を示すフローチャートである。同図に示すように、高反射領域処理部250は、カラー画像中の高反射領域の輝度値に基づいて高反射領域輝度変換テーブルを生成し(ステップS901)、補正されていない輝度値を取得する(ステップS902)。
そして、高反射領域処理部250は、取得した輝度値が高反射領域の輝度値か否かを判定し(ステップS903)、高反射領域でない場合には(ステップS904,No)、輝度値をnullに設定し(ステップS905)、ステップS907に移行する。
一方、高反射領域である場合には(ステップS904,Yes)、カラー画像の輝度値を高反射領域輝度変換テーブルに基づいて変換し、領域の輝度値に設定する(ステップS906)。そして、高反射領域処理部250は、全画素に対する処理が終了したか否かを判定し、全画素に対する処理が終了していない場合には(ステップS907,No)、ステップS902に移行し、処理が終了している場合には(ステップS907,Yes)、高反射領域処理を終了する。
上述してきたように、本実施例2にかかる暗視画像処理部200は、画像を複数の領域(発光領域、高反射領域、低輝度領域)に分割し、カラーカメラ90によって撮影したカラー画像を利用して、発光領域、高反射領域の輝度補正を行い、発光領域および高反射領域を色つきで表示させるので、視認性をさらに向上させることができる。
ところで、本実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部あるいは一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図4、図19に示した暗視画像処理部100,200の構成は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部がCPU(あるいは、MCU、MPU)および当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図22は、図4に示した暗視画像処理部100(あるいは、図19に示した暗視画像処理部200)のコンピュータのハードウェア構成を示す図である。このコンピュータ300は、ユーザからのデータの入力を受け付ける入力装置301、モニタ302、照明制御装置303、近赤外線カメラ304、近赤外線光源305、カラーカメラ306、RAM(Random Access Memory)307、ROM(Read Only Memory)308、CPU(Central Processing Unit)309、および、HDD(Hard Disk Drive)310をバス311で接続して構成される。
ここで、照明制御装置303、近赤外線カメラ304、近赤外線光源305、カラーカメラ306は、図4に示した照明制御部80、近赤外線カメラ70、近赤外線光源60、図19に示したカラーカメラ90にそれぞれ対応する。
HDD310には、上述した暗視画像処理部100(200)の機能と同様の機能を発揮する暗視画像処理プログラム310bが記憶されている。そして、CPU309が暗視画像処理プログラム310bをHDD310から読み出して実行することにより、上述した暗視画像処理部100(200)の機能部の機能を実現する暗視画像処理プロセス309aが起動される。この暗視画像処理プロセス309aは、図4に示したフィールド分離部110、スミア除去部120、領域分割処理部130、発光領域処理部140、高反射領域処理部150、低輝度領域処理部160、合成処理部170に対応する。
また、HDD310には、上述した暗視画像処理部100に記憶されるデータに対応する各種データ310aが記憶される。この各種データ310aは、領域分割テーブル(図6参照)等に対応する。
CPU309は、各種データ310aをHDD310に記憶するとともに、各種データ310aをHDD310から読み出してRAM307に格納し、RAM307に格納された各種データ307aを利用して暗視画像処理を実行する。
以上のように、本発明にかかる暗視装置は、赤外線を利用して暗視画像を撮影する暗視装置等に有用であり、特に、被写体の特性によらず暗視画像の視認性を向上させる必要がある場合に適している。
図1は、本実施例1にかかる暗視装置の概要および特徴を説明するための図である。 図2は、本実施例1にかかる暗視装置を搭載した車両の構成を示す図である。 図3は、近赤外線光源の赤外線発光タイミングと近赤外線カメラの露光タイミングとの関係を示す図である。 図4は、本実施例1にかかる暗視画像処理部の構成を示す機能ブロック図である。 図5は、スミア除去部の処理を説明するための図である。 図6は、領域分割テーブルのデータ構造の一例を示す図である。 図7は、高反射領域輝度変換テーブルのデータ構造の一例を示す図である。 図8は、低輝度領域変換テーブルのデータ構造の一例を示す図である。 図9は、本手法による暗視画像と従来の手法にかかる暗視画像を示す図である。 図10は、本実施例1にかかる暗視画像処理部の処理手順を示すフローチャートである。 図11は、スミア除去処理の処理手順を示すフローチャートである。 図12は、領域分割処理の処理手順を示すフローチャートである。 図13は、発光領域処理の処理手順を示すフローチャートである。 図14は、高反射領域処理の処理手順を示すフローチャートである。 図15は、低輝度領域処理の処理手順を示すフローチャートである。 図16は、合成処理の処理手順を示すフローチャートである。 図17は、本実施例2にかかる暗視装置を搭載した車両の構成を示す図である。 図18は、近赤外線カメラと撮影範囲を同一にするカラーカメラの構成例を示す図である。 図19は、本実施例2にかかる暗視画像処理部の構成を示す機能ブロック図である。 図20は、本実施例2にかかる発光領域処理の処理手順を示すフローチャートである。 図21は、本実施例2にかかる高反射領域処理の処理手順を示すフローチャートである。 図22は、図4に示した暗視画像処理部のコンピュータのハードウェア構成を示す図である。
10,15 車両
20 ヘッドライト
30 ディスプレイ
40 撮影光学系レンズ
50 照明光学系レンズ
60,305 近赤外線光源
70 近赤外線カメラ
80 照明制御部
90,306 カラーカメラ
90a ビームスプリッタ
90b 赤外線カットフィルタ
100,200 暗視画像処理部
110,210 フィールド分離部
120,220 スミア除去部
130,230 領域分割処理部
140,240 発光領域処理部
150,250 高反射領域処理部
160,260 低輝度領域処理部
170,270 合成処理部
300 コンピュータ
301 入力装置
302 モニタ
303 照明制御装置
304 近赤外線カメラ
307 RAM
307a,310a 各種データ
308 ROM
309 CPU
310 HDD
310b 暗視画像処理プログラム

Claims (8)

  1. 照射した赤外線の反射光を用いて被写体の画像を撮影する暗視装置であって、
    前記赤外線を照射した時点において撮影した画像を示す照射時画像の輝度値と前記赤外線を照射していない時点において撮影した画像を示す非照射時画像の輝度値とを基にして撮影した画像を複数の領域に分割する画像分割手段と、
    前記画像分割手段によって分割された領域の特徴に基づいて各領域の輝度補正を実行する輝度補正手段とを備え、
    前記画像分割手段は、前記非照射時画像の輝度値が第3の閾値よりも小さく、かつ、前記照射時画像の輝度値が第4の閾値よりも大きい画像上の領域を高反射領域として分割し、前記輝度補正手段は、前記高反射領域に分割された画像領域の輝度値を、前記非照射時画像の高反射領域の輝度値を輝度補正した値に基づいて補正することを特徴とする暗視装置。
  2. 前記画像分割手段は、前記非照射時画像の輝度値が第1の閾値よりも大きく、かつ、前記照射時画像の輝度値が第2の閾値よりも大きい画像上の領域を発光領域として分割し、前記輝度補正手段は、前記発光領域に分割された画像領域の輝度値を前記照射時画像または前記非照射時画像の発光領域に含まれる輝度値によって補正することを特徴とする請求項1に記載の暗視装置。
  3. 前記画像分割手段は、前記非照射時画像の輝度値が前記照射時画像の輝度値よりも大きくなる画像上の領域を低輝度領域として分割し、前記輝度補正手段は、前記低輝度領域に分割された画像領域の輝度値を、前記照射時画像の低輝度領域の輝度値を輝度補正した値に基づいて補正することを特徴とする請求項1に記載の暗視装置。
  4. 前記被写体を可視光カメラによって撮影された可視光画像を取得する可視光画像取得手段をさらに備え、前記輝度補正手段は、前記可視光画像を用いて前記発行領域および前記高反射領域の画素値を生成することを特徴とする請求項2または3に記載の暗視装置。
  5. コンピュータに、
    赤外線を照射した時点において赤外線カメラが撮影した画像を示す照射時画像の輝度値と前記赤外線を照射していない時点において赤外線カメラが撮影した画像を示す非照射時画像の輝度値とを基にして画像を複数の領域に分割する画像分割手順と、
    前記画像分割手順において分割された領域の特徴に基づいて書く領域の輝度補正を実行する輝度補正手順とを実行させ、
    前記画像分割手順は、前記非照射時画像の輝度値が第3の閾値よりも小さく、かつ、前記照射時画像の輝度値が第4の閾値よりも大きい画像上の領域を高反射領域として分割し、前記輝度補正手順は、前記高反射領域に分割された画像領域の輝度値を、前記非照射時画像の高反射領域の輝度値を輝度補正した値に基づいて補正することを特徴とする暗視画像処理プログラム。
  6. 前記画像分割手順は、前記非照射時画像の輝度値が第1の閾値よりも大きく、かつ、前記照射時画像の輝度値が第2の閾値よりも大きい画像上の領域を発光領域として分割し、前記輝度補正手順は、前記発光領域に分割された画像領域の輝度値を前記照射時画像または前記非照射時画像の発光領域に含まれる輝度値によって補正することを特徴とする請求項に記載の暗視画像処理プログラム。
  7. 前記画像分割手順は、前記非照射時画像の輝度値が前記照射時画像の輝度値よりも大きくなる画像上の領域を低輝度領域として分割し、前記輝度補正手順は、前記低輝度領域に分割された画像領域の輝度値を、前記照射時画像の低輝度領域の輝度値を輝度補正した値に基づいて補正することを特徴とする請求項に記載の暗視画像処理プログラム。
  8. 前記被写体を可視光カメラによって撮影された可視光画像を取得する可視光画像取得手順をさらにコンピュータに実行させ、前記輝度補正手順は、前記可視光画像を用いて前記発行領域および前記高反射領域の画素値を生成することを特徴とする請求項またはに記載の暗視画像処理プログラム。
JP2009513905A 2007-05-07 2007-05-07 暗視装置 Expired - Fee Related JP4659906B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2007/059473 WO2008139565A1 (ja) 2007-05-07 2007-05-07 暗視装置

Publications (2)

Publication Number Publication Date
JPWO2008139565A1 JPWO2008139565A1 (ja) 2010-07-29
JP4659906B2 true JP4659906B2 (ja) 2011-03-30

Family

ID=40001797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009513905A Expired - Fee Related JP4659906B2 (ja) 2007-05-07 2007-05-07 暗視装置

Country Status (4)

Country Link
US (1) US8076633B2 (ja)
JP (1) JP4659906B2 (ja)
DE (1) DE112007003473B4 (ja)
WO (1) WO2008139565A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101204556B1 (ko) * 2011-01-21 2012-11-23 삼성전기주식회사 노이즈 제거 방법 및 이를 이용한 나이트 비젼 시스템
CA2769358C (en) * 2011-03-08 2016-06-07 Research In Motion Limited Quantum dot image sensor with dummy pixels used for intensity calculations
JP6055681B2 (ja) * 2013-01-10 2016-12-27 株式会社 日立産業制御ソリューションズ 撮像装置
JP6394338B2 (ja) * 2014-12-04 2018-09-26 ソニー株式会社 画像処理装置、画像処理方法、及び撮像システム
CN105799593B (zh) * 2016-03-18 2019-01-25 京东方科技集团股份有限公司 车辆辅助行驶装置
FR3057060B1 (fr) * 2016-10-03 2019-12-20 Tpl Vision Uk Ltd Interface de commande pour dispositif d'eclairage de vision industrielle
EP3534603B1 (en) * 2016-10-28 2022-07-20 Kyocera Corporation Image pickup device and method
JP7136106B2 (ja) * 2017-08-18 2022-09-13 ソニーグループ株式会社 車両走行制御装置、および車両走行制御方法、並びにプログラム
US10924685B2 (en) 2018-05-07 2021-02-16 Rubicon Products, LLC Night vision apparatus
JP2019204988A (ja) * 2018-05-21 2019-11-28 クラリオン株式会社 画像処理装置及び画像処理方法
US10958830B2 (en) * 2018-05-24 2021-03-23 Magna Electronics Inc. Vehicle vision system with infrared LED synchronization

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000115759A (ja) * 1998-10-05 2000-04-21 Sony Corp 撮像表示装置
JP2002274258A (ja) * 2001-03-23 2002-09-25 Stanley Electric Co Ltd 自動車用暗視システム
JP2003087644A (ja) * 2001-09-07 2003-03-20 Matsushita Electric Ind Co Ltd 撮像表示装置、撮像表示方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078456A (ja) 1998-09-01 2000-03-14 Mitsubishi Electric Corp 近赤外照明付テレビカメラ装置
DE10303047A1 (de) * 2003-01-24 2004-08-05 Daimlerchrysler Ag Verfahren und Vorrichtung zur Sichtverbesserung und zur Bestimmung der Wettersituation
US7012551B2 (en) 2004-02-04 2006-03-14 Ford Global Technologies, Llc Method of anti-blinding for active night vision system
US7457477B2 (en) * 2004-07-06 2008-11-25 Microsoft Corporation Digital photography with flash/no flash extension
JP4678487B2 (ja) 2005-03-15 2011-04-27 オムロン株式会社 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000115759A (ja) * 1998-10-05 2000-04-21 Sony Corp 撮像表示装置
JP2002274258A (ja) * 2001-03-23 2002-09-25 Stanley Electric Co Ltd 自動車用暗視システム
JP2003087644A (ja) * 2001-09-07 2003-03-20 Matsushita Electric Ind Co Ltd 撮像表示装置、撮像表示方法及びプログラム

Also Published As

Publication number Publication date
DE112007003473B4 (de) 2017-04-06
US8076633B2 (en) 2011-12-13
DE112007003473T5 (de) 2010-06-10
WO2008139565A1 (ja) 2008-11-20
JPWO2008139565A1 (ja) 2010-07-29
US20100019151A1 (en) 2010-01-28

Similar Documents

Publication Publication Date Title
JP4659906B2 (ja) 暗視装置
CN107709096B (zh) 用于处理流式传输视频图像以校正经调幅光的闪变的***和方法
US9639764B2 (en) Image recognition system for vehicle for traffic sign board recognition
US9815408B2 (en) Method for operating a rearview camera system of a motor vehicle after detection of a headlight flasher, rearview camera system and motor vehicle
JP2008123137A (ja) 車載用画像処理装置とその制御方法
JP2005350010A (ja) ステレオ式車外監視装置
JP2009090844A (ja) 照明装置
US20160048734A1 (en) Light source recognition system of vehicle
WO2012014266A1 (ja) 障害物検知システム及び方法、障害物検知装置
JP2006350670A (ja) 夜間運転視界支援装置
JP4705923B2 (ja) 暗視撮像装置、ヘッドライトモジュール、車両及び暗視撮像装置の制御方法
JP5179428B2 (ja) 車両の周辺監視装置
JP4782491B2 (ja) 撮像装置
JP2012117872A (ja) 物体検出装置及びこれを備えた車載機器制御装置
JP6168024B2 (ja) 撮影画像表示装置、撮影画像表示方法および撮影画像表示プログラム
JP6322723B2 (ja) 撮像装置および車両
JP2019204988A (ja) 画像処理装置及び画像処理方法
JP2006252363A (ja) 車両周囲物体検出装置、および車両周囲物体検出方法
CN109788211B (zh) 拍摄图像显示***、电子镜***以及拍摄图像显示方法
JP2013009041A (ja) 車両用撮影表示制御システム
JP2023055317A (ja) 撮像システム、撮像方法
JP2017158217A (ja) 撮影画像表示装置、撮影画像表示方法および撮影画像表示プログラム
JP2024033906A (ja) モニタリング装置およびモニタリング方法
JP2004153425A (ja) 車載用撮像装置
JP5803505B2 (ja) 映像処理装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4659906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees