JP7148384B2 - 半導体装置、画像処理方法およびプログラム - Google Patents

半導体装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7148384B2
JP7148384B2 JP2018239592A JP2018239592A JP7148384B2 JP 7148384 B2 JP7148384 B2 JP 7148384B2 JP 2018239592 A JP2018239592 A JP 2018239592A JP 2018239592 A JP2018239592 A JP 2018239592A JP 7148384 B2 JP7148384 B2 JP 7148384B2
Authority
JP
Japan
Prior art keywords
image data
adjustment
image
target object
semiconductor device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018239592A
Other languages
English (en)
Other versions
JP2020102756A (ja
Inventor
裕史 川口
明秀 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2018239592A priority Critical patent/JP7148384B2/ja
Priority to US16/673,466 priority patent/US11094037B2/en
Priority to CN201911147552.4A priority patent/CN111355880B/zh
Priority to EP19211237.3A priority patent/EP3671629B1/en
Publication of JP2020102756A publication Critical patent/JP2020102756A/ja
Application granted granted Critical
Publication of JP7148384B2 publication Critical patent/JP7148384B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Of Color Television Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は半導体装置、画像処理方法およびプログラムに関する。
複数のカメラで一の風景を同時に撮像し、撮像した画像に合成および幾何変換を施して表示させる画像処理技術が普及している。自動車においては、このような技術を利用して自動車の周囲を運転者に容易に認識させるシステムが普及しつつある。このような画像処理技術の一例としてサラウンドビューが挙げられる。サラウンドビューは、例えば、運転者が操作する自動車の周囲360度の風景を真上から見た二次元画像として運転者に表示する。サラウンドビューを目視することにより、運転者は自動車の周囲に存在する物体を直観的に認識することができる。そのためサラウンドビューは、自動車の安全性を向上させることに寄与する技術として急速に普及している。
ところで、複数のカメラにより一の風景を同時に撮像する場合、カメラが撮像した撮像領域ごとに照らされている光の色が異なる場合がある。また、カメラはそれぞれに色バランス処理を施す機能を有している。そのため、複数のカメラがそれぞれ撮像した画像を合成する場合、互いの色バランスが異なる場合がある。そこで、異なる色バランス処理が施された複数の画像を違和感なく合成するための技術が求められている。
例えば、特許文献1に記載の合成映像表示装置は、合成映像において重複して対応する撮影画素の画素値を統計した第1の統計値と第2の統計値とを算出し、第1の統計値と第2の統計値の平均値を第1の統計値で除算した目標ゲインを算出する。そして、合成映像表示装置は、映像調整の対象とする撮影映像を撮影した撮影装置の光軸にあたる撮影画素から、重複して対応する撮影画素にかけて施す映像調整の調整ゲインを1から目標ゲインに変化させる。
特開2008-079248号公報
しかし、特許文献1に記載の技術は、撮影装置の光軸にあたる撮影画素を基準として色バランスが施されている。そのため、特許文献1に記載の技術は、撮影装置の光軸から離れるに連れて、適切な色バランスから離れる虞がある。したがって、例えば、運転者が注意すべき対象物が自動車の周囲で相対的に移動している場合、特許文献1に記載の技術は、対象物に対して動的に好適な色バランス処理を施すことができない。
その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
一実施の形態によれば、半導体装置は、画像データ取得回路と、調整領域決定回路と、色調整回路と、画像合成回路と、出力回路とを有する。画像データ取得回路は、撮像領域に互いに重複する重複部を含む画像を撮像し、撮像した画像の画像データをそれぞれ生成する複数の画像信号処理装置から予め設定された期間ごとに連続して前記画像データを取得する。調整領域決定回路は、第1時刻において取得した第1画像データから予め認識するように設定された物体である対象物体を特定し、第1時刻より前の時刻から第1時刻にかけての対象物体の位置変化に基づいて、第1時刻より後の第2時刻における対象物体の位置を推定することにより調整領域を決定する。色調整回路は、第1画像データの調整領域に基づいて色バランスの調整である色調整ゲインを決定し、色調整ゲインに基づいて第2時刻における第2画像データに色調整を施す。画像合成回路は、画像データをそれぞれの前記重複部が互いに重なるように合成して合成画像を生成する。出力回路は、色調整が施された合成画像を出力する。
また、一実施の形態によれば、半導体装置は、画像データ取得インタフェースと、プロセッサと、メモリとを有する。画像データ取得インタフェースは、撮像領域に互いに重複する重複部を含む画像を撮像し、撮像した画像の画像データをそれぞれ生成する複数の画像信号処理装置から予め設定された期間ごとに連続して画像データを取得する。プロセッサは、第1時刻において取得した第1画像データから予め認識するように設定された物体である対象物体を特定する。また、プロセッサは、第1時刻より前の時刻から第1時刻にかけての対象物体の位置変化に基づいて、第1時刻より後の第2時刻における対象物体の位置を推定することにより調整領域を決定する。また、プロセッサは、第1画像データにおける調整領域に基づいて色バランスの調整である色調整ゲインを決定し、色調整ゲインに基づいて第2時刻における第2画像データに色調整を施す。さらに、プロセッサは、画像データをそれぞれの重複部が互いに重なるように合成して合成画像を生成し、色調整が施された合成画像を出力する。また、メモリは、対象物体を特性するための対象物体情報を記憶する。
また、一実施の形態によれば、画像処理方法は、画像データ取得ステップと、調整領域決定ステップと、色調整ステップと、画像合成ステップと、出力ステップとを有する。画像データ取得ステップは、撮像領域に互いに重複する重複部を含む画像を撮像し、撮像した画像の画像データをそれぞれ生成する複数の画像信号処理装置から予め設定された期間ごとに連続して画像データを取得する。調整領域決定ステップは、第1時刻において取得した第1画像データから予め認識するように設定された物体である対象物体を特定し、第1時刻より前の時刻から第1時刻にかけての対象物体の位置変化に基づいて、第1時刻より後の第2時刻における対象物体の位置を推定することにより調整領域を決定する。色調整ステップは、第1画像データにおける調整領域に基づいて色バランスの調整である色調整ゲインを決定し、色調整ゲインに基づいて第2時刻における第2画像データに色調整を施す。画像合成ステップは、画像データをそれぞれの重複部が互いに重なるように合成して合成画像を生成する。出力ステップは、色調整が施された合成画像を出力する。
前記一実施の形態によれば、物体の視認性の悪化を抑制する半導体装置等を提供することができる。
実施の形態1にかかる画像処理システムが搭載された自動車の概観図である。 実施の形態1にかかる画像処理システムの概略構成図である。 実施の形態1にかかる半導体装置の機能ブロック図である。 実施の形態1にかかる半導体装置の処理を示すフローチャートである。 画像処理システムが有するカメラが撮像する撮像領域の例を示す図である。 前カメラが生成する画像データの例を示す図である。 左カメラが生成する画像データの例を示す図である。 半導体装置が行う一致化ゲイン算出時の一連の処理を示すフローチャートである。 重複領域における処理領域が完全には重ならない場合を例示した図である。 半導体装置の処理時間の例を示した図である。 画像処理システムを搭載した自動車の近くを他の自動車が走行する図である。 画像処理システムを搭載した自動車の近くを他の自動車が走行する図である。 画像処理システムを搭載した自動車の近くを他の自動車が走行する図である。 調整領域を決定するための処理を示すフローチャートである。 対象物体の優先順位の例を示した図である。 実施の形態1にかかる画像の幾何変換を示した図である。 実施の形態1にかかる画像の合成を模式的に示した図である。 対象物体の優先順位が入れ替わる状態の例を示した図である。 再調整部が処理する再調整ゲインの例を説明するためのグラフである。 実施の形態1の変形例1における自動車の概観図である。 実施の形態1の変形例2にかかる画像処理システムの概略構成図である。 実施の形態2にかかる画像処理システムの概略構成図である。 実施の形態2にかかる半導体装置の機能ブロック図である。 実施の形態2にかかる半導体装置における物体選択処理のフローチャートである。
説明の明確化のため、以下の記載および図面は、適宜、省略、および簡略化がなされている。また、様々な処理を行う機能ブロックとして図面に記載される各要素は、ハードウェア的には、CPU(Central Processing Unit)、メモリ、その他の回路で構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。したがって、以下の説明において、回路として例示した構成は、ハードウェアまたはソフトウェアのいずれかまたはその両方によって実現することが可能であり、ある機能を実現する回路として示され構成は、同様の機能を実現するソフトウェアの一部としても示され得る。例えば、制御回路と記載された構成は、制御部として記載され得る。なお、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
<実施の形態1>
図1および図2を参照しながら、実施の形態1の構成概略について説明する。図1は、実施の形態1にかかる画像処理システムが搭載された自動車の概観図である。画像処理システム10は、図に示す自動車1に搭載されている。図は自動車1の上面図であり、図の上側が自動車1の前側であり、図の左側が自動車1の左側であり、図の下側が自動車1の後ろ側であり、図の右側が自動車1の右側である。
図2は、実施の形態1にかかる画像処理システムの概略構成図である。図2は、自動車1に搭載されている画像処理システム10の主なハードウェア構成を模式的に示したものである。以下に、図1および図2を参照しながら画像処理システム10の各構成について説明する。
画像処理システム10は、自動車1の周囲を撮像し、撮像した画像の画像データに所定の処理を施して運転者等に表示するためのシステムである。画像処理システム10は、主な構成として、カメラ11F、カメラ11L、カメラ11B、カメラ11R、表示装置12、および半導体装置100を有している。
カメラ11F、カメラ11L、カメラ11Bおよびカメラ11Rは、自動車1の周囲の風景をそれぞれ撮像するための撮像装置である。これら4台のカメラは、それぞれレンズ、画像を電気信号に変換する撮像素子および撮像素子が生成した電気信号から画像データを生成するISP(Image Signal Processor)等により構成されている。ISPは、撮像素子が生成した電気信号に対して画素ごとに適宜画質の調整を行う画像信号処理装置である。このような構成により、それぞれのカメラは、予め設定されたアルゴリズムに従い、色バランスなどを自動的に調整し、調整した画像データを出力する。すなわち、屋内の特別な照明環境下や夕焼け下で撮影されたオブジェクトは識別がし難くなる。それに対して、ISPが実行するアルゴリズムは、自然光(白色光)下で撮影されたオブジェクトのように識別がし易くなるように各画素のR,G,B毎の信号レベルを変更する機能を有している。
また、これら4台のカメラは、画像データを所定のファイル形式に適合するように処理する。所定のファイル形式とは、例えばExif(Exchangeable image file format)である。Exifに適合するように処理が施された画像データは、撮像された画像データと併せて、撮像された日時、カメラの機種、絞り値、画素数、または色調整ゲインといった情報を含んでいる。なお、ISPが施す色調整は、初期色調整、AWB(Automatic White Balance)またはカラーバランスとも称される。Exifに適合した画像データは、これらの情報によって、データの管理や、機器同士のデータ交換、最適な設定での出力などが行われるように構成されている。また、これら4台のカメラはそれぞれ半導体装置100に接続されており、生成した画像データを半導体装置100に供給する。
上記4台のカメラの内、カメラ11Fは自動車の前方を撮像するように、自動車1の前部に設置されている。同様に、カメラ11Lは自動車の左方を撮像するように自動車1の左側に設置されている。同じく、カメラ11Bは自動車1の後方を撮像するように自動車1の後部に設置され、カメラ11Rは自動車の右方を撮像するように自動車1の右側に設置されている。
なお、上記4台のカメラは、互いに重複する撮像領域をそれぞれ含んでいる。例えば、自動車1の前方を撮像するカメラ11Fの撮像領域および自動車1の左方を撮像するカメラ11Lの撮像領域は、それぞれが自動車1の左前方を撮像するため、この部分は互いに重複する。同様に、カメラ11Lの撮像領域およびカメラ11Bの撮像領域は、自動車1の左後方部分が互いに重複する。同じく、カメラ11Bの撮像領域およびカメラ11Rの撮像領域は、自動車1の右後方部分が互いに重複し、カメラ11Rの撮像領域およびカメラ11Fの撮像領域は、自動車1の右前方部分が互いに重複する。このように、上記4台のカメラがそれぞれ互いに重複領域を含むことにより、画像処理システム10は、自動車1の前後左右を切れ目なく撮像する。
半導体装置100は、上記4台のカメラから画像データを取得し、取得した画像データに所定の処理を施して、処理済みの画像データを表示装置12に出力する。半導体装置100はCPUおよびメモリ等を含む電気部品により構成されており、自動車1の任意の位置に設置される。半導体装置100は、主な構成として、画像データ取得IF(Interface)、プロセッサ120、内部メモリ130、画像データ出力IF140を有している。半導体装置100の各構成は、内部バスにより接続されている。
画像データ取得IF110は上述した4台のカメラから画像データを取得するインタフェースである。画像データ取得IF110は、カメラから画像データを取得すると、取得した画像データをプロセッサ120または内部メモリ130に供給する。
プロセッサ120はカメラから取得した画像データに対して内部メモリ130と協働しながら所定の処理を施すための演算装置である。プロセッサ120は、主な機能として、所定の時刻において取得した画像データから予め認識するように設定された物体である対象物体を特定し、対象物体の位置変化に基づいて、対象物体の位置を推定することにより調整領域を決定する。また、プロセッサ120は、画像データにおける調整領域に基づいて色バランスの調整である色調整ゲインを決定し、色調整ゲインに基づいて画像データに色調整を施す。さらに、プロセッサ120は、上記4台のカメラがそれぞれ撮像した画像の画像データをそれぞれの重複部が互いに重なるように合成して合成画像を生成する。
内部メモリ130は、プロセッサ120と協働して画像データを一時的に記憶したり、対象物体を特定するための対象物体情報を予め記憶しておいたりするための記憶装置である。内部メモリ130は、例えばDRAM(Dynamic Random Access Memory)やSDRAM(Synchronous Dynamic Random Access Memory)等の揮発性メモリ若しくはフラッシュメモリ等の不揮発メモリまたはこれらの組合せにより構成される。画像データ出力IF140は、プロセッサにより生成された処理後の画像データを表示装置に出力するためのインタフェースである。
表示装置12は、半導体装置100から受け取った画像データを表示するための装置であって、画像データ入力回路、表示デバイス、表示ドライバ等により構成されている。表示デバイスは、例えば、液晶パネル、有機EL(Electro Luminescence)、HUD(Head-up Display)等である。表示装置12は、例えば運転者が目視し易いダッシュボードやセンタークラスタ等に設置される。
次に、半導体装置100の機能および半導体装置100が行う処理について説明する。図3は、実施の形態1にかかる半導体装置の機能ブロック図である。半導体装置100は主な機能として、画像データ取得部101、推定元画像生成部102、調整領域決定部103、再調整部104、幾何変換部105、画像合成部106、出力部107および記憶部108を有している。
図4は、実施の形態1にかかる半導体装置の処理を示すフローチャートである。半導体装置100は、図3に示す機能により、図4の処理を実現する。以下に、図4の処理について図3の機能とともに説明する。
まず、画像データ取得部101は、上述した4台のカメラからそれぞれの画像データを取得する(ステップS10)。画像データ取得部101が取得する画像データは、Exifに適合するファイル形式となっている。画像データは、例えばJPEG形式の複数の画素から構成される画像を有する。複数の画素のそれぞれは、R,G,Bという3つの信号レベルを有している。更に、画像データは、AWBゲイン等の情報が含まれている。画像データ取得部101は、取得した画像データを推定元画像生成部102に供給する。
なお、画像データ取得部101は、上述した4台のカメラから予め設定された期間ごとに連続して前記画像データを取得する。予め設定された期間とは、例えば30分の1秒(換言すると30ヘルツの周波数である)や60分の1秒(換言すると60ヘルツの周波数である)である。このようにカメラから画像データを取得する場合において、1回分の画像データの取得を1フレームとも称する。例えば、30分の1秒ごとに画像データを取得する場合、画像データ取得部101は30ヘルツのフレームレートにより画像データを取得するという。画像データ取得部101は、1フレームに4台のカメラの全てからそれぞれ1回の撮像分ずつの画像データを取得する。
ここで、画像データに含まれるAWBゲインの導出例について説明する。カメラのISPは、撮像素子から複数の画素で構成される画像を受け取る。画像の含まれる複数の画素のそれぞれの画素は、R,G,Bという3つの信号レベルを有している。各信号レベルは、8ビット階調(0~256)で示される。ここで、画像のRの信号レベルの集合をR0とする。同様に、画像のGの信号レベルの集合をG0、画像のBの信号レベルの集合をB0とする。カメラのISPは、撮像素子から画像を受け取ると、画像の中央部から無彩色の領域を抽出する。なお、本開示において、「無彩色」というのは、RGBの各信号レベルの最大値と最小値の差が予め設定された値より小さい色を言う。例えば、本開示における無彩色は、RGBの各信号レベルの最大値と最小値の差が10より小さい色であってもよい。ここで、ISPが抽出した無彩色の領域のRの信号レベルの集合をC_R0とする。同様に、無彩色の領域のGの信号レベルの集合をC_G0, 無彩色の領域のBの信号レベルの集合をC_B0とする。なお、当然ながら、抽出された無彩色の領域の複数の画素は、画像を構成する複数の画素に含まれる。カメラのISPは、この無彩色の領域が白色に近付くように色バランスを調整するAWBゲインを決定する。なお、本開示において「白色」とは、RGBの各信号レベルの差が略0になる色を意味している。具体的には、ISPは、以下の式においてそれぞれの積分値が等しくなるように、C_R0、C_G0、C_B0の積分値に乗算するAWBゲイン(パラメータ)α、γおよびβを決定する。
Figure 0007148384000001
ISPは、このようにして決定したAWBゲインα、γおよびβのそれぞれを、画像全体の画素のR,G,Bの信号レベルそれぞれに乗算する。これにより、画像のRの信号レベルの集合がR1に変わる。同様に、画像のGの信号レベルの集合がG1、画像のBの信号レベルの集合がB1に変化した画像が生成される。なお、この画像が先述した画像データに含まれる画像である。
Figure 0007148384000002
なお、最終的に、白をどのような色で表示するかはディスプレイやプリンターなどのような出力デバイス側の色設定で決まるのが一般的である。このようにして、ISPは撮像素子から受け取った画素信号の色バランスを調整した画素信号を生成する。そして、ISPは、生成した画素信号にExifに対応した種々の情報を付加した画像データを出力する。
上述の処理は一般的なカメラにおけるAWBの処理例である。本開示における上記4台のカメラにおいても、これと同様の処理がそれぞれ行われている。つまり、上記4台のカメラは、それぞれがAWB処理を施している。そのため、上記4台のカメラがそれぞれ決定するAWBゲインの値が同じになるとは限らない。
次に、図5を参照しながら画像の撮像領域について説明する。図5は、画像処理システムが有するカメラが撮像する撮像領域の例を示す図である。自動車1の前部に設置されたカメラ11Fは、撮像領域300Fを撮像するように設定されている。同様に、自動車1の左側部に設置されたカメラ11Lは、撮像領域300Lを撮像するように設定され、後部に設置されたカメラ11Bは、撮像領域300Bを撮像するように設定され、右側部に設置されたカメラ11Rは、撮像領域300Rを撮像するように設定されている。
また、重複領域300FLは、カメラ11Fが撮像する撮像領域300Fとカメラ11Lが撮像する撮像領域300Lとが重複する領域である。同様に、重複領域300LBは、カメラ11Lが撮像する撮像領域300Lとカメラ11Bが撮像する撮像領域300Bとが重複する領域である。同じく、重複領域300BRはカメラ11Bが撮像する撮像領域300Bとカメラ11Rが撮像する撮像領域300Rとが重複する領域であり、重複領域300RFはカメラ11Rが撮像する撮像領域300Rとカメラ11Fが撮像する撮像領域300Fとが重複する領域である。
以上に説明したとおり、上記4台のカメラがそれぞれ撮像した画像には重複領域が含まれる一方、上記4台のカメラはそれぞれ異なるAWBゲインを決定している可能性がある。そのため、例えば、前方を撮像するカメラ11Fと左方を撮像するカメラ11Lがそれぞれ決定したAWBゲインが異なる場合、画像データの左前方の重複領域300FLにおける色バランスが互いに異なる。
次に半導体装置100は、各画像データの領域情報を取得する(ステップS11)。領域情報は、各カメラから取得する画像データに含まれる画素信号を予め設定された複数画素を有する領域に画定するための情報である。領域情報には、例えば、取得する画像データの画角や重複領域に関する情報が含まれており、例えば内部メモリ130に予め記憶されている。したがって、半導体装置100は、例えば予め記憶されている領域情報と、カメラ11Fから取得した画像データとを照合することにより、画像データに含まれる画素信号を予め設定された領域に画定する。
図6および図7を参照しながら領域情報について説明する。図6は、前カメラ(カメラ11F)が生成する画像データの例を示す図である。図に示す画像データ301Fは、カメラ11Fが撮像領域300Fを撮像することにより生成したものである。画像データ301Fはカメラが撮像することにより、カメラ11Fが有する広角レンズの収差の影響を受けて樽型の歪みが発生している。なお、本実施の形態において、画像データは樽型の歪んだ形状により示されているが、カメラから供給される画像データは一般的には矩形である。ここでは理解を容易にするため、矩形の画像データの内、後述する表示領域に採用する部分の画像データを抽出して説明している。
画像データ301Fは、樽型の歪みに沿って格子状の領域に分割されている。本実施の形態の場合、画像データ301Fは画像の左上を起点として、横方向に32分割され、縦方向に12分割されている。このように分割された各領域を、以降処理領域と称する。すなわち画像データ301Fは、32×12=384の処理領域に分割されている。ここで、画像データ301Fは、説明の便宜上、横方向にFC1~FC32までの番号が付与され、縦方向にFR1~FR12までの番号が付与されている。例えば画像データ301Fの左上は、処理領域(FC1、FR1)と示される。
図に太枠で示す重複領域301FLは、図5で示した重複領域300FLに対応する領域である。重複領域301FLは、処理領域(FC1、FR1)から処理領域(FC12、FR12)までの範囲を占めている。同様に、図に太枠で示す重複領域301RFは、図5で示した重複領域300RFに対応する領域である。重複領域301RFは、処理領域(FC21、FR1)から処理領域(FC32、FR12)までの範囲を占めている。
図7は、左カメラ(カメラ11L)が生成する画像データの例を示す図である。図に示す画像データ301Lは、カメラ11Lが撮像領域300Lを撮像することにより生成したものである。なお、図7に示す画像データの例も、図6の説明と同様に複数の画素を有する処理領域に分割され、それぞれの領域を示すことができるように横方向および縦方向にそれぞれ番号が付与されている。すなわち、画像データ301Lは、横方向に12分割、縦方向に48分割されており、12×48=576の処理領域に分割されている。また、画像データ301Lの左上が処理領域(LC1、LR1)と示され、画像データ301Lの右下が処理領域(LC12、LR48)と示される。
図に太枠で示す重複領域301LFは、図5で示した重複領域300FLに対応する領域である。重複領域301LFは、処理領域(LC1、LR1)から処理領域(LC12、LR12)までの範囲を占めている。同様に、図に太枠で示す重複領域301LBは、図5で示した重複領域300LBに対応する領域である。重複領域301LBは、処理領域(LC1、LR37)から処理領域(LC12、LR48)までの範囲を占めている。
次に、重複領域の対応関係について説明する。図6に示した画像データ301Fの重複領域301FLは、図7に示した画像データ301Lの重複領域301LFと対応関係にある。より具体的には、画像データ301Fの処理領域(FC1、FR1)は、画像データ301Lの処理領域(LC1、LR1)と対応関係にあり、共通の領域を撮像した画像のデータである。同様に、画像データ301Fの処理領域(FC12、FR1)は、画像データ301Lの処理領域(LC12、LR1)と対応関係にある。同じく、画像データ301Fの処理領域(FC1、FR12)は、画像データ301Lの処理領域(LC1、LR12)と対応関係にある。そして画像データ301Fの処理領域(FC12、FR12)は、画像データ301Lの処理領域(LC12、LR12)と対応関係にある。
領域情報には、上述したそれぞれの画像データの、処理領域および重複領域を画定することができる情報が含まれている。したがって、半導体装置100は、領域情報を取得して、各画像データの処理領域および重複領域を画定するとともに、重複領域の対応関係を決定する。
次に、推定元画像生成部102は、受け取った画像データのそれぞれについて、以下のステップに従い、推定元画像データを生成する処理を行う。推定元画像生成部102は、受け取った画像データに含まれる情報にAWBゲイン値が含まれているか否かを判定する(ステップS12)。なお、ここで「AWBゲイン値」とは、AWBゲインの具体的な値のことを指しており、「オート」等の情報は含まない。
画像データに含まれる情報にAWBゲインに関する情報が含まれていない場合(ステップS12:No)、推定元画像生成部102は、一致化ゲインの算出を行う(ステップS13)。一致化ゲインを算出し、算出した一致化ゲインを利用することにより、半導体装置100は、ISPが画像データに施した初期色調整の効果をキャンセルすることができる。
図8を参照しながら、ステップS13の処理の詳細を説明する。図8は、半導体装置が行う一致化ゲイン算出時の一連の処理を示すフローチャートである。一致化ゲイン算出時の一連の処理を、任意の画像の画像データを例として以下に説明する。ここで説明する例では、画像データにおける横方向の処理領域の座標を0からHmaxまで、縦方向の処理領域の座標を0からVmaxまでそれぞれ順次インクリメントしながら処理を進める。
まず、推定元画像生成部102は、任意の処理領域の横方向の座標がHmax+1未満か否かを判定する(ステップS130)。この処理領域の横方向の座標がHmax+1未満と判定する場合(ステップS130:Yes)、推定元画像生成部102は、縦方向の座標がVmax+1未満か否かを判定する(ステップS131)。縦方向の座標がVmax+1未満の場合(ステップS131:Yes)、この処理領域が重複領域に含まれるか否かを判定する(ステップS132)。そして、この処理領域が重複領域に含まれると判定した場合(ステップS132:Yes)、推定元画像生成部102は、この処理領域(m、n)と対応関係にある別の画像データにおける処理領域(s、t)のR,G,B毎の信号レベルに関するデータを取得する(ステップS133)。なお、ここで扱う処理領域(m、n)のR,G,B毎の信号レベルおよび処理領域(s、t)のR,G,B毎の信号レベルに関するデータは、例えば、複数画素を有する処理領域(s、t)内の無彩色かつ輝度値が予め設定された値よりも高い画素の信号レベルをRGBの色ごとに平均化した値である。ここで言う特定の画素とは、無彩色かつ輝度値が予め設定された値よりも高い画素である。更に、予め設定された値とは、例えば256階調の内の200以上の値である。また、特定の画素がそれぞれの処理領域内に十分に存在しない場合(例えば、5パーセント以上存在しない場合)は、元の光源を推定する情報が十分に得られないと考え、この処理領域では後述する一致化ゲインを算出しない。
次に、推定元画像生成部102は、上記に記載した処理領域(m、n)のR,G,B毎の信号レベルに関するデータと処理領域(s、t)のR,G,B毎の信号レベルに関するデータとから一致化ゲインを算出する(ステップS134)。ここで、例えば、画像データ301Fに含まれる処理領域(m、n)における各色の輝度値と画像データ301Lに含まれる処理領域(s、t)における各色の輝度値とは、以下の式により定義することができる。
Figure 0007148384000003
ここで、αは画像データ301FのR信号にかかるAWBゲイン、γは画像データ301FのG信号にかかるAWBゲイン、βは画像データ301FのB信号にかかるAWBゲインである。F(m、n)_RはISPが生成した領域(m、n)における無彩色かつ輝度値が予め設定された値よりも高い画素のRの信号レベルを平均化した値、F(m、n)_GはISPが生成した領域(m、n)における無彩色かつ輝度値が予め設定された値よりも高い画素のGの信号レベルを平均化した値、F(m、n)_BはISPが生成した領域(m、n)における無彩色かつ輝度値が予め設定された値よりも高い画素のBの信号レベルを平均化した値である。α´は画像データ301LのR信号にかかるAWBゲイン、γ´は画像データ301LのG信号にかかるAWBゲイン、β´は画像データ301LのB信号にかかるAWBゲインである。L(s、t)_RはISPが生成した領域(s、t)における無彩色かつ輝度値が予め設定された値よりも高い画素のRの信号レベルを平均化した値、L(s、t)_GはISPが生成した領域(s、t)における無彩色かつ輝度値が予め設定された値よりも高い画素のGの信号レベルを平均化した値、L(s、t)_BはISPが生成した領域(s、t)における無彩色かつ輝度値が予め設定された値よりも高い画素のBの信号レベルを平均化した値である。式(3)に示すように、重複領域の対応関係にある領域は、カメラのISPが施したAWBゲインの逆数をそれぞれ乗ずることにより、色バランスを調整する前の画素信号となるため、対応する領域の色ごとの信号レベルは等しくなる。
上記原則を利用し、AWBゲインに関する情報が含まれていない画像データに対して、重複領域の対応関係にある領域の色ごとの信号レベルを一致させるためのゲインを以下の式に従い算出する。
Figure 0007148384000004
ここで、αFeは、画像データ301Fにおける処理領域(m、n)のR信号の一致化ゲインである。同様に、γFeは、画像データ301Fにおける処理領域(m、n)のG信号の一致化ゲインであり、βFeは、画像データ301Fにおける処理領域(m、n)のB信号の一致化ゲインである。また、αLeは、画像データ301Lにおける処理領域(s、t)のR信号の一致化ゲインである。同様に、γLeは、画像データ301Lにおける処理領域(s、t)のG信号の一致化ゲインであり、βLeは、画像データ301Lにおける処理領域(s、t)のB信号の一致化ゲインである。
上述のように、推定元画像生成部102は受け取った画像データのそれぞれについて一致化ゲインを算出する。ただし上述の例は、重複領域において対応関係にある処理領域が完全に重なっていることが前提となっている。対応関係にある処理領域が完全には重ならず、隣接する領域に跨るような関係にある場合は、以下に説明するように重み付けをつけて一致化ゲインを算出する。
図9は、重複領域における処理領域が完全には重ならない場合を例示した図である。画像データ301Fの処理領域(m、n)は、図に示すように、画像データ301Lの対応する処理領域(s、t)とは完全に重なっているわけではなく、右下にずれている。このような場合には、以下に示す式のように、重み付けを行って一致化ゲインを算出する。
Figure 0007148384000005
ここで、w、w、w、wはそれぞれ重み係数であり、w+w+w+w=4である。
図8に戻る。ステップS134において一致化ゲインを算出した後、推定元画像生成部102は、一致化ゲインを算出する領域を移動させるため、nをインクリメントする(ステップS135)。そして、nをインクリメントした後に、推定元画像生成部102は、再びステップS131に戻り処理を継続する。
ステップS132において、この処理領域が重複領域に含まれると判定しない場合(ステップS132:No)、推定元画像生成部102は、ステップS135に進み、nをインクリメントする処理を行う(ステップS135)。
ステップS131において、nが縦方向の座標の最大値であるVmaxを越える場合、推定元画像生成部102は、n<Vmax+1と判定しない(ステップS131:No)。この場合、推定元画像生成部102は、nをゼロに設定し、mをインクリメントする(ステップS136)。そして、推定元画像生成部102は、再びステップS130に戻り処理を続ける。ステップS130において、横方向の座標の最大値であるHmaxを越える場合、推定元画像生成部102は、m<Hmax+1と判定しない(ステップS130:No)。この場合、推定元画像生成部102は、一連の処理を終了する。
なお、本実施の形態において説明した一致化ゲイン算出の例では、処理領域ごとに一致化ゲインを算出する。半導体装置100は、このようにして算出した複数の一致化ゲインの平均値をさらに算出してもよい。また、平均値に代えて標準偏差による値を算出してもよいし、代表値を選定してもよい。あるいは、外れ値を除外したうえでこれらの計算を行ってもよい。さらに、複数の一致化ゲインの平均値を算出する観点で言えば、複数の領域を1つの処理領域として纏め、画像データのそれぞれの複数の処理領域同士ごとに一致化ゲインを算出しても良い。
また、推定元画像生成部102は、例えば画像データ301Fに対しては、重複領域を有する画像データ301Lとの関係において、上述の算出処理を行い、これと同様に、同じく重複領域を有する画像データ301Rとの関係においても上述の算出処理を行う。そのため、推定元画像生成部102は、これらすべての一致化ゲインから、画像データ301Fに対する一の一致化ゲインを決定する。
図4に戻る。推定元画像生成部102は、上述のようにして算出した一致化ゲインを利用して、推定元画像を生成する(ステップS14)。一致化ゲインを利用することにより、例えば、画像データ301FのR,G,B毎の信号レベルと画像データ301LのR,G,B毎の信号レベは、以下のような関係となる。
Figure 0007148384000006
ここで、αFE、γFE、βFEは、画像データ301Fに対する一致化ゲインであり、αLE、γLEおよびβLEは、画像データ301Lに対する一致化ゲインである。推定元画像生成部102は、重複領域の互いに対応する処理領域における各色の信号レベルを一致させる一致化ゲインを画像データごとに算出し、一致化ゲインをそれぞれ対応する画像データに含まれる画素の各色の信号レベルに乗じる。これにより推定元画像生成部102は、推定元画像データを生成する。以上のように、一致化ゲインを算出し、算出した一致化ゲインを利用することにより、半導体装置100は、ISPが画像に施した初期色調整の効果をキャンセルすることができる。
ステップS12に戻る。画像データに含まれる情報にAWBゲインに関する情報が含まれている場合(ステップS12:Yes)、推定元画像生成部102は、AWBゲインを利用して推定元画像を生成する(ステップS21)。この場合、推定元画像生成部102は、AWBゲインの値の逆数を各領域に乗じることにより、ISPが画像データに施した初期色調整の効果をキャンセルすることができる。
次に、図3に示すように、推定元画像生成部102は、上述のようにステップS14またはステップS21の処理によってISPによる初期色調整の効果をキャンセルした後に、生成した推定元画像の画像データを調整領域決定部103に供給する。
調整領域決定部103は、推定元画像に対して色バランスの調整を施すための調整領域を決定する。調整領域決定部103は、主な機能として物体検出部103Aおよび位置推定部103Bを有している。
物体検出部103Aは、記憶部108が記憶している対象物体情報を参照して画像データ中に存在する対象物体の属性や大きさを検出する。対象物体情報には、画像データにおける物体の特徴量および物体の属性情報等が記憶されている。
画像データにおける物体の特徴量は、例えばHOG(Histograms of Oriented Gradients)特徴量などの画像データに含まれる画素値の変化から物体の存在を推定するための情報である。物体の属性情報は、検出した物体を運転の安全性の観点から分類するための情報である。検出された物体は、属性情報により、人間、自動車、自転車、交通標識等に分類される。
位置推定部103Bは、検出した対象物体の位置の時間に伴う変化を検出することにより、物体の移動方向や移動速度を算出する。また、位置推定部103Bは、物体の移動方向や移動速度を算出することにより、所定時間経過後の物体の位置を推定する。上述の機能を利用することにより、調整領域決定部103は例えば、物体検出部103Aが検出した物体の所定時間経過後の位置を推定し、推定した位置を調整領域として決定する。
また、調整領域決定部103は、画像データ内に複数の対象物体を検出する場合に、予め設定された判断基準に従い優先順位が最も高い第1対象物体を特定し、所定時間経過後の画像データにおける第1対象物体の位置を推定することにより調整領域を決定する。
予め設定された判断基準の一例は、所定時刻における自動車1と複数の対象物体とのそれぞれの位置を判断基準とするものである。これによれば、調整領域決定部103は、所定時間経過後に取得する対象物体の位置を推定し、推定した対象物体との距離に基づいて第1対象物体を特定する。
また、予め設定された判断基準の別の例では、調整領域決定部103は、対象物体の属性に基づいて第1対象物体を特定する。対象物体の属性は、記憶部108に優先順位情報として記憶されている。記憶部108は、対象物体の属性と優先順位が関連付けられた優先順位情報を記憶している。
また、調整領域決定部103は、画像データ内に複数の対象物体を検出する場合に、優先順位が第1対象物体に次いで2番目に高い第2対象物体を特定する。そして、調整領域決定部103は、所定時間経過後の画像データにおいて第1対象物体の位置を推定して第1調整領域を決定するとともに、第2対象物体の位置を推定して第2調整領域を決定する。このように第2対象物体にかかる第2調整領域を決定することにより、第1対象物体が画像データ内に存在しなくなった場合の切換え処理をスムーズに行うことができる。
上述の機能を有する調整領域決定部103は、生成された推定元画像データから調整領域を決定する(ステップS15)。以下に調整領域決定部103が行う調整領域を決定する処理の一例について説明する。
図10は、半導体装置の処理時間の例を示した図である。半導体装置100がカメラから画像データを取得した後に、取得した画像データに種々の処理を施す場合、所定の処理時間を必要とする。図に示すように、例えば、半導体装置100は、時刻t=N-1においてカメラから画像データを取得する。半導体装置100は、取得した画像データに対して種々の処理を施す。そして、半導体装置100は、時刻t=Nに処理を施した画像データを表示装置に出力する。同様に、半導体装置100は、時刻t=Nにおいてカメラから画像データを取得し、取得した画像データに対して種々の処理を施し、時刻t=N+1に処理を施した画像データを表示装置に出力する。このように、半導体装置100が取得した画像データに対して所定の処理を施すと遅延時間が発生する。そこで、半導体装置100が行う処理は、予め遅延時間を考慮した処理が行われる。
次に、図11~図13を参照して、調整領域を決定する処理の具体例について説明する。図11~図13は、画像処理システム10を搭載した自動車1の近くを他の他車9が走行している状況を時刻の経過とともに示している。図11~図13において点線により格子状に示されているのは、自動車1が走行している道路400である。道路400は理解を容易にするため格子状に分割されている。道路400の横方向は左側から座標X1~X7により7分割され、道路400の縦方向は上側から座標Y1~Y7により7分割されている。道路400の左上の格子は、座標(X1、Y1)と示される。
また、道路400の領域内において太い一点鎖線で示された矩形は、自動車1が対象物体を検出することができる領域(検出領域401)である。また、検出領域401の内側に実線により示された矩形は、表示装置12が表示する領域(表示領域402)である。検出領域401および表示領域402は、自動車1の周囲を囲むように形成されている。また、検出領域401および表示領域402は、自動車1との相対的な位置が固定されている。自動車1は道路400を矢印方向(図面の上方向)に向かって走行している。そして、自動車1の右後方からは、他車9が近付いている状況である。
図11は、時刻t=N-1における自動車1および周辺の状況を示した図である。時刻t=N-1において、自動車1は座標(X4、Y5)を走行中である。また、他車9は、座標(X5、Y7)を走行中である。自動車1が有する半導体装置100は、検出領域401に含まれる他車9を検出する。
次に、図12は、時刻t=Nにおける自動車1および周辺の状況を示した図である。時刻t=Nにおいて、自動車1は座標(X4、Y4)を走行中である。また、他車9は、座標(X5、Y5)を走行中である。半導体装置100が有する調整領域決定部103は、他車9の位置を検出するとともに、所定時間経過後(時刻t=N+1)の他車9の移動速度および移動方向を推定する。ここで、調整領域決定部103は、自動車1と他車9との相対的な位置の変化から、時刻t=N+1に他車9が自動車1の右側に近付くことを算出する。また、調整領域決定部103は、時刻t=N+1に自動車1が座標(X4、Y3)に位置することを算出する。
図13は、調整領域決定部103が推定した時刻t=N+1における自動車1および周辺の状況を示した図である。図に示すように調整領域決定部103は、時刻t=N+1に自動車1が座標(X4、Y3)に位置し、他車9が座標(X5、Y3)に位置することを推定する。
図12に戻る。上述のように、調整領域決定部103は、時刻t=Nにおいて、時刻t=N+1に表示する画像の調整領域をハッチングで示した座標(X5、Y3)と決定する。調整領域決定部103は、このようにして調整領域を決定すると、決定した調整領域に関する情報を再調整部104に供給する。このように、調整領域決定部103は、対象物体を検出し、所定時間経過後の対象物体の位置を推定することにより、調整領域を決定する。
次に、図14を参照しながら、調整領域決定部103の処理の詳細についてさらに説明する。図14は、調整領域決定部103が行う調整領域を決定するための処理(図4のステップS15)の詳細を示すフローチャートである。
まず、調整領域決定部103は、画像データ内に対象物体を検出したか否かを判定する(ステップS150)。画像データ内に対象物体を検出したと判定しない場合(ステップS150:No)、調整領域決定部103は、自動車1の進行方向を検出する(ステップS151)。自動車1の進行方向は、複数フレームの画像から算出してもよいし、GPS信号から算出してもよい。
調整領域決定部103は、自動車1の進行方向を検出すると、進行方向に相当する画像の画像データを調整領域として決定する(ステップS152)。調整領域決定部103は、調整領域を決定すると、一連の処理を終了する。
ステップS150において、対象物体を検出したと判定する場合(ステップS150:Yes)、調整領域決定部103は、対象物体を複数検出したか否かを判定する(ステップS153)。
対象物体を複数検出したと判定しない場合(ステップS153:No)、画像データ内に対象物体が1つ検出されたことを意味する。この場合、調整領域決定部103は、対象物体の移動情報を検出する(ステップS154)。すなわち、調整領域決定部103は、図11~図13に示した例のとおり、対象物体の位置を推定する。そして、調整領域決定部103は、推定した対象物体の位置を調整領域として決定する(ステップS152)。
ステップS153において、対象物体を複数検出したと判定する場合(ステップS153:Yes)、画像データ内に対象物体が2つ以上検出されたことを意味する。この場合、調整領域決定部103は、自動車1と対象物体との距離をそれぞれ検出する(ステップS155)。
次に、調整領域決定部103は、検出した自動車1と対象物体との距離が同じか否かを判定する(ステップS156)。なおここで「自動車1と対象物体との距離が同じ」とは、略同じということを意味し、例えば検出した2つの距離の差が10%以内であれば、これらは同じ距離であるとみなす。
ステップS156において、対象物体の距離が同じであると判定しない場合(ステップS156:No)、調整領域決定部103は、これらの距離に応じて、優先順位が1位となる第1対象物体と、優先順位が2位となる第2対象物体をそれぞれ決定する(ステップS157)。そして、調整領域決定部103は、第1対象物体に係る第1調整領域と、第2対象物体に係る第2調整領域をそれぞれ決定し(ステップS152)、一連の処理を終了する。
ステップS156において、対象物体の距離が同じであると判定する場合(ステップS156:Yes)、調整領域決定部103は、記憶部108が記憶している優先順位情報を取得する(ステップS158)。
図15は、対象物体の優先順位の例を示した図である。図に示すように、優先順位情報は、対象物体を属性ごとに2種類のカテゴリによって分類する。対象物体はまず、大分類により、「人間」、「乗り物」、「動物」、「標識」および「障害物」に分類される。そして、大分類のそれぞれに分類された対象物体は、さらに小分類に分類される。例えば、大分類「人間」は、小分類として「子供」、「高齢者」および「大人」のいずれかに分類される。そして、このように分類された対象物体はそれぞれに優先順位が定義づけされている。図示の例の場合、小分類の最下部に示された「樹木」が最も優先順位が低く、「樹木」の上方に示されている「交通標識」、「野生動物」と、上方に位置するほど優先順位が高くなり、「子供」が最も優先順位が高く設定されている。記憶部108が記憶する優先順位情報は、このように対象物体の属性と優先順位が関連付けられている。
なお、例えば、同じ距離に同じ属性の対象物体が複数存在することが考えられる。例えば、自動車1の後方に他の四輪車が2台併走している場合などである。このような場合、調整領域決定部103は、対象物体を検出した時刻から所定時間経過後の時刻にかけて相対的に自己に対してより速い移動速度で近寄ってくる対象物体を第1対象物体として特定してもよい。
調整領域決定部103は、検出した複数の対象物体と、優先順位情報とを照合し、第1対象物体と第2対象物体とをそれぞれ決定する(ステップS159)。そして、調整領域決定部103は、第1対象物体に係る第1調整領域と、第2対象物体に係る第2調整領域をそれぞれ決定し(ステップS152)、一連の処理を終了する。
上述の処理により、調整領域決定部103は、調整領域を決定する。そして、調整領域決定部103は、決定した調整領域に関する情報および画像データを再調整部104に供給する。
次に、再調整部104は、受け取った画像データに対して調整領域に関する情報を利用して再調整を施す(ステップS16)。再調整とは、推定元画像データの色バランスを再度調整する処理である。再調整ゲインを算出するにあたり、まず再調整部104は、調整領域の中に、無彩色かつ輝度値が予め設定された値よりも高い画素を参照画素として抽出する。予め設定された値とは、例えば256階調の内の200以上の値である。参照画素が処理領域内の5パーセント以上を占める場合、再調整部104は、参照画素を利用して再調整ゲインを算出する。なお、再調整部104は、色調整部とも称される。
以下に再調整ゲインの算出方法の例を示す。再調整ゲインは例えば以下の式により算出される。
Figure 0007148384000007
ここで、αwb、γwb、βwbは、再調整ゲインである。また、AVR(R)、AVR(G)、AVR(B)は、参照画素の各色の平均信号レベルである。さらに、MIN(R、G、B)は、各色の平均信号レベル(AVR(R)、AVR(G)、AVR(B))の内の、最小値である。
再調整ゲインの算出について具体例を用いて説明する。例えば、ある調整領域における参照画素の平均信号レベルが(R、G、B)=(200、210、205)であったとする。この場合、平均信号レベルの最小値は、200である。したがって、再調整ゲインは、(αwb、γwb、βwb)=(200/200、200/210、200/205)=(1、0.95、0.98)となる。なお、式7は一例であって、例えば分母を参照画素の各色の平均輝度値から最大値(上記具体例の場合だと210)に、分子を最小値から参照画素の各色の平均輝度値に変えたりしても良い。
再調整部104は、再調整ゲインの算出をすると、算出した再調整ゲインを用いて画像データに対して再調整処理を施す。なお、調整領域内において、参照画素が調整領域内の5パーセント以上を占めない場合には、周囲の再調整ゲインを利用して処理を施す。
また、再調整部104は、隣接する調整領域の再調整ゲインである隣接ゲインが複数存在する場合には、複数の隣接ゲインの平均値を算出し、処理対象である調整領域の色バランスの再調整ゲインとしてもよい。
再調整部104は、参照画素が調整領域内において予め設定された以上の画素数以上を占めない場合、調整領域を数パーセント(例えば3パーセント、10パーセント、30パーセントなど)拡大し、拡大した調整領域を用いて再調整ゲインを算出する。拡大した調整領域になお参照画素が予め設定された以上存在しない場合には、さらに数パーセント拡大する処理を繰り返す。
再調整部104は、このようにして画像データに対する再調整処理を行った後、再調整処理を施した画像データを幾何変換部105に供給する。そして幾何変換部105は、受け取った画像データに対して幾何変換処理を施す(ステップS17)。
図12は、実施の形態1にかかる画像の幾何変換を示した図である。図の上側に示している樽型の形状は、色補間処理が施された画像データ301Fである。幾何変換部105は、この画像データ301Fに対して幾何変換処理を施す。これにより、画像データ301Fは、広角レンズの収差の影響により生じた樽型の歪みが解消されて矩形の画像データ302Fとなる。幾何変換部105は、自動車1に搭載されている4台のカメラからそれぞれ取得し、上述の処理が施された画像データ301F、301L、301Bおよび301Rのそれぞれに対してこのような処理を施す。これにより上記4台のカメラから取得した画像データはそれぞれ矩形の画像に加工される。
なお、本実施の形態における説明では、画像データを樽型で示し、この樽型の歪みを幾何変換する例を示したが、このような樽型の歪みを補正する処理に加えて、台形補正等の線形変換を行う場合がある。自動車1に設置されたカメラから自動車1の周囲を撮像し、撮像した画像からサラウンドビューと称される視点変換処理を施す画像を生成する場合には、半導体装置100は、このような視点変換処理を行い、これに伴い上述の線形変換を行う。
次に、幾何変換部105は、上述の幾何変換処理を行うと、画像データを画像合成部106に供給する。そして画像データを画像合成部106は、受け取った画像データを合成する処理を行う(ステップS18)。図13は、実施の形態1にかかる画像の合成を模式的に示した図である。図の上側には、画像合成部106により矩形の画像に加工された画像データ302Fが示されている。同様に、図の左側には画像データ302Lが、図の下側には画像データ302Bが、図の右側には画像データ302Rが、それぞれ示されている。そして、これら4つの画像データに囲まれた部分には、合成画像データ303が示されている。
合成画像データ303は、画像データ302F、302L、302Bおよび302Rの重複領域を重畳させるようにして構成されている。例えば、画像データ302Fの処理領域(FC1、FR1)は、画像データ302Lの処理領域(LC1、LR1)と対応関係にある。したがって、合成画像データ303では、画像データ302Fの処理領域(FC1、FR1)と画像データ302Lの処理領域(LC1、LR1)とが重畳された状態となっている。
また、合成画像データ303の横方向のサイズは、画像データ302Fおよび画像データ302Bの幅と一致するように構成される。そして、縦方向のサイズは、画像データ302Lおよび画像データ302Rの幅と一致するように構成される。したがって、合成画像データ303は、幅方向がC1からC32と示され、縦方向がR1からR48と示されている。
また、これら4つの画像データから生成される合成画像データ303は、中央部に画像データが存在しない。そこで、半導体装置100は、予め記憶しておいたダミー自動車の画像データ1Dを合成画像データ303に重畳させる。これにより、合成画像データ303は、運転者が自ら運転する自動車を自動車の上方から俯瞰しているような画像を生成する。このようなシステムにおいて、運転者が物体を認識しやすいよう好適な色バランスで画像を表示することは、自動車および自動車を取り巻く環境の安全性を向上させることに寄与し得る。
画像データ302F、302L、302Bおよび302Rは、画像合成部106が受け取る前に、ISPによる初期色調整の効果がキャンセルされ、さらに再調整ゲインによって色バランスが再調整された状態である。したがって、このように対応関係にある処理領域を重畳させても、合成画像データ303は全体として好適な色バランスを維持することができる。
なお、このように対応関係にある処理領域を重畳させる場合に、各色の信号レベルが完全に一致することなく、対応関係にある2つの処理領域のR,G,B毎の信号レベルが異なる場合がある。そのような場合は、互いのR,G,B毎の信号レベルの平均値を採用する。本実施の形態によれば、このように平均値を採用する場合であっても、上述の処理により互いのR,G,B毎の信号レベルの差が抑えられているため、運転者等にとって好適な色バランスにより合成画像データを生成することができる。
画像合成部106は、このようにして生成した合成画像データ303を出力部107に供給する。そして、出力部107は、受け取った合成画像データ303を外部(表示装置12)に出力する(ステップS19)。
次に、半導体装置100は、処理を終了するか否かを判定する(ステップS20)。処理を終了すると判定しない場合(ステップS20:No)、半導体装置100は、再びステップS10に戻り処理を繰り返す。一方、処理を終了すると判定する場合(ステップS20:Yes)、半導体装置100は、処理を終了する。
半導体装置100は、以上に説明した一連の処理により、画像データの色バランスを調整する。なお、カメラ11F、カメラ11L、カメラ11Bおよびカメラ11RがAWBの処理を施さないものである場合には、上述したステップS12からステップS14までの処理およびステップS21の処理を省略することができる。またその場合、図3に示した推定元画像生成部102を構成として有さない。
なお、上述した一連の処理のうち、画像データを幾何変換する処理(ステップS17)は、ステップS11の後に行われてもよい。またその場合、画像データを合成する処理(ステップS18)は、調整領域決定処理(ステップS15)の前に行われてもよい。
次に、図18を参照しながら対象物体の優先順位が変化する場合の処理について説明する。図18は、対象物体の優先順位が入れ替わる状態の例を示した図である。図において、自動車1の表示領域402には対象物体である他車9とバイク7が存在している。また、図に示した状態は時刻t=N+2におけるものである。時刻t=N+2における他車9の位置は領域9aであり、バイク7の位置は領域7aである。すなわち時刻t=N+2において、自動車1と他車9との距離は自動車1とバイク7との距離より近いため、第1対象物体は他車9であり、第2対象物体はバイク7である。
このような状況において、調整領域決定部103は、時刻t=N+2よりも後の時刻であるt=N+3における対象物体の優先順位を図14に示した処理により決定する。調整領域決定部103が推定する時刻t=N+3における他車9の位置は、領域9bである。同様に、調整領域決定部103が推定するバイク7の位置は、領域7bである。自動車1と領域7bとの距離は、自動車1と領域9bとの距離よりも近い。したがって、調整領域決定部103は、時刻t=N+3における第1対象物体をバイク7と決定し、第2対象物体を他車9と決定する。つまり、時刻t=N+2から時刻t=N+3にかけて、対象物体の優先順位が入れ替わることになる。したがって、調整領域決定部103は、第1調整領域を領域9bから領域7bに入れ替える。
次に、図19を参照しながら上述の状況において再調整ゲインが算出する再調整ゲインの例について説明する。図19は、再調整部104が処理する再調整ゲインの例を説明するためのグラフである。図に示すグラフにおいて、横軸は時刻であり、縦軸は再調整ゲインである。また、グラフにプロットされた太い折れ線Gwbは、再調整ゲインの値である。なお、ここでは一例として1つのゲインについて説明しているが、当然ながら実際には画像データのゲインはRGBそれぞれ別個に存在する。
再調整部104は、時刻t=N+1および時刻t=N+2において、第1対象物体である他車9の推定位置から決定された第1領域から再調整ゲインG1を算出している。そいて、時刻t=N+3において、第1対象物体が他車9からバイク7に入れ替わることにより、第1領域の位置が大きく変わったことにより、再調整ゲインG3を算出する。このような場合に再調整ゲインG1と再調整ゲインG3との差が大きい場合、画像データの色バランスが急激に変化し、運転者にとって見づらい状態となる場合がある。本実施の形態では、そのような場合に画像の色バランスの急激な変化を抑えるために、再調整部104は予め設定された時定数TCを有している。図において、一点鎖線で示した直線は時定数TCをプロットしたものである。時刻t=N+3において、再調整部104は、時定数TCを超えない値である再調整ゲインG2を算出し、再調整ゲインG2を使用して画像データの再調整を施す。そして、時刻t=N+4において、時定数TCを超えない再調整ゲインG3を使用して画像データの再調整を施す。
このように、再調整部104は、所定の時刻における再調整ゲインを決定する場合において、過去に決定した再調整ゲイン(これを過去ゲインと称する)からの変化率が予め設定された値を超えないように色調整ゲインを決定する。このような構成とすることにより、半導体装置100は、画像の急激な色合いの変化を抑制することができ、色合いの急激な変化による視認性の悪化を防ぐことができる。
以上、実施の形態1について説明したが、実施の形態1にかかる構成は上述の内容に限られない。例えば、図1に示した4台のカメラは、自動車1の左前部、左後部、右前部および右後部に設置されていてもよい。あるいは、これら4台のカメラは自動車1のルーフに設置され、自動車1の周囲を撮像範囲とするように設置されていてもよい。また、カメラの台数は4台に限られない。さらに、カメラは可動式であって、動きながら自動車の周囲を順次撮像する構成であってもよい。
また、再調整部104は、第1調整領域から算出される再調整ゲインと第2調整領域から算出される再調整ゲインとから算出した平均値を再調整ゲインとする構成であってもよい。また、この場合、再調整部104は、平均値に重み付けを行ってもよい。このような構成にすることにより、画像処理システム10は、複数の対象物体に対する色バランスの悪化を抑制することができる。
以上の構成により、半導体装置100ないし画像処理システム10は、自動車1の周囲の物体に対して好適な色バランスによる処理を行う。これにより、自動車1の運転者等は、自動車1の周囲の物体を容易に認識することができる。すなわち実施の形態1によれば、物体の視認性を向上させる半導体装置等を提供することができる。
<実施の形態1の変形例1>
次に、実施の形態1の変形例1について説明する。図20は、実施の形態1の変形例における自動車の概観図である。実施の形態1の変形例は、カメラの数およびカメラの配置が実施の形態1の画像処理システム10と異なる。
実施の形態1の変形例1にかかる画像処理システム30は、自動車1の後方を撮像し、撮像した画像の画像データに所定の処理を施して運転者等に表示するためのシステムである。画像処理システム30は、自動車のサイドミラーおよびバックミラーに代えて設置されていてもよい。画像処理システム30は、主な構成として、カメラ21L、カメラ11B、カメラ21R、表示装置12、および半導体装置100を有している。
カメラ21Lは自動車1の後方左側の撮像領域210Lを撮像し、カメラ11Bは自動車1の後方中央の撮像領域210Bを撮像し、そして、カメラ21Rは自動車1の後方右側の撮像領域210Rを撮像する。これらの撮像領域の内、隣接する撮像領域は互いに重複する重複領域をそれぞれ有している。すなわち、撮像領域210Lと撮像領域210Bとは、互いに重複する重複領域210LBをそれぞれ有している。同様に、撮像領域210Bと撮像領域210Rとは、互いに重複する重複領域210BRをそれぞれ有している。
このような構成において、半導体装置100は、ISPが行った画像データの初期色調整の効果をそれぞれキャンセルすることにより推定元画像データを生成する。そして、半導体装置100は、推定元画像データから対象物体を検出し、所定の時間経過後における対象物体の位置を推定するとともに調整領域を決定し、決定した調整領域を利用して画像データの色バランスの再調整を施す。さらに半導体装置100は、画像データをそれぞれの重複領域が互いに重なるように合成して合成画像を生成する。さらに、半導体装置100は、再調整が施された合成画像データを表示装置12に出力する。
以上の構成により、画像処理システム30は、自動車1の後方に存在する物体を好適な色バランスに施す。これにより運転者は、自動車1の後方に存在する物体を認識することが容易になる。このように本実施の形態は、画像に含まれる物体に好適な色バランス処理を施す半導体装置等を提供することができる。
<実施の形態1の変形例2>
次に、実施の形態1の変形例2について説明する。図21は、実施の形態1の変形例2にかかる画像処理システムの概略構成図である。本実施の形態にかかる画像処理システム20は、半導体装置100に代えて半導体装置200を有している点において実施の形態1と異なる。また、画像処理システム20は、測距センサ13およびECU(Electronic Control Unit)装置14を有している点において実施の形態1と異なる。以下に、実施の形態1と異なる点について説明する。
測距センサ13は、自動車1の周囲に存在する物体の位置、形状および大きさを検出するセンサ装置である。測距センサ13は例えばLIDAR(Laser Imaging Detection and Ranging)と呼ばれるレーザ光を利用した測距センサや、赤外光を用いた熱画像を生成するセンサ装置である。測距センサ13は、このように可視光とは異なる光を利用して物体の検出を行うための画像データを生成し、生成した画像データを半導体装置200に供給する。
ECU装置14は、自動車1に組み込まれた駆動装置や操舵装置等から自動車1の運転に関わる情報を取得する。ECU装置14が取得する情報は、例えば、自動車1の速度、ステアリングの操舵角、GPS位置情報等である。ECU装置14は、これらの情報を半導体装置200に供給する。
半導体装置200が有する画像データ取得IF110は、実施の形態1にかかるカメラ11F、カメラ11L、カメラ11B、カメラ11Rから供給される画像データに加え、測距センサ13から供給される画像データを受け取る。
また、半導体装置200は、バス通信IF210を有している。バス通信IF210は、外部機器との通信を行うための通信インタフェースであり有線または無線を問わない。通信インタフェースは、例えばUSB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、CAN(Controller Area Network)などである。バス通信IF210は、ECU装置14に接続されており、ECU装置14から供給される情報を受け取る。ECU装置14から供給される情報は、プロセッサ120に供給され、処理が行われる。
画像処理システム20は、このような構成により、カメラ11F、カメラ11L、カメラ11B、カメラ11Rが撮像する範囲とは異なる範囲における対象物体の認識を測距センサ13により行うことができる。好ましくは、測距センサ13は、合成画像に含まれる領域の外側の領域に位置する対象物体を検出する。これにより、合成画像の表示領域に侵入すると推定される対象物体を予め検出し、表示領域に侵入する対象物体に対応した色バランスの調整を行うことができる。また、画像処理システム20は、自動車1の運転に関わる情報を取得することにより、対象物体の推定位置をより正確に推定することができる。
<実施の形態2>
次に、実施の形態2について説明する。実施の形態2にかかる画像処理システム30は、第1対象物体を選択できる点において実施の形態1と異なる。このような機能を実現するために、実施の形態2にかかる画像処理システム30は、表示装置12に表示された画像をタッチセンサと重畳させる構成となっている。以下に、実施の形態1との差異点について説明する。
図22は、実施の形態2にかかる画像処理システムの概略構成図である。画像処理システム30は、半導体装置100に代えて、半導体装置200を有している。また、画像処理システム30は、半導体装置200と接続するタッチセンサ21を有している。
半導体装置200は、バス通信IF210を有している。バス通信IF210は、外部機器との通信を行うための通信インタフェースであり有線または無線を問わない。通信インタフェースは、例えばUSB、HDMI、CANなどである。バス通信IF210は、タッチセンサ21に接続されており、タッチセンサ21から供給される信号を受け取る。バス通信IF210が受け取った信号は、プロセッサ120に供給され、処理が行われる。
タッチセンサ21は、運転者等がディスプレイ内の所定の位置に触れた場合にその触れた位置を検出するセンサ装置であって、例えば圧力式、静電容量式または光学式などの位置検出センサである。タッチセンサ21は、表示装置12のディスプレイ部分に重畳して設置されることにより、ディスプレイ上に表示された画像データの座標と関連付けられた位置を検出することができる。
図23は、実施の形態2にかかる半導体装置の機能ブロック図である。実施の形態2にかかる半導体装置200の機能ブロックは、物体選択部109を有している点において実施の形態1にかかる半導体装置100と異なる。
物体選択部109は、タッチセンサ21から供給された信号により動作する。物体選択部109は、タッチセンサ21を介して受け取る信号から画像データの座標情報を検出する。そして、物体選択部109は、検出した画像データの座標情報を調整領域決定部103に供給する。
調整領域決定部103は、物体選択部109から受け取った画像データの座標情報と対象物体の存在する位置とが一致するか否かを判断する。そして、調整領域決定部103は、座標情報と対象物体の存在する位置とが一致することを判定した場合に、一致した対象物体の優先順位を1位として扱う。
図24を参照しながら物体選択部109にかかる機能の処理について説明する。図24は、実施の形態2にかかる半導体装置における物体選択処理のフローチャートである。図に示すフローチャートは、図14に示した処理と平行して実行される。
まず、物体選択部109は、タッチ信号を検出したか否かを判定する(ステップS250)。タッチ信号を検出したと判定しない場合(ステップS250:No)、物体選択部109は、タッチ信号を検出したか否かを繰り返し判定するポーリング動作を行う。
タッチ信号を検出したと判定した場合(ステップS250:Yes)、物体選択部109は、タッチ信号に含まれる座標情報を調整領域決定部103に供給する。調整領域決定部103は、受け取った座標情報と対象物体の存在する位置とが一致するか否かを判定する(ステップS251)。
座標情報と対象物体の存在する位置とが一致すると判定しない場合(ステップS251:No)、調整領域決定部103は、この座標情報にかかる領域を調整領域に決定する(ステップS256)。この場合、調整領域決定部103は、物体選択部109から受け取った座標を運転者等が指定した領域として扱う。そのため、検出した対象物体の位置に関わらず選択された座標を含む領域を調整領域として決定する。
座標情報と対象物体の存在する位置とが一致すると判定した場合(ステップS251:Yes)、調整領域決定部103は、一致した対象物体を運転者等が選択した物体として扱う。すなわち調整領域決定部103は、選択された対象物体を第1対象物体に決定する(ステップS252)。かかる処理は図14に示した処理よりも高い優先度で行われる。そこで、調整領域決定部103は、第1対象物体が入れ替わるか否かを判定する(ステップS253)。
ここで、運転者等がタッチした座標と、調整領域決定部103が決定した第1対象物体の位置とが一致していた場合、調整領域決定部103は、第1対象物体が入れ替わると判定しない(ステップS253:No)。この場合、調整領域決定部103は、それまでに実行した処理に従い調整領域を決定し(ステップS255)、一連の処理を終了する。
一方、運転者等がタッチした座標と、調整領域決定部103が決定した第1対象物体の位置とが一致していなかった場合、調整領域決定部103は、第1対象物体が入れ替わると判定する(ステップS253:Yes)。この場合、調整領域決定部103は、選択された対象物体を第1対象物体として扱うとともに、それまで第1対象物体として扱っていた対象物体を第2対象物体として決定する(ステップS254)。すなわち、調整領域決定部103は、それまで優先順位1位として扱っていた対象物体の優先順位を2位に変更する。そして、調整領域決定部103は、このように決定した第1対象物体および第2対象物体から調整領域を決定し(ステップS255)、処理を終了する。
以上、実施の形態2について説明したが、実施の形態2の構成は上述の内容に限られない。例えば、画像処理システム30は、領域を選択するタッチセンサ21に代えて、選択領域を上下左右方向に移動させ、移動させた領域を選択することを指示するコマンドを発行する操作手段を有していてもよい。また、ステップS256の処理を省略し、対象物体が含まれない領域が選択された場合には、物体選択部109からの指示は調整領域決定部103の処理に反映されない構成としてもよい。
以上の構成により、画像処理システム30は、運転者が注視を所望する物体に対して好適な色バランスによる処理を行う。これにより、自動車1の運転者等は、自動車1の周囲の物体を容易に認識することができる。すなわち実施の形態2によれば、物体の視認性を向上させる半導体装置等を提供することができる。
なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、および電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、または無線通信路を介して、プログラムをコンピュータに供給できる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は既に述べた実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能であることはいうまでもない。
1 自動車
7 バイク
9 他車
10、20、30 画像処理システム
11B、11F、11L、11R、21L、21R カメラ
12 表示装置
13 測距センサ
14 ECU装置
21 タッチセンサ
100、200 半導体装置
101 画像データ取得部
102 推定元画像生成部
103 調整領域決定部
104 再調整部
105 幾何変換部
106 画像合成部
107 出力部
108 記憶部
109 物体選択部
120 プロセッサ
130 内部メモリ
400 道路
401 検出領域
402 表示領域
110 画像データ取得IF
140 画像データ出力IF
210 バス通信IF

Claims (20)

  1. 撮像領域に互いに重複する重複部を含む画像を撮像し、撮像した画像の画像データをそれぞれ生成する複数の画像信号処理装置から予め設定された期間ごとに連続して前記画像データを取得する画像データ取得回路と、
    第1時刻において取得した第1画像データから予め認識するように設定された物体である対象物体を検出し、前記第1時刻より前の時刻から前記第1時刻にかけての前記対象物体の位置変化に基づいて、前記第1時刻より後の第2時刻における前記対象物体の位置を推定することにより調整領域を決定する調整領域決定回路と、
    前記第1画像データの前記調整領域に基づいて色バランスの調整である色調整ゲインを決定し、前記色調整ゲインに基づいて第2時刻において取得した第2画像データに色調整を施す色調整回路と、
    色調整を施した第2画像データをそれぞれの前記重複部が互いに重なるように合成して合成画像を生成する画像合成回路と、
    を備える半導体装置。
  2. 前記色調整が施された前記合成画像を出力する出力回路をさらに有する、
    請求項1に記載の半導体装置。
  3. 前記画像信号処理装置が色バランスの調整である初期色調整を施した前記画像データを生成する場合に、前記画像データに施された前記初期色調整の効果をそれぞれキャンセルして推定元画像データを生成する処理である推定元画像生成処理を施す推定元画像生成回路をさらに有し、
    前記色調整回路は、前記推定元画像生成処理が施された前記第1画像データにおける前記調整領域に基づいて前記色調整ゲインを決定する、
    請求項1に記載の半導体装置。
  4. 前記推定元画像生成回路は、前記重複部の互いに対応する処理領域における各色の信号レベルを一致させる一致化ゲインを前記画像データごとに算出し、前記一致化ゲインをそれぞれ対応する前記画像データに含まれる画素の各色の信号レベルに乗ずることにより前記推定元画像データを生成する、
    請求項3に記載の半導体装置。
  5. 前記推定元画像生成回路は、前記重複部に対応する2つの前記画像データにおいて互いに対応する前記処理領域の特定の画素群から各色の信号レベルの平均値を算出し、算出した平均値に基づいて前記一致化ゲインを算出する、
    請求項4に記載の半導体装置。
  6. 前記推定元画像生成回路は、前記画像データに含まれる前記初期色調整に関する情報に基づいて前記推定元画像データを生成する、
    請求項3に記載の半導体装置。
  7. 前記調整領域決定回路は、前記第1画像データから前記対象物体を特定できない場合に、予め設定された領域を前記調整領域として決定する、
    請求項1に記載の半導体装置。
  8. 前記色調整回路は、前記第2時刻における前記色調整ゲインを決定する場合において、過去に決定した過去ゲインからの変化率が予め設定された値を超えないように前記色調整ゲインを決定する、
    請求項1に記載の半導体装置。
  9. 前記調整領域決定回路は、前記第1画像データ内に複数の前記対象物体を検出する場合に、予め設定された判断基準に基づいて優先順位が最も高い第1対象物体を特定し、前記第2画像データにおける前記第1対象物体の位置を推定することにより前記調整領域を決定する、
    請求項1に記載の半導体装置。
  10. 前記調整領域決定回路は、前記第2時刻において取得する前記第2画像データにおける前記対象物体の位置を推定し、推定した前記対象物体との距離に基づいて前記第1対象物体を特定する、
    請求項9に記載の半導体装置。
  11. 前記対象物体の属性と優先順位が関連付けられた優先順位情報を記憶する記憶部をさらに有し、
    前記調整領域決定回路は、前記優先順位情報に基づいて前記第1対象物体を特定する、
    請求項9に記載の半導体装置。
  12. 前記調整領域決定回路は、優先順位が前記第1対象物体に次いで2番目に高い第2対象物体を特定するとともに、
    前記第2画像データにおいて前記第1対象物体に基づく第1調整領域と、前記第2対象物体に基づく第2調整領域とをそれぞれ決定する、
    請求項9に記載の半導体装置。
  13. 前記画像データ内の前記対象物体の選択を受け付ける物体選択回路をさらに有し、
    調整領域決定回路は、前記物体選択回路により前記対象物体が選択された場合には、選択された前記対象物体の位置に基づいて前記調整領域を決定する、
    請求項1に記載の半導体装置。
  14. 前記調整領域決定回路は、前記合成画像に含まれる領域の外側の領域に位置する前記対象物体を検出する、
    請求項1に記載の半導体装置。
  15. 前記画像データ取得回路は、移動体の周囲を撮像して生成された前記画像データを取得する、
    請求項1に記載の半導体装置。
  16. 前記調整領域決定回路は、前記第1画像データ内に複数の前記対象物体が存在する場合に、前記第1時刻から前記第2時刻にかけて相対的に自己に対してより速い移動速度で近寄ってくる前記対象物体を前記第1対象物体として特定する、
    請求項9に記載の半導体装置。
  17. 前記画像合成回路は、前記画像データ取得回路が取得した複数の前記画像データをそれぞれの前記重複部が互いに重なるように合成して前記合成画像を生成し、
    前記調整領域決定回路は、前記合成画像のデータである合成画像データに対して前記調整領域を決定する、
    請求項1に記載の半導体装置。
  18. 撮像領域に互いに重複する重複部を含む画像を撮像し、撮像した画像の画像データをそれぞれ生成する複数の画像信号処理装置から予め設定された期間ごとに連続して前記画像データを取得する画像データ取得インタフェースと、
    第1時刻において取得した第1画像データから予め認識するように設定された物体である対象物体を検出し、
    前記第1時刻より前の時刻から前記第1時刻にかけての前記対象物体の位置変化に基づいて、前記第1時刻より後の第2時刻における前記対象物体の位置を推定することにより調整領域を決定し、
    前記第1画像データにおける前記調整領域に基づいて色バランスの調整である色調整ゲインを決定し、
    前記色調整ゲインに基づいて第2時刻において取得した第2画像データに色調整を施し、
    色調整を施した第2画像データをそれぞれの前記重複部が互いに重なるように合成して合成画像を生成し、
    前記色調整が施された前記合成画像を出力するプロセッサと、
    前記対象物体を特性するための対象物体情報を記憶するメモリと、
    を備える半導体装置。
  19. 撮像領域に互いに重複する重複部を含む画像を撮像し、撮像した画像の画像データをそれぞれ生成する複数の画像信号処理装置から予め設定された期間ごとに連続して前記画像データを取得する画像データ取得ステップと、
    第1時刻において取得した第1画像データから予め認識するように設定された物体である対象物体を検出し、前記第1時刻より前の時刻から前記第1時刻にかけての前記対象物体の位置変化に基づいて、前記第1時刻より後の第2時刻における前記対象物体の位置を推定することにより調整領域を決定する調整領域決定ステップと、
    前記第1画像データにおける前記調整領域に基づいて色バランスの調整である色調整ゲインを決定し、前記色調整ゲインに基づいて第2時刻において取得した第2画像データに色調整を施す色調整ステップと、
    色調整を施した第2画像データをそれぞれの前記重複部が互いに重なるように合成して合成画像を生成する画像合成ステップと、
    前記色調整が施された前記合成画像を出力する出力ステップと、
    を備える画像処理方法。
  20. 請求項19に記載の方法をコンピュータに実行させるプログラム。
JP2018239592A 2018-12-21 2018-12-21 半導体装置、画像処理方法およびプログラム Active JP7148384B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018239592A JP7148384B2 (ja) 2018-12-21 2018-12-21 半導体装置、画像処理方法およびプログラム
US16/673,466 US11094037B2 (en) 2018-12-21 2019-11-04 Semiconductor device, image processing system, image processing method and computer readable storage medium
CN201911147552.4A CN111355880B (zh) 2018-12-21 2019-11-21 半导体器件、图像处理***和方法及计算机可读存储介质
EP19211237.3A EP3671629B1 (en) 2018-12-21 2019-11-25 Semiconductor device, image processing system, image processing method and computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018239592A JP7148384B2 (ja) 2018-12-21 2018-12-21 半導体装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020102756A JP2020102756A (ja) 2020-07-02
JP7148384B2 true JP7148384B2 (ja) 2022-10-05

Family

ID=68655393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018239592A Active JP7148384B2 (ja) 2018-12-21 2018-12-21 半導体装置、画像処理方法およびプログラム

Country Status (4)

Country Link
US (1) US11094037B2 (ja)
EP (1) EP3671629B1 (ja)
JP (1) JP7148384B2 (ja)
CN (1) CN111355880B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022172787A (ja) * 2021-05-07 2022-11-17 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN113246862A (zh) * 2021-06-25 2021-08-13 上海昶音通讯科技有限公司 用于大型汽车的数据处理***及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054928A (ja) 2002-06-21 2004-02-19 Microsoft Corp カメラのイメージステッチングのためのシステムおよび方法
JP2008109336A (ja) 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd 画像処理装置および撮像装置
JP2010283718A (ja) 2009-06-08 2010-12-16 Alpine Electronics Inc 車両周辺画像提供装置
US20150138312A1 (en) 2013-11-18 2015-05-21 Texas Instruments Incorporated Method and apparatus for a surround view camera system photometric alignment
JP2016127329A (ja) 2014-12-26 2016-07-11 株式会社Jvcケンウッド 撮像システム
JP2018164199A (ja) 2017-03-27 2018-10-18 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、および画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4818862B2 (ja) 2006-09-25 2011-11-16 パナソニック株式会社 合成映像表示装置
CN102959943B (zh) * 2010-06-24 2016-03-30 富士胶片株式会社 立体全景图像合成装置和方法、以及图像捕获装置
JP2014115978A (ja) * 2012-11-19 2014-06-26 Ricoh Co Ltd 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体
US20200020117A1 (en) * 2018-07-16 2020-01-16 Ford Global Technologies, Llc Pose estimation
US10853670B2 (en) * 2018-11-21 2020-12-01 Ford Global Technologies, Llc Road surface characterization using pose observations of adjacent vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054928A (ja) 2002-06-21 2004-02-19 Microsoft Corp カメラのイメージステッチングのためのシステムおよび方法
JP2008109336A (ja) 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd 画像処理装置および撮像装置
JP2010283718A (ja) 2009-06-08 2010-12-16 Alpine Electronics Inc 車両周辺画像提供装置
US20150138312A1 (en) 2013-11-18 2015-05-21 Texas Instruments Incorporated Method and apparatus for a surround view camera system photometric alignment
JP2016127329A (ja) 2014-12-26 2016-07-11 株式会社Jvcケンウッド 撮像システム
JP2018164199A (ja) 2017-03-27 2018-10-18 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、および画像処理方法

Also Published As

Publication number Publication date
JP2020102756A (ja) 2020-07-02
US11094037B2 (en) 2021-08-17
EP3671629A1 (en) 2020-06-24
US20200202488A1 (en) 2020-06-25
CN111355880B (zh) 2023-02-28
CN111355880A (zh) 2020-06-30
EP3671629B1 (en) 2022-10-26

Similar Documents

Publication Publication Date Title
JP6084434B2 (ja) 画像処理システム及び画像処理方法
US11477372B2 (en) Image processing method and device supporting multiple modes and improved brightness uniformity, image conversion or stitching unit, and computer readable recording medium realizing the image processing method
JP5171723B2 (ja) 障害物検知装置、および当該装置を搭載した車両
JP6289681B2 (ja) 撮像装置及び方法、並びにプログラム及び記録媒体
JP6750519B2 (ja) 撮像装置、撮像表示方法および撮像表示プログラム
JP7150709B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR20170135952A (ko) 차량의 주변 영역을 표시하기 위한 방법
US20150350572A1 (en) Night-vision device
US11082631B2 (en) Image processing device
US11172173B2 (en) Image processing device, image processing method, program, and imaging device
JP7148384B2 (ja) 半導体装置、画像処理方法およびプログラム
WO2021218602A1 (zh) 一种基于视觉的ar-hud亮度自适应调节方法
JP2012105090A (ja) 駐車支援装置
JP2017011633A (ja) 撮像装置
JP7100574B2 (ja) 半導体装置、画像処理方法およびプログラム
US20200051222A1 (en) Image matching method and apparatus
WO2017033691A1 (ja) 画像生成装置、画像生成方法、及びプログラム
KR20180028354A (ko) 다중 뷰 모드에서의 영상 디스플레이 방법
JP7183562B2 (ja) 画像処理装置
US11410274B2 (en) Information processing device and program
JP5310616B2 (ja) 車両周辺表示装置
JP4846627B2 (ja) 表示制御装置
JP7355252B2 (ja) 画像表示装置および画像表示方法
WO2022215234A1 (ja) 画像処理装置および画像処理方法
JP2009260514A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220922

R150 Certificate of patent or registration of utility model

Ref document number: 7148384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150