JPWO2018092379A1 - 画像処理装置と画像処理方法 - Google Patents

画像処理装置と画像処理方法 Download PDF

Info

Publication number
JPWO2018092379A1
JPWO2018092379A1 JP2018551041A JP2018551041A JPWO2018092379A1 JP WO2018092379 A1 JPWO2018092379 A1 JP WO2018092379A1 JP 2018551041 A JP2018551041 A JP 2018551041A JP 2018551041 A JP2018551041 A JP 2018551041A JP WO2018092379 A1 JPWO2018092379 A1 JP WO2018092379A1
Authority
JP
Japan
Prior art keywords
image
fusion
angle
unit
wide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018551041A
Other languages
English (en)
Other versions
JP7047767B2 (ja
Inventor
英之 市橋
英之 市橋
真史 内田
真史 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018092379A1 publication Critical patent/JPWO2018092379A1/ja
Application granted granted Critical
Publication of JP7047767B2 publication Critical patent/JP7047767B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

フュージョン処理部32は、所定条件を満たす場合、撮像部21-Hで生成された高画質画像よりも広画角である撮像部21-Hで生成された広画角画像を用いて高画質画像を基準としたワーピングを行い、広画角画像よりも高画質である高画質画像とワーピング後の広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する。また、所定条件を満たさない場合、フュージョン判定情報に基づき、高画質画像を用いて広画角画像を基準としたワーピングを行い、ワーピング後の高画質画像とワーピングを行っていない広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する。画角と解像度が異なる複数の撮像画を用いて画質を低下させることなく広画角で高画質の撮像画を生成できる。

Description

この技術は、画像処理装置と画像処理方法に関し、画角と解像度が異なる撮像画を用いて画質を低下させることなく広画角で高解像度の撮像画を生成できるようにする。
従来、携帯型の電子機器例えばスマートフォン等の情報処理端末では、小型化・薄型化のために撮像部の画質が一眼レフカメラ等に比べて低下している。このため、例えば特許文献1では、複数の撮像部を設けて、画質の異なる複数の画像例えば第1の画角と第1の画角よりも狭い第2の画角の画像を同時に生成することが開示されている。
特開2013−219525号公報
ところで、特許文献1のように複数の撮像部を設けただけでは、撮像部の性能を超えた撮像画を取得できない。
そこで、この技術では画角と画質が異なる複数の撮像画を用いて画質を低下させることなく広画角で高画質の撮像画を生成できる画像処理装置と画像処理方法を提供することを目的とする。
この技術の第1の側面は、
高画質画像よりも低画質且つ広画角である広画角画像に対して前記高画質画像を基準としたワーピングを行い、前記高画質画像と前記ワーピング後の広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する高画質画像基準フュージョン処理を行うフュージョン処理部
を備える画像処理装置にある。
この技術において、フュージョン処理部は高画質画像基準フュージョン処理を行う。フュージョン処理部は、高画質画像より低画質且つ広画角である広画角画像に対して高画質画像を基準としたワーピングを行う。ワーピングは、高画質画像と広画角画像についての視差情報に基づいて行い、広画角画像において高画質画像に含まれていない画像非重複領域の視差情報は、画像重複領域の視差情報を用いて補間する。また、フュージョン処理部は、広画角画像よりも高画質である高画質画像とワーピング後の広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する。
また、フュージョン処理部は、判定部の判定結果に基づき、所定条件を満たしている場合に高画質画像基準フュージョン処理を行い、所定条件を満たしていない場合、広画角画像基準フュージョン処理を行う。広画角画像基準フュージョン処理では、高画質画像を用いて広画角画像を基準としたワーピングを行い、ワーピング後の高画質画像とワーピングを行っていない広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する。
判定部は、例えば広画角画像において高画質画像に含まれていない画像非重複領域に位置する被写体について視差情報に基づき判別した被写体距離が判定閾値よりも長いことを所定条件とする。また、判定部は、例えば画像重複領域における画像非重複領域との境界から所定範囲の画像領域の平均輝度の輝度差が判定閾値以下であることを所定条件とする。
また、フュージョン処理部は狭画角フュージョン処理を行う。フュージョン処理部は広画角画像を用いて高画質画像を基準としたワーピングを行い、高画質画像とワーピング後の広画角画像を、画像重複領域の位置を一致させて高画質画像の画角であるフュージョン画像を生成する。
フュージョン処理部は、高画質画像と広画角画像が動画で広画角画像の画角であるフュージョン画像を生成する場合、判定部の判定結果に基づき高画質画像基準フュージョン処理または広画角画像基準フュージョン処理を行う。フュージョン処理部は、高画質画像と広画角画像が静止画である場合、高画質画像基準フュージョン処理または広画角画像基準フュージョン処理あるいは狭画角フュージョン処理を行う。フュージョン処理部は、判定部の判定結果に基づき、所定条件を満たしていない場合は広画角画像基準フュージョン処理または狭画角フュージョン処理を行う。さらに、フュージョン処理部は、所定条件を満たしていない場合において、判定部でフュージョン画像の画角設定を自動的に行うモード選択が行われていることを判定している場合に狭画角フュージョン処理を行う。また、判定部は、フュージョン処理のユーザ選択操作を判定して、フュージョン処理部は、判定部で狭画角フュージョン処理が選択されたことを判定した場合に所定条件を満たしているか否かに拘わらず狭画角フュージョン処理を行う。
この技術の第2の側面は、
高画質画像よりも低画質且つ広画角である広画角画像に対して前記高画質画像を基準としたワーピングを行い、前記高画質画像と前記ワーピング後の広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する高画質画像基準フュージョン処理をフュージョン処理部で行うことを
を含む画像処理方法にある。
この技術によれば、高画質画像よりも低画質且つ広画角である広画角画像に対して高画質画像を基準としたワーピングと、広画角画像よりも高画質である高画質画像とワーピング後の広画角画像を、画像重複領域の位置を一致させて合成する処理が行われてフュージョン画像が生成される。したがって、画角と画質が異なる複数の撮像画を用いて画質を低下させることなく広画角で高画質の撮像画を生成できるようになる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
画像処理装置を適用した機器の外観を例示した図である。 情報処理端末の構成を例示した図である。 撮像部の画素配列を例示した図である。 白黒撮像画を基準としたときのオクルージョンを示した図である。 フュージョン画像の生成に用いる撮像画を示した図である。 実施の形態の構成を例示した図である。 画像処理部の実施の形態の動作を示すフローチャートである。 フュージョン処理判定を示すフローチャートである。 撮像部と被写体の位置関係を模式的に示した図である。 被写体距離と撮像部で取得される撮像画の関係を示す図である。 近景検出領域を示す図である。 距離に基づく基準画像判定を示すフローチャートである。 輝度差に基づく基準画像判定を説明するための図である。 輝度算出領域を示す図である。 輝度差に基づく基準画像判定を示すフローチャートである。 統合判定を説明するための図である。 視差検出を説明するための図である。 フュージョン判定結果に基づいて生成されるフュージョン画像の性能を示した図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
1.画像処理装置を適用した機器の構成
2.画像処理装置の実施の形態
2−1.実施の形態の構成
2−2.実施の形態の動作
3.他の実施の形態
4.応用例
<1.画像処理装置を適用した機器の構成>
図1は、この技術の画像処理装置を適用した機器の外観を例示している。なお、以下の説明では、例えば情報処理端末に画像処理装置を適用している。図1の(a)は情報処理端末10の表側を示しており、表示部53やタッチパネル54および操作部55が表側に設けられている。図1の(b)は情報処理端末10の裏側を示しており、複数の撮像部例えば2つの撮像部21-H,21-Wが裏側に設けられている。
図2は、情報処理端末の構成を例示している。情報処理端末10は、複数の撮像部例えば2つの撮像部21-H,21-W、画像処理部30、センサ部51、通信部52、表示部53、タッチパネル54、操作部55、記憶部56、および制御部60を有している。画像処理部30はこの技術の画像処理装置に相当する。
撮像部21-H,21-Wは、図1の(b)に示すように情報処理端末10の同一面側に設けられている。撮像部21-H,21-Wは、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を用いて構成されており、レンズ(図示せず)により取り込まれた光の光電変換を行い、撮像画の画像データを生成して画像処理部30へ出力する。また、撮像部21-H,21-Wは特性差を有しており、撮像部21-Hは撮像部21-Wよりも高画質であり、撮像部21-Wは撮像部21-Hよりも広画角である。
図3は、撮像部の画素配列を例示している。図3の(a)は、撮像部21-Hの画素配列を示している。撮像部21-Hは、全画素が、可視光の全波長領域の入射光量に基づく電気信号を出力するW(ホワイト)画素によって構成される。したがって、撮像部21-Hは、白黒撮像画の画像データを生成する。
図3の(b)は、撮像部21-Wの画素配列を示している。撮像部21-Wは、例えば赤色(R)画素と青色(B)画素と緑色(G)画素をベイヤ配列としたカラーフィルタを用いて構成されている。ベイヤ配列では2×2画素の画素単位において対角位置の2つの画素が緑色(G)画素で、残りの画素が赤色(R)画素と青色(B)画素とされている。すなわち、撮像部21-Wは、各画素が赤色と青色と緑色のいずれか1つの色成分の入射光量に基づく電気信号を出力する色画素によって構成されている。したがって、撮像部21-Wは、各画素が三原色(RGB)成分のいずれかを示すカラー撮像画の画像データを生成する。
画像処理部30は、撮像部21-Hで生成された高画質の撮像画と撮像部21-Wで生成された広画角の撮像画を用いて画像処理を行い、広画角で高画質の撮像画を生成して、表示部53や記憶部56へ出力する。なお、画像処理部30の構成および動作の詳細については後述する。
センサ部51はジャイロセンサなどを用いて構成されており、情報処理端末10に生じた揺れを検出する。センサ部51は、検出した揺れの情報を制御部60へ出力する。
通信部52は、LAN(Local Area Network)やインターネットなどのネットワーク上の機器と通信を行う。
表示部53は、画像処理部30から供給された画像データに基づき撮像画の表示、制御部60からの情報信号に基づきメニュー画面や各種アプリケーション画面等の表示を行う。また、表示部53の表示面側にはタッチパネル54が載置されており、GUI機能利用できるように構成されている。
操作部55は操作スイッチ等を用いて構成されており、ユーザ操作に応じた操作信号を生成して制御部60へ出力する。
記憶部56は、情報処理端末10で生成された情報例えば画像処理部30から供給された画像データや、情報処理端末10で通信やアプリケーションを実行するために用いられる各種情報を記憶する。
制御部60は、CPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory)(図示せず)などで構成されている。制御部60は、ROMまたはRAMに記憶されたプログラムを実行して、タッチパネル54や操作部55に対するユーザ操作に応じた動作が情報処理端末10で行われるように各部の動作を制御する。
なお、情報処理端末10は、図2に示す構成に限られず、例えば画像データを符号化して記憶部56に記憶するための符号化処理部、画像データを表示部の解像度に合わせる解像度変換部等が設けられてもよい。
<2.画像処理装置の実施の形態>
<2−1.実施の形態の構成>
画像処理部30は、撮像部21-Hで取得された高画質の白黒撮像画と撮像部21-Wで取得された広画角のカラー撮像画を用いてフュージョン処理を行う。画像処理部30は、フュージョン処理として高画質画像基準フュージョン処理を行う。画像処理部30は、高画質画像基準フュージョン処理を行う場合、高画質である白黒撮像画を基準として、白黒撮像画よりも低画質且つ広画角であるカラー撮像画を白黒撮像画の視点とするワーピングを行い、白黒撮像画とワーピング後のカラー撮像画の画像重複領域の位置を一致させてフュージョン画像を生成する。画像処理部30は、高画質画像基準フュージョン処理を行い、撮像部21-Hと撮像部21-Wで撮像された被写体領域である画像重複領域は、撮像部21-Hの性能に応じて高画質とされており、画角は撮像部21-Wの画角であるフュージョン画像を生成する。
また、撮像部21-Hと撮像部21-Wでは視点が異なることから、遠景に比べて近景ではオクルージョンが増加する。図4は、撮像部21-Hで取得される白黒撮像画を基準としたときのオクルージョンを示している。視差によってオクルージョンが生じると、撮像部21-Wで取得されたカラー撮像画ではオクルージョン領域に対応する画像データがない。このため、白黒撮像画を基準とするフュージョン処理によって生成されたフュージョン画像ではオクルージョン領域で色情報が欠落した画像となり、撮像部21-Wで取得されたカラー撮像画よりもフュージョン画像の画質が劣化する場合がある。
また、撮像部21-Hと撮像部21-Wで画角が異なっている。したがって、図5に示すように、フュージョン画像の生成に用いる撮像画では、撮像部21-Wで取得された広画角のカラー撮像画のみで示されている画像非重複領域(以下「額縁領域」という)ARaと、撮像部21-Hで取得された高画質の白黒撮像画Gbw-Hと撮像部21-Wで取得されたカラー撮像画Gcr-Wで示されている画像重複領域ARbが生じる。また、撮像部21-Hと撮像部21-Wの感度差や露光差等によって、白黒撮像画Gbw-Hとカラー撮像画Gcr-Wで輝度が異なると、白黒撮像画を基準とするフュージョン処理によって生成されたフュージョン画像では、額縁領域ARaと画像重複領域ARbとの輝度差によって境界が目立ってしまう。
そこで、画像処理部30は、所定条件を満たしているか判定して、所定条件を満たしていると判定した場合、すなわち被写体距離や輝度差等に起因した画質の劣化を生じないと判定した場合、高画質画像基準フュージョン処理を行う。また、画像処理部30は、所定条件を満たしていないと判定した場合、すなわち被写体距離や輝度差等の少なくとも何れかに起因した画質の劣化を生じると判定した場合、広画角画像基準フュージョン処理を行う。画像処理部30は、広画角画像基準フュージョン処理を行う場合、広画角であるカラー撮像画を基準として、高画質である白黒撮像画をカラー撮像画の視点とするワーピングを行い、カラー撮像画とワーピング後の白黒撮像画の画像重複領域の位置を一致させてフュージョン画像を生成する。画像処理部30は、このような広画角画像基準フュージョン処理を行い、被写体距離や輝度差等に起因した画質の劣化を防止する。
図6は、実施の形態の構成を例示している。画像処理部30は、前処理部31-H,31-W、フュージョン処理部32、判定部33を有している。また、フュージョン処理部32は、視差検出部321、額縁領域補間部322、ワーピング部323-H,323-W、画像合成部324を有しており、判定部33は、測距部331、距離判定部332、輝度差判定部333、統合判定部334を有している。
前処理部31-Hは、撮像部21-Hで取得された白黒撮像画の画像データに対して、レンズ歪補正や欠陥画素補正等の補正処理を行う。前処理部31-Hは、補正後の画像データ(以下「白黒画像データ」という)をフュージョン処理部32へ出力する。
前処理部31-Wは、撮像部21-Wで取得されたカラー撮像画の画像データに対して、レンズ歪補正や欠陥画素補正等の補正処理を行う。また、前処理部31-Wは、補正処理後の画像データを用いてデモザイク処理を行う。デモザイク処理では、各画素が赤色と青色と緑色のいずれか1つの色成分を示す撮像データから画素毎に赤色と青色と緑色の各色成分を示す三原色画像データを生成する。さらに、前処理部31-Wは、三原色画像データの色空間変換を行い、色差データおよび白黒画像と等しい成分である輝度データからなるカラー画像データを生成してフュージョン処理部32へ出力する。
フュージョン処理部32の視差検出部321は、前処理部31-Hから供給された白黒画像データと前処理部31-Wから供給されたカラー画像データに基づいて視差検出を行い、検出した視差を示す視差情報を生成する。撮像部21-Hと撮像部21-Wは、図1の(b)に示すように異なる視点位置から撮像を行うため、撮像部21-Hと撮像部21-Wで取得された撮像画は視差を持つ画像となる。したがって、視差検出部321は、前処理部31-Hと前処理部31-Wから供給された画像データに基づいて画素毎の視差を示す視差情報を生成する。
視差検出部321は、白黒画像データとカラー画像データを用いて視差検出を行い、白黒撮像画とカラー撮像画の視差を示す視差情報を生成する。また、視差情報の生成において、視差検出部321は、後述する判定部33から供給されたフュージョン判定情報に基づき、白黒撮像画またはカラー撮像画を基準とする。例えば、視差検出部321は、フュージョン判定情報によってカラー撮像画を基準としたフュージョン処理(広画角画像基準フュージョン処理)を行うことが示されている場合にカラー撮像画を基準画像とした視差情報を生成する。また、視差検出部321は、フュージョン判定情報によって白黒撮像画を基準としたフュージョン処理(高画質画像基準フュージョン処理)を行うことが示されている場合に白黒撮像画を基準画像とした視差情報を生成する。視差検出部321は、ブロックマッチングなどの対応点検出処理等を行い、視差情報を生成する。例えば、視差検出部321は、基準撮像画上の注目位置を基準とした基準ブロック領域に最も類似する他方の撮像画上のブロック領域を検出する。また、視差検出部321は、検出したブロック領域と基準ブロック領域の位置の差を示す視差ベクトルを算出する。さらに、視差検出部321は、基準撮像画上の各画素を注目位置として視差ベクトルの算出を行い、画素毎に算出した視差ベクトルを示す視差情報を生成する。視差検出部321は、生成した視差情報を額縁領域補間部322とワーピング部323-H、および判定部33へ出力する。
額縁領域補間部322は、判定部33から供給されたフュージョン判定情報によって白黒撮像画を基準とする高画質画像基準フュージョン処理を行うことが示されている場合、額縁領域の視差情報を補間処理によって生成する。カラー撮像画は白黒撮像画よりも広画角であることから、視差検出部321で生成された視差情報は、カラー撮像画において白黒撮像画に含まれていない額縁領域の視差情報が含まれていない。したがって、額縁領域補間部322は、カラー撮像画を白黒撮像画の視点の画像とするワーピングを行えるように、白黒撮像画を基準として生成された視差情報を用いた補間処理によって額縁領域の視差情報を生成する。
ワーピング部323-Hは、判定部33からのフュージョン判定情報に基づき白黒撮像画のワーピングを行う。ワーピング部323-Hは、フュージョン判定情報によって広画角画像基準フュージョン処理を行うことが示されている場合、白黒撮像画をカラー撮像画の視点の画像とするワーピングを行う。ワーピング部323-Hは、白黒画像データからカラー撮像画の視点の白黒画像データを生成して画像合成部324へ出力する。また、ワーピング部323-Hは、フュージョン判定情報によって高画質画像基準フュージョン処理を行うことが示されている場合、視点を変更する前の白黒画像データを画像合成部324へ出力する。
ワーピング部323-Wは、判定部33からのフュージョン判定情報に基づきカラー撮像画のワーピングを行う。ワーピング部323-Wは、フュージョン判定情報によって高画質画像基準フュージョン処理を行うことが示されている場合、カラー撮像画を白黒撮像画の視点の画像とするワーピングを行う。ワーピング部323-Wは、カラー画像データから白黒撮像画の視点のカラー画像データを生成して画像合成部324へ出力する。また、ワーピング部323-Wは、フュージョン判定情報によって広画角画像基準フュージョン処理を行うことが示されている場合、視点を変更する前のカラー画像データを画像合成部324へ出力する。
画像合成部324は、白黒撮像画とカラー撮像画の合成を行う。画像合成部324は、ワーピング部323-Hから出力された白黒画像データとワーピング部323-Wから出力されたカラー画像データを、画像重複領域の位置を一致させたのち白黒画像データとカラー画像データにおける輝度画像データを合成する。画像合成部324は、色差データと合成後の輝度データからなるカラー画像データをフュージョン画像の画像データとして出力する。
判定部33は、フュージョン画像の生成における画質の劣化に関する所定条件を満たしているか判定して、判定結果に基づきフュージョン判定情報を生成してフュージョン処理部32へ出力する。また、判定部33は、ユーザ操作に応じた設定情報に基づきフュージョン判定情報の生成を行う。判定部33は、例えば視差情報に基づき判別した被写体距離が判定閾値よりも長いことを所定条件とする。また、判定部33は、例えば高画質画像と広画角画像の輝度差が判定閾値以下であることを所定条件とする。
判定部33の測距部331は、被写体の測距情報を生成する。測距部331は、撮像部21-Hまたは撮像部21-Wに設けられてもよく、撮像部と別個に設けられてもよい。また、測距部331は、パッシブ方式またはアクティブ方式の何れの方式を用いて測距情報を生成してもよい。パッシブ方式を用いた測距部を撮像部に設ける場合、例えば撮像部は、撮像面に像面位相差検出画素を設けた撮像素子を用いる。像面位相差検出画素は、瞳分割によって分割された一方の画像と他方の画像の画像信号を個々に生成する。測距部は、像面位相差検出画素で生成された画像信号を用いて、一方の画像と他方の画像の位相差を検出して、位相差に基づき被写体までの距離である被写体距離を算出する。また、パッシブ方式を用いた測距部を撮像部と別個に設ける場合、例えば測距部は、一対のラインセンサを撮像部と別個に設けて、瞳分割によって分割した一方の画像と他方の画像を一対のラインセンサ上に結像させる。測距部は、一対のラインセンサに結像された画像の位相差を検出して、位相差に基づき被写体距離を算出する。さらに、測距部331は、アクティブ方式を用いる場合、光や電波を出力して、反射された光や電波に基づき被写体までの距離である被写体距離を測定する。
測距部331は、被写体距離を示す測距情報を距離判定部332へ出力する。また、測距部331は、撮像画における画素毎の被写界深度を示すデプスマップを生成して測距情報として距離判定部332へ出力してもよい。
距離判定部332は、測距部331で生成された測距情報に基づきフュージョン処理における基準画像を判定する。距離判定部332は、予め設定されている近景検出領域における被写体の被写体距離が判定閾値以下である場合はフュージョン画像の生成における基準画像をカラー撮像画と判定して、被写体距離が判定閾値よりも長い場合は基準画像を白黒撮像画と判定する。なお、近景検出領域については後述する。距離判定部332は、被写体距離に基づく基準画像判定結果を統合判定部334へ出力する。
輝度差判定部333は、ワーピング部323-Hから出力された白黒撮像画とワーピング部323-Wから出力されたカラー撮像画に基づきフュージョン処理における基準画像を判定する。輝度差判定部333は、画像重複領域における額縁領域との境界から所定範囲を輝度算出領域として、輝度算出領域の例えば輝度平均値を白黒撮像画とカラー撮像画で算出する。さらに、輝度差判定部333は、白黒撮像画とカラー撮像画のそれぞれで算出した輝度平均値の差が判定閾値よりも大きい場合は基準画像をカラー撮像画と判定して、輝度平均値の差が判定閾値以下で場合は基準画像を白黒撮像画と判定する。輝度差判定部333は、輝度差に基づく基準画像判定結果を統合判定部334へ出力する。
統合判定部334は、距離判定部332と輝度差判定部333の基準画像判定結果および制御部60から供給されたユーザ操作に応じた設定情報に基づき、どのようなフュージョン処理を行うか判定する。統合判定部334は、基準画像判定結果や設定情報に基づき、高画質画像基準フュージョン処理、広画角画像基準フュージョン処理、狭画角フュージョン処理の何れを行うか判定する。また、統合判定部334は、基準画像判定結果に基づき、動作撮像中に高画質画像基準フュージョン処理または広画角画像基準フュージョン処理の何れを行うか等の判定を行う。なお、狭画角フュージョン処理では、カラー撮像画を用いて白黒撮像画を基準としたワーピングを行い、白黒撮像画とワーピング後のカラー撮像画を、画像重複領域の位置を一致させて合成することで白黒撮像画の画角であるフュージョン画像を生成する。統合判定部334は、フュージョン処理の判定結果を示すフュージョン判定情報をフュージョン処理部32へ出力する。したがって、フュージョン処理部32では、判定部33の判定結果すなわちフュージョン判定情報に基づき、高画質のフュージョン画像を生成できるように、高画質画像基準フュージョン処理や広画角画像基準フュージョン処理あるいは狭画角フュージョン処理が選択的に行われる。
<2−2.実施の形態の動作>
図7は、画像処理部の実施の形態の動作を示すフローチャートである。ステップST1で画像処理部は前処理を行う。画像処理部30の前処理部31-H,31-Wは、撮像部21-H,21-Wから撮像画の画像データを取得して、レンズ歪補正や欠陥画素補正等の補正処理を行う。さらに、前処理部31-Wは、撮像部21-Wから取得したカラー撮像画の画像データを用いてデモザイク処理や色空間変換処理等を行い、撮像部21-Hから取得した白黒撮像画と等しい成分である輝度データと色差データからなるカラー画像データを生成する。画像処理部30の前処理部31-H,31-Wは、白黒撮像画とカラー撮像画の画像データを用いて前処理を行いステップST2に進む。
ステップST2で画像処理部はフュージョン処理判定を行う。画像処理部30の判定部33は、ユーザの設定操作や距離判別部,輝度差判別部の判別結果に基づき、高画質画像基準フュージョン処理と広画角画像基準フュージョン処理と狭画角フュージョン処理の何れを行うか判定して、判定結果を示すフュージョン判定情報を生成する。図8はフュージョン処理判定を示すフローチャートである。
ステップST11で画像処理部は設定情報を取得する。画像処理部30の判定部33は、制御部60からユーザ操作に応じた設定情報、例えば動画と静止画の何れを生成するかを示す情報、フュージョン画像の生成モードを示す情報等を取得してステップST12に進む。
ステップST12で画像処理部は距離に基づく基準画像判定を行う。図9と図10は距離に基づく基準画像判定を説明するための図である。図9は、撮像部と被写体の位置関係を模式的に示しており、撮像部21-Hは被写体OBaよりも左側に配置されており、撮像部21-Wは被写体OBaよりも右側に配置されている。また、被写体OBbは離れた位置に設けられている。撮像部21-Hの画角CVsは通常画角であり、撮像部21-Wの画角CVwは通常画角よりも広く広画角である。
図10は、被写体距離と撮像部で取得される撮像画の関係を示している。被写体OBaまでの距離が短くなると、撮像部21-Hで得られる白黒撮像画Gbw-Hでは被写体OBaの位置が右方向に移動して、撮像部21-Wで得られるカラー撮像画Gcr-Wでは被写体OBaの位置が左方向に移動する。また、被写体OBaまでの距離が短くなると、カラー撮像画Gcr-Wでは被写体OBaによって被写体OBbが隠された状態となる。画像処理部は、白黒撮像画Gbw-Hを基準として広画角のフュージョン画像を生成する場合、破線で示す額縁領域ARaについてカラー撮像画Gcr-Wを利用する必要がある。ここで、被写体OBaまでの距離が短く、カラー撮像画Gcr-Wにおいて被写体OBbが被写体OBaによって隠れた状態となると、フュージョン画像における額縁領域ARaでは、被写体OBbを表示できない。したがって、図11に示すように、画像処理部は、広画角であるカラー撮像画Gcr-Wに対して近景検出領域ARdを設定して、近景検出領域ARdに含まれる被写体の被写体距離が予め設定された判定閾値よりも長いか否かに応じて基準画像を切り替える。なお、白黒撮像画を基準として広画角のフュージョン画像を生成する場合、額縁領域はカラー撮像画を利用する。したがって、額縁領域における近接した被写体によって離れている被写体が隠れているおそれがあるか判別できるように、額縁領域を近景検出領域として判別閾値を予め設定しておく。
図12は距離に基づく基準画像判定を示すフローチャートである。ステップST21で判定部は、近景検出領域における被写体の被写体距離を検出する。判定部33は、カラー撮像画における近景検出領域(例えば額縁領域)における被写体の被写体距離を、パッシブ方式やアクティブ方式の測距センサまたはデプスマップ等を用いて検出してステップST22に進む。
ステップST22で判定部は被写体距離が判定閾値よりも長いか判定する。判定部33は、ステップST21で検出した被写体距離が判定閾値よりも長い場合にステップST23に進み、距離が判定閾値以下である場合にステップST24に進む。
ステップST23で判定部は白黒撮像画を基準画像と判定する。被写体距離が判定閾値よりも長い場合、白黒撮像画を基準画像として生成されるフュージョン画像は、被写体が離れていることからオクルージョン領域が少なく額縁領域の画像の欠落が目立たない。したがって、判定部33は白黒撮像画を基準画像と判定する。
ステップST24で判定部はカラー撮像画を基準画像と判定する。被写体距離が判定閾値以下で近接している場合、白黒撮像画を基準画像として生成されるフュージョン画像は、被写体が近接してオクルージョン領域が増加することで額縁領域の画像の欠落が目立つようになる。したがって、判定部33は、カラー撮像画を基準画像と判定する。
このように、画像処理部は近景検出領域の被写体距離に基づき白黒撮像画とカラー撮像画の何れを基準画像とするか判定して図8のステップST13に進む。
ステップST13で画像処理部は輝度差に基づく基準画像判定を行う。図13は輝度差に基づく基準画像判定を説明するための図である。図13において、白黒撮像画とカラー撮像画を例示しており、例えば白黒撮像画Gbw-Hはカラー撮像画Gcr-Wよりも明るい画像となっている。
画像処理部で高画質である白黒撮像画と広画角であるカラー撮像画を合成する場合、白黒撮像画Gbw-Hとカラー撮像画Gcr-Wの輝度が異なると、フュージョン画像では額縁領域ARaと画像重複領域ARbとの境界で、輝度差が顕著となる。したがって、図14に示すように、画像重複領域ARbにおける額縁領域ARaとの境界から所定範囲を輝度算出領域AReとして、画像処理部は輝度算出領域AReの例えば輝度平均値を白黒撮像画Gbw-Hとカラー撮像画Gcr-Wで算出する。また、画像処理部は、白黒撮像画から算出した輝度平均値とカラー撮像画から算出した輝度平均値の差である輝度差が予め設定された判定閾値以下であるか否かに応じて基準画像の設定を行う。
図15は、輝度差に基づく基準画像判定を示すフローチャートである。ステップST31で判定部は位置合わせ処理を行う。判定部33は白黒撮像画とカラー撮像画の画像重複領域の位置が一致するように白黒撮像画とカラー撮像画の位置合わせを行ってステップST32に進む。
ステップST32で判定部は、白黒撮像画を用いて平均輝度を算出する。判定部33は、白黒撮像画における輝度算出領域AReの平均輝度を算出してステップST33に進む。
ステップST33で判定部は、カラー撮像画を用いて平均輝度を算出する。判定部33は、カラー撮像画における輝度算出領域AReの平均輝度を算出してステップST34に進む。
ステップST34で判定部は、輝度差を算出する。判定部33は、ステップST32で算出した平均輝度とステップST33で算出した平均輝度との輝度差を算出してステップST35に進む。
ステップST35で判定部は、輝度差が判定閾値以下であるか判別する。判定部33は、ステップST34で算出した輝度差が判定閾値以下である場合にステップST36に進み、輝度差が判定閾値よりも大きい場合にステップST37に進む。
ステップST36で判定部は白黒撮像画を基準画像と判定する。輝度差が判定閾値以下である場合、白黒撮像画を基準画像として生成されるフュージョン画像は、重複画像部分と非重複画像部分の輝度差が少なく境界も目立たない。したがって、判定部33は、白黒撮像画を基準画像と判定する。
ステップST37で判定部はカラー撮像画を基準画像と判定する。輝度差が判定閾値よりも大きい場合、白黒撮像画を基準画像として生成されたフュージョン画像は、画像重複領域と画像非重複領域(額縁領域)との輝度差が大きく領域の境界が目立ってしまう。したがって、判定部33は、カラー撮像画を基準画像と判定する。
このように、画像処理部は白黒撮像画とカラー撮像画の輝度差に基づき白黒撮像画とカラー撮像画の何れを基準画像とするか判定して図8のステップST14に進む。
ステップST14で画像処理部は統合判定を行う。画像処理部30の判定部33は、ステップST11で取得した設定情報およびステップST12とステップST13で得られた判定結果に基づきどのようなフュージョン処理を行うか判定して、判定結果を示すフュージョン判定情報を生成する。
図16は、統合判定を説明するための図であり、図16の(a)はフュージョン画像として動画を生成する場合、図16の(b)はフュージョン画像として静止画を生成する場合を示している。
判定部33は、取得した設定情報によって動画の生成をユーザが選択したと判別した場合に図16の(a)に基づきフュージョン判定情報の生成を行い、静止画の生成をユーザが選択したと判別した場合に図16の(b)に基づきフュージョン判定情報の生成を行う。
動画の生成では撮像途中で画角を替えないようにする。したがって、ユーザが動画の生成および広画角でフュージョン画像を生成するモード(広画角モード)を選択した場合、判定部33は、画角を広画角として、距離の判定結果と輝度差の判定結果に基づいて基準画像の切り替えを行う。判定部33は、例えば距離の判定結果と輝度差の判定結果の何れでも白黒撮像画が基準画像と判定されている場合、フュージョン処理を高画質画像基準フュージョン処理として白黒撮像画を基準画像で画角を広画角とする。また、判定部33は、距離の判定結果と輝度差の判定結果の少なくとも何れかでカラー撮像画が基準画像とされている場合、フュージョン処理を広画角画像基準フュージョン処理としてカラー撮像画を基準画像で画角を広画角とする。
また、判定部33は、動画の生成において、カラー撮像画を基準画像とすることにより、白黒撮像画を基準画像とした場合に比べて画質が低下してしまうことを許容できない場合、画質優先モードを選択できるようにする。画質優先モードでは、所定条件を満たしているか否かに拘わらずフュージョン処理を狭画角フュージョン処理として、白黒撮像画を基準画像で画角を狭画角(白黒撮像画の画角である通常画角)とする。このように画角を狭画角とすれば、フュージョン画像は、近景検出領域における近接した被写体や画像重複領域と額縁領域との輝度差の影響を受けることがない。
静止画の生成では、撮像画の解析結果を用いて基準画像や画角の設定を行い、フュージョン画像を生成してもよい。例えば、静止画の生成では、広画角のフュージョン画像を生成するモード(広画角モード)、通常画角のフュージョン画像を生成するモード(通常画角モード)を設ける。また、自動的に画角を設定するモード(オート画角モード)等をユーザが選択できるようにしてもよい。
ユーザが広画角モードを選択した場合、判定部33は、画角を広画角として、距離の判定結果と輝度差の判定結果に基づいて基準画像の切り替えを行う。判定部33は、例えば距離の判定結果と輝度差の判定結果の何れでも白黒撮像画が基準画像と判定されている場合、フュージョン処理を高画質画像基準フュージョン処理として白黒撮像画を基準画像で画角を広画角とする。また、判定部33は、距離の判定結果と輝度差の判定結果の少なくとも何れかでカラー撮像画が基準画像とされている場合、フュージョン処理を広画角画像基準フュージョン処理としてカラー撮像画を基準画像で画角を広画角とする。
ユーザが通常画角モードを選択した場合、判定部33はフュージョン画像の画角を通常画角(狭画角)とする。また、画角を通常画角とすれば、フュージョン画像は、近景検出領域における近接した被写体や画像重複領域と額縁領域との輝度差の影響を受けることがない。したがって、判定部33は、ユーザが通常画角モードを選択した場合、所定条件を満たしているか否かに拘わらずフュージョン処理を狭画角フュージョン処理として、白黒撮像画を基準画像で画角を通常画角とする。
ユーザがオート画角モードすなわちフュージョン画像の画角設定を自動的に行うモードを選択した場合、判定部33は、距離の判定結果と輝度差の判定結果に基づいて基準画像の切り替えと画角の設定を行う。判定部33は、例えば距離の判定結果と輝度差の判定結果の何れでも白黒撮像画が基準画像と判定されている場合、フュージョン処理を高画質画像基準フュージョン処理として白黒撮像画を基準画像で画角を広画角とする。また、判定部33は、距離の判定結果と輝度差の判定結果の少なくとも何れかでカラー撮像画が基準画像とされている場合、フュージョン処理を狭画角フュージョン処理として白黒撮像画を基準画像で画角を通常画角とする。このように、オート画角モードを選択できるようにすれば、画像重複領域が高画質となるように、基準画像および画角を自動的に設定できる。
判定部33は、設定情報および距離の判定結果と輝度差の判定に基づき、どのようなフュージョン処理を行うか判定して、判定結果を示すフュージョン判定情報を生成して図7のステップST3に進む。
ステップST3で画像処理部は視差検出を行う。画像処理部30の視差検出部321は、ステップST2で生成されたフュージョン判定情報に基づき、基準画像に対して他の撮像画の視差を検出する。視差検出部321は、基準画像の画素毎に視差を検出する。また、フュージョン判定情報で基準画像が白黒撮像であり画角が広画角であることが示されている場合、額縁領域補間部322は、額縁領域の視差を生成する補間処理を行い、画像重複領域における境界部分の視差を額縁領域の視差とする。図17は、視差検出を説明するための図である。視差検出部321は、図17の(a)に示す白黒撮像画Gbw-Hとカラー撮像画Gcr-Wを用いて、フュージョン判定情報に基づき、基準画像に対して他の撮像画の視差を検出する。ここで、フュージョン判定情報で基準画像が白黒撮像画であり画角が広画角であることが示されている場合、図17の(b)に示すように額縁領域ARaの視差は検出されていない。なお、図では検出された視差(視差ベクトル)を矢印で模式的に示している。したがって、額縁領域補間部322は、画像重複領域ARbにおいて額縁領域ARaとの境界に位置する画素の視差を、図17の(c)に示すように額縁領域ARaの視差として用いてステップST4に進む。
ステップST4で画像処理部はワーピングを行う。画像処理部30のワーピング部323-H,323-Wは、ステップST2で生成されたフュージョン判定情報とステップST3で検出された視差に基づきワーピングを行う。
ワーピング部323-Wは、白黒撮像画が基準画像で画角が広画角であることをフュージョン判定情報が示している場合、視差検出部321で検出された視差量と額縁領域補間部322で補間された額縁領域の視差量に基づき、カラー撮像画から白黒撮像画の視点であるカラー撮像画を生成して画像合成部324へ出力する。また、ワーピング部323-Wは、白黒撮像画が基準画像であり画角が通常画角であることをフュージョン判定情報が示している場合、視差検出部321で検出された視差量に基づき、カラー撮像画における画像重複領域の画像から白黒撮像画の視点であるカラー撮像画を生成して画像合成部324へ出力する。また、ワーピング部323-Hは、白黒撮像画が基準画像であることをフュージョン判定情報が示している場合、前処理部31-Hから供給された白黒撮像画を画像合成部324へ出力する。
ワーピング部323-Wは、カラー撮像画が基準画像であることをフュージョン判定情報が示している場合、前処理部31-Wから供給されたカラー撮像画を画像合成部324へ出力する。また、ワーピング部323-Hは、カラー撮像画が基準画像であることをフュージョン判定情報が示している場合、視差検出部321で検出された視差量に基づき、白黒撮像画からカラー撮像画の視点である白黒撮像画を生成して画像合成部324へ出力する。
画像処理部30は、フュージョン判定情報と視差量に基づきワーピングを行い、基準画像とは異なる撮像画から基準画像の視点の撮像画を生成してステップST5に進む。
ステップST5で画像処理部は画像合成を行う。画像処理部30の画像合成部324は、ワーピング部323-Hから供給された白黒画像とワーピング部323-Wから供給されたカラー撮像画における輝度成分画像を画像重複領域の位置を一致させて合成する。さらに画像処理部30は、色差データおよび白黒撮像画と等しい成分である輝度データからなるカラー画像データを生成して出力する。なお、画像処理部30は、動画を生成する場合、ステップ順に処理を行う順序処理に限らず、パイプライン処理や並列処理が行われる場合、例えば全ラインの合成処理の完了と判定される前に次のフレームのフュージョン画像の生成を開始するようにしてもよい。
このように本技術の実施の形態によれば、画角と画質が異なる複数の撮像画を用いて画質を低下させることなく広画角で高画質の撮像画を生成できる。図18は、フュージョン判定情報に基づいて生成されるフュージョン画像の性能とフュージョン画像例を示している。なお、図18の(b)はカラー撮像画Gcr-W、図18の(c)乃至(e)はフュージョン画像GFuを例示している。図18の(c)は高画質画像基準フュージョン処理で生成されたフュージョン画像、図18の(d)は広画角画像基準フュージョン処理で生成されたフュージョン画像、図18の(e)は狭画角フュージョン処理で生成されたフュージョン画像を例示している。
フュージョン判定情報が高画質画像基準フュージョン処理であることを示している場合、基準画像を白黒撮像画として広画角のフュージョン画像が生成される。このフュージョン画像は、白黒撮像画を基準画像としていることから、画像重複領域の画質が高画質(二重丸マーク)となる。また、フュージョン画像の生成において額縁領域はカラー撮像画を用いることから、額縁領域の画質はカラー撮像画相当の画質であり、画角はカラー撮像画の画角である広画角となる。
フュージョン判定情報が広画角画像基準フュージョン処理であることを示している場合、基準画像をカラー撮像画として広画角のフュージョン画像が生成される。このフュージョン画像は、カラー撮像画を基準画像としていることから、画像重複領域の画質は高画質画像基準フュージョン処理に比べて低い画質(丸マーク)となる。また、フュージョン画像の生成において額縁領域はカラー撮像画を用いることから、額縁領域の画質はカラー撮像画相当の画質であり、画角はカラー撮像画の画角である広画角となる。
フュージョン判定情報が狭画角フュージョン処理であることを示している場合、基準画像を白黒撮像画として狭画角(通常画角)のフュージョン画像が生成される。このフュージョン画像は、白黒撮像画を基準画像としていることから、画像重複領域の画質は高画質画像基準フュージョン処理と同様に高画質(二重丸マーク)となる。また、狭画角であることから額縁領域は存在せず、フュージョン画像は、白黒撮像画の画角である通常画角となる。
<3.他の実施の形態>
ところで、画像処理部は、動画の生成において、生成された撮像画に基づき距離や輝度差の判定を行い、判定結果に応じて生成したフュージョン判定情報に基づき、その後に生成された撮像画のフュージョン処理を行う構成に限られない。例えば、画像処理部は、撮像画に基づき距離や輝度差の判定を行い、判定結果に応じて生成したフュージョン判定情報に基づき、距離や輝度差の判定に用いた撮像画のフュージョン処理を行ってもよい。この場合、画像処理部30において、判定部33はフュージョン判定情報を画像合成部324へ出力する。また、ワーピング部323-Hはカラー撮像画の視点の白黒撮像画、ワーピング部323-Wは白黒撮像画の視点のカラー撮像画をそれぞれ生成して、白黒撮像画とカラー撮像画および視点変換後の白黒撮像画とカラー撮像画を画像合成部324へ出力する。画像合成部324は、判定部33からのフュージョン判定情報に基づき、白黒撮像画を基準としたフュージョン画像またはカラー撮像画を基準としたフュージョン画像を生成する。画像処理部30は、このような処理を行うことで、距離や輝度差の判定に用いた撮像画のフュージョン処理を、距離や輝度差の判定結果に応じて行うことができるようになる。
また、上述の実施の形態では、高画質の撮像画が白黒撮像画で広画角の撮像画がカラー撮像画である場合を例示したが、撮像画は上述の実施の形態に限られない。例えば、高画質の撮像画は、解像度の高いカラー撮像画や色成分が異なる高画質のカラー撮像画であってもよい。また、高画質の撮像画は、カラー撮像画と異なる波長領域に感度を有した撮像部で生成された撮像画であってもよい。カラー撮像画と異なる波長領域に感度を有した撮像部としては、例えば赤外領域に感度を有する撮像部を用いる。撮像部21-Hとして、赤外領域に感度を有する撮像部を用いて白黒撮像画を取得すれば、夕暮れや夜間等でも画像重複領域に位置する被写体が高画質とされている広画角のフュージョン画像を生成することが可能となる。
<4.応用例>
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、情報処理端末に限らず、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
図19は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図19に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図19では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図20は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図20には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920〜7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図19に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図19の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図19に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
以上説明した車両制御システム7000において、撮像部7410,7910,7912,7914,7916,7918は、必要に応じて複数の撮像部例えば図2に示す撮像部21-H,21-Wを用いる構成とする。また、図19に示した応用例の統合制御ユニット7600に画像処理部30を設ける。このような構成とすれば、撮像部7410,7910,7912,7914,7916,7918を小型・薄型化しても高画質で広画角の撮像画を取得できるので、取得した撮像画を運転支援や運転制御等に利用できる。なお、画像処理部30は、図19に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。
明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
また、本技術の画像処理装置は以下のような構成も取ることができる。
(1) 高画質画像よりも低画質且つ広画角である広画角画像に対して前記高画質画像を基準としたワーピングを行い、前記高画質画像と前記ワーピング後の広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する高画質画像基準フュージョン処理を行うフュージョン処理部を備える画像処理装置。
(2) 前記フュージョン処理部は、前記高画質画像と前記広画角画像の視差を示す視差情報に基づいて前記ワーピングを行う(1)に記載の画像処理装置。
(3) 前記フュージョン処理部は、前記広画角画像において前記高画質画像に含まれていない画像非重複領域の視差情報を、前記画像重複領域の視差情報を用いて補間する(2)に記載の画像処理装置。
(4) 前記フュージョン処理部は、前記高画質画像を用いて前記広画角画像を基準としたワーピングを行い、前記ワーピング後の高画質画像とワーピングを行っていない前記広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する広画角画像基準フュージョン処理、または前記高画質画像基準フュージョン処理を行う(1)乃至(3)の何れかに記載の画像処理装置。
(5) 前記所定条件を満たしているか判定する判定部をさらに備え、
前記フュージョン処理部は、前記所定条件を満たしていない場合は前記広画角画像基準フュージョン処理を行い、前記所定条件を満たしている場合は前記高画質画像基準フュージョン処理を行う(4)に記載の画像処理装置。
(6) 前記判定部は、視差情報に基づき判別した被写体距離が判定閾値よりも長いことを前記所定条件とする(5)に記載の画像処理装置。
(7) 前記被写体距離は、前記広画角画像において前記高画質画像に含まれていない画像非重複領域に位置する被写体の被写体距離である(6)に記載の画像処理装置。
(8) 前記判定部は、前記高画質画像と前記広画角画像の輝度差が判定閾値以下であることを前記所定条件とする(5)乃至(7)の何れかに記載の画像処理装置。
(9) 前記輝度差は、前記画像重複領域における前記画像非重複領域との境界から所定範囲の画像領域の平均輝度の差である(8)に記載の画像処理装置。
(10) 前記フュージョン処理部は、前記広画角画像を用いて前記高画質画像を基準としたワーピングを行い、前記高画質画像と前記ワーピング後の広画角画像を、前記画像重複領域の位置を一致させて前記高画質画像の画角であるフュージョン画像を生成する狭画角フュージョン処理を、前記判定部の判定結果に応じて行う(5)乃至(9)の何れかに記載の画像処理装置。
(11) 前記フュージョン処理部は、前記高画質画像と前記広画角画像が動画で前記広画角画像の画角であるフュージョン画像を生成する場合、前記判定部の判定結果に基づき前記高画質画像基準フュージョン処理または前記広画角画像基準フュージョン処理を行う(10)に記載の画像処理装置。
(12) 前記フュージョン処理部は、前記高画質画像と前記広画角画像が静止画である場合、前記高画質画像基準フュージョン処理または前記広画角画像基準フュージョン処理あるいは前記狭画角フュージョン処理を行う(10)に記載の画像処理装置。
(13) 前記フュージョン処理部は、前記所定条件を満たしていない場合は前記広画角画像基準フュージョン処理または前記狭画角フュージョン処理を行う(12)に記載の画像処理装置。
(14) 前記フュージョン処理部は、前記所定条件を満たしていない場合において、前記判定部でフュージョン画像の画角設定を自動的に行うモード選択が行われていることを判定している場合に前記狭画角フュージョン処理を行う(13)に記載の画像処理装置。
(15) 前記判定部は、フュージョン処理のユーザ選択操作を判定して、
前記フュージョン処理部は、前記判定部で前記狭画角フュージョン処理が選択されたことを判定した場合に前記所定条件を満たしているか否かに拘わらず前記狭画角フュージョン処理を行う(10)乃至(14)の何れかに記載の画像処理装置。
この技術の画像処理装置と画像処理方法では、高画質画像よりも低画質且つ広画角である広画角画像に対して高画質画像を基準としたワーピングと、広画角画像よりも高画質である高画質画像とワーピング後の広画角画像を、画像重複領域の位置を一致させて合成する処理が行われてフュージョン画像が生成される。このため、画角と画質が異なる複数の撮像画を用いて画質を低下させることなく広画角で高画質の撮像画を生成できるようになる。したがって、撮像部を用いる機器であって、撮像部の小型化や薄型化が必要とされる機器に適している。
10・・・情報処理端末
21-H,21-W・・・撮像部
30・・・画像処理部
31-H,31-W・・・前処理部
32・・・フュージョン処理部
33・・・判定部
51・・・センサ部
52・・・通信部
53・・・表示部
54・・・タッチパネル
55・・・操作部
56・・・記憶部
60・・・制御部
321・・・視差検出部
322・・・額縁領域補間部
323-H,323-W・・・ワーピング部
324・・・画像合成部
331・・・測距部
332・・・距離判定部
333・・・輝度差判定部
334・・・統合判定部

Claims (16)

  1. 高画質画像よりも低画質且つ広画角である広画角画像に対して前記高画質画像を基準としたワーピングを行い、前記高画質画像と前記ワーピング後の広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する高画質画像基準フュージョン処理を行うフュージョン処理部
    を備える画像処理装置。
  2. 前記フュージョン処理部は、前記高画質画像と前記広画角画像の視差を示す視差情報に基づいて前記ワーピングを行う
    請求項1に記載の画像処理装置。
  3. 前記フュージョン処理部は、前記広画角画像において前記高画質画像に含まれていない画像非重複領域の視差情報を、前記画像重複領域の視差情報を用いて補間する
    請求項2に記載の画像処理装置。
  4. 前記フュージョン処理部は、前記高画質画像を用いて前記広画角画像を基準としたワーピングを行い、前記ワーピング後の高画質画像とワーピングを行っていない前記広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する広画角画像基準フュージョン処理、または前記高画質画像基準フュージョン処理を行う
    請求項1に記載の画像処理装置。
  5. 所定条件を満たしているか判定する判定部をさらに備え、
    前記フュージョン処理部は、前記所定条件を満たしていない場合は前記広画角画像基準フュージョン処理を行い、前記所定条件を満たしている場合は前記高画質画像基準フュージョン処理を行う
    請求項4に記載の画像処理装置。
  6. 前記判定部は、視差情報に基づき判別した被写体距離が判定閾値よりも長いことを前記所定条件とする
    請求項5に記載の画像処理装置。
  7. 前記被写体距離は、前記広画角画像において前記高画質画像に含まれていない画像非重複領域に位置する被写体の被写体距離である
    請求項6に記載の画像処理装置。
  8. 前記判定部は、前記高画質画像と前記広画角画像の輝度差が判定閾値以下であることを前記所定条件とする
    請求項5に記載の画像処理装置。
  9. 前記輝度差は、前記画像重複領域における前記画像非重複領域との境界から所定範囲の画像領域の平均輝度の差である
    請求項8に記載の画像処理装置。
  10. 前記フュージョン処理部は、前記広画角画像を用いて前記高画質画像を基準としたワーピングを行い、前記高画質画像と前記ワーピング後の広画角画像を、前記画像重複領域の位置を一致させて前記高画質画像の画角であるフュージョン画像を生成する狭画角フュージョン処理を、前記判定部の判定結果に応じて行う
    請求項5に記載の画像処理装置。
  11. 前記フュージョン処理部は、前記高画質画像と前記広画角画像が動画で前記広画角画像の画角であるフュージョン画像を生成する場合、前記判定部の判定結果に基づき前記高画質画像基準フュージョン処理または前記広画角画像基準フュージョン処理を行う
    請求項10に記載の画像処理装置。
  12. 前記フュージョン処理部は、前記高画質画像と前記広画角画像が静止画である場合、前記高画質画像基準フュージョン処理または前記広画角画像基準フュージョン処理あるいは前記狭画角フュージョン処理を行う
    請求項10に記載の画像処理装置。
  13. 前記フュージョン処理部は、前記所定条件を満たしていない場合は前記広画角画像基準フュージョン処理または前記狭画角フュージョン処理を行う
    請求項12に記載の画像処理装置。
  14. 前記フュージョン処理部は、前記所定条件を満たしていない場合において、前記判定部でフュージョン画像の画角設定を自動的に行うモード選択が行われていることを判定している場合に前記狭画角フュージョン処理を行う
    請求項13に記載の画像処理装置。
  15. 前記判定部は、フュージョン処理のユーザ選択操作を判定して、
    前記フュージョン処理部は、前記判定部で前記狭画角フュージョン処理が選択されたことを判定した場合に前記所定条件を満たしているか否かに拘わらず前記狭画角フュージョン処理を行う
    請求項10に記載の画像処理装置。
  16. 高画質画像よりも低画質且つ広画角である広画角画像に対して前記高画質画像を基準としたワーピングを行い、前記高画質画像と前記ワーピング後の広画角画像を、画像重複領域の位置を一致させてフュージョン画像を生成する高画質画像基準フュージョン処理をフュージョン処理部で行うことを
    を含む画像処理方法。
JP2018551041A 2016-11-17 2017-08-28 画像処理装置と画像処理方法 Active JP7047767B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016223973 2016-11-17
JP2016223973 2016-11-17
PCT/JP2017/030720 WO2018092379A1 (ja) 2016-11-17 2017-08-28 画像処理装置と画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2018092379A1 true JPWO2018092379A1 (ja) 2019-10-10
JP7047767B2 JP7047767B2 (ja) 2022-04-05

Family

ID=62146353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018551041A Active JP7047767B2 (ja) 2016-11-17 2017-08-28 画像処理装置と画像処理方法

Country Status (5)

Country Link
US (1) US10957029B2 (ja)
JP (1) JP7047767B2 (ja)
CN (1) CN109937568B (ja)
DE (1) DE112017005807T5 (ja)
WO (1) WO2018092379A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017099616A (ja) * 2015-12-01 2017-06-08 ソニー株式会社 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム
EP3734961A4 (en) * 2018-02-07 2021-06-09 Sony Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND IMAGE PROCESSING SYSTEM
JP6892557B2 (ja) * 2018-05-23 2021-06-23 株式会社ソニー・インタラクティブエンタテインメント 学習装置、画像生成装置、学習方法、画像生成方法及びプログラム
WO2020090154A1 (ja) * 2018-10-29 2020-05-07 パナソニックIpマネジメント株式会社 情報提示方法、情報提示装置、及び、情報提示システム
KR102648912B1 (ko) * 2019-01-23 2024-03-19 삼성전자주식회사 영상 데이터를 분석하여 최종 영상 데이터를 생성하는 프로세서
US11307583B2 (en) * 2019-07-01 2022-04-19 Performance Drone Works Llc Drone with wide frontal field of view
US11315326B2 (en) * 2019-10-15 2022-04-26 At&T Intellectual Property I, L.P. Extended reality anchor caching based on viewport prediction
JP7442029B2 (ja) * 2019-10-17 2024-03-04 株式会社東海理化電機製作所 画像処理装置、画像処理プログラム
US11893482B2 (en) * 2019-11-14 2024-02-06 Microsoft Technology Licensing, Llc Image restoration for through-display imaging
CN111369481B (zh) * 2020-02-28 2020-11-20 当家移动绿色互联网技术集团有限公司 图像融合方法、装置、存储介质和电子设备
JP7415707B2 (ja) 2020-03-19 2024-01-17 株式会社リコー 撮像装置、補正方法、及び、プログラム
US20210327026A1 (en) * 2020-04-17 2021-10-21 Gopro, Inc. Methods and apparatus for blending unknown pixels in overlapping images
CN111818262B (zh) * 2020-07-08 2021-12-03 杭州萤石软件有限公司 图像重建方法及装置
WO2022047701A1 (zh) * 2020-09-03 2022-03-10 深圳市大疆创新科技有限公司 图像处理方法和装置
KR20220066559A (ko) * 2020-11-16 2022-05-24 삼성전자주식회사 전자 장치 및 그 제어 방법
CN112508831B (zh) * 2020-12-02 2024-06-25 深圳开立生物医疗科技股份有限公司 一种超声宽景图像生成方法、装置、设备及存储介质
JP7258989B1 (ja) 2021-11-19 2023-04-17 キヤノン株式会社 移動装置、撮像装置、制御方法およびプログラム
CN117455792B (zh) * 2023-12-25 2024-03-22 武汉车凌智联科技有限公司 一种车辆内置360度全景影像合成处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01289390A (ja) * 1988-05-16 1989-11-21 Fujitsu Ltd 画像重畳装置
JP2010011223A (ja) * 2008-06-27 2010-01-14 Sony Corp 信号処理装置、信号処理方法、プログラム及び記録媒体
JP2013183353A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 画像処理装置
JP2013211827A (ja) * 2012-02-28 2013-10-10 Canon Inc 画像処理方法および装置、プログラム。
JP2014127151A (ja) * 2012-12-27 2014-07-07 Sony Computer Entertainment Inc 情報処理装置、情報処理システム、および情報処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100762670B1 (ko) * 2006-06-07 2007-10-01 삼성전자주식회사 스테레오 이미지로부터 디스패리티 맵을 생성하는 방법 및장치와 그를 위한 스테레오 매칭 방법 및 장치
JP2013219525A (ja) 2012-04-06 2013-10-24 Nec Saitama Ltd 撮像装置、その制御方法及びプログラム
CN109040552B (zh) * 2013-06-13 2021-06-22 核心光电有限公司 双孔径变焦数字摄影机
US10547822B2 (en) * 2014-05-21 2020-01-28 Sony Corporation Image processing apparatus and method to generate high-definition viewpoint interpolation image
CN105205796A (zh) * 2014-06-30 2015-12-30 华为技术有限公司 广域图像获取方法和装置
KR102157675B1 (ko) * 2014-07-25 2020-09-18 삼성전자주식회사 촬영 장치 및 그 촬영 방법
CN104200450B (zh) * 2014-08-25 2017-08-25 华南理工大学 一种红外热图像清晰度增强方法
TWI554103B (zh) * 2014-11-13 2016-10-11 聚晶半導體股份有限公司 影像擷取裝置及其數位變焦方法
JP6569277B2 (ja) * 2015-04-08 2019-09-04 日産自動車株式会社 認識用画像生成装置、物体検出装置及び認識用画像生成方法
CN106385541A (zh) * 2016-09-30 2017-02-08 虹软(杭州)科技有限公司 利用广角摄像组件及长焦摄像组件实现变焦的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01289390A (ja) * 1988-05-16 1989-11-21 Fujitsu Ltd 画像重畳装置
JP2010011223A (ja) * 2008-06-27 2010-01-14 Sony Corp 信号処理装置、信号処理方法、プログラム及び記録媒体
JP2013211827A (ja) * 2012-02-28 2013-10-10 Canon Inc 画像処理方法および装置、プログラム。
JP2013183353A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 画像処理装置
JP2014127151A (ja) * 2012-12-27 2014-07-07 Sony Computer Entertainment Inc 情報処理装置、情報処理システム、および情報処理方法

Also Published As

Publication number Publication date
DE112017005807T5 (de) 2019-09-12
CN109937568B (zh) 2021-03-09
JP7047767B2 (ja) 2022-04-05
US10957029B2 (en) 2021-03-23
CN109937568A (zh) 2019-06-25
WO2018092379A1 (ja) 2018-05-24
US20190259139A1 (en) 2019-08-22

Similar Documents

Publication Publication Date Title
JP7047767B2 (ja) 画像処理装置と画像処理方法
JP7024782B2 (ja) 画像処理装置と画像処理方法および撮像装置
JP6977821B2 (ja) 画像処理装置と画像処理方法
US10704957B2 (en) Imaging device and imaging method
WO2018034209A1 (ja) 撮像装置と撮像方法
JPWO2018163725A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6816769B2 (ja) 画像処理装置と画像処理方法
US10877288B2 (en) Imaging device and imaging method
JP6816768B2 (ja) 画像処理装置と画像処理方法
JP2018207453A (ja) 制御装置、撮像装置、制御方法、プログラム及び撮像システム
JP2022079483A (ja) 固体撮像装置
JP6981416B2 (ja) 画像処理装置と画像処理方法
WO2021125076A1 (ja) 情報処理装置、情報処理方法、プログラム、撮像装置及び撮像システム
JP7173056B2 (ja) 認識装置と認識方法およびプログラム
US20230412923A1 (en) Signal processing device, imaging device, and signal processing method
JP2018011246A (ja) 固体撮像装置、補正方法、および電子装置
JP2021180459A (ja) 撮像装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R151 Written notification of patent or utility model registration

Ref document number: 7047767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151