JP5370542B1 - 画像処理装置、撮像装置、画像処理方法及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP5370542B1
JP5370542B1 JP2012145849A JP2012145849A JP5370542B1 JP 5370542 B1 JP5370542 B1 JP 5370542B1 JP 2012145849 A JP2012145849 A JP 2012145849A JP 2012145849 A JP2012145849 A JP 2012145849A JP 5370542 B1 JP5370542 B1 JP 5370542B1
Authority
JP
Japan
Prior art keywords
image
frame
unit
coordinates
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012145849A
Other languages
English (en)
Other versions
JP2014011574A (ja
Inventor
浩一 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012145849A priority Critical patent/JP5370542B1/ja
Priority to US13/903,829 priority patent/US9961321B2/en
Priority to CN201310261782.XA priority patent/CN103516983B/zh
Application granted granted Critical
Publication of JP5370542B1 publication Critical patent/JP5370542B1/ja
Publication of JP2014011574A publication Critical patent/JP2014011574A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】多視点画像からユーザの満足度が高い動画を生成する。
【解決手段】出力する動画の各フレームについて、仮動画生成部3410がLFIからデフォルト値を用いて再構成した仮画像をフレームとする仮動画を生成する。そして、出力部350に出力する。指定取得部320が仮動画上の注目被写体の座標を指定する情報を取得する。リスト生成部3420が、現在のフレームのLFIから生成された奥行きマップを用いて、注目被写体の奥行きを取得し、奥行き値から再構成距離を求めて指定リストに登録する。補正部3430が、指定リストを補正する。本動画生成部3440が、補正後の指定リストが指定する焦点距離に合焦した再構成画像をフレームとする本動画を生成し、出力部350に出力する。
【選択図】図6

Description

本発明は、画像処理装置、撮像装置、画像処理方法及びプログラムに関する。
異なる視点から被写体を撮影して、被写体の立体的な情報を取得する技術が知られている。このような技術に関連して、特許文献1は被写体を撮影した複数の画像から構成される多視点画像(ライトフィールド画像)を取得して、該複数の画像から焦点距離・被写界深度等を変化させた被写体の画像を再構成する技術を開示している。
特表2008−515110号公報
多視点画像から再構成された画像をフレームとして動画を生成することが考えられる。ところで、特許文献1が開示する技術では、再構成画像の焦点距離が所望の設定から外れることがあり、ユーザの満足度が高い動画が生成できないという問題があった。
本発明は上記事情に鑑みてなされたもので、多視点画像からユーザの満足度が高い動画を生成できる画像処理装置、撮像装置、画像処理方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明に係る画像処理装置は、
動画のフレームに、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を設定する第1設定部と、
動画のフレームに、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を、当該動画の他のフレームについて前記第1設定部が設定した座標に基づいて設定する第2設定部と、
前記動画のフレーム毎に、前記第1設定部及び/又は第2設定部が設定した座標から定まる焦点距離に合焦した、当該フレームの被写体を複数の視点から撮影した多視点画像から再構成した画像を取得する画像取得部と、
前記画像取得部が取得した画像をフレームとする動画を生成する生成部と、
前記生成部が生成した動画を出力する出力部と、
を備えることを特徴とする。
本発明によれば、多視点画像からユーザの満足度が高い動画を生成できる。
本発明の実施形態1に係るデジタルカメラの構成を示す図である。 実施形態1に係るデジタルカメラの光学系の構成を示す図である。 (a)は実施形態1に係るライトフィールド画像の例を、(b)はライトフィールド画像の概念図を、(c)はライトフィールド奥行きマップの例を、それぞれ示す図である。 (a)は実施形態1に係るライトフィールド画像の例を、(b)はライトフィールド画像から再構成された再構成画像を、(c)は再構成奥行きマップを、(d)再構成された再構成画像を、それぞれ示す図である。 実施形態1に係る光線追跡を説明するための図である。 (a)は実施形態1に係る動画生成装置の物理的構成を、(b)は動画生成装置の機能的構成を、それぞれ示す図である。 (a)は実施形態1に係る補正前の指定リストの例を、(b)は補正前の指定リストの例を、それぞれ示す図である。 (a)は実施形態1に係る補正処理の例を、(b)は実施形態1に係る補正処理の例を、それぞれ示す図である。 実施形態1に係る動画出力処理を示すフローチャートである。 実施形態1に係る指定リスト生成処理を示すフローチャートである。 実施形態1に係る補正処理を示すフローチャートである。 実施形態1に係る奥行き値−焦点距離対応リストの例を示す図である。 本発明の実施形態2に係る補正処理を示すフローチャートである。 本発明の実施形態3に係るデジタルカメラの構成を示す図である。 実施形態3に係る補正処理の例を示す図である。 実施形態3に係る指定リストの例を示す図である。 実施形態3に係る動画出力処理を示すフローチャートである。 実施形態3に係る抽出処理を示すフローチャートである。 実施形態3に係る指定リスト生成処理を示すフローチャートである。 実施形態3に係る補正処理を示すフローチャートである。 本発明の実施形態4に係る補正処理の例を示す図である。 実施形態4に係る補正処理を示すフローチャートである。
以下、本発明を実施するための形態に係るデジタルカメラ及び動画生成装置(画像処理装置)を、図を参照しながら説明する。なお、図中同一又は相当する部分には同一符号を付す。
(実施形態1)
実施形態1に係る動画生成装置30(画像処理装置)は、図1に示すデジタルカメラ1に搭載されている。デジタルカメラ1は、以下のi)〜vi)の機能を持つ。
i)被写体を複数の視点から撮影した複数のサブイメージからなるライトフィールド画像を順次撮影する機能
ii)ライトフィールド画像から被写体の画像を再構成した再構成画像を生成する機能
iii)再構成した被写体の奥行きを示す奥行きマップを生成する機能
iv)再構成画像をフレームとする動画を生成するにあたって、再構成画像の合焦位置の座標をフレーム毎に設定する機能
v)設定した座標を補正する機能
vi)補正後の座標に合焦した再構成画像をフレームとする動画を生成する機能
動画生成装置30は、このうち特にiv)〜vi)の機能を受け持つ。
デジタルカメラ1は、図1に示すように、撮像部10と、動画生成装置30を含む情報処理部20と、記憶部40と、インターフェース部(I/F部)50と、から構成される。デジタルカメラ1は、このような構成により、外部から被写体の光線情報を取得して、被写体の動画を生成する。
撮像部10は、光学装置110と、イメージセンサ120と、から構成され、設定されたフレームレートで撮像動作を行う。
光学装置110は、図2に示すように、メインレンズMLと、サブレンズアレイSLA(マイクロレンズアレイ)と、から構成される。光学装置110は、外部(被写体OB1〜被写体OB3)からの光線をメインレンズMLによって捉え、サブレンズアレイSLAを構成する各サブレンズSLの光学中心を視点として得られる光学像をイメージセンサ120に投影する。
イメージセンサ120は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子と、撮像素子が生成した電気信号を情報処理部20に伝達する伝達部と、から構成される。イメージセンサ120はこのような物理構成により光学装置110が投影した光学像を電気信号に変換して、順次情報処理部20に伝達する。
メインレンズMLは、一又は複数の凸レンズ、凹レンズ、非球面レンズ等から構成され、撮影時の被写体(例えば被写体OB1〜被写体OB3)の光を光学像としてメインレンズMLとサブレンズアレイSLAとの間の仮想的な結像面MIP上に結像させる。なお、撮影時の被写体(被写体OB1〜被写体OB3)は、図2に示すようにメインレンズMLからそれぞれ異なる距離だけ離れた複数の構成物であるとする。
サブレンズアレイSLAは、平面上に格子状に配置されたM×N個のサブレンズ(マイクロレンズ)SLから構成される。サブレンズアレイSLAは、メインレンズMLが結像面MIP上に結像させた光学像を、それぞれのサブレンズSLの光学中心を視点として観測した光学像として、イメージセンサ120の撮像面IE上に結像する。メインレンズMLが成す平面と撮像面IEが成す平面とから構成される空間をライトフィールドと呼ぶ。
メインレンズMLについて、最大径LDと、有効径EDと、が定義できる。最大径LDは、メインレンズMLの物理的な直径である。一方、有効径EDはメインレンズMLのうち撮影に使用できる領域の直径である。メインレンズMLのうち、有効径EDの外部は、メインレンズMLに貼り付けられた各種フィルタやメインレンズML周辺の物理構造によってメインレンズに入出力する光線が遮られるため、画像を撮影・再構成するために有効でない領域(非有効領域)である。
最大径LDと有効径EDは、予め測定され、工場出荷時に記憶部40に記憶されている。
図2の例では、複数の被写体(被写体OB1〜被写体OB3)のうち、被写体OB2のある部分POBからの光線がメインレンズMLの有効径EDをなす部分(有効部)を通過し、複数のサブレンズSL上に投影されている。このように、ある被写体OBの部分POBから発された光が、メインレンズMLの有効部を通過してサブレンズアレイSLA上に投影される領域を、部分POBのメインレンズブラーMLBと呼ぶ。このうち、主光線が到達する部位をメインレンズブラー中心MLBCと呼ぶ。
なお、以後複数の被写体について、遠い(メインレンズからの距離が大きい)被写体から順に被写体OB1〜被写体OB3と表記する。
メインレンズMLの光学中心からメインレンズの結像面MIPまでの距離をb1、結像面MIPからサブレンズアレイSLAがなす面までの距離をa2、サブレンズアレイSLAからイメージセンサの撮像面IEの距離をc2とする。
撮像部10は、上記構成により、ライトフィールドを通過する光線の情報(到達部位、光量、方向)を含んだライトフィールド画像(LFI)を撮影する。
ブロック状の被写体OBを撮影したLFIの一例を図3(a)に示す。
このLFIは、格子状に配置されたM×N個のサブレンズSL(マイクロレンズ)のそれぞれに対応する画像(サブイメージSI、S11〜SMN)から構成されている。例えば、左上のサブイメージS11は、被写体OBを左上から撮影した画像に相当し、右下のサブイメージSMNは被写体OBを右下から撮影した画像に相当する。
各サブイメージは、サブイメージを結像させたサブレンズの位置に対応したLFI上の位置に配置されている。
第i行のサブイメージ(横の一列のサブイメージ)Si1〜SiNは、メインレンズMLが結像した像を、サブレンズアレイSLAの第i行の横に並んだサブレンズSLで結像したステレオ画像に相当する。同様に、第j列のサブイメージ(縦の一列のサブイメージ)S1j〜SMjは、メインレンズMLが結像した像を、サブレンズアレイSLA(マイクロレンズアレイ)の第j列の縦に並んだサブレンズSLで撮影したステレオ画像に相当する。
図1に示す情報処理部20は、物理的にはCPU(Central Processing Unit)と、RAM(Random Access Memory)と、内部バスと、I/Oポートと、から構成される。情報処理部20はこのような物理構成により、画像処理部210、再構成部220、動画生成装置30及び撮像制御部230として機能する。
画像処理部210は、イメージセンサ120から電気信号を取得し、取得した電気信号を記憶部40の設定記憶部410が記憶する設定情報(撮影設定情報を含む)に含まれる撮像設定情報に基づいて画像データ(LFI)に変換する。画像処理部210は、設定されたフレームレートに対応する速度で、順次LFIを生成して記憶部40の画像記憶部420に記憶する。ここでは、後述する本動画と同じフレームレートでLFIを生成することとする。以下、画像記憶部420に記憶された、撮影された一連のLFIを動画のフレームとしたデータをLFI動画と呼ぶ。
なお、設定記憶部410が記憶する設定情報については後述する。
再構成部220は、LFI上のサブイメージ上の各画素について、被写体の奥行きを推定する。このとき、被写体の奥行きは、その被写体に対応する画素が各サブイメージ上でズレている程度を算出する。そのズレの大きさを奥行きを示す係数とする。そして、推定した奥行きを示す係数を各画素の位置に配置した情報(ライトフィールド奥行きマップ、LFDM)を生成する。奥行き係数が大きいほど、その画素に写った被写体が手前(メインレンズMLに近い位置)にあると推定される。
LFDMは、LFIに含まれるサブ画素のそれぞれについて、奥行きを示す係数を定義する。図3(b)に示すLFIに対するLFDMを、図3(c)に示す。LFDMでは、図3(b)に示したような直方体の被写体を撮影したLFIに対して、より奥にある部分(直方体の奥の辺)がより濃い色で、手前(正面)が薄い色で示されている。以下、同様に奥行きマップにおいてより奥にある部位を濃い画素で、手前にある部分を薄い画素で示す。
なお、ここではLFIとLFDMとは分離した情報として説明したが、LFIとLFDMとは、ある座標に配置された画素について、画素値(LFIが保持する情報)と奥行き係数(LFDMが保持する情報)とを対応づけて記録するまとまった一つのデータであってもよい。
ここで、LFDMの奥行き係数はLFIの画素の被写体の距離を推定する任意の方法を用いて算出してよいが、本実施形態では以下の方法で算出するとする。
i)LFIを構成するあるサブ画像を注目サブ画像とする。
ii)注目サブ画像を、画素値の差が所定範囲に含まれる画素によって構成される画像領域に分割する。そして、画像領域の一つを注目領域として選択する。
iii)注目サブ画像の右側(無い場合は左側、この場合は以下左右逆)のサブ画像を、位置順にSR1、SR2、…SRkとして抽出する。なお、kは設定上定められた自然数である。
iv)注目領域の重心の座標(x、y)を取得する。なお、この座標は、各サブ画像の中心を原点とする、サブ画像毎に独立した座標系に対して定義される。
v)現在の画素ズレをdとする。サブ画像SR1において注目領域に対応する部位に、注目領域に対応する領域(対応領域)を配置する。このとき、対応領域の重心をdだけ右側にずらして配置する。注目領域の各画素の画素値と、対応領域の対応する画素の画素値と、の差の二乗和(SSD)を算出する。同様に、SR2に対応領域を、2dだけ右側にずらして配置し、SSDを算出する。SSDをSRkまでそれぞれ取得して、各SSDの差分絶対値和(SSSD)を求める。これをdの評価値とする。
vi)起こりうる視差の範囲の各画素ズレdについて評価値を算出する。そのうち、得られた絶対差分値和SSSDが最小である画素ズレ(d)を、注目領域に含まれる画素の画素ズレ係数とする。
vii)全てのサブ画像の全ての画素について画素ズレ係数を算出し、算出した画素ズレ係数をLFDMの奥行き係数として対応する画素の部位に配置する。
再構成部220は、さらに設定記憶部410が記憶する設定情報(デフォルト設定)に基づき、画像記憶部420に記憶されたライトフィールド画像(例えば図4(a)のLFI)から、仮動画のフレームとなる再構成画像(例えば図4(b)のRI1)と再構成奥行きマップ(図4(c)のRDM)を生成する。そして、動画生成装置30のコマンドに応じて、同じLFIからRI1とは異なる焦点距離の再構成画像(図4(d)のRI2)を生成する。RI2は出力される動画(本動画)のフレームとなる画像である。
なお、奥行きマップDMの各画素は、その画素の被写体の推定された奥行きが深い(その被写体がメインレンズMLから遠い)場所には黒に近く、近いほど白に近く設定される
再構成部220は、LFIから再構成画素及び既知の任意の方法によって再構成画像及び奥行きマップを生成してよいが、本実施形態では以下の光線追跡により抽出する。
光線追跡の方法を、図5を参照して説明する。
まず、設定情報又は動画生成装置30が指定する再構成面RF(メインレンズMLから距離a1だけ離れた仮想平面)上に、画像を設定する。このとき、被写体の注目部位P(再構成画像上の注目画素に対応)からの光線は、メインレンズの主点を通過してマイクロレンズアレイの到達位置(図5のサブレンズ上のMLBC)に到達する。MLBCのサブレンズ上の位置は、撮影設定情報に基づいて求めることが出来る。MLBCを中心に、注目部位からの光が届いた範囲(メインレンズブラーMLB、図5の網線領域)を、レンズの特性からもとめる。メインレンズブラーMLBの直径は、メインレンズMLと再構成面RFとの距離a1、メインレンズと結像面MIPとの距離b1(a1とメインレンズの焦点距離fMLから算出)、結像面MIPとサブレンズアレイSLAとの距離a2と、メインレンズの有効径EDと、から三角形の相似を用いて算出する。
次に、サブレンズアレイSLAに含まれるサブレンズSLの内、一部又は全てがメインレンズブラーMLBに含まれるサブレンズSLを特定する。そして、特定されたサブレンズSLを順次注目レンズとして選択する。このとき、注目レンズとメインレンズブラーが重なる部位の面積wを、メインレンズブラー中心の位置と、メインレンズブラーMLBの直径と、撮影設定情報が定めるサブレンズの位置及び大きさと、から求める。
注目画素からの光線が、選択されたサブレンズによって結像される位置にある、サブ画像上の画素(対応画素)を抽出する。
具体的には、対応画素(到達点PEに対応)を以下の手順で算出する。
まず、再構成面RFに対応するメインレンズの焦点面までの距離b1は既知の数値a1及びfMLを用い、次の式(1)から算出することが出来る。
また、a2は既知の数値c1から、式(1)を用いて算出したb1を減算することで求めることができる。
さらに、再構成面RFとメインレンズとの距離a1と、メインレンズ結像面MIPとメインレンズMLとの距離b1と、既知の数値x(注目部位Pと光軸OAとの距離)を以下の式(2)に用いて、注目部位PからメインレンズMLを通して結像する点(結像点PF)と光軸OAとの距離x’を算出する。
x’=x・b1/a1…(2)
さらに、光軸OAから注目サブレンズSLの主点までの距離d、上記の式(2)を用いて算出された距離x’、サブレンズアレイSLAから撮像面IEまでの距離c2、及びメインレンズ結像面MIPとサブレンズアレイSLAまでの距離a2を以下の式(3)に用いて、到達点PEと光軸OAとの距離x’’を算出する。
再構成部220は、上記の光線追跡をMLBが重なっている各サブレンズに対して実行することにより、再構成画像上の画素(再構成画素)と対応する対応画素を抽出する。そして、各サブレンズとメインレンズブラーが重なる部位の面積wを各対応画素の重みwとする。
再構成部220は、このように抽出した対応画素とその重みwを用いて、以下の処理を実行して再構成画像と奥行きマップを生成する。
(1)再構成画素の一つを注目画素とし、対応画素と重みwを抽出する
(2)各サブレンズの対応画素の画素値を、LFIを参照して取得する
(3)取得された画素値に、重み付け係数(その重みw)をかけたものを補正画素値とする。
(4)抽出した対応画素すべてについて、補正画素値を計算し総和を取り、再構成画素の画素値とする。
(5)抽出した対応画素の奥行き係数を、LFDMを参照して取得する。
(6)取得した奥行き係数の最頻値を再構成奥行きマップの奥行き係数とする。
(7)各再構成画素について(1)〜(6)を実行して画素値及び奥行き係数を決定する。
動画生成装置30は、再構成部220が設定情報に基づいて生成した仮画像(例えば図4(b)のRI1)をフレームとして動画を生成し、設定用の仮動画として記憶部40の動画記憶部430に記憶し、I/F部50の表示部520に出力させる。そして、動画生成装置30は、I/F部50の操作部530から、ユーザが仮動画を用いて指定する動画の焦点を合わせるべき部位の座標情報を受け取り、受け取った情報から動画の焦点距離を含む合焦位置の座標を指定する情報(指定情報)を設定する。そして、設定した座標を補正して、再構成部220にLFIから、補正後の指定情報の焦点距離に応じた再構成面RFに配置された再構成画像を生成するコマンドを送信する。
そして、動画生成装置30は、コマンドに応答して再構成部220が生成した再構成画像(例えば図4(d)のRI2)を受け取る。そして、動画生成装置30は、再構成部220から伝達された再構成画像をフレームとする本動画を生成する。
動画生成装置30は、生成した本動画(再構成動画)を動画記憶部430に記憶する。動画生成装置30の構成及び仮動画・本動画を生成する処理については後述する。
撮像制御部230は、記憶部40の設定記憶部410が記憶する撮像設定情報に基づいて撮像部10を制御し、撮像部10を用いて被写体(例えば被写体OB1〜OB3)を撮影する。
記憶部40は、RAM(Random Access Memory)等から構成される主記憶装置と、フラッシュメモリ、ハードディスク、等の不揮発性メモリから構成される外部記憶装置と、から構成される。
主記憶装置は外部記憶装置に記憶されている制御プログラムや情報をロードし、情報処理部20の作業領域として用いられる。
外部記憶装置は、後述する処理を情報処理部20に行わせるための制御プログラムと情報とをあらかじめ記憶し、これらの制御プログラムや情報を情報処理部20の指示に従って主記憶装置に伝達する。また、情報処理部20の指示に従って、情報処理部20の処理に基づく情報とインターフェース部50から伝達された情報とを記憶する。
記憶部40は、機能的には、設定記憶部410と、画像記憶部420と、動画記憶部430と、から構成される。
設定記憶部410は、撮像設定情報と、仮動画を生成するためのデフォルト設定と、本動画を生成するための動画設定と、を記憶する。撮像設定情報は、撮像時に変化しうる撮像パラメータとしてメインレンズMLとサブレンズアレイSLAとの距離、メインレンズの焦点距離fML、露光時間を特定する情報、F値、シャッタ速度、等を含む。また、設定記憶部410は、各サブレンズSLのサブレンズアレイSLA上の位置、サブレンズアレイSLAと撮像面IEとの距離c2等のデジタルカメラ1の物理構成に係る情報を記憶している。
デフォルト設定は、仮動画を生成する処理の内容を示す情報と生成パラメータとから構成される。本実施形態では、再構成設定情報は、仮画像(およびその奥行きマップ)を上述の再構成処理によって、所定の解像度、所定の焦点距離で生成することを指定するとする。
動画設定は、後述する動画のフレームレート、解像度、焦点座標の決定方法、座標の補正方法及び補正パラメータ等の情報を含む。
設定記憶部410は、撮像パラメータを撮像制御部230に伝達する。また、デフォルト設定を再構成部220に伝達する。さらに、動画設定を動画生成装置30に伝達する。
また、設定記憶部410は、撮像部10がLFIを撮影した際の撮像設定情報に、物理構成に係る情報を付加して、撮影設定情報として画像処理部210及び再構成部220に伝達する。
画像記憶部420は、画像処理部210が順次生成したLFIを記憶する。画像記憶部420は、再構成部220に、記憶した画像を伝達する。
インターフェース部(図ではI/F部と記述する)50は、デジタルカメラ1とその使用者(ユーザ)あるいは外部装置とのインターフェースに係る構成であり、I/O部510と、表示部520と、操作部530と、から構成される。
I/O部(Input/Output部)510は、物理的にはUSB(Universal Serial Bus)コネクタやビデオ出力端子と、入出力制御部と、から構成される。I/O部510は記憶部40に記憶された情報を外部のコンピュータに出力し、外部から伝達された情報を記憶部40に伝達する。
表示部520は、液晶表示装置や有機EL(Electro Luminescence)ディスプレイ等から構成され、設定記憶部410に記憶される設定情報を入力するための画面や、デジタルカメラ1を操作するための画面を表示する。また、表示部520は、動画記憶部430に記憶された動画を表示する。
操作部530は、例えばデジタルカメラ1に備えられた各種ボタンや表示部520に備えられたタッチパネルと、各種ボタンやタッチパネルに行われた操作の情報(タッチ部位の座標等)を検出して記憶部40と情報処理部20とに伝達する伝達部を含み、ユーザ操作の情報を記憶部40や情報処理部20に伝達する。
次に、動画生成装置30の構成について、図6を参照して説明する。
動画生成装置30は物理的には、図6(a)に示すように情報処理部31と、主記憶部32と、外部記憶部33と、入出力部36と、内部バス37と、から構成される。
情報処理部31は、CPU(Central Processing Unit)と、RAM(Random Access Memory)から構成される。
主記憶部32は、記憶部40の主記憶装置と同様の物理構成を持つ。外部記憶部33は、記憶部40の外部記憶装置と同様の物理構成を持ち、プログラム38を記憶している。入出力部36は、入出力端子及びI/Oデバイスから構成され、動画生成装置30と、情報処理部20の各部や記憶部40、インターフェース部50等と、の情報の入出力を実現する。内部バス37は、情報処理部31と、主記憶部32と、外部記憶部33と、入出力部36と、を接続する。
情報処理部31と、主記憶部32と、外部記憶部33と、入出力部36と、内部バス37と、はデジタルカメラ1の情報処理部20の内部回路と、記憶部40と、インターフェース部50と、によって実現される機能ブロックであってもよい。
動画生成装置30は、外部記憶部33に記憶されたプログラム38及びデータを主記憶部32にコピーして、情報処理部31が、主記憶部32を使用してプログラム38を実行することにより、後述する動画を生成し出力するための処理を実行する。
動画生成装置30は、上記のような物理構成により、図6(b)に示すように、仮取得部310と、指定取得部320と、本取得部330と、仮動画生成部3410とリスト生成部3420と補正部3430と本動画生成部3440とを含む処理部340と、出力部350と、として機能する。
仮取得部310は、再構成部220がデフォルト設定を用いて生成した仮画像(設定用画像)及びその奥行きマップを取得する。仮取得部310は、取得した仮画像を処理部340の仮動画生成部3410に伝達する。また、取得した奥行きマップをリスト生成部3420に伝達する。ここでは、仮取得部310は動画設定が定める本動画のフレームレートと同じレートで、仮画像及び奥行きマップを取得するものとする。
指定取得部320は、ユーザが操作部530を用いて実行する焦点を合わすべき被写体の部位を指定する操作(指定座標を指定する操作)の情報を取得する。指定座標は、例えばタッチパネルに表示された仮動画を見たユーザが、重要と考える被写体にタッチした部位の、仮画像上の座標である。本動画では、タッチした部位の被写体にフォーカスするように焦点距離を設定する。
指定取得部320は、取得した指定座標を順次リスト生成部3420に伝達する。
本取得部330は、処理部340の処理の結果生成された生成パラメータ(再構成設定)を含むコマンドを再構成部220に伝達する。このとき、生成パラメータには、再構成距離(a1)として後述する補正された指定情報から求められた焦点距離が含まれる。そして、再構成部220がコマンドに応じて生成する再構成画像(本画像)を取得する。本取得部330は、取得した本画像を本動画生成部3440に伝達する。
処理部340は、仮取得部310と、指定取得部320と、本取得部330と、が取得した情報を用いて仮動画及び本動画を生成し、出力部350に出力する。処理部340はこのような処理を実行するために、仮動画生成部3410とリスト生成部3420と補正部3430と本動画生成部3440とを含む。
仮動画生成部3410は、仮取得部310が取得した画像をフレームとする動画(仮動画)を生成し、出力部350に伝達する。ここでは、仮動画は本動画と同じフレームレートとフレーム数(動画の総時間に対応)を持つとする。
仮動画生成部3410は、仮動画を生成するに当たって、仮取得部310が取得した画像をフレーム補間したり、所定のボケ付加処理等を実行してもよい。
リスト生成部3420は、指定取得部320が取得した指定座標を基に、再構成画像を結像する焦点距離と、焦点距離を定めるための情報(焦点位置の座標)を含む指定情報を生成する。そして、指定情報から、フレーム単位で指定情報を記録するリスト(指定情報リスト)を生成する。
リスト生成部が生成する指定リストの例を図7(a)に示す。指定リストは本動画の各フレームの動画上の時刻(t)と、指定座標(x(t)及びy(t))と、再構成距離(d(t))と、を対応付けて記録するリストである。再構成距離は、指定座標に対応する奥行きマップの奥行き値である。なお、ベクトル(x(t),y(t),d(t))は、メインレンズMLの光学中心(又は再構成画像(本動画のフレーム)の中心)を座標中心とする座標系における、注目被写体の3次元座標である。d(t)は、フレームの法線(例えば図2及び図5の光軸OA)成分である。このベクトルを焦点位置の座標と呼ぶ。リスト生成部3420が指定リストを生成する方法については後述する。リスト生成部3420は、各フレームについて焦点位置の座標を設定するので、設定部と言い換えることが出来る。
本実施形態では、仮動画と本動画とは同じフレームレートなので、仮動画のフレーム毎に指定情報が得られれば、本動画の全フレームに指定情報を設定することが出来る。時刻tは仮動画のフレームと見なすことができる。なお、時刻tは、時系列順に並べられたフレームの番号としてもよい。
このとき、指定リストに記憶された指定座標は、ユーザの指の震えやタッチパネルの検出ミス・奥行きマップの奥行き値のエラーにより、検出不能となった値(NULL)や、ハズレ値(図7(a)の例ではt=5の行)などが含まれる場合がある。リスト生成部3420は、生成した指定リストを補正部3430に伝達する。
補正部3430は、指定リストを用いて動画を生成する前に、視聴者に違和感を与えない動画となるように、リスト生成部3420から伝達された指定リスト(合焦位置の座標を時間軸方向に並べたもの)を補正する。
補正部3430が実行する補正処理の概要を、図8(a)及び(b)を参照して説明する。図8(a)及び(b)は、指定リストに記録された指定情報を、図示のためにx(t)及びy(t)を一つのパラメータ(座標)として、座標(x(t)、y(t))と、時刻(t)と、d(t)と、を軸とする3次元座標にプロットして得られるグラフの例である。なお、グラフでは指定情報を黒丸又は白丸で示している。
指の震え等による操作ミスや、タッチパネルの検出ミス、画像のノイズや被写体距離の推定誤差の影響で、指定リストに図8(a)の白丸のようなハズレ値が現れる場合がある。d(t)がハズレ値となっている場合、ハズレ値の位置に焦点を合わせた動画を生成すると、そのフレームの前後で意図しない距離に突然フォーカスが移動してしまう。そこで、補正部3430は違和感のない動画を生成できるように、真の値を推定して指定情報を補正する。図8(a)(b)では、補正後の値を曲線によって示している。
また、タッチミスや操作検出の失敗等により、仮画像に対して指定操作が得られず、指定情報がNULL(図8(b)の点線円)になってしまう場合がある。なお、便宜上NULLを、d(t)及びx(t)y(t)が0の点として図示している。指定情報がないと、再構成画像の焦点距離が定まらないので、ユーザが意図した動画を生成することが出来ない。そこで、補正部3430は前後の値から推測した推定値(図8(b)の菱形)によってNULL値を補正(欠落した情報を補充)する。
補正部3430が指定リストを補正する方法については後述する。
補正部3430は補正した指定リスト(例えば図7(b))を本動画生成部3440に伝達する。図7(b)の例では、補正前(図7(a))のハズレ値(t=5の行)が、周辺の値(t=4、t=6の行)に近づくように補正されている。また、NULL値(t=3)の行が、周辺の値から推測された値に置換されている。
本動画生成部3440は、補正部3430から補正した指定リストを伝達されると、動画のフレーム毎に、指定リストのそのフレームに対応する行の指定情報を本取得部330に伝達する。本取得部330は、これに応じて、その行のd(t)を再構成距離a1とする再構成パラメータを生成して、再構成部220に再構成パラメータで再構成画像を生成させる。そして、本取得部330から、再構成部220が生成した再構成画像を受け取り、動画のフレームとする。そして、動画の補間処理・コントラストの調整を実施して本動画を生成して、出力部350に伝達する。
出力部350は伝達された動画(仮動画・本動画)を動画記憶部430に記憶する。そして、デジタルカメラ1は仮動画又は本動画を表示部520に表示する。あるいは、I/O部510を介して外部に伝達する。
次に、デジタルカメラ1が実行する処理について、フローチャートを参照して説明する。デジタルカメラ1は、操作部530が被写体の撮影を指示する操作を受け付けると、図9に示す動画出力処理1を開始する。
動画出力処理1では、まず画像処理部210が撮像部10から取得した画像情報と、設定記憶部410から取得した撮影設定情報と、からLFIを生成する(ステップS101)。そして、撮影時刻と対応付けて画像記憶部420に記憶する。例えば、最初に撮影されたLFIをt=0、次回以降のループで撮影されたLFIはt=1、2、3…のLFIとする。
次に再構成部220が、画像記憶部420に新たに記憶されたLFIから、撮影設定情報とデフォルト設定とを用いて光線追跡により仮画像と奥行きマップを生成する(ステップS102)。
そして、仮取得部310が仮画像を取得し、仮動画生成部3410がコントラスト補正・明るさ補正等を実行して、仮動画のフレーム(仮画像)とし、出力部350に出力する(ステップS103)。
次に、本動画のフレームとなる本画像のパラメータ(焦点距離等)を設定するため、指定情報を指定リストに記録する処理(指定リスト生成処理1)を実行する(ステップS104)。
ステップS104で実行される指定リスト生成処理1を、図10を参照して説明する。指定リスト生成処理1ではまず指定取得部320が、操作部530を用いてユーザが仮画像の部位を指定する操作の情報を取得する(ステップS201)。
次に、リスト生成部3420が、指定操作の情報が得られたか否か判別する(ステップS202)。ユーザがタッチパネルに触れていない、あるいはタッチ操作が検出できなかった場合など、操作情報が得られなかった場合(ステップS202;NO)、指定リストの現在の時刻の行にNULL値を記録する(ステップS205)。
一方、指定操作の情報が得られた場合(ステップS202;YES)、次にその部位の座標及び奥行き値を取得する(ステップS203)。具体的には、操作部530からタッチ部位の座標を取得する。そして、現在の仮画像に対応する奥行きマップを参照して、取得した座標の奥行き値を取得する。取得した座標値・奥行き値を、指定リストの現在の時刻の行に登録する(ステップS204)。
ステップS204又はステップS205で指定リストにパラメータ(NULL値を含む)を記録すると、指定リスト生成処理1は終了する。
図9にもどって、指定リスト生成処理1で指定リストに現在表示中の仮動画のフレームに対応するパラメータを取得すると、次に処理部340が撮影が終了したか判別する(ステップS105)。具体的には、操作部530がユーザの撮影終了を指示する操作を受け付けているか判別し、受け付けていない場合は撮影は続行されると判別する(ステップS105;NO)。この場合は、次の仮動画のフレームについて、ステップS101から処理を繰り返す。
一方、撮影終了指示を受け付けた場合は、撮影が終了したと判別し(ステップS105;YES)、次に補正部3430が取得したパラメータを補正する処理(補正処理、ここでは補正処理1)を実行する(ステップS106)。
ステップS106で実行される補正処理1について、図11を参照して説明する。補正処理1では、まず補正部3430がハズレ値を除去して急激な焦点距離の移動による違和感を防止するための処理を実行する。ここでは、補正前の指定リストのパラメータから高周波成分を除去するため低周波フィルタリングを実行する(ステップS301)。具体的には、指定リストの焦点位置の座標(x(t)、y(t)、d(t))のそれぞれについて、時間軸方向にデジタルフィルタリングする。あるいは、座標を一つのベクトルとしてフィルタリングしても良い。なお、このときNULL値は計算対象から除外される。
フィルタリングの具体的な方法は設定記憶部410に記憶された設定情報が定義する。ここでは、操作時の指の震えやタッチパネルの感知漏れによるノイズ(チャタリング等)を除去するため、平滑化フィルタが設定されているものとする。なお、平滑化フィルタとして、加重平均フィルタ、あるいは、荷重メディアンフィルタなどを使用することができる。加重平均フィルタでは、操作時の指の震えに対して有効なローパス効果があり、タップ数や重みはカットオフ周波数が0.5Hz程度となるように設定されていることが望ましい。また、荷重メディアンフィルタでは、タッチパネルの感知漏れなどの突発的なアウトライヤーに対して有効となり、フィルタ窓や重みはカットオフ周波数が0.5Hz程度となるように設定されていることが望ましい。
フィルタリングが終わると、次に補正部3430が、指定リストにNULL値があるか否か判別する(ステップS302)。具体的には、指定リストにNULL値の行が無いか判別する。NULL値の行がある場合(ステップS302;YES)には、有効な指定情報が得られなかったフレームがあるとの判断のもと、NULL値を周辺の指定情報に基づいて求めた値に置換する補正を実行する(ステップS303)。
この置換のためには、例えば内挿法、直線補間法又は最大事後確率推定法等の真の値を推定する既知の任意の方法を用いることができるが、ここでは非線形最小二乗法による曲線推定を用いることとする。即ち、補正部3430が指定リストの各行をベクトル(v=(x(t),y(t),d(t))として、NULL値以外のベクトルにより最小二乗法で曲線v=f(t)を推定する。そして、推定した曲線にNULL値の時刻(t)を代入して、推定値を算出する。そして、算出した値をNULL値と置換すればよい。
最小二乗法を用いた曲線推定としては、ニュートン法,パターン法,ガウス−ニュートン法等の任意の既知の方法を採用できる。ここでは、まず曲線が2次方程式であると仮定してニュートン法により推定を行い、得られた最小誤差が所定の閾値よりも小さい場合にはその曲線を推定結果として定める。一方、最小誤差が閾値より大きい場合は、3次方程式であると仮定して推定を行う、とする。以後、同様に次数を切り上げて曲線推定を実行し、所定の閾値よりも小さい誤差が得られる最小の次数の曲線を推定結果として定めるとする。最小二乗法を適用するベクトルの範囲(つまりtの範囲)は数秒としてもよく、この場、順次この範囲をスライドさせながら関数を決定することで、生成される関数のほとんどは1次か2次の関数とすることができる。
つぎに、NULL値の行がないと判別されるか(ステップS302;NO)、ステップS303が終了すると、補正処理1は終了する。
図9にもどって、補正処理1で指定リストを補正すると、次に本動画生成部3440が補正後の指定リストを用いて本動画を生成する(ステップS107)。具体的には、画像記憶部420に記憶されたLFIを、撮影時間順に選択する。そして、選択されたLFIから、補正後の指定リストに記憶された順に、指定リストに記憶された焦点距離で再構成する。焦点距離と奥行き値との対応は、例えば設定記憶部410に記憶された奥行き値-焦点距離対応リスト(図12)によって定める。
例えば補正後の指定リストが図7(b)である場合には、まずt=0のLFIから、焦点距離が奥行き値2に対応する距離(図5のa1=20m)に再構成面RFを設定する。そして、再構成部220に、光線追跡により再構成画像を生成させ、t=0のフレームとする。さらに、t=1のフレームについてはt=1のLFIから奥行き値3に対応する距離(図5のa1=10m)に再構成面RFを設定して再構成画像を生成する。以下同様に各フレームを生成し、さらにコントラスト調整・光度調整等を実行して本動画を生成する。
そして、本動画生成部3440は、生成した本動画を出力部350に出力する(ステップS108)。出力された動画は、動画記憶部430に記憶され、その後表示部520で表示される。あるいは、I/O部510により外部に出力される。
以上説明したように、本実施形態のデジタルカメラ1によれば、表示された仮画像を見て、焦点を合わせたい被写体を指定するだけで、その部位に焦点を合わせた動画を生成することが出来る。そのため、動画のフレーム一つ一つの焦点距離を設定するといった煩雑な操作なしに、所望の部位に焦点を合わせた動画を生成することが出来る。
また、本実施形態の動画生成装置30は、再構成するための焦点距離を得られなかったフレームについては、焦点距離が得られたフレームについて定められた焦点距離に基づいて、自動的に焦点距離を推測する。そのため、与えられた焦点距離の情報に抜けがあっても、違和感の無い動画を生成することが出来る。特に、タッチパネルによる操作によって部位を指定して焦点距離を指定する場合に、指がタッチパネルから離れる、もしくは、タッチ操作を検出できない、等により指定情報を得られない恐れがある。本実施例は、そのような場合であっても違和感のない(満足度が高い)動画を生成する事が出来る。
さらに、各フレームの焦点距離について、高周波成分を減衰させるように補正するため、生成された動画において突然焦点距離が変化する事がない。そのため、視聴者に違和感を与えない動画を生成できる。
特に、本実施形態のように仮画像の部位を指定して、指定された部位の奥行き値に基づいて焦点距離を定める場合には、奥行きの推定エラーによってフレームの焦点距離が数フレームだけ大きく外れる場合がある。また、小さな被写体を追うようにタッチしている場合に、指を動かしすぎて被写体から外れてしまう等の指定操作のミスや、操作部の操作検出ミス等により、特定のフレームにおいて意図から大きく外れた焦点距離を設定してしまう恐れがある。
即ち、指定情報にハズレ値が発生しやすいが、本実施形態では、動画の生成前に動画の焦点距離を指定する情報を補正するので、例えハズレ値が発生した場合でも、視聴者に違和感を与えない、満足度が高い動画を生成することが出来る。
なお、高周波成分を減衰させる方法は、ローパスフィルタリングに限らず、例えばハズレ値を(スミルノフ・グラブス検定等の既知の方法を用いて)検出し、ハズレ値を周辺の値に近づけるように補正するなど、任意である。
さらに、仮動画上の指定部位について、サブ画像上のズレの程度から求められた奥行き値を取得して、奥行き値を(補正前の)焦点距離とする構成により、LFIに含まれる被写体の立体情報を反映した焦点距離を設定することができる。また、奥行きの推定は誤差を伴うが、補正処理により誤差による違和感を緩和することができる。即ち、本実施形態では、奥行き値の算出に誤差があった場合でも、LFI上の立体情報に基づいて注目被写体に焦点を合わせた違和感のない画像を生成することが出来る。
(実施形態2)
次に、本発明の実施形態2について説明する。実施形態2は、補正部3430が実行する補正処理の内容が実施形態1と異なる。その他の構成は実施形態1と同様である。
本実施形態のデジタルカメラ1及び動画生成装置30は、実施形態1に係る同名の機器と同じ構成を持つ。
デジタルカメラ1及び動画生成装置30は、ステップS106で実行される補正処理が図13に示す補正処理2である以外は、実施形態1と同様に図9の動画出力処理1を実行する。
処理が動画出力処理1のステップS106に至ると、補正部3430が図13に示す補正処理2を開始する。補正処理2では、まず補正部3430が指定リストの各行を合焦位置の座標を示すベクトル(v=(x(t),y(t),d(t))として、曲線v=f(t)を推定する。補正部3430は最尤推定、最大事後確率推定、ベイズ推定等の既知の任意の方法を用いて曲線推定を実行しても良いが、ここでは最小二乗法を用いて曲線推定を実行するとする(ステップS401)。
最小二乗法を用いた曲線推定としては、ニュートン法,パターン法,ガウス−ニュートン法等の任意の既知の方法を採用できる。ここでは、まず曲線がn次方程式(例えばn=2)であると仮定して、NULL値を除くニュートン法により推定を行い、得られた最小誤差が所定の閾値よりも小さい場合に推定が成功したと判定して、その曲線を推定結果として定める。一方、最小誤差が閾値より大きい場合は、次に(n+1)次方程式であると仮定して推定を行い、閾値より小さい最小誤差が得られた場合に、(n+1)次方程式の曲線を推定結果とする。以後、同様に次数を切り上げて曲線推定を実行し、所定の閾値よりも小さい誤差が得られる(推定が成功した)最小の次数の曲線を推定結果として定めるとする。このとき、所定の最大次数(例えばn=5)を定めて、最大次数以上の曲線については推定しないとする。
曲線推定において、動画の全フレーム(t=0〜MAX)について一つの曲線を推定しても良いし、動画を所定の条件で時間軸上で分割して、分割した単位毎に別々の曲線を推定しても良い。動画を分割する方法は、所定の長さ毎に自動的に分割するとしても良いし、ユーザが分割部位を指定するとしても良い。あるいは、最小二乗法を適用するベクトルの範囲を数秒として、順次この範囲を一定時間スライドさせながら関数を決定していくとしても良い。これによりスライドしながら生成される関数のほとんどは1次か2次となる。
このように曲線推定の範囲を限定する理由は、ユーザによって指定された多様な状態(つまりシーケンス全体では複雑すぎて高次になりすぎる)を一つの関数で表すのは容易ではなく、また数秒間内での複雑な奥行指定という動画がほとんどないからである。
そして、推定結果がタッチ操作を実行したユーザの意図する部位・焦点距離であるとの判断の元、補正部3430が推定結果に基づいて補正する(ステップS402)。具体的には、指定リストの各行のデータを、推定した曲線に時刻(t)を代入して求めた推定値に置換する。このとき、NULL値についても同様に補正するので、欠落値を補充することができる。
補正が終わると、補正処理2は終了する。
補正処理2が終了すると、デジタルカメラ1は、補正後の指定リストを用いて実施形態1と同様に動画を生成して出力する。
以上説明したとおり、本実施形態のデジタルカメラ1によれば、曲線推定により補正した指定情報(焦点距離)を用いて動画を生成できる。そのため、指定情報にハズレ値・欠落値が有った場合でも、動画制作者(タッチ操作を実行したユーザ)の意図を推定して、意図に添った動画を生成することができる。
また、推定が成功した最小の次数の曲線を推定結果とする構成により、過学習を防止するとともに、計算量が膨大になることを防止する。また、曲線の次数が最大値以上に大きくならないので、指定情報の高周波成分を除去する効果が得られる。動画の焦点距離が短い期間に大きく揺れ動くと、視聴者に違和感与えることになるが、この構成により違和感を和らげることが出来る。
(実施形態3)
次に、本発明の実施形態3に係るデジタルカメラ2について説明する。本実施形態のデジタルカメラ2は、図14に示すように、情報処理部21が追尾部240を含む事を特徴とする。その他の構成は実施形態2に係るデジタルカメラ1と同様である。
追尾部240は、操作部530から仮動画の被写体を指定する操作を受け付ける。そして、受け付けた操作から追尾対象となる注目被写体(追尾被写体)を特定して、特徴量を抽出する。さらに、抽出した特徴量を用いて仮動画上での(追尾被写体)を追尾し、各フレームの追尾被写体の位置を特定する。追尾部240は、特定した位置情報を指定情報として動画生成装置30に伝達する。
追尾部240は、SIFT(Scale Invariant Feature Transform)特徴量を用いたMean−Shift探索法や、Haar−like特徴量を用いた探索方法など、既知の任意の方法を用いて追尾被写体の位置を特定して良いが、本実施形態では後述する方法を用いることとする。
本実施形態の動画生成装置30は、各部が実行する処理の内容が異なる他は、実施形態1と同様の物理構成及び機能構成(図6(a)及び(b))を持つ。
本実施形態の動画生成装置30は、図15に示すように、追尾部240が追尾した結果得られた注目被写体(追尾被写体)の位置に基づく指定情報(期間A及び期間Cの黒三角形)と、ユーザの指定操作に基づく指定情報(区間Bの黒丸)と、を区別して指定リストに記録する。このため、本実施形態の動画生成装置30のリスト生成部3420が生成する指定リストは、図16に示すように、実施形態1の指定リスト(図7(a))に加えて、その行の指定情報が複数の指定座標を指定する方法の何れに基づくかを示す情報(項目「種別」)を記録する。図16の例では、「種別」が0である行は追尾部240が抽出した追尾被写体の座標に、「種別」が1である行は指定操作が指定する座標に、それぞれ基づく。
本実施形態では、指定操作と追尾部240の追尾結果が両方得られた場合には、リスト生成部3420は指定操作を優先する。即ち、図15の区間Bのように指定操作による指定座標が得られた場合は、追尾した注目被写体(追尾被写体)の座標は破棄される。これは、追尾対象となる注目被写体を設定したユーザがわざわざ追加で焦点を合わす部位を指定して、操作によって注目被写体を指定するのだから、指定操作がその期間においてユーザの意図をより強く反映するものであると判断できるからである。
補正部3430は、追尾部240の追尾結果に基づくフレームの区間(区間A及び区間C)と、指定操作に基づく区間(区間B)と、について別々に曲線素推定を実行し、推定結果に基づいて指定リストを補正する。追尾部240が追尾する追尾被写体が動画上で動く曲線と、ユーザが操作により指定する注目被写体の座標の曲線は別々であると考えられるからである。
さらに、一方の種別の区間がもう一方の種別の区間によって分断されている場合、分断された区間について独立に曲線を推定する。図15の例では、区間Aと区間Cとについてそれぞれ異なる曲線が推定される。分断された同一種別の区間については統一した曲線を推定すると、分断されている期間の影響で誤差が大きくなるからである。
次に、デジタルカメラ2及び動画生成装置30が実行する処理について説明する。デジタルカメラ2は、操作部530が被写体の撮影を指示する操作を受け付けると、図17に示す動画出力処理2を開始する。
動画出力処理2では、まず追尾部240が追尾被写体の特徴量を抽出する処理(抽出処理)を実行する(ステップS501)。
ステップS501で実行される抽出処理について、図18を参照して説明する。抽出処理では、まず仮動画生成部3410が、仮取得部310から最新のLFIから生成された仮画像を取得し、表示部520に追尾被写体を設定して特徴量を抽出するための画像(設定用画像)として表示する(ステップS601)。
次に、追尾部240がユーザの追尾被写体を指定する操作の情報を取得する(ステップS602)。具体的には、ユーザが表示部520に表示された設定用画像を見て、注目したい被写体にタッチするなどして、操作部530を用いて注目被写体の一部を指定する。追尾部240はこの操作の情報(座標情報)を取得する。
追尾部240は、指定操作に基づいて、追尾被写体を抽出する(S603)。具体的には、追尾部240は指定操作が指定する座標の画素(指定画素)と同じ奥行き値を持ち、類似の色を持つ画素の連続する領域を、追尾被写体が写っている領域として抽出する。
あるいは、追尾部240は顔認識アルゴリズムにより、指定画素を含む人物の顔の抽出を試み、抽出できた場合はその顔が含まれる領域を追尾被写体が映っている領域とする。
追尾被写体の抽出が終わると、次に追尾部240は追尾被写体の特徴量を抽出する(ステップS604)。具体的には、追尾被写体の領域をブロックに分割して、ブロック毎に輝度勾配ヒストグラムを算出し、正規化及び統合を実行してHOG(Histograms of Oriented Gradients)特徴量を抽出する。追尾部240が特徴量を抽出して記録すると、抽出処理は終了する。
図17に戻って、ステップS501で追尾被写体の特徴量を抽出すると、次にデジタルカメラ2は実施形態1の動画出力処理1(図9)のステップS101〜S103と同様に、ステップS502〜S504を実施する。
ステップS504で仮画像を出力すると、次に指定情報を生成して指定リストに記録する処理(指定リスト生成処理2)を実行する(ステップS505)。
ステップS505で実行される指定リスト生成処理2について、図19を参照して説明する。指定リスト生成処理2ではまず指定取得部320が、指定操作の有無を含む指定操作の情報を取得する(ステップS701)。
次に、リスト生成部3420が、指定操作があったか否か判別する(ステップS702)。座標を指定する指定操作が実行され、座標情報が得られた場合(ステップS702;YES)、指定操作に基づいた指定情報を生成する(ステップS703)。このとき、実施形態1の指定リスト生成処理1(図10)のステップS203での処理に加えて、得られた指定情報が指定操作に基づくことを示す情報を付加する。具体的には、図16に例示する指定リストの「種別」の項目を1とする。そして、処理はステップS707に移行する。
一方、座標を指定する指定操作が実行されていない場合(ステップS702;NO)、次に追尾部240が仮画像上の追尾被写体を抽出する(ステップS704)。具体的には、抽出処理(図18)で抽出された追尾被写体の特徴量との類似度が最も高い部位を抽出する。
次に、追尾部240が抽出に成功したか否か判別する(ステップS705)。具体的には、ステップS704で抽出された部位の特徴量と、抽出処理で抽出した特徴量との類似度を算出し、類似度が所定の閾値より高い場合には成功したと判別し、類似度が閾値以下であれば検出失敗と判別する。類似度は、例えば特徴量の各パラメータのSSD(Sum of Squared Difference)であるとする。
検出に成功した場合(ステップS705;YES)、追尾部240が抽出した部位の座標(抽出した領域の重心)の座標を求め、指定取得部320に伝達する。そして指定取得部320から、伝達された座標から、リスト生成部3420が抽出による指定情報を生成する(ステップS706)。具体的には、その座標の奥行き値を取得する。あるいは、抽出した領域の各画素の奥行き値の最頻値を奥行き値として取得しても良い。そして、取得した座標と奥行き値から、抽出による指定情報を生成する。さらに、得られた指定情報が追尾に基づくことを示す情報を付加する。具体的には、図16に例示する指定リストの「種別」の項目を0とする。
ステップS703又はステップS706で指定情報を生成すると、リスト生成部3420が指定情報を指定リストの現在の行に記録する(ステップS707)。
一方、ステップS705で検出に失敗した場合(ステップS705;NO)、有効な指定情報が得られなかったとの判断のもと、実施形態1の指定リスト生成処理1(図10)のステップS204と同様に、指定リストにNULL値の行を記録する(ステップS708)。このとき、「種別」の項目にはNULL値(図16では「−」)を記録する。
ステップS707又はステップS708にて現在のフレームに対応する指定リストの行を記録すると、指定リスト生成処理2は終了する。
図17にもどって、指定リスト生成処理2で指定リストに現在表示中の仮動画のフレームに対応する指定情報を取得すると、実施形態1の動画出力処理1(図9)のステップS105と同様に、処理部340が撮影が終了したか判別する(ステップS506)。撮影が続行されると判別する(ステップS506;NO)と、次の仮動画のフレームについて、ステップS502から処理を繰り返す。
一方、撮影が終了したと判別すると(ステップS506;YES)、次に補正部3430が指定リストを補正する処理(補正処理、ここでは補正処理3)を実行する(ステップS507)。
ステップS507で実行される補正処理3について、図20を参照して説明する。補正処理3では、まず補正部3430が指定リストに操作区間(例えば図15の区間Bに該当する部分)が存在するか否か判別する(ステップS801)。具体的には、指定リストにおいて、「種別」の項目が1である行が所定の閾値(例えば、動画において0.5秒に相当する行数)を超えて連続する部位があるか否か判別し、ある場合は操作区間があると判別し、無い場合は操作区間は無いと判別する。あるいは、「種別」の項目が1である行が所定の割合より大きい、所定の閾値よりも長い区間を、操作区間であるとしても良い。
操作区間が無いと判別すると(ステップS801;NO)、実施形態2と同様に、補正処理2(図13)を実行して一つの区間として曲線推定を実行し、推定結果に基づいて指定リストを補正する。なお、操作区間と判定されなかった部位の操作結果に基づく指定情報(「種別」の項目が1である行)は、誤操作あるいは誤検出であるとの判断の元、NULL値として取り扱われる。
一方、操作区間が有ると判別すると(ステップS801;NO)、補正部3430は指定リストを区間に分割する(ステップS803)。具体的には、指定リストを、上述した操作区間と、追尾結果に基づく区間(例えば図15の区間A及び区間Cに該当する部分)に分割する。
次に、補正部3430は分割した区間のうち一つを注目区間として選択する(ステップS804)。そして、注目区間について図13の補正処理2を実行し、曲線推定に基づいて指定リストの該当部分を補正する(ステップS805)。なお、操作期間と判定されなかった部位の操作結果に基づく指定情報(「種別」の項目が1である行)は、誤操作あるいは誤検出であるとの判断の元、NULL値として取り扱われる。また、操作区間と判定された部位の追尾結果に基づく指定情報(「種別」の項目が0である行)は、操作ミスあるいは操作検出漏れの結果であるとの判断の元、NULL値として取り扱われる。
次に、補正部3430はステップS803で分割した全ての区間について、上記処理を実行したか否か判別する(ステップS806)。未処理の区間が有る場合には(ステップS806;NO)、次の未処理の区間を注目区間として、ステップS804から処理を繰り返す。一方、全区間が処理済である場合(ステップS806;YES)は、補正処理3を終了する。
図17に戻って、補正処理3で指定リストを補正すると、デジタルカメラ2は図9のステップS107及びステップS108と同様にステップS508及びステップS509を実行して、操作区間には操作が指定する注目被写体に、それ以外の区間には追尾対象として登録された注目被写体(追尾被写体)にフォーカスした本動画を生成・出力する。
以上説明したように、本実施形態のデジタルカメラ2によれば、追尾対象となる注目被写体(追尾被写体)を自動的に追尾し、注目被写体に焦点が合った動画を生成することが出来る。そのため、ユーザは最初に焦点を合わせたい被写体を選択するだけで、所望の被写体に焦点の合った動画を生成することが出来る。
さらに、動画の一部期間に追尾被写体より注目すべき被写体が有った場合や、追尾結果が意図と異なる場合には、その期間に注目部位を指定すれば、その部位に焦点を合わせることが出来る。
また、本実施形態のデジタルカメラ1は、注目被写体の座標を、指定操作による方法と、追尾部240の追尾による方法と、の二通りで取得する。さらに、動画を指定方法が異なる期間(時間区分)毎に分割して、区間毎に独立して補正を実行する。その結果、異なる指定方法による異なる性質を持った指定情報に影響されることによって起こる補正精度の低下を防止することができる。なお、ここでは注目被写体を指定する複数の方法として、追尾部240による方法と、操作による方法とを例示したが、これに限らず任意の異なる方法によって指定された区間に分割して補正を実行するとして良い。例えば、一度指定操作によって指定リストを生成して登録し、後に一部だけ変更する場合に、最初の操作による指定を一つの指定方法とし、次の操作による指定を異なる指定方法として、指定リストに区別可能に記録する(一部上書きする)ことが考えられる。このとき、最初の操作による指定情報が所定比率を越える時間区間と、所定比率以下の時間区分に分けて補正を実行するとすれば良い。
(実施形態4)
次に、本発明の実施形態4について説明する。実施形態4は、補正部3430が実行する補正処理の内容が実施形態3と異なる。その他の構成は実施形態3と同様である。
本実施形態のデジタルカメラ2及び動画生成装置30は、実施形態3に係る同名の機器と同じ構成を持つ。
本実施形態では、補正部3430は所定期間より長い時間指定情報が得られなかった場合、指定情報を設定記憶部410に記憶されたデフォルト値に基づいて補正を実行する。ここで、図21に示すように区間Dでは追尾部240の追尾による指定情報が、区間Fでは指定操作による指定情報が得られた一方、区間E(NULL区間)については指定情報が得られなかった場合を例として説明する。
この場合、区間D及び区間Fについては実施形態3と同様に補正する。一方、区間Eの前半(図21のE1)では、直前の指定情報からデフォルト値(二点鎖線)に徐々に近づくようにNULL値を置換する。また、区間Eの後半(図21のE3)では、直後の指定情報からデフォルト値(二点鎖線)に徐々に近づくようにNULL値を置換する。区間Eの中央部(図21のE2)は、デフォルト値とNULL値を置換する。このとき、E1及びE2については、直前(あるいは直後)の値と、デフォルト値と、の間で直線補間すれば良い。直線補間する場合の傾きは、予め定められた所定の値であるとする。あるいは、E1及びE3の時間的長さ(E1及びE3に含まれるフレームの数)を定数として、その長さでデフォルト値に到達するように傾きを定めても良い。E1及びE3は、NULL区間の前後の値からデフォルト値に移行する区間なので、移行区間と呼ぶことができる。
デジタルカメラ2及び動画生成装置30は、ステップS507で実行される補正処理が図22に示す補正処理4である以外は、実施形態3と同様に図17の動画出力処理2を実行する。
ステップS507で実行される補正処理4を、図22を参照して説明する。
補正処理4では、まず補正部3430が指定リストにNULL区間(例えば図21の区間Eに該当する部分)が存在するか否か判別する(ステップS901)。具体的には、指定リストにおいて、NULL値の行が所定の閾値(例えば、動画において0.5秒に相当する行数)を超えて連続する部位があるか否か判別し、ある場合はNULL区間があると判別し、無い場合はNULL区間は無いと判別する。あるいは、NULL値の行が所定の割合より大きい、所定の閾値よりも長い区間を、NULL区間であるとしても良い。
NULL区間が無いと判別すると(ステップS901;NO)、実施形態3と同様に補正処理3(図20)を実行して曲線推定を実行し、推定結果に基づいて指定リストを補正する。
一方、NULL区間が有ると判別すると(ステップS901;YES)、補正部3430は指定リストを区間に分割する(ステップS903)。具体的には、指定リストを、NULL区間と、操作区間と、追尾結果に基づく区間(例えば図15の区間A及び区間Cに該当する部分)に分割する。
次に、補正部3430は分割した区間のうち一つを注目区間として選択する(ステップS904)。そして、注目区間がNULL区間であるか否か判別する(ステップS905)。注目区間がNULL区間でないと判別すると(ステップS905;NO)、補正部3430は注目処理について補正処理2(図13)により、曲線近似による補正を実行する。
一方、注目区間がNULL区間であると判別すると(ステップS905;YES)、補正部3430は設定記憶部410に記憶されたデフォルト値を取得する(ステップS907)。
そして、デフォルト値と、注目区間に隣接する前後の指定情報の値(隣接値)と、に基づいて指定リストのNULL値の行を補正する(ステップS908)。具体的には、デフォルト値と前後の隣接値の差に基づいて前後の移行区間の長さを決定する。前後の移行区間は、対応する隣接値とデフォルト値の差が大きいほど長くなる。ここでは、対応する隣接値とデフォルト値の差を予め定められた定数で除算して、整数に丸めた後に絶対値を取った値を移行区間の長さとする。そして、移行区間のNULL値を、隣接値とデフォルト値で線形補間して求めた値に置換する。移行区間の間(例えば図21のE2)については、NULL値をデフォルト値に置換する。
ステップS906又はステップS908を終了すると、補正部3430はステップS903で分割した全ての区間について、上記処理を実行したか否か判別する(ステップS909)。未処理の区間が有る場合には(ステップS909;NO)、次の未処理の区間を注目区間として、ステップS904から処理を繰り返す。一方、全区間が処理済である場合(ステップS909;YES)は、補正処理4を終了する。
以上説明したとおり、本実施形態のデジタルカメラ2は、ある時間区間について動画の焦点距離を指定する情報を得られない場合に、前後の区間から焦点距離をデフォルト値に近づけるように設定する。そのため、長期間焦点距離を指定を得られなかった場合でも、違和感が無い動画を生成することができる。
(変形例)
本発明の実施形態1乃至4について説明したが、本発明の実施形態はこれに限られず、さまざまな変形が可能である。
例えば、実施形態1乃至4では、仮動画はLFIからデフォルト値を用いて再構成した画像をフレームとするが、仮動画のフレームはユーザが注目被写体を選択できるか、追尾部が注目被写体を抽出できる画像を生成する任意の方法で生成されてもよい。
具体的には、仮動画のフレーム(仮画像)は各サブ画像の中心部の所定部位を抽出し、点対称に反転して、各サブレンズに対応する位置に配置した簡易画像であって良い。
また、実施形態1乃至4では、動画の各フレームについて仮画像を生成して出力し、指定情報を設定していた。しかし、指定情報をフレーム毎に設定する方法はこれに限らず、一旦仮動画を(デフォルト値を用いるなどして)すべて生成した後に、仮動画を出力して、指定操作を受け付ける(あるいは追尾処理を実行)としてもよい。
また、実施形態1乃至4では、LFI動画に対して一つの指定リストを生成して本動画を出力していたが、これに限らず、指定リストは撮影されたLFI動画に対して複数生成して良い。即ち、仮動画を用いた指定操作を複数回行って、それぞれ指定リストを生成して補正処理を実行して、記憶部に記憶しておく。そして、ユーザが複数の指定リストのうち所望の指定リストを選択すると、指定されたリストに基づいて本動画を生成して出力すればよい。
このような構成によれば、一つのソース(撮影動画)に対して異なる複数の焦点距離を設定し、目的に応じて使い分けることが出来る。例えば、複数の人物(例えば運動会で走る複数の児童)を撮影した動画から、それぞれ注目する人物(例えばそれぞれの子供)に焦点が合った相異なる動画を生成するための指定リストを保存しておくことで、必要な時に所望の人物に焦点のあった動画を出力することが出来る。
また、実施形態1乃至4では、補正対象は指定情報に含まれる合焦位置の座標(d(t)、x(t)、y(t))ベクトルとしたが、補正対象となる指定情報はこれに限られない。
例えば、指定取得部320が取得した座標(x(t)、y(t))からd(t)を求め、指定リストには合焦位置の座標としてd(t)のみを記憶して、補正処理もd(t)のみを対象としてもよい。このとき、合焦位置の座標はd(t)を成分とする一次元の座標系の座標である。このような構成によれば、処理量を軽減することができる。
あるいは、合焦位置の座標は、本画像を再構成するため、フレームの法線の方向(例えば光軸OA)を成分に持つ任意のベクトルであってよい。
また、補正処理として、合焦位置の座標(x(t)、y(t)、d(t))を一度に補正する例について説明したが、補正方法はこれに限られない。例えば、合焦位置の座標(x(t)、y(t)、d(t))を含む指定リストを補正した後に、補正後のx’(t)、y’(t)に基づいて更にd’’(t)を取得し、取得したd’’(t)と補正したd’(t)とを平均して、最終的な補正後のd(t)としてもよい。このような構成によれば、指定取得部320が取得した座標がずれていた場合に、ズレを補正した位置の奥行き係数を反映して補正することができるため、補正の精度が向上する。
また、上述の実施形態では、LFI動画と、仮動画と、本動画のフレームレートは同一とし、各動画のフレームが1対1に対応するとして説明した。しかし、これに限らず、本動画の各フレームについて、元となるLFIと指定情報が定まれば良く、各動画のフレーム数は異なるとしてよい。
例えば、LFIを24fps(frame per second)で取得し、仮動画と本動画をより早いフレームレート(例えば60fps)とすると、同一のLFIから仮動画を複数回生成して出力し、本動画のフレームそれぞれについて焦点距離を指定する指定情報を得るとしても良い。この場合、同一のLFIから複数の異なる指定情報を用いて、本動画の複数のフレームを生成することとなる。
また、LFI動画と仮動画とを本動画より少ないフレームレートで設定して、本動画のうち対応する仮動画が無いフレームの指定情報をNULLとして設定して、補正によりNULL値を補間するとの設定も可能である。
また、上述の実施形態では、仮動画の画素数(解像度)と本動画の画素数(解像度)は異なる数でもよい。この場合、LFI画像から生成される仮動画の画素の構成は、表示部が表示可能な画素数などに応じて決定されてもよい。また、本動画の画素の構成は、記録される動画の画素数などに応じて決定されてもよく、その際に、注目被写体の座標は、仮動画及び本動画の画素の構成に応じて変換される。
その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。
情報処理部31、主記憶部32、外部記憶部33、などから構成される動画出力のための処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROMなど)に格納して配布し、前記コンピュータプログラムをコンピュータにインストールし、変更再構成画像生成のための処理を行う中心となる部分を構成してもよい。また、インターネットなどの通信ネットワーク上のサーバ装置が有する記憶装置に前記コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロードなどすることで動画生成装置を構成してもよい。
動画生成装置の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
動画のフレーム毎に、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を設定する設定部と、
前記フレームについて前記設定部が設定した座標を、前記動画の他のフレームについて前記設定部が設定した座標に基づいて補正する補正部と、
前記動画のフレーム毎に、前記補正部が補正した座標から定まる焦点距離に合焦した、当該フレームの被写体を複数の視点から撮影した多視点画像から再構成した画像を取得する画像取得部と、
前記画像取得部が取得した画像をフレームとする動画を生成する生成部と、
前記生成部が生成した動画を出力する出力部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記補正部は、前記設定部が設定した座標の近似曲線を求め、当該座標の少なくとも一部を当該近似曲線にあてはめる、
ことを特徴とする付記1に記載の画像処理装置。
(付記3)
前記補正部は、前記設定部が設定した座標の時間軸に係る高周波成分を減衰させる、
ことを特徴とする付記1又は2に記載の画像処理装置。
(付記4)
前記フレーム毎に、当該フレームの被写体を複数の視点から撮影した多視点画像から所定のデフォルト値を用いて再構成された仮画像を取得する仮取得部と、
前記仮取得部が取得した仮画像毎に、前記合焦位置の仮画像面上の座標を取得する座標取得部をさらに備え、
前記多視点画像は、前記複数の視点のそれぞれから被写体を撮影した複数のサブ画像から構成され、
前記設定部は、前記座標取得部が取得した座標に位置する注目被写体に対応する画素の位置が、前記複数のサブ画像上でずれる程度から推定される被写体距離から、設定する座標の法線軸の成分を求める、
ことを特徴とする付記1乃至3の何れか1つに記載の画像処理装置。
(付記5)
前記補正部は、前記座標取得部が前記座標を取得できなかったフレームが所定の割合より多く含まれ、かつ所定の時間又はフレーム数よりも長い区間を抽出し、当該抽出した区間に属するフレームの座標を、当該区間に隣接するフレームについて前記座標取得部が取得した座標と、所定のデフォルト値と、に基づいて補正する、
ことを特徴とする付記4に記載の画像処理装置。
(付記6)
前記座標取得部は、前記フレーム毎に、予め定められた複数の指定方法の何れかで指定された前記仮画像面上の座標を取得し、
前記補正部は、前記動画を、前記複数の指定方法のうち所定の指定方法によって指定された前記座標を用いて前記設定部が合焦位置の座標を設定したフレームが、所定の割合より多い時間区間と、前記所定の割合以下の時間区間と、に分割し、前記補正を当該分割した時間区間毎に実行する、
ことを特徴とする付記4又は5に記載の画像処理装置。
(付記7)
前記出力部は、前記仮画像を順次画像表示装置に出力し、
前記座標取得部は、前記フレーム毎に前記仮動画上の座標を指定する操作の情報を取得することを、前記複数の指定方法の一つとする、
ことを特徴とする付記6に記載の画像処理装置。
(付記8)
予め抽出された特徴を持つ注目被写体の前記仮画像上の座標を抽出する抽出部を更に備え、
前記座標取得部は、前記フレーム毎に前記抽出部が抽出する座標を取得することを、前記複数の指定方法の一つとする、
ことを特徴とする付記6又は7に記載の画像処理装置。
(付記9)
被写体を複数の視点から撮影した多視点画像を撮影する撮影部と、
動画のフレーム毎に、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を設定する設定部と、
前記フレームについて前記設定部が設定した座標を、前記動画の他のフレームについて前記設定部が設定した座標に基づいて補正する補正部と、
前記動画のフレーム毎に、前記補正部が補正した座標から定まる焦点距離に合焦した画像を、当該フレームの被写体を複数の視点から撮影した多視点画像から再構成する再構成部と、
前記再構成部が再構成した画像をフレームとする動画を生成する生成部と、
前記生成部が生成した動画を出力する出力部と、
を備えることを特徴とする撮像装置。
(付記10)
動画のフレーム毎に、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を設定するステップと、
前記フレームについて前記設定した座標を、前記動画の他のフレームについて前記設定した座標に基づいて補正するステップと、
前記動画のフレーム毎に、前記補正した座標から定まる焦点距離に合焦した、当該フレームの被写体を複数の視点から撮影した多視点画像から再構成した画像を取得するステップと、
前記取得した画像をフレームとする動画を生成するステップと、
前記生成した動画を出力するステップと、
を含むことを特徴とする画像処理方法。
(付記11)
コンピュータに、
動画のフレーム毎に、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を設定する機能、
前記フレームについて前記設定した座標を、前記動画の他のフレームについて前記設定した座標に基づいて補正する機能、
前記動画のフレーム毎に、前記補正した座標から定まる焦点距離に合焦した、当該フレームの被写体を複数の視点から撮影した多視点画像から再構成した画像を取得する機能、
前記取得した画像をフレームとする動画を生成する機能、
前記生成した動画を出力する機能、
を実現させるためのプログラム。
1…デジタルカメラ、2…デジタルカメラ、10…撮像部、110…光学装置、120…イメージセンサ、20…情報処理部、21…情報処理部、30…動画生成装置、31…情報処理部、32…主記憶部、33…外部記憶部、36…入出力部、37…内部バス、38…プログラム、210…画像処理部、220…再構成部、230…撮像制御部、240…追尾部、310…仮取得部、320…指定取得部、330…本取得部、340…処理部、3410…仮動画生成部、3420…リスト生成部、3430…補正部、3440…本動画生成部、350…出力部、40…記憶部、410…設定記憶部、420…画像記憶部、430…動画記憶部、50…インターフェース部(I/F部)、510…I/O部、520…表示部、530…操作部、LFI…ライトフィールド画像、LFDM…ライトフィールド奥行きマップ、OA…光軸、OB…被写体、OB1…被写体、OB2…被写体、OB3…被写体、POB…被写体の部分、P…注目部位、ML…メインレンズ、PF…結像点、MIP…結像面、PE…到達点、IE…撮像面、SLA…サブレンズアレイ、SL…サブレンズ、MLB…メインレンズブラー、MLBC…メインレンズブラー中心、S11〜SMN…サブ画像、RDM…再構成奥行きマップ、RI1…再構成画像、RI2…再構成画像、RF…再構成面

Claims (12)

  1. 動画のフレームに、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を設定する第1設定部と、
    動画のフレームに、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を、当該動画の他のフレームについて前記第1設定部が設定した座標に基づいて設定する第2設定部と、
    前記動画のフレーム毎に、前記第1設定部及び/又は第2設定部が設定した座標から定まる焦点距離に合焦した、当該フレームの被写体を複数の視点から撮影した多視点画像から再構成した画像を取得する画像取得部と、
    前記画像取得部が取得した画像をフレームとする動画を生成する生成部と、
    前記生成部が生成した動画を出力する出力部と、
    を備えることを特徴とする画像処理装置。
  2. 前記第2設定部は、
    前記動画のフレームに係る前記合焦位置の座標を、前記動画の他のフレームについて前記第1設定部が設定した座標に基づいて補正する補正部を備え、
    前記補正部は、前記第1設定部が設定した座標の近似曲線を求め、当該座標の少なくとも一部を当該近似曲線にあてはめる、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第2設定部は、
    前記動画のフレームに係る前記合焦位置の座標を、前記動画の他のフレームについて前記第1設定部が設定した座標に基づいて補正する補正部を備え、
    前記補正部は、前記第1設定部が設定した座標の時間軸に係る高周波成分を減衰させる、
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記フレーム毎に、当該フレームの被写体を複数の視点から撮影した多視点画像から仮画像生成用のデフォルト値を用いて再構成された仮画像を取得する仮取得部と、
    前記仮取得部が取得した仮画像毎に、前記合焦位置の仮画像面上の座標を取得する座標取得部をさらに備え、
    前記多視点画像は、前記複数の視点のそれぞれから被写体を撮影した複数のサブ画像から構成され、
    前記第1設定部は、前記座標取得部が取得した座標に位置する注目被写体に対応する画素の位置が、前記複数のサブ画像上でずれる程度から推定される被写体距離から、設定する座標の法線軸の成分を求める、
    ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記第2設定部は、前記座標取得部が前記座標を取得できなかったフレームが所定の割合より多く含まれる区間であって、かつ所定の時間よりも長い区間又はフレーム数が所定数よりも多い区間を抽出し、当該抽出した区間に属するフレームの座標を、当該区間に隣接するフレームから前記座標取得部が取得した座標と、座標補正用のデフォルト値と、に基づいて補正及び/又は設定する、
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記第2設定部は、前記座標取得部が前記座標を取得できなかったフレームの区間を抽出し、当該抽出した区間に属するフレームの座標を、当該区間に隣接するフレームから前記座標取得部が取得した座標に基づいて設定する、
    ことを特徴とする請求項4に記載の画像処理装置。
  7. 前記座標取得部は、前記フレーム毎に、複数の指定方法のうち所定の指定方法によって指定された前記仮画像面上の座標を取得し、
    前記第2設定部は、前記動画を、前記所定の指定方法によって指定された前記座標を用いて前記第1設定部が合焦位置の座標を設定したフレームが、所定の割合より多い時間区間と、前記所定の割合以下の時間区間と、に分割し、前記設定を当該分割した時間区間毎に実行する、
    ことを特徴とする請求項4乃至6の何れか1項に記載の画像処理装置。
  8. 前記出力部は、前記仮画像を順次画像表示装置に出力し、
    前記座標取得部は、前記フレーム毎に前記仮画像上の座標を指定する操作の情報を取得することを、前記複数の指定方法の一つとする、
    ことを特徴とする請求項7に記載の画像処理装置。
  9. 特徴を持つ注目被写体の座標を前記仮画像上から抽出する抽出部を更に備え、
    前記座標取得部は、前記フレーム毎に前記抽出部が抽出する座標を取得することを、前記複数の指定方法の一つとする、
    ことを特徴とする請求項7又は8に記載の画像処理装置。
  10. 被写体を複数の視点から撮影した多視点画像を撮影する撮影部と、
    動画のフレームに、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を設定する第1設定部と、
    動画のフレームに、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を、当該動画の他のフレームについて前記第1設定部が設定した座標に基づいて設定する第2設定部と、
    前記動画のフレーム毎に、前記第1設定部及び/又は第2設定部が設定した座標から定まる焦点距離に合焦した画像を、当該フレームの被写体を複数の視点から撮影した多視点画像から再構成する再構成部と、
    前記再構成部が再構成した画像をフレームとする動画を生成する生成部と、
    前記生成部が生成した動画を出力する出力部と、
    を備えることを特徴とする撮像装置。
  11. 動画のフレームに、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を設定するステップと、
    動画のフレームに、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を、当該動画の他のフレームについて前記設定した座標に基づいて設定するステップと、
    前記動画のフレーム毎に、前記設定した座標から定まる焦点距離に合焦した、当該フレームの被写体を複数の視点から撮影した多視点画像から再構成した画像を取得するステップと、
    前記取得した画像をフレームとする動画を生成するステップと、
    前記生成した動画を出力するステップと、
    を含むことを特徴とする画像処理方法。
  12. コンピュータに、
    動画のフレームに、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を設定する機能、
    動画のフレームに、当該フレームの法線軸を成分に含む座標系における合焦位置の座標を、当該動画の他のフレームについて前記設定した座標に基づいて設定する機能、
    前記動画のフレーム毎に、前記設定した座標から定まる焦点距離に合焦した、当該フレームの被写体を複数の視点から撮影した多視点画像から再構成した画像を取得する機能、
    前記取得した画像をフレームとする動画を生成する機能、
    前記生成した動画を出力する機能、
    を実現させるためのプログラム。
JP2012145849A 2012-06-28 2012-06-28 画像処理装置、撮像装置、画像処理方法及びプログラム Expired - Fee Related JP5370542B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012145849A JP5370542B1 (ja) 2012-06-28 2012-06-28 画像処理装置、撮像装置、画像処理方法及びプログラム
US13/903,829 US9961321B2 (en) 2012-06-28 2013-05-28 Image processing device and image processing method having function for reconstructing multi-aspect images, and recording medium
CN201310261782.XA CN103516983B (zh) 2012-06-28 2013-06-27 图像处理装置、摄像装置以及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012145849A JP5370542B1 (ja) 2012-06-28 2012-06-28 画像処理装置、撮像装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP5370542B1 true JP5370542B1 (ja) 2013-12-18
JP2014011574A JP2014011574A (ja) 2014-01-20

Family

ID=49777736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012145849A Expired - Fee Related JP5370542B1 (ja) 2012-06-28 2012-06-28 画像処理装置、撮像装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US9961321B2 (ja)
JP (1) JP5370542B1 (ja)
CN (1) CN103516983B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6323022B2 (ja) * 2014-01-21 2018-05-16 株式会社ニコン 画像処理装置
KR102257620B1 (ko) * 2014-03-20 2021-05-28 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
JP6272099B2 (ja) * 2014-03-24 2018-01-31 キヤノン株式会社 画像処理装置、制御方法およびプログラム
JP6360338B2 (ja) * 2014-03-31 2018-07-18 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム、並びに撮像装置
JP2016082475A (ja) * 2014-10-20 2016-05-16 キヤノン株式会社 画像処理装置、その制御方法及びプログラム
JP2016082474A (ja) * 2014-10-20 2016-05-16 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6478587B2 (ja) * 2014-11-26 2019-03-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム、並びに撮像装置
CN104469167B (zh) * 2014-12-26 2017-10-13 小米科技有限责任公司 自动对焦方法及装置
JP6529267B2 (ja) 2015-01-23 2019-06-12 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
CN108885326B (zh) 2016-03-31 2019-12-03 富士胶片株式会社 镜头装置、摄像装置、透镜驱动方法、记录介质
JP6828423B2 (ja) * 2016-12-26 2021-02-10 株式会社ニコン 再生装置および再生プログラム
CN108600623B (zh) * 2018-04-20 2020-07-28 维沃移动通信有限公司 重聚焦显示方法以及终端设备
CN109922326B (zh) * 2019-03-29 2020-11-06 深圳市新致维科技有限公司 裸眼3d视频图像的分辨率确定方法、装置、介质及设备
KR102265540B1 (ko) * 2020-04-27 2021-06-17 주식회사 에프에스티 초점 보정 장치, 초점 보정 방법 및 결함 검출 시스템

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4043657B2 (ja) * 1999-09-06 2008-02-06 ペンタックス株式会社 写真測量用画像処理装置、写真測量用画像処理方法および写真測量用画像処理プログラムを格納した記憶媒体
CN100573595C (zh) * 2003-06-20 2009-12-23 日本电信电话株式会社 虚拟视点图像生成方法和三维图像显示方法及装置
JP4752031B2 (ja) 2004-10-01 2011-08-17 ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティ 撮像の装置と方法
JP4297111B2 (ja) * 2005-12-14 2009-07-15 ソニー株式会社 撮像装置、画像処理方法及びそのプログラム
KR101608970B1 (ko) * 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
JP5595121B2 (ja) * 2010-05-24 2014-09-24 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2012015830A (ja) * 2010-07-01 2012-01-19 Nikon Corp カメラ
JP2012044564A (ja) * 2010-08-20 2012-03-01 Sanyo Electric Co Ltd 撮像装置
JP5657343B2 (ja) * 2010-10-28 2015-01-21 株式会社ザクティ 電子機器
JP5743859B2 (ja) * 2011-11-14 2015-07-01 株式会社東芝 画像処理装置、方法、及び画像表示装置

Also Published As

Publication number Publication date
US20140002618A1 (en) 2014-01-02
CN103516983A (zh) 2014-01-15
CN103516983B (zh) 2016-12-28
US9961321B2 (en) 2018-05-01
JP2014011574A (ja) 2014-01-20

Similar Documents

Publication Publication Date Title
JP5370542B1 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
KR102659065B1 (ko) 이미지에 대한 깊이 맵의 처리
JP6011862B2 (ja) 3次元画像撮影装置及び3次元画像撮影方法
JP2015035658A (ja) 画像処理装置、画像処理方法、および撮像装置
RU2423018C2 (ru) Способ и система для преобразования стереоконтента
US9338437B2 (en) Apparatus and method for reconstructing high density three-dimensional image
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
US20120300115A1 (en) Image sensing device
JP5942195B2 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
WO2013038833A1 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
WO2021084530A1 (en) Method and system for generating a depth map
JP5325800B2 (ja) 画像処理装置、画像撮影装置、画像表示装置、およびプログラム
WO2013035457A1 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP2013153408A (ja) 画像処理装置、撮像装置、画像生成方法、及びプログラム
JP5900017B2 (ja) 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
JP6114229B2 (ja) 画像生成装置及び画像生成プログラム
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
KR101219859B1 (ko) 3d촬영장치에서의 반자동 주시각 제어장치 및 반자동 주시각 제어방법
WO2020059575A1 (ja) 3次元画像生成装置、3次元画像生成方法、及びプログラム
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Ref document number: 5370542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees