JP5566196B2 - 画像処理装置及びその制御方法 - Google Patents

画像処理装置及びその制御方法 Download PDF

Info

Publication number
JP5566196B2
JP5566196B2 JP2010135102A JP2010135102A JP5566196B2 JP 5566196 B2 JP5566196 B2 JP 5566196B2 JP 2010135102 A JP2010135102 A JP 2010135102A JP 2010135102 A JP2010135102 A JP 2010135102A JP 5566196 B2 JP5566196 B2 JP 5566196B2
Authority
JP
Japan
Prior art keywords
image
moving image
pixels
spatial frequency
synthesis rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010135102A
Other languages
English (en)
Other versions
JP2012004653A5 (ja
JP2012004653A (ja
Inventor
正治 山岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010135102A priority Critical patent/JP5566196B2/ja
Publication of JP2012004653A publication Critical patent/JP2012004653A/ja
Publication of JP2012004653A5 publication Critical patent/JP2012004653A5/ja
Application granted granted Critical
Publication of JP5566196B2 publication Critical patent/JP5566196B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、いわゆるブラケット撮影により得られた複数の動画から合成動画を生成する画像処理装置及びその制御方法に関するものである。
近年、デジタル一眼レフカメラを用いた動画撮影が一般的に行われるようになってきている。これらの撮影装置では、様々な種類の交換レンズを使用することにより、質感の高い動画撮影が可能である。例えば、大きなイメージセンサーを利用して被写界深度を浅く撮影することにより、ユーザーが意図的に背景をぼかしたような動画撮影が可能である。このような撮影を行った場合、撮影装置のシャッター速度が高速になる傾向にあるために、動いている物体の動きがスムーズでなくなるという問題点がある。ここで言う、物体の動きがスムーズでない動画とは、シャッター速度を高速で撮影したため、動きの連続性が不足している画像を意味する。また、物体の動きがスムーズである動画とは、シャッター速度を遅く撮影し、適度な残像感を持ち自然な表現がされている画像を意味する。減光(
ND:Neutral Density)フィルターを使用して、撮影時のシャッター速度を調整する方法もあるが、ユーザーが望んでいる画像に最適な減光フィルターを選択するのは非常に面倒な作業である。
特許文献1では、合焦距離の異なる複数の画像を合成して、複数の被写体にフォーカスの合った被写界深度の深い合成画像を生成する方法が提案されている。また特許文献1には、被写界深度の異なる複数の画像を合成して、特定の被写体だけにフォーカスの合った合成画像や特定の被写体だけをぼかした合成画像を生成できることが提案されている。さらに特許文献1には、複数の画像からそれぞれぶれ量の小さい(または大きい)被写体を抽出し、それらを合成することが提案されている。
特開2006−279940号公報
上述した従来の技術(特許文献1)では、被写体ごとにフォーカスが合っているか否かを判定し、或いは被写体ごとのぶれ量を比較することで、それぞれの被写体をいずれの画像から抽出するかを決定している。
しかしながら、このような被写体ごとの判定を行うには、前処理として画像から被写体部分を自動検出する必要がある。顔検出のように検出対象となる被写体が予め特定されている場合には自動検出は容易かもしれないが、ユーザーが撮影する画像には通常さまざまな種類の被写体が含まれており、それら全てを精度良く検出することは難しい。また、特許文献1には、被写体以外の部分(背景など)をどのように処理するかも記載されていない。従って、特許文献1で提案されている方法は、汎用性および実現性を欠いており、現実の製品に実装することは困難である。さらに、動画同士を合成する場合には被写体の動きがスムーズにみえることが望まれるが、従来の方法では、動いている被写体の背景を大きくぼかしつつ、かつその被写体の動きがスムーズにみえるような合成画像を得ることができない。
そこで、本発明は、異なる被写界深度で撮影された複数の動画から高品質な合成動画を
作成することのできる汎用性および実現性に優れた技術を提供することを目的とする。
本発明の第1態様は、同じ対象を異なる被写界深度で撮影することで得られた複数の動画から、対応するフレーム同士を合成することによって1つの合成動画を生成する画像処理装置であって、前記複数の動画のうち、少なくとも1つの動画のフレームに対して動き量を求める動き量解析手段と、前記複数の動画のうち、少なくとも1つの動画のフレームに対して空間周波数特性を求める空間周波数解析手段と、前記空間周波数解析手段により求められた空間周波数特性と、前記動き量解析手段により求められた動き量とから、前記複数の動画のフレーム同士の合成率を決定する合成率算出手段と、前記合成率算出手段によって決定された合成率で前記複数の動画のフレームを合成する画像合成手段と、を有することを特徴とする画像処理装置を提供する。
本発明の第2態様は、同じ対象を異なる被写界深度で撮影することで得られた複数の動画から、対応するフレーム同士を合成することによって1つの合成動画を生成する画像処理装置の制御方法であって、前記複数の動画のうち、少なくとも1つの動画のフレームに対して動き量を求める動き量解析ステップと、前記複数の動画のうち、少なくとも1つの動画のフレームに対して空間周波数特性を求める空間周波数解析ステップと、前記空間周波数解析ステップにより求められた空間周波数特性と、前記動き量解析ステップにより求められた動き量とから、前記複数の動画のフレーム同士の合成率を決定する合成率算出ステップと、前記合成率算出ステップによって決定された合成率で前記複数の動画のフレームを合成する画像合成ステップと、を有することを特徴とする画像処理装置の制御方法を提供する。
本発明によれば、異なる被写界深度で撮影された複数の動画から高品質な合成動画を作成することができる。また、本発明は、汎用性および実現性に優れており、現実の製品への実装が容易である。
本発明の実施例1の画像処理装置のブロック図である。 ブラケット動画のフォーマットの模式図である。 被写界深度の異なる画像とそれらを合成した画像の例である。 実施例1の空間周波数特性、動き量特性、及び画像合成率の例である。 実施例1の画像合成率算出方法のフローチャートである。 実施例2の画像合成率算出方法のフローチャートである。 実施例2の画像合成率と合成画像の例である。 本発明の実施例3の画像処理装置のブロック図である。 実施例3の空間周波数特性、動き量特性、及び画像合成率の例である。 実施例3の画像合成率算出方法のフローチャートである。
本発明は、同じ対象を異なる被写界深度で同時に撮影することで得られた複数の動画から、対応するフレーム同士を合成することによって1つの合成動画を生成する画像処理装置およびその制御方法に関する。「同じ対象」とは、複数の動画の撮影範囲(構図、被写体、背景など)が実質的に同じであることを意味し、「同時に撮影」とは、複数の動画の撮影が時間的に並列に行われることを意味する。「対応するフレーム」とは、実質的に同じ時刻に撮影されたフレームを意味する。対応するフレームは厳密に同じ時刻に撮影されることが望ましいが、極めて短い時間間隔(例えば1フレーム周期よりも短い間隔)で連続的に撮影されたものでもよい。以下、「同じ対象を異なる被写界深度で同時に撮影することで得られた複数の動画」を「ブラケット動画」とよぶ。本発明は、ブラケット動画の撮影が可能な撮像装置(デジタルカメラ、デジタルビデオカメラなど)に適用することも
できるし、入力され若しくは記録されたブラケット動画を加工または再生する映像記録再生装置に適用することもできる。或いは、本発明の機能および処理を、コンピュータプログラムによって実現することも可能である。
本発明の一実施形態では、複数の動画のフレーム同士を合成する際に、画素ごとの空間周波数(ぼやけ度合い)と動き量の2つの特性を評価し、それらの値に基づいて画素ごとの合成率を算出する。この方法によれば、従来のような被写体検出が不要となるため、どのような動画に対しても汎用的に適用することが可能である。また、動き量を評価するので、動画(動きのある物体が含まれている場合が多い)の合成に好適である。
空間周波数特性は、合成される複数の動画のうち少なくとも1つの動画のフレームに対して求めればよい。好ましくは、被写界深度の深い動画のフレームではなく、被写界深度の浅い動画のフレームから空間周波数特性を求めるとよい。被写界深度が浅い画像のほうが、ユーザーの注目被写体とそれ以外の部分との間で空間周波数に有意な差がある可能性が高いからである。また、動き量も、合成される複数の動画のうち少なくとも1つの動画のフレームに対して求めればよく、好ましくは、被写界深度の浅い動画のフレームから求めるとよい。被写界深度が浅いほうがシャッター速度が速く、注目被写体のぶれ(動きぼやけ)が小さくなる傾向にあるため、動きベクトルの演算を精度良く行うことができるからである。
合成率はどのように決定してもよい。たとえば、被写界深度の深い動画(第1の動画)と被写界深度の浅い動画(第2の動画)の2つの動画を合成する場合は、空間周波数が低いほど第2の動画の画素の合成割合が大きくなるように合成率を決定するとよい(実施例1参照)。これにより、被写界深度の浅い動画においてユーザーが意図的にぼやかした部分を合成動画に含めることができる。また、動き量が大きいほど第1の動画の画素の割合が大きくなるように合成率を決定することも好ましい(実施例1参照)。第1の動画は第2の動画に比べてシャッター速度が遅くなる傾向にあるため、第1の動画における物体の動きぼやけを合成動画に含めることができ、動画を再生したときに物体の動きがスムーズにみえるからである。或いは、空間周波数が低いほど第1の動画の画素の割合が大きくなり、かつ、動き量が大きいほど第2の動画の画素の割合が大きくなるように、合成率が決定されることも好ましい(実施例2参照)。これにより、フレーム全体でぼやけの少ないくっきりした画像を得ることができる。或いは、空間周波数が第1の閾値よりも高く、かつ、動き量が第2の閾値よりも大きい場合に、第2の動画の画素に比べ第1の動画の画素の割合が大きくなるように合成率を決定することも好ましい(実施例3参照)。これにより、第1の動画における物体の動きぼやけを合成動画に含めることができる。空間周波数が第1の閾値よりも低いか、動き量が第2の閾値より小さい場合には、第1の動画の画素に比べて第2の動画の画素の割合が大きくなるようにすればよい(実施例3参照)。これにより、第2の動画においてユーザーが意図的にぼやかした部分を合成動画に含めることができる。
以下、図面を参照して、本発明の具体的な実施例について説明する。
[実施例1]
本実施例の目的は、注目被写体の背景を大きくぼかすことで奥行き感を強調し、さらに注目被写体がスムーズに動く動画をユーザーに提供することである。
図1は、本実施例の画像処理装置を示すブロック図である。図1において、画像入力部101には、複数の被写界深度で撮影されたブラケット動画が入力される。画像復号化部102は、画像入力部101から入力されたブラケット動画を復号化して複数種類の動画に分割して出力する。図2は、ブラケット動画、及び復号化された複数種類の動画の関係について示したものである。図2は、ブラケット動画を2種類の画像に分割する例である
。ブラケット動画のN−2フレームは画像201、画像202の2種類の画像が記録されている。画像201と画像202は、それぞれ異なる被写界深度で撮影されている画像であり、撮影時刻は同期している画像である。例えば、図3(a)は被写界深度を深く撮影した画像の例であり、図3(b)は被写界深度を浅く撮影した画像の例である。N−1フレームの画像301および画像302、Nフレームの画像401および画像402についても同様の関係である。ブラケット動画には、記録時間に応じたフレーム数の画像が記録されている。また、画像復号化部102では、ブラケット動画に含まれている情報データ(例えば、メタデータなど)もデコードされ出力される。入力画像の入力される形態については特に限定されない。たとえば、ハードディスク装置やメモリカード等のメディアから入力してもよいし、ネットワークもしくは放送を通じて受信してもよい。
空間周波数特性解析部(空間周波数解析手段)103は、画像復号化部102より出力された画像に対して、空間周波数特性を画素ごとに解析する。動き量特性解析部(動き量解析手段)104は、画像復号化部102から出力された複数フレームの画像を用いて、フレーム間の動き量を画素ごとに解析する。動き量を算出するには、一般的な動きベクトル法を用いれば良い。画像合成率算出部(合成率算出手段)105は、空間周波数特性解析部103の解析結果と、動き量特性解析部104の解析結果を元に、2つの画像合成時に用いる、画素ごとの画像合成率を算出する。画像合成部(画像合成手段)106は、画像合成率算出部105の出力結果に応じて、画像復号化部102から出力された2つの画像を合成する。画像表示部107は、画像合成部106から出力された合成画像を表示する。
次に、画像例を用いて、本実施例の処理を詳しく説明する。図3(a)、図3(b)にブラケット動画から取り出された2つの動画A、Bのあるフレームを示す。図3(a)は、被写界深度を深く撮影した画像であり、図3(b)は、被写界深度を浅く撮影した画像である。図3(a)の被写界深度が深い画像では、山111、人112、車113共にフォーカスが合っている。また、図3(a)の画像の車113の部分に着目すると、シャッター速度が遅いために、車113の動きは適度な残像感(動きぼやけ)を持ち自然に表現されている。一方、図3(b)の被写界深度が浅い画像では、人122、車123にはフォーカスが合っているが、背景となる山121はぼやけた領域となっている。また、図3(b)の画像の車123の部分に着目すると、シャッター速度が速いために、車123の輪郭はくっきりしている。しかし、動きぼやけがないため、動画としての車の動きはやや不自然となる。移動速度が速い被写体ほど不自然さは顕著になる。図3(b)のように被写界深度が浅い画像は、一般的にユーザーが注目被写体以外の部分(背景など)を意図的にぼやかしている場合が多い。
空間周波数特性解析部103と、動き量特性解析部104では、それぞれ図3(b)に示した画像(被写界深度が浅い画像)に対して画素ごとの画像の特徴解析を行う。図3(c)に示した図は、図3(b)の画像に対して、空間周波数特性と動き量の解析を行う対象ラインを点線で示した図である。実際には、画面全体に対して解析を行うが、本実施例では説明を分かりやすくするため、点線で示したラインの水平方向の解析方法について説明を行う。図3(c)の画像の点線上で、人132と車133はフォーカスが合っている領域であり、人132と車133以外の領域については、フォーカスが合っていないぼやけ領域である。ここで言うぼやけ領域とは、物体が動いたことによるぼやけではなく、ユーザーが意図的に背景をぼかしているような画像ぼやけを指している。図3(c)の画像に対して、空間周波数特性を算出すると、図4(a)のようになる。
空間周波数特性の算出方法は、画素ごとに高周波成分を算出するというものである。高周波成分が多ければ多いほど空間周波数は高く、くっきりしている画像であると判定される。図3(c)の画像では、人132と車133にフォーカスが合っているため、この2
つの物体が属する領域のくっきり度が高くなり、それ以外の領域に対してはくっきり度が低く算出される。空間周波数特性は、0〜1.0の間の値として出力される。空間周波数特性値が0と出力されれば最もぼやけた画素を表し、1.0と出力されれば、最もくっきりした画素を表すこととなる。なお、空間周波数特性の算出方法は、高周波成分から算出する方法に限られるものではなく、空間周波数の特性が判定出来れば他の方法でも構わない。例えば、画像情報に付与しているメタデータの情報を用いても良い。
次に、図3(c)の画像の動き量特性の解析結果を図4(b)に示す。図3(c)の画像では、人132が静止しており、車133が左から右へ移動しているため、車133の部分に対して動き量が大きく検出される。動き量の算出方法については、注目フレームとその一つ前のフレームとから画素ごとの動き量を算出することにより求められる。具体的には、2つのフレーム間でブロックマッチングを行うことにより、注目フレームの各画素の動きベクトルを求めることができる。ベクトル量が大きいほど、動き量としては大きくなる。また、ベクトル量が小さいほど、動き量としては小さくなる。例えば、ある画素が水平右方向に10画素動いたと判定されれば、ベクトル量は+10となり、水平左方向に5画素動いたと判定されれば、ベクトル量は−5となる。従って、これらの画素の動き量としては、それぞれ絶対値を取り、水平右方向に10画素動いた画素に対しては10、水平左方向に5画素動いた画素に対しては5となる。動き量特性解析部104は、このベクトル量の絶対値を0〜1.0の間で正規化した値を動き量として出力する。動き量が0の画素は動きの無い画素であり、動き量が1.0の画素はフレームの中で最も動きの大きい画素である。なお、動き量の算出方法は、動きベクトル法に限られるものではなく、動き量の特性が判定出来れば他の方法でも構わない。例えば、フレーム差分による動き検出を行っても良い。
画像合成率算出部105は、空間周波数特性解析部103の出力結果(図4(a))と、動き量特性解析部104の出力結果(図4(b))から2つの画像(図3(a)の画像と図3(b)の画像)の画像合成率を決定する。画像合成率の具体的な算出方法を、図4(a)に示した空間周波数特性解析結果と図4(b)に示した動き量特性解析結果を用いて説明する。
図5は、本実施例における空間周波数特性解析部103、動き量特性解析部104、及び画像合成率算出部105の動作の流れを示すフローチャートである。まず、入力画像が空間周波数特性解析部103と動き量特性解析部104に入力され、画像合成率算出処理が開始される(S101)。次に、S101で入力された画像に対して、空間周波数特性解析部103にて画素ごとに空間周波数特性が算出され(S102)、動き量特性解析部104にて動き量特性が算出される(S103)。S102で算出された空間周波数特性F1(x)を図4(a)に、S103で算出された動き量特性G1(x)を図4(b)に示す。次に、S102、S103で算出された空間周波数特性F1(x)と動き量特性G1(x)から、画像合成率算出部105が画像合成率を算出する(S104)。本実施例では、下記の算出式のように、空間周波数特性F1(x)と動き量特性G1(x)の積を画像合成率とする。
画像合成率 = F1(x) × G1(x)
次に、すべての画素に対する画像合成率が算出されたか否かを確認し(S105)、全画素の処理が完了していれば、画像合成率算出処理が終了になり(S106)。全画素の処理が完了していなければ、再度S102の空間周波数特性算出処理、及びS103の動き量特性算出処理が行われる。
画像合成率の算出結果を図4(c)に示す。図4(c)に示す画像合成率が1.0の時に図3(a)の画像の合成割合が100%になり、逆に画像合成率が0の時に図3(b)
の画像の合成割合が100%となる。図4(c)を見て分かる通り、図3(c)に示した車133の領域に対しては、動き量が大きいため、図3(a)の画像(被写界深度の深い画像A)の割合が高くなる。また、空間周波数特性でくっきりしていると判定された人132に対しては、動き判定結果が静止判定となるため、図3(b)の画像(被写界深度の浅い画像B)の割合が高くなる。
画像合成部106は、画像合成率算出部105で算出された画像合成率に従って2つの画像を合成する。このように画像合成することにより、フォーカスの合っている動きの少ない領域に対してはよりくっきりした画像、またフォーカスの合っている動きの大きい領域に対しては動きがスムーズな画像が適用される。よって、大きなぼやけ感とスムーズな動きを両立した動画再生が実現出来る。図3(d)に合成された画像を示す。山141に対しては大きなぼやけ感が得られ、かつ車143に対して動きのスムーズな動画を得ることが出来る。画像表示部107では、画像合成部106で合成されたブラケット動画が表示される。表示する表示装置は、液晶ディスプレイ等の一般的なディスプレイであれば何でも良い。
本実施例では、水平方向のみについて記載したが、実際の画像では、水平、垂直の2次元方向の処理を行うとよい。また2つの動画を合成する処理を例示したが、3つ以上の動画を合成することもできる。
[実施例2]
実施例1では、注目被写体の背景を大きくぼかすことで奥行き感を強調し、さらに注目被写体の動きがスムーズにみえる動画をユーザーに提供することを目的としたが、実施例2では、画像のスムーズさよりも画像のくっきり感を優先した動画をユーザーに提供することを目的とする。
本実施例のブロック図は、実施例1のブロック図(図1)と同様であり、空間周波数特性解析部103と動き量特性解析部104の動作についても、実施例1と同様であるため、動作の詳細説明は省略する。
画像合成率算出部105は、空間周波数特性解析部103の解析結果(図4(a))と、動き量特性解析部104の解析結果(図4(b))から2つの画像(図3(a)の画像と図3(b)の画像)の画像合成率を決定する。画像合成率の具体的な算出方法を、以下に説明する。
図6は、本実施例における空間周波数特性解析部103、動き量特性解析部104、及び画像合成率算出部105の動作の流れを示すフローチャートである。S201〜S203、S205、S206の処理は、図5のS101〜S103、S105、S106の処理と同じであるため、S204の合成率算出処理についてのみ説明を行う。
S202、S203で算出された空間周波数特性F1(x)と動き量特性G1(x)から、画像合成率算出部105が、画像合成率を算出する(S204)。本実施例では、下記の算出式のように、空間周波数特性F1(x)と動き量特性G1(x)の積を1.0(図3(a)の画像の割合が100%)から減算した値を画像合成率とする。
画像合成率 = 1.0 −(F1(x) × G1(x))
これにより、画像全体がくっきりした動画を生成することが可能になる。つまり、このような画像合成率を適用することにより、動きの大きな領域に対してはよりくっきりした画像、動きの少ない領域に対してもぼやけの少ないくっきりした画像が得られる。
図6で説明した画像合成率の算出結果を図7(a)に示す。図7(a)に示す画像合成率が1.0の時に図3(a)の画像の合成割合が100%になり、逆に画像合成率が0の
時に図3(b)の画像の合成割合が100%となる。図7(a)を見て分かる通り、図3(c)に示した車133の領域に対しては、動き量が大きく、動きぼやけが無い図3(b)の画像(被写界深度の浅い画像)の割合が高くなる。また、空間周波数特性でくっきりしていると判定された人132の領域に対しては、図3(a)の画像(被写界深度の深い画像)の割合が高くなる。
このように画像を合成することにより、動きの大きな領域に対してはよりくっきりした画像、動きの少ない領域に対してもぼやけの少ないくっきりした画像が適用される。よって、画面全体がくっきりした動画再生が実現出来る。図7(b)に、合成された画像を示す。山151、人152、車153共にフォーカスの合った、かつ動きぼやけのない動画を得ることが出来る。
本実施例では、水平方向のみについて記載したが、実際の画像では、水平、垂直の2次元方向の処理を行うとよい。また2つの動画を合成する処理を例示したが、3つ以上の動画を合成することもできる。
[実施例3]
実施例1及び実施例2では、空間周波数特性と動き量特性を乗算した結果に基づいて画像合成率を決定したが、本実施例では、空間周波数特性と動き量特性を予め設定された閾値と比較した結果に基づいて画像合成率を決定する。
本実施例の画像処理装置のブロック図を図8に示す。基本構成は、実施例1と同様であり、画像合成率算出部305に閾値A、閾値Bが入力されている点、及び画像合成率算出部305の算出方法が異なっている。
図9(a)は、本実施例での動作の詳細を説明するために、ある画像Bの空間周波数特性を示した図である。図9(b)は、同様に、ある画像Bの動き量特性を示した図である。本実施例における画像Aとは被写界深度を深く撮影した画像であり、画像Bとは被写界深度を浅く撮影した画像とする。
図10は、本実施例の動作の流れを示すフローチャートである。図10に示すフローチャートは、本実施例における空間周波数特性解析部303、動き量解析部304、及び画像合成率算出部305の動作の流れを示している。まず、入力画像が空間周波数特性解析部303と動き量解析部304に入力され、画像合成率算出処理が開始される(S301)。次に、S301で入力された画像に対して、空間周波数特性解析部303にて画素ごとに空間周波数特性が算出され(S302)、動き量特性解析部104にて動き量特性が算出される(S303)。S302で算出された空間周波数特性F2(x)を図9(a)に、S303で算出された動き量特性G2(x)を図9(b)に示す。
次に、画像合成率算出部305が、S302で算出された空間周波数特性F2(x)を第1の閾値Aと比較し(S304)、大きければS305へ、小さければS307へと進む。本実施例では、閾値A=0.2に設定されている。つまり、F2(x)が0.2より小さい領域については、画像合成率=0となり、合成画像としては画像Bが選択される(S307)。また、F2(x)が0.2より大きい領域(図9(a)の斜線部分)については、S305の動き量特性による判定へと進む。次に、画像合成率算出部305が、動き量特性G2(x)を第2の閾値Bと比較し(S305)、大きければS306へ、小さければS307へと進む。本実施例では、閾値B=0.7に設定されている。つまり、G2(x)が0.7より大きな領域(図9(b)の斜線部分)については、画像合成率=1.0となり、合成画像としては画像Aが選択される(S306)。また、G2(x)が0.7より小さな領域については、画像合成率=0となり、合成画像としては画像Bが選択され
る(S307)。
次に、すべての画素に対する画像合成率が算出されたか否かを確認し(S308)、全画素の処理が完了していれば、画像合成率算出処理が終了になり(S309)。全画素の処理が完了していなければ、再度S302の空間周波数特性算出処理、及びS303の動き量特性算出処理が行われる。
図9(c)は、以上の処理の結果、算出された本実施例の画像合成率を示す図である。図9(c)に示す斜線領域の部分は、画像A(被写界深度が深い画像)が選択され、それ以外の領域については、画像B(被写界深度が浅い画像)が選択される。本実施例では、動き量が大きく、かつくっきりしていると判定された領域(図9(c)の斜線領域)については、画像Aを選択することにより、動きのスムーズさを実現している。また、それ以外の動きがそれほど大きくないか、それほどくっきりしていない領域については、画像Bを選択する。これにより、実施例1と同様、動きのスムーズさと大きなぼやけ感の両立が可能になる。
本実施例では、水平方向のみについて記載したが、実際の画像では、水平、垂直の2次元方向の処理を行うとよい。また2つの動画を合成する処理を例示したが、3つ以上の動画を合成することもできる。
103:空間周波数特性解析部、104:動き量特性解析部、105:画像合成率算出部、106:画像合成部

Claims (14)

  1. 同じ対象を異なる被写界深度で撮影することで得られた複数の動画から、対応するフレーム同士を合成することによって1つの合成動画を生成する画像処理装置であって、
    前記複数の動画のうち、少なくとも1つの動画のフレームに対して動き量を求める動き量解析手段と、
    前記複数の動画のうち、少なくとも1つの動画のフレームに対して空間周波数特性を求める空間周波数解析手段と、
    前記空間周波数解析手段により求められた空間周波数特性と、前記動き量解析手段により求められた動き量とから、前記複数の動画のフレーム同士の合成率を決定する合成率算出手段と、
    前記合成率算出手段によって決定された合成率で前記複数の動画のフレームを合成する画像合成手段と、
    を有することを特徴とする画像処理装置。
  2. 前記複数の動画は、第1の動画と前記第1の動画よりも被写界深度の浅い第2の動画とを含み、
    前記空間周波数解析手段は、前記第2の動画のフレームに対して空間周波数特性を求めることを特徴とする請求項に記載の画像処理装置。
  3. 前記動き量解析手段は、前記第2の動画のフレームに対して動き量を求めることを特徴とする請求項に記載の画像処理装置。
  4. 前記合成率算出手段は、空間周波数が低いほど前記第2の動画の画素の割合が大きくなるように、前記第1の動画の画素と前記第2の動画の画素の合成率を決定することを特徴とする請求項またはに記載の画像処理装置。
  5. 前記合成率算出手段は、動き量が大きいほど前記第1の動画の画素の割合が大きくなるように、前記第1の動画の画素と前記第2の動画の画素の合成率を決定することを特徴とする請求項のうちいずれか1項に記載の画像処理装置。
  6. 前記合成率算出手段は、空間周波数が低いほど前記第1の動画の画素の割合が大きくなり、かつ、動き量が大きいほど前記第2の動画の画素の割合が大きくなるように、前記第1の動画の画素と前記第2の動画の画素の合成率を決定することを特徴とする請求項またはに記載の画像処理装置。
  7. 前記合成率算出手段は、
    空間周波数が第1の閾値よりも高く、かつ、動き量が第2の閾値よりも大きい場合に、前記第2の動画の画素に比べて前記第1の動画の画素の割合が大きくなり、それ以外の場合に、前記第1の動画の画素に比べて前記第2の動画の画素の割合が大きくなるように、前記第1の動画の画素と前記第2の動画の画素の合成率を決定することを特徴とする請求項またはに記載の画像処理装置。
  8. 同じ対象を異なる被写界深度で撮影することで得られた複数の動画から、対応するフレーム同士を合成することによって1つの合成動画を生成する画像処理装置の制御方法であって、
    前記複数の動画のうち、少なくとも1つの動画のフレームに対して動き量を求める動き量解析ステップと、
    前記複数の動画のうち、少なくとも1つの動画のフレームに対して空間周波数特性を求める空間周波数解析ステップと、
    前記空間周波数解析ステップにより求められた空間周波数特性と、前記動き量解析ステップにより求められた動き量とから、前記複数の動画のフレーム同士の合成率を決定する合成率算出ステップと、
    前記合成率算出ステップによって決定された合成率で前記複数の動画のフレームを合成する画像合成ステップと、
    を有することを特徴とする画像処理装置の制御方法。
  9. 前記複数の動画は、第1の動画と前記第1の動画よりも被写界深度の浅い第2の動画とを含み、
    前記空間周波数解析ステップでは、前記第2の動画のフレームに対して空間周波数特性を求めることを特徴とする請求項に記載の画像処理装置の制御方法。
  10. 前記動き量解析ステップでは、前記第2の動画のフレームに対して動き量を求めることを特徴とする請求項に記載の画像処理装置の制御方法。
  11. 前記合成率算出ステップでは、空間周波数が低いほど前記第2の動画の画素の割合が大きくなるように、前記第1の動画の画素と前記第2の動画の画素の合成率を決定することを特徴とする請求項または10に記載の画像処理装置の制御方法。
  12. 前記合成率算出ステップでは、動き量が大きいほど前記第1の動画の画素の割合が大きくなるように、前記第1の動画の画素と前記第2の動画の画素の合成率を決定することを特徴とする請求項11のうちいずれか1項に記載の画像処理装置の制御方法。
  13. 前記合成率算出ステップでは、空間周波数が低いほど前記第1の動画の画素の割合が大きくなり、かつ、動き量が大きいほど前記第2の動画の画素の割合が大きくなるように、前記第1の動画の画素と前記第2の動画の画素の合成率を決定することを特徴とする請求項または10に記載の画像処理装置の制御方法。
  14. 前記合成率算出ステップでは、
    空間周波数が第1の閾値よりも高く、かつ、動き量が第2の閾値よりも大きい場合に、前記第2の動画の画素に比べて前記第1の動画の画素の割合が大きくなり、それ以外の場
    合に、前記第1の動画の画素に比べて前記第2の動画の画素の割合が大きくなるように、前記第1の動画の画素と前記第2の動画の画素の合成率を決定することを特徴とする請求項または10に記載の画像処理装置の制御方法。
JP2010135102A 2010-06-14 2010-06-14 画像処理装置及びその制御方法 Expired - Fee Related JP5566196B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010135102A JP5566196B2 (ja) 2010-06-14 2010-06-14 画像処理装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010135102A JP5566196B2 (ja) 2010-06-14 2010-06-14 画像処理装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2012004653A JP2012004653A (ja) 2012-01-05
JP2012004653A5 JP2012004653A5 (ja) 2013-07-25
JP5566196B2 true JP5566196B2 (ja) 2014-08-06

Family

ID=45536189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010135102A Expired - Fee Related JP5566196B2 (ja) 2010-06-14 2010-06-14 画像処理装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP5566196B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104662888B (zh) * 2012-09-18 2018-01-02 富士胶片株式会社 静态图像显示装置及***以及摄像装置
US11160449B2 (en) * 2017-08-29 2021-11-02 Verily Life Sciences Llc Focus stacking for retinal imaging
KR102318717B1 (ko) * 2019-10-11 2021-10-29 주식회사 페라메드 세포 분리 기구 및 이를 이용하는 세포 분리 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006025310A (ja) * 2004-07-09 2006-01-26 Konica Minolta Photo Imaging Inc 撮像装置
JP4497001B2 (ja) * 2005-03-22 2010-07-07 株式会社ニコン 画像処理装置、電子カメラ、および画像処理プログラム

Also Published As

Publication number Publication date
JP2012004653A (ja) 2012-01-05

Similar Documents

Publication Publication Date Title
US10600157B2 (en) Motion blur simulation
JP4961800B2 (ja) 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP4666012B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5347890B2 (ja) 画像処理装置および方法、並びにプログラム
JP5418127B2 (ja) 画像処理装置および方法、並びにプログラム
JP4762994B2 (ja) 視差マップ
JP6510039B2 (ja) ジャダー可視性制御のためのデュアルエンドメタデータ
CN109089014B (zh) 用于控制颤抖可见性的方法、装置及计算机可读介质
JP4483501B2 (ja) 静止画を動画再生するための前処理を行う画像処理装置、プログラム、および方法
WO2011043248A1 (ja) 画像処理装置および方法、並びにプログラム
WO2011043249A1 (ja) 画像処理装置および方法、並びにプログラム
US8803947B2 (en) Apparatus and method for generating extrapolated view
JP4674620B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN109191506B (zh) 深度图的处理方法、***及计算机可读存储介质
JP2009251839A (ja) 画像信号処理回路、画像表示装置、および画像信号処理方法
JP2006287921A (ja) 動画生成装置、動画生成方法、及びプログラム
KR101630444B1 (ko) 스테레오스코픽 디지털 영화에서의 최적화된 모션 재생을 위한 방법과 장치
JP6261205B2 (ja) 画像処理装置
JP5566196B2 (ja) 画像処理装置及びその制御方法
JP2010021893A (ja) 動画像処理装置および動画像処理方法
US20240155095A1 (en) Systems and methods for processing volumetric images
US20220321742A1 (en) Image processing apparatus that carries out noise reduction process when playing video, image processing method, and storage medium
JP2014175739A (ja) 動画処理装置
JP5083086B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2005309921A (ja) 複数の画像からの画像合成

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130611

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140617

R151 Written notification of patent or utility model registration

Ref document number: 5566196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees