JP7238381B2 - 画像処理装置、画像処理プログラム、画像処理方法および顕微鏡 - Google Patents

画像処理装置、画像処理プログラム、画像処理方法および顕微鏡 Download PDF

Info

Publication number
JP7238381B2
JP7238381B2 JP2018236689A JP2018236689A JP7238381B2 JP 7238381 B2 JP7238381 B2 JP 7238381B2 JP 2018236689 A JP2018236689 A JP 2018236689A JP 2018236689 A JP2018236689 A JP 2018236689A JP 7238381 B2 JP7238381 B2 JP 7238381B2
Authority
JP
Japan
Prior art keywords
image
images
blur
processing
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018236689A
Other languages
English (en)
Other versions
JP2019114250A (ja
JP2019114250A5 (ja
Inventor
恒幸 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to EP19898401.5A priority Critical patent/EP3902238A4/en
Priority to PCT/JP2019/023772 priority patent/WO2020129280A1/ja
Publication of JP2019114250A publication Critical patent/JP2019114250A/ja
Priority to US17/353,539 priority patent/US11928794B2/en
Publication of JP2019114250A5 publication Critical patent/JP2019114250A5/ja
Application granted granted Critical
Publication of JP7238381B2 publication Critical patent/JP7238381B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、画像処理プログラム、画像処理方法および顕微鏡に関する。
例えば、同一の被写体を互いに異なる焦点位置で撮影して得られる複数の画像と、重ね合わせモデルに基づく恒等式とを用いて、奥行き方向に鮮鋭度が調整された所望の画像を生成する技術が提案されている(例えば、特許文献1参照)。
米国特許第6571023号明細書
従来技術では、生成した画像に元の画像と相関の強いノイズが発生するため、アーティファクトが目立つという問題があった。また、フォーカスが合った領域の鮮鋭度を上げるには、デプスマップによるフォーカスが合った領域の抽出が必要となる。
本発明を例示する画像処理装置の一態様は、互いに合焦位置が異なる複数の画像の各々に、(1)再合焦位置および絞り値、または(2)再合焦位置および開口数NAに対応するボケの度合いで、再合焦位置に設定されたボケ関数を用いてボケ処理を実行する第1処理部と、ボケ処理が実行された複数の画像を奥行き方向に積算した積算画像を生成する積算部と、積算部で生成された積算画像に鮮鋭化処理を実行し、所定のボケの度合いを有する合成画像を生成する第2処理部とを備え、鮮鋭化処理は、積算画像を奥行き方向に沿って積分した関数で2次元デコンボリューションしたものであり、関数は、複数の画像が取得された光学系の点拡がり関数にボケ関数を奥行き方向に垂直な平面内で2次元コンボリューションしたものである。
また、複数の画像に対して、三次元座標の各軸の少なくとも1つの軸を任意の方向に回転させた複数の画像を生成する回転処理部をさらに設け、第1処理部は、回転処理部が回転させた複数の画像の各々に、合焦位置でのボケ処理を実行する。
本発明を例示する画像処理プログラムの一態様は、互いに合焦状態が異なる複数の画像の各々に、(1)再合焦位置および絞り値、または(2)再合焦位置および開口数NAに対応するボケの度合いで、再合焦位置に設定されたボケ関数を用いてボケ処理を実行し、ボケ処理が実行された複数の画像を奥行き方向に積算した積算画像を生成し、生成された積算画像に鮮鋭化処理を実行し、所定のボケの度合いを有する合成画像を生成し、鮮鋭化処理は、積算画像を奥行き方向に沿って積分した関数で2次元デコンボリューションしたものであり、関数は、複数の画像が取得された光学系の点拡がり関数にボケ関数を奥行き方向に垂直な平面内で2次元コンボリューションしたものである処理をコンピュータに実行させる。
本発明を例示する画像処理方法の一態様は、互いに合焦状態が異なる複数の画像の各々に、(1)再合焦位置および絞り値、または(2)再合焦位置および開口数NAに対応するボケの度合いで、再合焦位置に設定されたボケ関数を用いてボケ処理を実行し、ボケ処理が実行された複数の画像を奥行き方向に積算した積算画像を生成し、生成された積算画像に鮮鋭化処理を実行し、所定のボケの度合いを有する合成画像を生成し、鮮鋭化処理は、積算画像を奥行き方向に沿って積分した関数で2次元デコンボリューションしたものであり、関数は、複数の画像が取得された光学系の点拡がり関数にボケ関数を奥行き方向に垂直な平面内で2次元コンボリューションしたものである。
本発明を例示する顕微鏡の一態様は、少なくとも1つの対物レンズと、少なくとも1つの撮像素子と、対物レンズと撮像素子とを用いて取得した複数の画像に基づき、所定のボケの度合いを有する合成画像を生成する本発明の画像処理装置とを備える。
画像処理装置の一実施形態を示す図である。 複数の画像が撮像された合焦位置の一例を示す図である。 図1に示したボケ処理部におけるボケ処理に用いられるボケ関数PSFaの一例を示す図である。 図1に示した画像処理装置における画像処理の一例を示す図である。 式(14)のデコンボリューションフィルタのゲインの分布の一例を示す図である。 元の画像と、式(14)を用いて生成された合成画像と、従来例の合成画像との一例を示す図である。 図6に示した元の画像と、式(14)による合成画像と、従来例の合成画像との各々のうち、図6に示した直線ABにおける輝度分布の一例を示す図である。 焦点距離50mmF1.4のレンズを用いた場合の点像の一例を示す図である。 図8に示した点像の合成画像の一例を示す図である。 物体が白色の点光源で合焦位置の点像である場合の点拡がり関数、および点拡がり関数にボケ関数をXY平面内で2次元コンボリューションした結果と、軸上色収差との関係の一例を示す図である。 図1に示した鮮鋭化処理部が図10(a)に示した点拡がり関数に対して合焦位置の補正処理を実行した場合のコンボリューションの結果の一例を示す図である。 物体が白色の点光源で合焦位置と異なる位置の点像ある場合の点拡がり関数、および点拡がり関数にボケ関数をXY平面内で2次元コンボリューションした結果と、軸上色収差との関係の一例を示す図である。 図1に示した鮮鋭化処理部が図12(a)に示した点拡がり関数に対して合焦位置の補正処理を実行した場合のコンボリューションの結果の一例を示す図である。 ステレオ画像の一例を示す図である。 合成したステレオ画像の一例を示す図である。 画像処理装置の別の実施形態を示す図である。 図16に示した画像処理部における画像処理の一例を示す図である。 図16に示した撮像装置が多眼カメラの場合の一例を示す図である。 図18に示した撮像装置に配置されるプリズムの一例を示す図である。 三次元座標上での物体の直方体データとボケ関数の一例を示す図である。 XY面、YZ面およびXZ面の元画像と合成画像の一例を示す図である。 応用例の画像処理装置の一例を示す図である。 座標系XYZを回転、平行移動させた座標系X’Y’Z’の一例を示す図である。 共焦点フィルタのボケ関数による視差なし画像の合成例を示す図である。 コンフォーカル顕微鏡の無収差回折無しの点像強度分布にボケ関数を適用した観察者の左右両眼の方向をX方向とした視差画像の生成例を示す図である。 落射型顕微鏡の無収差回折無しの点像強度分布をボケ関数として適用した合成画像の一例を示す図である。 XZ面の視差画像の生成例を示す図である。 本実施形態に係る画像処理装置の操作インターフェースの一例と表示画像例を示す図である。 本実施形態に係る画像処理装置の操作インターフェースの一例と表示画像例を示す図である。 本実施形態に係る画像処理装置の操作インターフェースの一例と表示画像例を示す図である。 本実施形態に係る画像処理装置の使用例を示す図である。
以下、図面を用いて実施形態を説明する。本実施形態に記載の画像処理装置は、ノイズの発生を抑制して、良好なボケ画像を生成できる。
図1は、画像処理装置の一実施形態を示す。
図1に示した画像処理装置100は、有線または無線を介して、カメラCAM、入力装置IMおよび出力装置OMに接続される。なお、画像処理装置100は、ネットワークを介して、少なくともカメラCAMに接続されてもよい。
カメラCAMは、CCD(Charge Coupled Devices)またはCMOS(Complementary Metal Oxide Semiconductor)等の1つの撮像素子を有するデジタルカメラである。例えば、カメラCAMは、カメラCAMに含まれるレリーズ釦のユーザによるシャッタ操作により、互いに異なる焦点位置で同じ被写体を撮像し、各焦点位置で撮像された被写体の画像を生成する。カメラCAMは、生成した複数の画像を画像処理装置100に出力する。なお、カメラCAMは、被写体を撮像した時の合焦位置(または、撮影レンズの繰り出し量)、絞り値、露光時間等を示す撮像情報を、生成した画像に付加する。また、合焦位置は、ピント位置、フォーカス距離あるいは被写体距離とも称され、撮像装置に指示された撮影距離に基づきカメラCAMの光学系の合焦レンズが駆動されて任意の位置に設定される。
なお、カメラCAMは、複数の撮影レンズとこれに対応する複数の撮像素子を有するデジタルカメラ(以下、“多眼カメラ”とも称される)でもよい。この場合、カメラCAMは、複数の撮像素子の各々において、互いに異なる合焦位置で同じ被写体を1回のシャッタ操作により撮像でき、複数の画像を取得するのにかかる時間を短縮させることができる。
また、複数のカメラCAMが、画像処理装置100に接続されてもよい。この場合、複数のカメラCAMの各々は、同じ被写体を異なる視点で同時に撮像する。そして、画像処理装置100は、例えば、特開2013-26844号公報に示される処理を用いて、撮像された視点が異なる複数の画像を合焦位置が異なる複数の画像に変換してもよい。これにより、複数の画像を取得するのにかかる時間を短縮させることができる。
なお、カメラCAMにより撮像された複数の画像は、画像処理装置100の内部あるいは外部に配置されたハードディスク装置等の記憶装置に記憶されてもよい。この場合、画像処理装置100は、画像処理を実行する際に、内部または外部の記憶装置から複数の画像を読み出す。
入力装置IMは、キーボードまたはタッチパネル等であり、ユーザによる操作を介してユーザからの指示を受信する。例えば、画像処理装置100が、カメラCAMにより撮像された複数の画像を用いて、指示された再合焦位置および絞り値の合成画像を生成する場合、入力装置IMは、ユーザによる操作を介して、再合焦位置および絞り値の指示を受ける。入力装置IMは、受けた指示を画像処理装置100に出力する。
出力装置OMは、液晶モニタ等のディスプレイであり、画像処理装置100により処理された結果を受信し、受信した処理結果を表示する。
画像処理装置100は、IF(Interface)部10とともに、プロセッサ等の演算処理装置およびハードディスク装置等の記憶装置を含むコンピュータ装置である。例えば、画像処理装置100の演算処理装置は、画像処理装置100の記憶装置に記憶される画像処理プログラムを実行することで、前処理部15、ボケ処理部20、積算部30および鮮鋭化処理部40として機能する。
なお、画像処理プログラムは、例えば、CD(Compact Disk)等の光ディスク、またはUSB(Universal Serial Bus)メモリ等の可搬型記憶媒体に記録して頒布してもよい。また、画像処理装置100は、画像処理装置100に含まれるネットワークインターフェースを介して、ネットワークを通じて画像処理プログラムをダウンロードし、画像処理装置100の記憶装置に格納してもよい。
IF部10は、インターフェースであり、カメラCAMからの複数の画像を含む信号を受信し、受信した信号を前処理部15に出力する。また、IF部10は、入力装置IMからの指示を含む信号を受信し、受信した信号を演算処理装置等に出力する。また、IF部10は、処理の結果を含む信号を出力装置OMに出力する。
前処理部15は、カメラCAMから受信した複数の画像の各々に付加された撮像情報を参照し、複数の画像間の位置合わせおよび倍率の補正等の前処理を実行する。そして、前処理部15は、前処理した複数の画像を、ボケ処理部20に出力する。
なお、前処理部15が実行する前処理には、ホワイトバランス処理やガンマ補正等の現像処理が含まれる。また、カメラCAMにより撮像される画像が、R(赤)、G(緑)、B(青)等の色成分を有するカラー画像の場合、前処理部15は、複数の画像の各々に対して色補間処理を実行し、色成分毎の画像を生成する。前処理部15の動作については、図4で説明する。
なお、カメラCAMが前処理部15と同様の機能を有し、カメラCAMから受信する複数の画像に前処理が予め実行されている場合、画像処理装置100の前処理部15は、省略されてもよい。
ボケ処理部20は、前処理部15により前処理された複数の画像を受信する。ボケ処理部20は、入力装置IMを介して、ユーザにより指示された再合焦位置および絞り値に応じたボケの度合いで、複数の画像の各々にボケ処理を実行する。ボケ処理部20の動作については、図2および図3で説明する。ボケ処理部20は、第1処理部の一例である。
積算部30は、ボケ処理部20によりボケ処理された複数の画像を積算し、積算画像を生成する。
鮮鋭化処理部40は、複数の画像の各々に実行されたボケ処理におけるボケの度合いと、カメラCAMに含まれる撮影レンズ等の光学特性とに基づいて、積算部30により生成された積算画像に鮮鋭化処理を実行する。鮮鋭化処理部40は、鮮鋭化された積算画像を、指示された再合焦位置および絞り値の合成画像として生成する。
図2は、複数の画像が撮像された合焦位置zの一例を示す。図2における座標系XYZの原点は、カメラCAMの撮像素子が配置される位置を示す。図2におけるXY平面は、カメラCAMの撮像素子の撮像面(すなわち、画像のデータに含まれる複数の画素が配列される面)を示す。また、図2のZ軸は、カメラCAMの光軸方向(すなわち、被写体の方向)を示し、レンズの像面側の光軸方向の距離を示す。
レンズ繰り出しで焦点合わせをする場合、像距離によって画角が変わり、倍率が変化する。倍率は、像距離が最大となるf_backmaxで最大になるので、画像処理装置100は、撮影された像倍率が等しくこの最大値になるように倍率補正を実行した後、ボケ処理を実行する。像面上でのカメラ面視差Sに相当する像面視差Dは、式(1)のように表される。
D=BM・S/b …(1)
ここで、bは、光軸方向でレンズの物体側の距離(撮影距離)を示す。BMは、最大の像距離(焦点距離+繰り出し量)を示す。
合成画像のボケを美しくするためには、像面のボケ量、すなわち像面視差Dが等間隔になるような撮影距離bで被写体を撮影する。このために、像面視差Dが等間隔、すなわち1/bが等間隔となるには、1/bの間隔Δ(1/b)は、レンズの被写界深度(DOF:Depth of field)に基づいて決定される。DOFは、式(2)を用いて決定される。
DOF=F×COC …(2)
なお、Fは、レンズのFナンバーを示し、COC(Circle of Confusion)は、最小錯乱円であり、例えば1/30mmに設定される。
そして、間隔Δ(1/b)は、式(3)を用いて求められる。
Δ(1/b)=COC/2/(f/2/F・BM) …(3)
なお、fは、レンズの焦点距離を示す。
これにより、求めたΔ(1/b)と1/bを等間隔にする条件とからフォーカスブラケットする際の撮影距離bを無限遠から最短撮影距離までの間で求めることができる。
一方、レンズを繰り出してフォーカスを合わせるので、レンズの結像の式1/f=1/z+1/bを微分することで、式(4)が得られる。
Figure 0007238381000001
そして、通常の撮影レンズでは、撮影距離bは40f以上であることから、式(4)は、式(5)のように近似できる。
Figure 0007238381000002
式(5)が示すように、像面視差Dと像側の光軸方向の距離zとは比例する。これにより、極端なマクロ撮影時以外の撮影の場合、像側の光軸方向の距離zを等間隔dzになるように撮影、すなわちフォーカスブラケッティングすることで、像面視差Dが等間隔になるように撮影される。この場合、式(5)のd(1/b)に、式(3)のΔ(1/b)を代入してdzを求め、焦点距離fから等間隔dzでフォーカスブラケッティング撮影すればよい。
一方、極端なマクロ撮影の場合、式(3)のΔ(1/b)と1/bを等間隔にする条件から求めた撮影距離bとから、レンズの結像の式における像距離zを決めることが望ましい。しかしながら、先に述べた等間隔dzでフォーカスブラケッティング撮影する方法でも生成される画像に大差はない。
図2に示すように、カメラCAMにより撮像される複数の画像は、N枚とする。すなわち、カメラCAMは、N個の合焦位置z(z1-zN)の各々で同じ被写体を撮像し、N枚の画像Img(Img(x,y,z1)-Img(x,y,zN))を生成する。なお、画像Img(x,y,zr)は、合焦位置zrで撮像された画像の各画素の座標の強度を示す(rは1からNの整数である)。なお、合焦位置z1は、最至近距離を示し、合焦位置zNは、無限遠を示す。また、N個の合焦位置zの各々は、互いに等間隔であることが好ましく、式(1)-式(5)を用いて決定される。
ここで、カメラCAMの撮影レンズは、被写体が点光源の場合のインパルス応答を示す固有の点拡がり関数(PSF:Point Spread Function)を有する。点拡がり関数は、例えば、円形開口の場合、光軸に沿って円錐状の関数で円錐の頂点のピント位置がzr相当に来るような関数で表され、合焦位置zにおける円形開口内の重みが、均一分布やガウス分布等で表される。例えば、特開2013-26844号公報に示すように、カメラCAMの点拡がり関数PSFcは、合焦位置zにおける円形開口内の重みをガウス分布とする場合、式(6)のように表される。
Figure 0007238381000003
係数a1、k1は、カメラCAMの絞りの値等に応じた値が設定される。例えば、係数k1は、絞りの値が小さくなる(被写界深度が深くなる)に従い小さくなり、点拡がり関数PSFcの円錐の拡がりは、小さくなる。点拡がり関数PSFcは、光学情報の一例である。
撮影対象の物体の像空間における3次元の強度分布をIo(x,y,z)とする。ピント位置をカメラCAMの光軸に沿ったzrにピントを合わせて撮影した像Ic(x,y,zr)は、式(7)におけるIc(x,y,zr)のXY平面への投影で、式(8)ように表される。式(7)の点拡がり関数PSFc(x,y,z)は、例えば、円形開口の場合、光軸に沿って円錐状の関数で円錐の頂点のピント位置がzrの関数である。
Figure 0007238381000004
また、画像Imgと点拡がり関数PSFcとは、式(9)のように関係付けられる。
Figure 0007238381000005
図3は、図1に示したボケ処理部20におけるボケ処理に用いられるボケ関数PSFaの一例を示す。図3の縦軸は、図2の場合と同様に、X軸(またはY軸)を示し、図3の横軸は、Z軸(カメラCAMの撮影レンズの光軸方向)を示す。
図3では、例えば、再合焦位置zrにおける任意に設定されるボケ関数PSFaを示す。図3に示すように、ボケ関数PSFaは、再合焦位置zrを頂点とし、再合焦位置zrから光軸(Z軸)に沿って離れるに従って拡がる円錐状の3次元形状を有し、例えば、式(10)のように表される。
Figure 0007238381000006
なお、式(10)のボケ関数PSFaは、位置zのXY平面の2次元の点像強度分布をガウス分布とした場合を示し、係数k2は、カメラCAMの撮影レンズの絞り値に応じた値が設定される。係数k2は、カメラCAMの絞りの値が小さくなる(被写界深度が深くなる)に従って小さくなり、ボケ関数PSFaの円錐の拡がりは、小さくなる。係数a2は、2次元の点像強度分布の面積の逆数とし、規格化する。なお、位置zにおけるXY平面の点像強度分布は、均一分布(pill case)等でもよい。
また、像空間での3次元の強度分布Io(x,y,z)に対して、元の光学系の点拡がり関数PSFcの影響を除去し、ボケ関数PSFaを用いてリフォーカスとボケ付与との処理は、式(11)のように表される。
Figure 0007238381000007
式(11)に示すように、元の光学系のベストフォーカスにおけるボケを除去し、ボケ関数PSFaでコンボリューションすることから、ボケ関数PSFaのベストフォーカスをデルタ関数とする場合、フォーカスが合った物体に対して、劣化が無い画像を生成することができる。
一方、画像処理装置100が実行する、像空間での3次元の強度分布Io(x,y,z)に対して、元の光学系の点拡がり関数PSFcの影響を除去し、ボケ関数PSFaを用いてリフォーカスとボケ付与との処理は、式(12)のように表される。
Figure 0007238381000008
CF(x,y,z-zr)は、点拡がり関数PSFc(x,y,z-zr)にボケ関数PSFa(x,y,z-zr)をXY平面内で2次元コンボリューションした結果の関数を示し、“コンボリューション関数”とも称される。
ここで、被写体となる物体は3次元の広がりを有し、フォーカスが合っている位置z(=zr)とそれ以外の位置にも物体は存在する。位置zrは、フォーカスが合っていることから、ボケない方が好ましい。例えば、物体が位置zrのXY平面上の(x1,y1)に存在する場合、物体が存在する部分は、収差や画像処理のアーティファクトによる劣化の無い、すなわち強度分布Io(x1,y1,zr)から無劣化の画像を生成することが望ましい。そして、式(11)では、ボケ関数PSFaのベストフォーカス(最も絞られた位置)がδ関数の場合に達成可能である。一方、式(12)では、ボケ関数PSFaのベストフォーカスがδ関数でなくても常に達成可能である。一方、従来のアルゴリズム(例えば、後述する式(16)参照)では、式(13)に示すように、無劣化の画像を得ることが難しい。
Io(x1,y1,zr)=Ia(x1,y1,zr)≠Ia’(x1,y1,zr) …(13)
ただし、Io(x1,y1,zr)≠0である。
すなわち、従来のアルゴリズムでは、フォーカスが合っている位置で像劣化が生じる。式(12)を用いて、入力画像をボケが無いデルタ関数としたインパルスレスポンス・シミュレーションを64ビット精度で実行した場合、Io(x1,y1,zr)=δ(x1,y1,zr)=Ia(x1,y1,zr)となることが、計算精度内の誤差であることにより確認された。一方、従来のアルゴリズムでは、入力画像をデルタ関数としたインパルスレスポンス・シミュレーションを64ビット精度で実行した場合、位置zrの選び方や、点拡がり関数PSFcの積分範囲により結果が変化し、最小で8ビット程度のノイズが発生することが確認された。
なお、フォーカスが合っていない位置z(≠zr)に物体が存在している場合、合成画像Iai、Iaは、ボケた像となるが、互いに一致しない。これは、合成画像Iaiは完全に光学系のボケの影響を一度除去してから任意のボケを与えられるのに対し、合成画像Iaは、若干元の光学系のボケの影響が残ることによる。
また、式(12)では、合成画像Iaを生成するために、カメラCAMの撮影レンズ固有の点拡がり関数PSFcとボケ関数PSFaとにおけるXY平面内の2次元コンボリューションをZ軸方向(被写体の奥行方向)に沿って積分したものを、デコンボリューションしている。この処理は、周波数領域で実行した方が効率がよい。そこで、N枚の画像Imgを用いて、任意のボケ画像を周波数領域で計算する場合、式(12)は、式(14)のように表される。
Figure 0007238381000009
ωx、ωyは、角周波数を示し、ωx=2πfx=2π/x、ωy=2πfy=2π/yである。iFT_2dは、2次元の逆フーリエ変換を示し、FFT(fast Fourier transform)等を用いる。このため、入力される画像Imgは、2×2の画素数になるように余白部分が追加されることが好ましい(nは正の整数)。追加される余白部分の強度は、画像Imgの平均値でもよく、黒レベルでもよい。なお、黒レベルにする場合は、画像Imgの縁を既存のblackman等のウインドウを用いてウインドウイングすることが望ましい。式(14)のデコンボリューションに関する1行目の式を、周波数領域で計算する3行目の式に置き換えることで、フーリエ変換(FT_2d)および逆フーリエ変換(iFT_2d)の回数を減らすことができ、計算時間を短縮することができる。
ボケ処理部20は、画像処理装置100が合成画像Iaを生成するために、式(12)のうち、ボケ関数PSFaを用いて、画像Imgの各々にボケ処理(コンボリューション)を実行する。なお、画像Imgがカラー画像の場合、ボケ処理部20は、色成分毎に画像Imgとボケ関数PSFaとのコンボリューションを実行する。
積算部30は、式(15)を用いて、ボケ関数PSFaとコンボリューションされた画像Imgを積算し、積算画像Isを生成する。なお、画像Imgがカラー画像の場合、積算部30は、色成分毎に積算画像Isを生成する。
Figure 0007238381000010
積算画像Is(x,y,zr)は、式(12)の右辺における2つのZ軸の積分のうち、左側の積分を示す。
鮮鋭化処理部40は、式(12)に基づいて、積算部30により生成された積算画像Isを、点拡がり関数PSFcとボケ関数PSFaとのコンボリューションのZ軸の積分カーネルIp(x,y,zr)を用いて鮮鋭化処理(デコンボリューション)を実行し、合成画像Iaを生成する。なお、画像Imgがカラー画像の場合、鮮鋭化処理部40は、色成分毎の積算画像Isに鮮鋭化処理を実行する。点拡がり関数PSFcは収差により色毎に異なる。これは、設計値または計測値を用いることで収差の影響を除去することができる。
図4は、図1に示した画像処理装置100における画像処理の一例を示す。図4に示した処理は、画像処理装置100に含まれる演算処理装置が画像処理プログラムを実行することにより実現される。すなわち、図4は、画像処理プログラムおよび画像処理方法の一実施形態を示す。なお、図4に示した処理は、画像処理装置100に搭載されるハードウェアにより実現されてもよい。この場合、図1に示した前処理部15、ボケ処理部20、積算部30および鮮鋭化処理部40は、画像処理装置100内に配置される回路により実現される。
ステップS100では、画像処理装置100は、ユーザによる入力装置IMの操作を介して、生成する合成画像Iaの再合焦位置(撮影距離指示値)および絞り値(または被写界深度)の指示を取得する。
ステップS110では、画像処理装置100は、カメラCAMからN枚の画像Imgを取得する。
ステップS120では、前処理部15は、ステップS110で取得した画像Imgの各々に対して、位置合わせや倍率の補正等の前処理を実行する。例えば、前処理部15は、画像Img間における輝度あるいはエッジ等の特徴量の分布の相互相関処理を実行し、画像Img間のX軸およびY軸方向の位置ズレ、あるいはZ軸周りの回転ズレ等のズレ量を検出する。そして、前処理部15は、検出したズレ量を用いて、画像Img間の位置合わせを行う。
また、画像Imgの各々は、互いに異なる合焦位置で撮像されることにより、カメラCAMの撮影レンズの繰り出し量が異なるため、互いに異なる画角(または結像倍率)を示す。このため、前処理部15は、画像Imgに付加された撮像情報に含まれる撮影レンズの繰り出し量および合焦位置を参照し、画角が最も小さい画像Imgの画角と一致するように、他の画像Imgの画角を補正する。そして、前処理部15は、全ての画像Imgの画角が、画角が最も小さい画像Imgの画角となるように、結像倍率が補正された各画像Imgをクロッピングする。
なお、ボケ処理部20および鮮鋭化処理部40の処理が周波数領域で実行される場合、前処理部15は、画像Imgに対して空間領域のデータから周波数領域のデータに変換するFFT処理等が実行できるように、画像Imgを正方形の画像に変換する。ただし、前処理部15は、長方形の画像のまま画像Imgに対してFFT処理等を実行してもよい。
ステップS130では、ボケ処理部20は、ボケ関数PSFaを用いて、ステップS120で前処理された画像Imgの各々にボケ処理を実行する。
ステップS140では、積算部30は、式(15)を用いて、ステップS130でボケ処理された画像Imgを積算し、積算画像Isを生成する。
ステップS150では、鮮鋭化処理部40は、式(14)が示す点拡がり関数PSFcとボケ関数PSFaとのデコンボリューションフィルタIpf(ωx,ωy,zr)-1を用いて、ステップS140で生成された積算画像Isに鮮鋭化処理を実行する。そして、鮮鋭化処理部40は、合成画像Iaを生成する。その後、画像処理装置100は、生成された合成画像Iaを出力装置OMに出力し、合成画像Iaを出力装置OMに表示させる。なお、画像処理装置100は、画像処理装置100に含まれる記憶装置に合成画像Iaを記憶してもよい。そして、画像処理装置100は、画像処理を終了する。
図5は、式(14)のデコンボリューションフィルタIpf(ωx,ωy,zr)-1のゲインの分布の一例を示す。図5(a)は、式(14)のデコンボリューションフィルタのゲインの分布を示す。また、図5(b)は、式(14)のデコンボリューションフィルタとの比較のために、特開2013-26844号公報(以下、“従来例”とも称される)において合成画像の生成に用いられるデコンボリューションフィルタ[Ipcf(ωx,ωy)・Ipaf(ωx,ωy,zr)]-1のゲインの分布を示す。なお、従来例の合成画像Ia’とデコンボリューションフィルタとは、式(16)のように関係付けられる。
Figure 0007238381000011
図5(a)に示すように、式(14)のデコンボリューションフィルタのゲインは、ゼロ次付近(周波数の原点付近)で最小となり、ゼロ次付近から離れるに従って増加する。そして、式(14)のデコンボリューションフィルタのゲインは、増加した後、一定のゲインを示す。これにより、合成画像Iaは、元の画像Imgの輝度分布を精度良く再現できる。合成画像Iaと元の画像Imgとの輝度分布の比較については、図6および図7で示す。
一方、図5(b)に示すように、式(16)の従来例のデコンボリューションフィルタのゲインは、式(14)のデコンボリューションフィルタと同様に、ゼロ次付近で最小となり、ゼロ次付近から離れるに従って増加する。しかしながら、式(16)のデコンボリューションフィルタは、式(14)のデコンボリューションフィルタと比べて、ゼロ次付近から離れた周波数領域において、大きなゲインの変動を示す。このため、合成画像Ia’は、元の画像Imgの輝度分布を再現することが困難となる。合成画像Ia’と元の画像Imgとの輝度分布については、図6および図7で示す。
図6は、元の画像Imgと、式(14)を用いて生成された合成画像Iaと、従来例の合成画像Ia’との一例を示す。すなわち、図6(a)は、例えば、再合焦位置zrに存在する物体が撮像された元の画像Imgの一例を示す。図6(b)は、式(14)を用いて生成された絞り値がF2の合成画像Iaの一例を示す。図6(c)は、従来例の式(16)を用いて生成された絞り値がF2の合成画像Ia’の一例を示す。なお、図6に示した各画像は、所定のパターンを示す同じ被写体をカメラCAMにより撮像されたものである。
図7は、図6に示した元の画像Imgと、式(14)による合成画像Iaと、従来例の合成画像Ia’との各々のうち、図6に示した直線ABにおける輝度分布の一例を示す。すなわち、図7(a)は、図6(a)に示した元の画像Imgの輝度分布の一例を示す。図7(b)は、図6(b)に示した合成画像Iaの輝度分布の一例を示す。図7(c)は、図6(c)に示した合成画像Ia’の輝度分布の一例を示す。なお、図7における縦軸は輝度を示し、横軸は直線ABを示す。
また、図6および図7では、点拡がり関数PSFcとして、フォーカス位置でδ関数、それ以外の位置でF1.4の大きさの円板としたことにより、画像Imgのレンズによるボケが残った合成画像Ia’が生成される。すなわち、合成画像Ia’は、像空間での3次元の強度分布Ioと一致しない。
図7(b)に示すように、式(14)を用いて生成された合成画像Iaは、図7(a)に示した元の画像Imgの輝度分布を精度良く再現している。すなわち、合焦位置zrに物体が存在し、かつリフォーカス(再合焦)を位置zrに設定して生成した合成画像Ia(x,y,zr)は、被写界深度を変えた場合でも、元の画像Imgの輝度分布と同様の輝度分布を再現できる。
一方、図7(c)に示すように、式(16)を用いて生成された合成画像Ia’は、図7(a)に示した元の画像Imgの輝度分布を再現できていない。例えば、図6(c)に示した合成画像Ia’の被写体のうち、黒色の領域において、輝度むら(すなわち、図6(a)に示した元の画像Imgに存在しないノイズ)が発生している。これは、図5(b)に示した式(16)のデコンボリューションフィルタのゲインが、図5(a)に示した式(14)のフィルタ特性と異なり、周波数に応じて大きく変動することによる。また、式(16)において、カメラCAMの点拡がり関数PSFcとボケ関数PSFaとの各々が、予めZ軸方向に別々に積分されている。このため、合焦位置zrで撮像され再合焦位置zrでリフォーカスされた、すなわちピントが合っている画像Img(x,y,zr)であっても、式(16)においてボケ関数PSFaによるボケの影響を受けてしまう。これにより、合成画像Ia’は、図6(a)および図7(a)に示した元の画像Img、すなわち被写体の輝度分布と異なる輝度分布を示す。
図8は、焦点距離50mmF1.4のレンズを用いた場合の点像の一例を示す。点像は、収差と回折現象により広がる。図8は、合焦位置zrに白色の点光源、すなわち強度分布Io(x1、y1、zr)が存在する場合、白色の点光源に対するインパルス応答のシミュレーションの結果を示す。点像は、点拡がり関数PSFcでもあり、画像Imgでもある。図8(a)の横軸はX軸とし、縦軸はY軸とする。図8(b)は、図8(a)に示した画像Imgのうち、点光源の中心を通るX軸方向の直線における輝度分布を示す。
点拡がり関数PSFcの形状は、RGBの色成分毎に異なることから、点像には、特に輝度がピークを示す周辺で色付きが見られる。また、点像の中心は、RGBの色成分毎に輝度のピークの値が異なるため、純白とならない。
図9は、図8に示した点像の合成画像の一例を示す。図9(a)は、図8(a)に示した点拡がり関数PSFcを表すN枚(例えば、20枚等)の画像Imgと、式(14)とを用いて生成された合成画像Iaの一例を示す。図9(a)の横軸はX軸とし、縦軸はY軸とする。図9(b)は、図9(a)に示した合成画像Ia、すなわち復元された白色インパルスの中心を通るX軸方向の直線における輝度分布の一例を示す。
図9(a)および図9(b)に示すように、合成画像Iaは、復元された白色インパルス、すなわち強度分布Io(x1,y1,zr)と同様になる。
なお、図9(a)に示した合成画像Iaの復元された白色インパルスはカラーであることから、画像処理装置100は、RGBの各々の色成分の合成画像Iaを生成し、生成した各色成分の合成画像Iaを重ね合わせて、図9(a)に示したカラーの合成画像Iaを生成する。
図9(c)は、図9(a)に示した点光源の中心を通るX軸方向の直線における、R成分の合成画像Iaの輝度分布の一例を示す。図9(d)は、図9(c)と同様に、G成分の合成画像Iaの輝度分布の一例を示し、図9(e)は、B成分の合成画像Iaの輝度分布の一例を示す。図9(f)は、図9(c)から図9(e)に示したRGBの各々の輝度分布を重ね合わせて比較した一例を示す。図9(f)に示すように、図9(c)に示したR成分の輝度分布と、図9(d)に示したG成分の輝度分布と、図9(e)に示したB成分の輝度分布とは、ほぼ同じ形状で重なる。図9(c)から図9(e)に示すように、RGBの生成画像は元のRGBのインパルスに戻っている。図9(c)から図9(e)に示した輝度分布は無限小の幅のインパルスであるが、画像で表示される場合における裾野の幅は1画素の幅となる。
図8に示した画像Imgおよび画像Imgの輝度分布は、図9(a)に示した合成画像Iaおよび図9(b)に示した輝度分布と比べて、点光源が大きく広がっている。これは、カメラCAMの撮影レンズが有する収差と回折とによる影響によるものである。
一方、図9(a)に示した合成画像Iaおよび図9(b)に示した輝度分布は、シミュレーションに用いた1画素の大きさの白色の点光源、すなわちインパルスと、同様の広がりを示す。また、図9(f)に示すように、画像処理装置100の画像処理により、図9(c)から図9(e)に示したRGBの各々の色成分の輝度分布は、互いに重なり合っている。すなわち、画像処理装置100は、合成画像Iaから合焦位置zrの光学系の収差を除去できる。
図10は、物体が白色の点光源で合焦位置zrの点像である場合の点拡がり関数PSFc、および点拡がり関数PSFcにボケ関数PSFaをXY平面内で2次元コンボリューションした結果と、軸上色収差との関係の一例を示す。図10の縦軸は、図3と同様に、X軸(またはY軸)を示し、図10の横軸は、Z軸(カメラCAMの撮影レンズの光軸方向)を示す。
図10(a)は、RGBの各色成分の点拡がり関数PSFcを示す。各色成分の点拡がり関数PSFcは、例えば、合焦位置zrを頂点とし、合焦位置zrから光軸(Z軸)に沿って離れるに従って拡がる円錐状の3次元形状を有する。なお、図10(a)では、R成分の点拡がり関数PSFcは実線で示し、B成分の点拡がり関数PSFcは点線で示し、G成分の点拡がり関数PSFcは破線で示す。
カメラCAMの撮影レンズが、例えば、アポクロマートレンズ等の場合、図10(a)に示すように、R成分とB成分との点拡がり関数PSFcは、合焦位置zrの付近に頂点が位置する。一方、G成分の点拡がり関数PSFcは、軸上色収差により、R成分およびB成分の点拡がり関数PSFcと比べて合焦位置zrより左側(最至近距離側)に位置する。
図10(b)は、図10(a)に示した点拡がり関数PSFcと、図3に示したボケ関数PSFaを用いて、XY平面内で2次元コンボリューションした結果、すなわち式(12)におけるコンボリューション関数CFを示す。図10(b)に示したコンボリューション関数CFをZ軸方向に積分したものは、鮮鋭化処理部40が算出する各色成分のデコンボリューションフィルタIpである。図10(b)では、図10(a)と同様に、R成分のコンボリューション関数CFは実線で示し、B成分のコンボリューション関数CFは点線で示し、G成分のコンボリューション関数CFは破線で示す。
図10(b)に示すように、R成分とB成分とのコンボリューション関数CFは、点拡がり関数PSFcの合焦位置とボケ関数PSFaの再合焦位置とが、位置zrで一致することから、合焦位置zrから光軸に沿って離れるに従い拡がる円錐状の3次元形状を示す。一方、G成分のコンボリューション関数CFは、G成分の点拡がり関数PSFcの合焦位置と、ボケ関数PSFaの再合焦位置とが一致しないことにより、所定の直径のスロートを有する円錐状の3次元形状を示す。
また、合焦位置z1-zNのN枚の画像Imgの各々は、図10(a)に示した点拡がり関数PSFcと同様の軸上色収差を含む。このため、物体が白色の点光源で合焦位置zrにおける点像の場合、式(14)におけるデコンボリューションにより、RGBの各色成分の積算画像Isと、各色成分のデコンボリューションフィルタIpとに含まれる軸上色収差が互いに相殺される。これにより、合成画像Iaは、白色の点像に戻る。
しかしながら、図10(b)に示すように、G成分のコンボリューション関数CFは、R成分とB成分とのコンボリューション関数CFと形状が異なることから、合焦位置zr以外の位置zのボケ像には色付けが残る。例えば、図10(b)に示すように、R、B成分のコンボリューション関数CFは、合焦位置zrより左側(すなわち、最至近距離側)においてG成分のコンボリューション関数CFより大きい。このため、式(14)を用いてデコンボリューションされた合成画像Iaの後ボケにはパープルフリンジが生じる。一方、R、B成分のコンボリューション関数は、合焦位置zrの右側(すなわち、無限遠側)においてG成分のコンボリューション関数CFより小さいため、合成画像Iaの前ボケにはグリーンフリンジが生じる。
そこで、ボケ画像における色付けを回避するために、例えば、前処理部15は、合焦位置ziのG成分の画像Img(x,y,zi)として、合焦位置z(i-j)のG成分の画像Img(x,y,z(i-j))を用いる(iは1からNの正の整数、jは任意の整数)。すなわち、前処理部15は、軸上色収差の量に合わせて最適な向きに最適な量でG成分の画像ImgをZ軸方向にずらし(例えば、正の向きに40μm等)、合焦位置ziのR、B成分の画像Imgと、合焦位置z(i-j)のG成分の画像Imgとを用いて、合焦位置ziのRGBの画像Imgとする補正処理を実行する。
また、鮮鋭化処理部40は、合焦位置ziのG成分の点拡がり関数PSFc(x,y,zi)として、合焦位置z(i-j)のG成分の点拡がり関数PSFc(x,y,z(i-j))を用い、G成分の点拡がり関数PSFcと、R、B成分の点拡がり関数PSFcとの合焦位置を合焦位置zrに一致させる補正処理を実行する。
図11は、図1に示した鮮鋭化処理部40が図10(a)に示した点拡がり関数PSFcに対して合焦位置ziの補正処理を実行した場合のコンボリューションの結果の一例を示す。図11では、鮮鋭化処理部40は、補正処理された各色成分の点拡がり関数PSFcと、図3に示したボケ関数PSFaとを用いてXY平面内で2次元コンボリューションした各色成分のコンボリューション関数CFを示す。図11では、図10と同様に、R成分のコンボリューション関数CFは実線で示し、B成分のコンボリューション関数CFは点線で示し、G成分のコンボリューション関数CFは破線で示す。図11に示すように、各色成分において、コンボリューション関数CFは、点拡がり関数PSFcの合焦位置zrとボケ関数PSFaの再合焦位置zrとが一致することから、再合焦位置zrから光軸に沿って離れるに従い拡がるほぼ同じ形状の円錐状の3次元形状を示す。
これにより、合焦位置zrの位置の像に対して、画像処理装置100は、式(14)のデコンボリューションにより、RGBの各色成分において、積算画像IsとデコンボリューションフィルタIpとに含まれる軸上色収差を互いに相殺できる。そして、合焦位置zr以外の位置のボケ像に対してもボケ像はRGBの各色成分で大きさが揃うため、画像処理装置100は、ボケ像の色付けが低減された合成画像Iaを生成できる。一方、合焦位置zrの点光源の像においては、前処理部15による画像Imgに対する合焦位置ziの補正処理と、鮮鋭化処理部40による点拡がり関数PSFcに対する合焦位置ziの補正処理との有無に関わらず、デルタ関数の無収差の合成画像Iaが生成される。
図12は、物体が白色の点光源で合焦位置zrと異なる位置の点像である場合の点拡がり関数PSFc、および点拡がり関数PSFcにボケ関数PSFaをXY平面内で2次元コンボリューションした結果と、軸上色収差との関係の一例を示す。図12の縦軸は、図10と同様に、X軸(またはY軸)を示し、図12の横軸は、Z軸を示す。
図12(a)は、白色の点光源が合焦位置zrより最至近距離側に位置する場合のRGBの各色成分の点拡がり関数PSFcを示す。各色成分の点拡がり関数PSFcは、例えば、ボケ関数PSFaの再合焦位置zrより左側(最至近距離側)に頂点を有し、頂点から光軸(Z軸)に沿って離れるに従って拡がる円錐状の3次元形状を有する。なお、図12(a)では、図10(a)と同様に、R成分の点拡がり関数PSFcは実線で示し、B成分の点拡がり関数PSFcは点線で示し、G成分の点拡がり関数PSFcは破線で示す。
図12(a)に示すように、カメラCAMの撮影レンズが、例えば、アポクロマートレンズ等の場合、図10(a)と同様に、R成分とB成分との点拡がり関数PSFcは、同じ位置に頂点が位置する。一方、G成分の点拡がり関数PSFcは、軸上色収差により、R成分およびB成分の点拡がり関数PSFcと比べて左側(最至近距離側)に位置する。
図12(b)は、図10(b)と同様に、図12(a)に示した点拡がり関数PSFcと、図3に示したボケ関数PSFaとを用いて、XY平面内で2次元コンボリューションした結果を示す。図12(b)では、図12(a)と同様に、R成分のコンボリューションの結果は実線で示し、B成分のコンボリューションの結果は点線で示し、G成分のコンボリューションの結果は破線で示す。
図12(a)に示すように、点拡がり関数PSFcの頂点の位置が、ボケ関数PSFaの再合焦位置zrより最至近距離側にあり、ボケ関数PSFaの再合焦位置zrと一致しない。これにより、各色成分のコンボリューションの結果は、直径BDr、BDb、BDgのスロートを有する円錐状の3次元形状を示す。すなわち、再合焦位置zrにおいて直径BDr、BDb、BDgの大きさのボケが生じる。
なお、R成分とB成分との拡がり関数PSFcの頂点は、互いに同じような位置にあることから、R成分とB成分とのコンボリューションの結果におけるスロートの直径BDrと直径BDbとは、互いに略一致する。一方、G成分の拡がり関数PSFcの頂点が、軸上色収差により、R成分およびB成分の拡がり関数PSFcの頂点より最至近距離側にあることから、G成分のコンボリューションの結果のスロートの直径BDgは、直径BDr、BDbより大きくなる。そして、図10(b)と同様に、式(14)を用いてデコンボリューションされた合成画像Iaの後ボケにはパープルフリンジが生じ、合成画像Iaの前ボケにはグリーンフリンジが生じる。
図13は、図1に示した鮮鋭化処理部40が図12(a)に示した点拡がり関数PSFcに対して合焦位置ziの補正処理を実行した場合のコンボリューションの結果の一例を示す。図13では、鮮鋭化処理部40は、補正処理した各色成分の点拡がり関数PSFcと、図3に示したボケ関数PSFaとを用いてXY平面内で2次元コンボリューションした各色成分のコンボリューションした結果を示す。図13では、図10と同様に、R成分のコンボリューションの結果は実線で示し、B成分のコンボリューションの結果は点線で示し、G成分のコンボリューションの結果は破線で示す。
図13に示すように、補正処理された各色成分のコンボリューションの結果は、物体が白色の点光源で合焦位置zrと異なる位置の点像である場合でも、互いに略一致する3次元形状を示す。すなわち、スロートの直径BDr、BDb、BDgの大きさが、互いに略一致する。これにより、式(14)を用いてデコンボリューションされた合成画像Iaには、直径BDr、BDb、BDgの大きさのボケが残るが、前ボケのグリーンフリンジおよび後ボケのパープルフリンジの発生を回避できる。
一方、合焦位置zrの位置の像に対して、画像処理装置100は、式(14)のデコンボリューションにより、RGBの各色成分において、積算画像IsとデコンボリューションフィルタIpとに含まれる軸上色収差を互いに相殺できる。フォーカス位置ではデルタ関数になり、ボケ像はRGBの各色成分で大きさが揃うため、画像処理装置100は、ボケ像の色付けが低減された合成画像Iaを生成できる。
なお、前処理部15は、合焦位置zrのG成分の画像Imgを正のZ軸方向にずらさずに、合焦位置zrのR、B成分の画像Imgとともに、合焦位置zrの画像Imgとしてもよい。
また、鮮鋭化処理部40は、合焦位置zrのG成分の点拡がり関数PSFcをずらさずに、合焦位置zrのR、B成分の点拡がり関数PSFcとともに、合焦位置zrの点拡がり関数PSFcとしてもよい。この場合、画像処理装置100は、ディベイヤの際の再合焦位置zrにおけるRGBの色成分のデータの組み合わせが、元の画像Imgと変わらないため、合成画像Iaにおける解像度の劣化を低減できる。
また、任意の視点、任意のボケ量の画像を得たい場合は、式(12)を式(17)に変更する。
Figure 0007238381000012
kx、kyは、X、Y方向に視点をずらす量を決定する定数で、大きい値ほど視点を大きくずらす。式(17)に示すように、ボケ関数PSFaによって視点をずらすことができるが、画像Imgと点拡がり関数PSFcを協調して定数kx、kyによってXY平面内で移動させることによっても視点をずらすことができる。または、Is_sft側をボケ関数PSFaのシフト、Ip_sft側を点拡がり関数PSFcのシフトとしてもよく、その逆とするような入れ子状態にしてもよい。なお、視点の移動量は大きくても点拡がり関数PSFcを表す瞳の内側の領域内となる。それ以上の視点移動量では生成画像にノイズが発生する。これにより、任意の視点、任意のフォーカス、任意のボケ量の画像Ia_sftを生成できる。デコンボリューション処理にはデータIs_sftとIp_sftとが用いられる。
任意の視点に任意のボケ量の画像生成によりステレオ化が行える。この場合、視点をずらす量の異なる2画像でステレオ化が行え、3次元被写体の立体視が可能となる。例えば、顕微鏡のNAと視点を変えることができ、ステレオ化により三次元観察が行えることが実験により確認された。ステレオ画像の可視化、立体視には市販の3Dディスプレイやヘッドマウントディスプレイを用いる。式(17)で3次元化すると一つのカメラから画像を生成するため多眼カメラを使う場合のレンズディストーション、主点位置、カメラ姿勢のキャリブレーションに起因する誤差が無いため8K等の多画素の画像でも大変自然な3次元画像が得られる。また、上記誤差がないため計測にも適する。ステレオ画像から3次元点群データに変換する必要がある場合は周知のステレオマッチング手法を用いる。
多眼化が困難な顕微鏡やマクロ写真撮影等の3次元可視化や、一眼カメラのフォーカスブラケッティング撮影の後処理として有効に利用できる。特に、顕微鏡画像の3次元可視化には視差量と観察NA(ボケ量)を逐次変更することで観察しやすい設定を事後的に見いだせることの利点がある。また、顕微鏡でNA(ボケ量)を変更しても解像力は変わらず、デコンボリューションにより大深度画像においてもより良い解像度が得られる。顕微鏡ではフォーカスブラケッティング撮影は試料台の電動駆動により行う。例えば、60倍の対物では100-200nmステップで20-30ステップ、試料に合わせてフォーカスブラケッティング撮影を行う。駆動量が微小なので例えば60Hzの矩形波で試料台を上下に駆動すればビデオレートで観察することができる。この時の処理はFFTを用いた前途の処理の高速化の方法で行う。場合によってはGPUを用いて処理する。顕微鏡のフォーカス合わせを試料台のほかに光学系のレンズ駆動によって行ってもよいし、液晶レンズ等の光学素子を用いて行ってもよい。
また、最近では回折格子により異なる9つのフォーカスステップの像を常時表示可能なMFM(multi focus microscopy)という顕微手法もあるのでその画像を用いてもよい。MFMの場合、実時間、リアルタイムの観察に特に適す。また、顕微鏡の場合、顕微方式(コンフォーカル方式、シート照明方式)によって点拡がり関数PSFcが変わるので予め計測またはシミュレーションしたものを用いる。顕微鏡観察の場合、インコヒーレント結像となる蛍光観察画像の画像が特に処理に適している。
図14(a)は左目用のステレオ画像であり、図14(b)は右目用のステレオ画像である。これらを3DディスプレイやHMDで右目には右目用画像を、左目には左目用画像を表示することで立体視が行える。図14では、被写体は、猿の腎臓のPSC1細胞の傾向観察画像を示す。撮影条件は、NA1.25(水液浸)、フォーカスステップ240um、センサ上倍率80倍、ピクセルピッチ6.5umである。また、任意ボケ、任意視点合成時の設定は、NA0.5、視差(視点のずらし量)NA±0.85相当、合成枚数80枚で画像合成を行った。NA0.5相当のボケ関数は、ガウス関数としている。このように、合成時のNA、すなわちボケ量を調整することで見やすい被写界深度(焦点深度)とすることが可能である。このことは、厚み、画面に対して奥行き方向に長い被写体の場合に選択的に見たい部分を観察できて特に有効である。図14の場合、ボケたところとピントの合ったところがそれぞれの画面内に共存しておりピントの合ったところで立体視がより明確に行える。すなわち、合成時のNAを任意に変更することで立体視が明確に行える範囲を任意に変更できることになる。
また、ピントの合ったところで視差がゼロとなっており、ディスプレイ上でフォーカスを結ぶ設定となっている。これは、ディスプレイ上でフォーカスが合い、視差量をゼロとしたのは観察者の目の健康上望ましいと思われるのでそうしているが、当然この条件を変えることも可能である。また、視差量を調整することで立体感の効果、見やすさを調整できる。図14の被写体の場合、NAを0.1等に絞って合成すると、全体がくっきりピントの合った画像を生成することができる。これは、図15に示す。図15では、任意ボケ、任意視点合成時の設定はNA0.1、視差(視点のずらし量)NA±0.85相当、合成枚数20枚で画像合成を行った。全体にピントが合うと立体視可能な奥行きが増え、観察者が立体視すべき情報量が増えるので、場合により注目点以外の情報が注目点の観察の妨げになることもある。その場合は、合成時のNAを加減して立体視の範囲を調整することが望ましい。
図14、図15の例では、光学系の点拡がり関数PSFcとしてフォーカス位置でデルタ関数、そのほかで幾何学的ボケの大きさを示す円板の点像とした。これを実際の収差を含む点像分布関数とすれば、デコンボリューションの際に画像をより鮮鋭化することができる。
また、ステレオ視するための左右の視差画像を生成する際は、例えば、左目用の画像生成は左に視点がずれた画像を生成する。この場合、画像処理の際にリフォーカスの距離を中心に、1画像手前の画像は右に1画素ずらす。2画像手前の画像は2画素右にずらす。3画像手前の画像は3画素右にずらす。反対に、リフォーカスの距離から1画像奥の画像は左に1画素ずらす。2画像奥の画像は左に2画素ずらす、という具合にずらしていく。画像をずらした際のボケ関数PSFaは、左右にずらす必要はない。
一方、デコンボリューションの際の点拡がり関数PSFcは、画像と同様にずらす。すなわち、リフォーカスの距離を中心に、1ステップ手前の点拡がり関数PSFcは、右に1画素ずらす。2ステップ手前の点拡がり関数PSFcは、2画素右にずらす。3ステップ手前の点拡がり関数PSFcは、3画素右にずらす。反対に、リフォーカスの距離から1ステップ奥の点拡がり関数PSFcは、左に1画素ずらす。2ステップ奥の点拡がり関数PSFcは、左に2画素ずらす、という具合にずらす。点拡がり関数PSFcをずらした場合は、デコンボリューション側のボケ関数PSFaをずらす必要はない。右目用の画像は、上記の反対方向にずらして処理をする。また、ずらし量によって視点の位置が変化する。
ずらすことにより画像の周辺は、重ならなくなる部分ができるが、その部分の画像はカットする。画像のずらす方向は任意で、X軸方向、Y軸方向、あるいはX軸およびY軸の両方向にずらしてもよく、何処の視点の画像を生成したいかに応じて決定されるのがよい。
また、視点の変更は、ボケ像を偏らせることにより生成しているのと等価である。任意ボケアルゴリズムがもともとの光学系のNAより大きなボケを生成できないのと同じく、視点のずらし量はNAの内側までとなる。
例えば、顕微鏡でNA0.75、ピクセルピッチ440nm、Zステップ1000nmの場合、Z軸方向の1ステップの対物のボケ量は、sinΘ=NA=0.75より、Z軸方向の1ステップの対物のボケ量(直径)は、Zステップ×tanΘ×2=1000×1.134×2=2268nmで、2268/440=5.15ピクセルである。これにより、ずらし量は、半径方向に±2画素が限界になる。1画素ずらすとNA換算では、0.75×440/1134=0.29の視点になる。2画素ずらすとNA換算では、0.58の視点となる。
以上、一実施形態では、ボケ処理部20は、ボケ関数PSFaを用いて、画像Imgの各々にボケ処理を実行する。鮮鋭化処理部40は、点拡がり関数PSFcとボケ関数PSFaとのデコンボリューションフィルタを用いて、積算部30により生成された積算画像Isに鮮鋭化処理を実行し、合成画像Iaを生成する。これにより、画像処理装置100は、ノイズの発生を抑制して、良好なボケ画像を生成できる。
また、画像処理装置100は、画像Imgがカラー画像の場合、RGBの各々の色成分毎に画像Imgの画像処理を実行する。例えば、前処理部15は、G成分の画像Imgを正のZ軸方向にずらし、合焦位置ziのR、B成分の画像Imgと、合焦位置z(i-j)のG成分の画像Imgとを用いて、合焦位置ziの画像Imgとする補正処理を実行する。また、鮮鋭化処理部40は、合焦位置ziのG成分の点拡がり関数PSFc(x,y,zi)として、合焦位置z(i-j)のG成分の点拡がり関数PSFc(x,y,z(i-j))を用い、G成分の点拡がり関数PSFcと、R、B成分の点拡がり関数PSFcとの合焦位置を合焦位置zrに一致させる補正処理を実行する。これにより、画像処理装置100は、カメラCAMの撮影レンズによる軸上色収差の影響を、合成画像Iaから除去できる。
また、画像処理装置100は、式(14)を用いた画像処理を、周波数領域で実行してもよい。これにより、画像処理装置100は、画像処理におけるFFT処理およびIFFT処理の実行回数を減らすことができ、画像処理の高速化を図ることができる。
図16は、画像処理装置の別の実施形態を示す。
図16に示した撮像装置200は、例えば、デジタル一眼レフカメラあるいはデジタルコンパクトカメラ等である。撮像装置200は、制御部90、撮影レンズ110、絞り120、撮像部130、フレームメモリ140、操作部材150、表示部160および記憶IF部170を有する。撮影レンズ110、絞り120、撮像部130、フレームメモリ140、操作部材150、表示部160および記憶IF部170の各々は、制御部90に接続されている。
撮影レンズ110は、被写体からの光束を結像する結像光学系であって、例えば、フォーカス調整およびズーム調整が可能な結像光学系である。なお、フォーカス調整は、撮影レンズ110の合焦用レンズの位置を制御することにより、合焦位置(合焦している被写体の被写体距離)を調整する。また、ズーム調整は、撮影レンズ110の焦点距離(撮像装置200の画角または撮影倍率)を調整する。また、図16では、撮影レンズ110を1枚のレンズで表したが、複数のレンズで構成されてもよい。
絞り120は、制御部90による制御指示に基づいて口径を変化させることにより、被写体からの光束の露光量を調整する。
撮像部130は、撮影レンズ110が結像する被写体の像を、制御部90による制御指示に基づいて撮像し、画像を生成するモジュールである。例えば、撮像部130には、光電変換画素を多数配列したカラー撮像素子と、撮像素子が生成する画像信号に対してアナログ信号処理やAD(Analog-to-digital)変換処理等を実行する信号処理回路とを有する。
なお、撮像装置200が撮像モードに設定されている場合、撮像部130は、例えば、解像度が低い被写体の画像(以下、“スルー画像”とも称される)を繰り返し取得する。そして、撮像部130は、操作部材150を介して、ユーザから撮像指示が入力されたタイミングで、被写体を撮像し画像を生成する。撮像部130は、生成した画像をフレームメモリ140に出力する。
フレームメモリ140は、RAM(Random Access Memory)等の揮発性メモリであり、撮像部130から受信する画像のデータを一時的に保持する。フレームメモリ140は、制御部90からの制御指示に基づいて、制御部90に出力する。
操作部材150は、例えば、電源スイッチ、レリーズ釦、マルチセレクタ、再生釦あるいはメニュー釦等を含み、ユーザから撮像指示やモード切換指示等の各種の指示を受ける。すなわち、操作部材150は、図1に示した入力装置IMとして動作する。なお、表示部160の表面にタッチパネルが設けられている場合、タッチパネルが操作部材150として動作してもよい。
表示部160は、例えば、液晶等のディスプレイである。表示部160は、制御部90による制御指示に基づいて、スルー画像のリアルタイム表示(ライブビュー表示)、あるいは画像Imgや画像処理された合成画像Ia等を再生表示する。
記憶IF部170は、制御部90による制御指示に基づいて、撮像装置200に装着された記憶媒体180に接続し、記憶媒体180に対して画像を書き込む。また、記憶IF部170は、制御部90による制御指示に基づいて、記憶媒体180に接続し、記憶媒体180から画像を読み出す。
記憶媒体180は、可搬かつ不揮発性の記憶媒体であり、例えば、ハードディスクや、半導体メモリを内蔵したメモリカード等である。
制御部90は、例えば、撮像装置200に含まれるプロセッサ等である。制御部90は、撮像装置200に含まれるメモリ等の記憶部に記憶されたプログラムを実行することにより、撮像装置200の動作を制御する。例えば、制御部90は、撮像装置200が撮像モードの場合、撮像部130からのスルー画像を監視して撮影レンズ110のフォーカス調整(AF(Autofocus)制御)を実行する。また、制御部90は、フレームメモリ140から繰り返し取り込まれるスルー画像を監視して撮像部130の露出調整(AE(Automatic Exposure)制御)を実行する。
さらに、制御部90は、撮像装置200の記憶部に記憶された画像処理プログラムを実行することにより、図1に示した画像処理装置100と同様に、式(14)とN枚の画像Imgとを用いて合成画像Iaを生成する画像処理部100aとして動作する。
画像処理部100aは、N個の前処理部15a(15a(1)-15a(N))、N個のFFT部17(17(1)-17(N))、N個のボケ処理部20a(20a(1)-20a(N))、積算部30a、鮮鋭化処理部40aおよびIFFT部50を有する。
各前処理部15aは、フレームメモリ140から受信するN枚の画像Imgのうちの1枚の画像をそれぞれ受信する。各前処理部15aは、図1に示した前処理部15と同様に、受信した画像Imgに付加された撮像情報を参照し、N枚の画像Img間の位置合わせおよび倍率の補正等の前処理を実行する。なお、前処理部15aが実行する前処理には、位置合わせおよび倍率の補正とともに、ディベイヤやデガンマ等のデジタル現像処理(画像処理)が含まれる。なお、ディベイヤは、カメラCAMにより撮像される画像がベイヤ配列のRGBの色成分を有するカラー画像の場合、R面、G面およびB面の3面の画像に分解する色補間処理である。
また、前処理部15aは、FFT部17がFFT処理を実行できるように、前処理した画像Imgを正方形の画像に変換し、変換した画像ImgをFFT部17に出力する。
なお、前処理部15aは、画像Imgに付加された撮像情報を参照したが、撮影レンズ110、絞り120および撮像部130に設定された制御値を、撮像情報として制御部90から取得してもよい。
FFT部17は、前処理部15aから受信した画像Imgに対してFFT処理を実行して、空間領域から周波数領域の画像Imgのデータに変換する。FFT部17は、変換した画像Imgをボケ処理部20aに出力する。
ボケ処理部20aは、図1に示したボケ処理部20と同様に、周波数領域に変換された式(12)等のボケ関数PSFaを用いて、FFT部17から受信した画像Imgにボケ処理(コンボリューション)を実行する。ボケ処理部20aは、ボケ処理した画像Imgを積算部30aに出力する。なお、画像Imgがカラー画像の場合、ボケ処理部20aは、色成分毎の画像Imgにボケ処理を実行する。
なお、前処理部15a、FFT部17およびボケ処理部20aの各々は、画像処理部100aにN個ずつ配置され、N枚の画像を並列に画像処理することで、合成画像Iaの生成処理の高速化を図ることができる。しかしながら、前処理部15a、FFT部17およびボケ処理部20aの各々は、画像処理部100aに1つずつ配置されてもよい。
積算部30aは、図1に示した積算部30と同様に、ボケ関数PSFaとコンボリューションされた画像Imgを積算し、積算画像Isを生成する。なお、積算部30aは、積算処理を周波数領域で実行する。また、画像Imgがカラー画像の場合、積算部30aは、色成分毎に積算画像Isを生成する。
鮮鋭化処理部40aは、図1に示した鮮鋭化処理部40と同様に、式(14)を用いて、積算部30aにより生成された積算画像Isに鮮鋭化処理(デコンボリューション)を実行し、合成画像Iaを生成する。なお、鮮鋭化処理部40aは、予め空間領域から周波数領域に変換された式(14)のIpf(ωx,ωy,zr)-1を用いる。これにより、画像処理部100aの画像処理におけるFFT処理およびIFFT処理の実行回数を減少させることができ、画像処理の高速化を図ることができる。
また、鮮鋭化処理部40aは、積算部30aとともに、式(14)における積算画像IsとデコンボリューションフィルタIpとの積分を周波数領域で実行することにより、画像処理部100aにおけるFFT処理およびIFFT処理の実行回数を減らせ、画像処理の高速化を図ることができる。
また、鮮鋭化処理部40aは、画像Imgがカラー画像の場合、色成分毎の積算画像Isに鮮鋭化処理を実行する。
IFFT部50は、鮮鋭化処理部40aにより生成された式(14)のIsf(ωx,ωy,zr)/Ipf(ωx,ωy,zr)に対してIFFT処理を実行して、空間領域の合成画像Iaのデータに変換する。
そして、制御部90は、例えば、空間領域に変換された合成画像Iaを表示部160に出力して、合成画像Iaを表示部160に表示する。また、制御部90は、空間領域に変換された合成画像Iaに、16ビット等の整数化処理を実行し、TIFF(Tagged Image File Format)等の画像形式に基づいて、合成画像Iaの画像ファイルを生成する。そして、制御部90は、記憶IF部170を介して、生成された画像ファイルを記憶媒体180に出力して、記憶媒体180に画像ファイルを記憶する。
図17は、図16に示した画像処理部100aにおける画像処理の一例を示す。図17に示した処理は、撮像装置200に含まれる制御部90が画像処理プログラムを実行することにより実現される。すなわち、図17は、画像処理プログラムおよび画像処理方法の別の実施形態を示す。なお、図17に示す処理は、撮像装置200に搭載されるハードウェアにより実現されてもよい。この場合、図16に示した前処理部15a、FFT部17、ボケ処理部20a、積算部30a、鮮鋭化処理部40aおよびIFFT部50は、撮像装置200内に配置される回路により実現される。
なお、図17に示したステップの処理のうち、図4に示したステップと同一または同様の処理を示すものについては、同一のステップ番号を付し、詳細な説明を省略する。
ステップS90では、制御部90は、操作部材150に含まれる設定釦等を介して、合成画像Iaを生成する合成画像モードに設定する指示をユーザから受けた場合、合成画像モードに設定する。そして、ステップS90の処理が実行された後、撮像装置200の処理は、ステップS100およびステップS105に移る。
ステップS105では、制御部90は、操作部材150に含まれるレリーズ釦を介して、ユーザより撮像指示を受けたか否かを判定する。撮像指示を受けた場合、撮像装置200の処理は、ステップS110に移る。そして、撮像装置200は、ステップS110、ステップS120およびステップS125の処理を実行する。一方、撮像指示を受けていない場合、撮像装置200は、撮像指示を受けるまで待機する。
ステップS125では、FFT部17は、ステップS120で前処理された画像Imgに対してFFT処理を実行し、周波数領域の画像Imgのデータに変換する。そして、撮像装置200の処理は、ステップS130、ステップS140、ステップS150およびステップS160に移る。
ステップS160では、IFFT部50は、ステップS150で生成された合成画像Iaに対してIFFT処理を実行して、空間領域の合成画像Iaのデータに変換する。そして、画像処理部100aによる画像処理は終了する。
そして、制御部90は、例えば、空間領域に変換された合成画像Iaを表示部160に出力して、合成画像Iaを表示部160に表示する。また、制御部90は、空間領域に変換された合成画像Iaに、16ビット等の整数化処理を実行し、TIFF等の画像形式に応じた合成画像Iaの画像ファイルを生成する。そして、制御部90は、記憶IF部170を介して、生成された画像ファイルを記憶媒体180に出力して、記憶媒体180に画像ファイルを記憶する。
以上、別の実施形態では、N個のボケ処理部20aの各々は、ボケ関数PSFaを用いて、受信した画像Imgにボケ処理を実行する。鮮鋭化処理部40aは、点拡がり関数PSFcとボケ関数PSFaとのデコンボリューションフィルタを用いて、積算部30aにより生成された積算画像Isに鮮鋭化処理を実行し、合成画像Iaを生成する。これにより、画像処理部100aは、ノイズの発生を抑制して、良好なボケ画像を生成できる。
また、画像処理部100aは、画像Imgがカラー画像の場合、RGBの各々の色成分毎に画像Imgの画像処理を実行する。例えば、前処理部15aは、図1に示した前処理部15と同様に、G成分の画像Imgを正のZ軸方向にずらし、合焦位置ziのR、B成分の画像Imgと、合焦位置z(i-j)のG成分の画像Imgとを用いて、合焦位置ziの画像Imgとする補正処理を実行する。また、鮮鋭化処理部40aは、図1に示した鮮鋭化処理部40と同様に、合焦位置ziのG成分の点拡がり関数PSFc(x,y,zi)として、合焦位置z(i-j)のG成分の点拡がり関数PSFc(x,y,z(i-j))を用い、G成分の点拡がり関数PSFcと、R、B成分の点拡がり関数PSFcとの合焦位置を合焦位置zrに一致させる補正処理を実行する。これにより、画像処理部100aは、撮影レンズ110による軸上色収差の影響を、合成画像Iaから除去できる。
また、ボケ処理部20a、積算部30aおよび鮮鋭化処理部40aの各々は、周波数領域で処理を実行する。これにより、画像処理部100aは、FFT部17のFFT処理とIFFT部50のIFFT処理との2つにすることができ、処理の高速化を図ることができる。
また、撮像装置200は、N個の撮影レンズ110、N個の絞り120、N個の撮像部130およびN個のフレームメモリ140を有する多眼カメラでもよい。これにより、撮像装置200は、N個の撮像部130の各々において、互いに共通の合焦位置で同じ被写体を1回のシャッタ操作により、N枚のカメラ面視差画像を撮像できる。撮像装置200は、例えば、特開2013-26844号公報等に示される合成開口法をN枚のカメラ面視差画像に実行し、互いに合焦位置が異なり視点が共通である複数の画像Imgに変換する。これにより、撮像装置200は、1回のシャッタ操作により互いに合焦位置が異なり視点が共通である画像Imgを取得でき、合焦状態が異なる複数の画像Imgを取得するのにかかる時間を短縮できる。なお、合焦位置は、式(1)を用いて像面視差Dが等間隔となるように決定される。
また、撮像装置200は、N個の撮像部130の各々において、互いに共通の合焦距離で同じ被写体を1回のシャッタ操作で撮像できることから、単眼カメラと比べて、動いている被写体の合成画像Iaを容易に生成できる。
図18は、図16に示した撮像装置200が多眼カメラの場合の一例を示す。
図18に示した撮像装置200は、カメラボディ210の前面に複数の撮影開口220を有する。複数の撮影開口220の各々は、円形の形状を有し、カメラボディ210の前面に環状に配列されている。なお、複数の撮影開口220は、カメラボディ210の前面にマトリックス状に設置されてもよい。
複数の撮影開口220の各々には、互いに平行な光軸を有する撮影レンズ110が設置される。この場合、撮像装置200は、複数の撮影レンズ110の各々に対応して、絞り120、撮像部130およびフレームメモリ140が配置される。また、撮像装置200のカメラボディ210の上面には、レリーズ釦151および電源スイッチ152が配置される。例えば、撮像装置200が合成画像モードに設定され、レリーズ釦151に対する1回のシャッタ操作が行われた場合、制御部90は、複数の撮影レンズ110の各々を介して撮像された複数の画像のデータを同時に取得する。制御部90は、特開2013-26844号公報等に示される手法を用いて、互いに視点の異なる複数の画像から互いに合焦位置の異なる複数の画像Imgを生成する処理を実行する。そして、制御部90は、画像処理部100aに対して、生成した複数の画像Imgから合成画像Iaを生成する画像処理を実行させる。
また、撮像装置200は、撮影レンズ110の前面にプリズムを配置し、撮像部130の光軸をプリズムで移動(回転)させる単眼カメラでもよい。
図19は、図16に示した撮像装置200に配置されるプリズムの一例を示す。
図19に示すように、撮像装置200の撮影レンズ110と被写体との間に、点線で示す撮像部130の光軸の周りを回転可能なプリズム190が配置される。そして、プリズム190とカメラボディ210との間には、カメラボディ210に対してプリズム190を回転させるための回転機構(不図示)が設けられる。
図19に示したプリズム190は、互いに平行な反射面195a、195bが設けられたロンボイドプリズムである。一点破線で示した被写体からの光束は、プリズム190の一方の反射面195aへ入射角度45度で入射し、反射面195aを反射した後、プリズム190の反射面195bへ入射角度45度で入射する。そして、被写体の光束は、反射面195bを反射し、撮像部130の光軸に沿って進行し、撮影レンズ110へ入射する。
これにより、被写体から見た光軸は、撮像部130の光軸から所定距離rだけシフトし、プリズム190の回転に伴い撮像部130の光軸の周りを回転する。
例えば、撮像装置200が合成画像Iaの生成モードに設定され、レリーズ釦151に対する1回のシャッタレリーズ操作が行われた場合、制御部90は、回転機構を制御して、プリズム190を回転させる。制御部90は、プリズム190の回転角に応じて、撮影レンズ110を介して撮像される画像の視点を制御し、撮像部130に撮像動作を実行させる。すなわち、制御部90は、プリズム190が1回転する間に、N枚の視差画像のデータを取得する。そして、制御部90は、特開2013-26844号公報等に示される手法を用いて、N枚の視差画像から互いに合焦位置の異なる複数の画像Imgを生成する処理を実行する。そして、制御部90は、画像処理部100aに対して、生成した複数の画像Imgから合成画像Iaを生成する画像処理を実行させる。
なお、プリズム190が回転している間、撮像部130に含まれる撮像素子に結像する被写体像の向きは、不変である。
また、プリズム190が回転している間、プリズム190の回転中心軸の位置および姿勢は、地球に対して不動であることが好ましい。あるいは、プリズム190が回転している間、プリズム190の回転中心軸の位置誤差および姿勢誤差は、実測されることが好ましい。例えば、撮像装置200は、姿勢センサ(ジャイロセンサ)、変位センサ(加速度センサ)、位置センサ(GPSセンサ)等を搭載してサークルスキャン中における回転中心軸の位置誤差および姿勢誤差を検知する。そして、前処理部15aの各々は、サークルスキャン中に取得された画像Imgから、位置誤差および姿勢誤差に起因した画像ブレを補正するのが好ましい。
また、図19に示したプリズム190の回転は、自動(電動)で行われても手動で行われてもよい。自動で行われる場合、例えば、不図示の回転機構に対してモータが接続される。
ここで、上述の実施形態では、座標系XYZにおいて、光軸方向をZ軸とし、Z軸方向の任意の合焦位置におけるXY平面上の合成画像を生成する場合について説明したが、X軸方向の任意の合焦位置におけるYZ平面上の合成画像、Y軸方向の任意の合焦位置におけるXZ平面上の合成画像についてもそれぞれ生成することができる。さらに、座標系XYZを回転させた任意の座標系X’Y’Z’における合成画像についても生成することができる。座標系XYZを回転することに加えて座標系XYZを平行移動させることにより、任意の座標系X’Y’Z’を形成してもよい。
図20は、三次元座標上での物体の直方体データとボケ関数の一例を示す。図20(a)は、三次元の座標系XYZに置かれた物体の直方体データの例である。このような三次元形状の物体に対して、先の実施形態で説明した方法でX軸、Y軸およびZ軸の各方向におけるボケ関数をそれぞれ適用することにより、X軸、Y軸およびZ軸の三方向から観察する任意の位置における合成画像を生成することができる。例えば、図20(b)は、Z軸方向の任意の位置におけるXY面を観察面とする合成画像を生成するときのボケ関数の一例を示し、先の実施形態で説明した図3に対応する。また、図20(c)は、X軸方向の任意の位置におけるYZ面を観察面とする合成画像を生成するときのボケ関数の一例を示す。さらに、図20(d)は、Y軸方向の任意の位置におけるXZ面を観察面とする合成画像を生成するときのボケ関数の一例を示す。
図21は、XY面、YZ面およびXZ面の元画像と合成画像の一例を示す。図21(a)は、XY面、YZ面およびXZ面の元画像の一例を示し、図21(b)は、図21(a)の元画像に対して、本実施形態の任意ボケアルゴリズムを適用して生成したXY面、YZ面およびXZ面の各々における合成画像の一例を示す。図21(b)において、(A)は交点P1を通るXY面の合成画像、(B)は交点P1を通るYZ面の合成画像、(C)は交点P1を通るXZ面の合成画像、をそれぞれ示している。図21(b)において、例えば、XY面上の点P1をX軸方向(紙面の左右方向)の任意の位置に移動させると、YZ面の合成画像がX軸方向の位置に応じて変化する。同様に、XY面上の点P1をY軸方向(紙面の上下方向)の任意の位置に移動させると、XZ面の合成画像がY軸方向の位置に応じて変化する。また、YZ面上の点P1をZ軸方向(紙面の左右方向)の任意の位置に移動させると、XY面の合成画像がZ軸方向の位置に応じて変化する。同様に、XZ面上の点P1をZ軸方向(紙面の上下方向)の任意の位置に移動させると、XY面の合成画像がZ軸方向の位置に応じて変化する。
このようにして、図20で説明した任意のボケ関数を用いて、X軸、Y軸およびZ軸の各方向の任意の位置におけるYZ面、XZ面およびXY面の合成画像を生成して表示することができる。
[任意の観察方向における合成画像の生成]
次に、図20に示した座標系XYZを各軸方向に任意の角度で回転、平行移動させた座標系X’Y’Z’における合成画像を生成する方法について説明する。
図22は、応用例の画像処理装置100Aの一例を示す。なお、図22において、図1と同符号のブロックは、図1と同様の処理を行う。図22と図1の違いは、前処理部15とボケ処理部20との間に回転処理部16を備えることである。
ここで、画像処理装置100Aは、図1の画像処理装置100と同様に、プロセッサ等の演算処理装置およびハードディスク装置等の記憶装置を含むコンピュータ装置である。例えば、画像処理装置100Aの演算処理装置は、画像処理装置100Aの記憶装置に記憶される画像処理プログラムを実行することで、前処理部15、ボケ処理部20、積算部30、鮮鋭化処理部40および回転処理部16として機能する。
図22において、IF部10および前処理部15は、図1の画像処理装置100と同様に動作し、画像処理装置100Aでは、前処理部15が前処理した複数の画像は、回転処理部16に出力される。
回転処理部16は、前処理部15により前処理された座標系XYZ上の複数の画像をX軸、Y軸およびZ軸の各軸において任意の角度で回転、平行移動させて座標系X’Y’Z’のデータに変換する処理を行う。なお、回転処理部16の処理は、後で詳しく説明する。
ボケ処理部20は、回転処理部16により回転、平行移動された複数の画像を受け取り、入力装置IMを介して、ユーザにより指示された再合焦位置および絞り値(NA)に応じたボケの度合いで、回転処理後の複数の画像の各々にボケ処理を実行する。なお、ボケ処理部20の動作については、図2および図3で説明した通りである。
積算部30および鮮鋭化処理部40は、図1の画像処理装置100と同様に動作し、画像処理装置100Aでは、回転処理後の複数の画像の各々に実行されたボケ処理におけるボケの度合いと、カメラCAMに含まれる撮影レンズ等の光学特性とに基づいて、積算画像に鮮鋭化処理を実行し、鮮鋭化された積算画像を、指示された再合焦位置および絞り値の合成画像として生成する。
このようにして、本応用例の画像処理装置100Aは、座標系XYZを各軸方向に任意の角度で回転、平行移動させた座標系X’Y’Z’における合成画像を生成することができる。
次に、回転処理部16が行う処理について詳しく説明する。
図23は、座標系XYZを回転、平行移動させた座標系X’Y’Z’の一例を示す。図23(a)は、座標系XYZにおける観察対象の物体の直方体データ(物体直方体データ)を示し、図23(b)は、Z軸方向が光軸のPSF直方体データの一例を示す。そして、図23(a)および図23(b)に示す座標系XYZ上の物体直方体データおよびPSF直方体データを任意の方向に回転させて、図23(c)および図23(d)に示す座標系X’Y’Z’における回転、平行移動後の物体直方体データおよび回転、平行移動後のPSF直方体データに変換する。これにより、任意の観察方向から三次元形状の物体の合成画像の生成が可能になる。なお、図23では、物体直方体データとPSF直方体データは座標系XYZの原点から離れて描かれているが、実際の計算では3次元のPSF直方体データの焦点を座標系XYZの原点に位置させて回転させ、3次元の物体直方体データの中心を座標系XYZの原点に位置させて回転させる。
ここで、回転前の座標系XYZ上の座標(x,y,z)をX軸、Y軸、Z軸の各軸において回転させる角度のパラメータがそれぞれφ、θ、ψ、平行移動させるパラメータがtx、ty、tzである場合、回転、平行移動後の座標系X’Y’Z’上の座標を(x’y’z’)とすると、変換後の座標は、アフィン変換により式(18)で表すことができる。
Figure 0007238381000013
なお、上述の式(18)は、X軸周り,Y軸周り,Z軸周りの順で回転した場合の例である。
図23(c)および図23(d)において、回転、平行移動後の物体直方体データおよび回転、平行移動後のPSF直方体データは、図23(a)および図23(b)に示す物体直方体データおよびPSF直方体データをXY面、YZ面、XZ面にそれぞれ平行な複数の平面で等間隔にスライスして得られる交点のデータに基づいて補間処理を行って生成する。なお、補間方法は、Trilinear interpolation、Tricubic interpolation、nearest neighborなど周知の方法を用いることができる。
このようにして得られた回転後の物体直方体データおよび回転後のPSF直方体データに基づいて、X’軸、Y’軸およびZ’軸を観察方向とするX’Y’面、Y’Z’面およびX’Z’面の各観察面における合成画像を生成することができる。なお、X’Y’面、Y’Z’面およびX’Z’面の各観察面の合成画像を生成するときに用いるボケ関数は、X’Y’面、Y’Z’面およびX’Z’面の各観察面に垂直な軸を光軸とみなしたボケ関数を用いることにより、先の実施形態と同様の手法で求めることができる。具体的には、座標系X’Y’Z’の各軸のうち観察方向をZ’軸とする。観察者の左右の目の方向をX’軸とする。X’軸とZ’軸に直交する軸をY’軸とする。この新たな座標系X’Y’Z’にて式(17)を用いることで自由な視点かつ任意の深度でステレオ化された画像を生成可能である。
[顕微鏡の高速Zスキャン]
顕微鏡やデジカメなどの光学機器でZスキャンを高速で行うのは先に述べたZステージを高速に移動させるほかに、例えばTAGレンズ(登録商標)などとして市販されている、焦点距離可変液体レンズを用いても良い。焦点距離可変液体レンズは、液体レンズに60kHzから最大1MHzの一定の周波数の超音波をかけることにより、液体レンズの中心に動的な濃度変化ひいては屈折率変化を発生させ、その結果、焦点距離を高速で変化させるものである。焦点距離可変液体レンズを利用すればメカニカルな動きを一切介せずに、超音波アクチュエータへの入力電圧と共振周波数のコントロールのみで焦点距離、ひいては焦点位置を1μsec以下の高速で可変できる光学系を構成可能である。このような高速のZスキャン光学系を有する顕微鏡を用い、任意ボケアルゴリズムで合成することでほぼリアルタイムの観察が3Dで行えるようになる。
[観察画像の3D表示]
次に、観察画像を3D表示する応用例について説明する。
図24は、共焦点フィルタのボケ関数による視差なし画像の合成例を示す。図24(a)は、multi photon顕微鏡により、標本(脳オルガノイド透明化標本)を10μm間隔でスライスして撮影した複数枚の画像の中の1枚の元画像である。図24(b)は、先の実施形態で説明した任意ボケアルゴリズムを適用し、焦点深度を拡大する共焦点フィルタ(CF(コンフォーカル))でNA=0.1(以降、CF_NA0.1と記載)にて合成した視差なしの合成画像の一例を示す。ここで、multi photon顕微鏡の場合、撮影された元画像の焦点深度は浅いのが一般的であるが、本実施形態の任意ボケアルゴリズムの適用により、任意のNAに設定できるので、焦点深度を拡大した合成画像を生成して観察することができる。
また、式(17)、図14および図15で説明したように、本実施形態に係る画像処理装置100および画像処理装置100Aは、任意の視点から見たときの視差画像を生成できるので、3D表示するための右目用と左目用の合成画像をそれぞれ生成することができる。
ここで、3D表示する際の最大視差量は健康上の制約がある。2010年4月の3Dコンソーシアム安全ガイドライン部会によれば、標準観視距離(テレビの画面高さの3倍距離)において鑑賞する場合、表示ディスプレイの水平方向の長さの最大で3%以内の両眼視差とすることが求められている。つまり、左右眼の最大視差はそれぞれ1.5%以内となる。例えば、ハイビジョンテレビ(16:9)規格のディスプレイの場合、1920×1080の解像度であるので、1920*1.5%=28.8画素程度の視差に抑える必要がある。ここで、*は乗算を意味する。
3D表示する場合の奥行表示の属性として、(1)「奥行表示範囲」、(2)「奥行表示深度」、(3)「奥行焦点深度」を定義する。属性(1)はデータの奥行方向の範囲を示し、ボケカーネル(ボケ関数に相当)によって変化しない。例えば28画素の視差の範囲で、フォーカススタックデータ(Z軸方向に位置が異なる複数の画像)のzステップ(Z軸方向の画像の間隔(dz))が150nmであって、フォーカススタックデータ1枚当たり、1画素のシフトを与える場合、「奥行表示範囲」は焦点がディスプレイ面とした場合、その前後方向で±28枚つまり(150nm)*(±28枚)=±4200nmとなる。属性(2)の「奥行表示深度」は属性(1)の範囲内であって、任意ボケアルゴリズムで処理された後に実際に目視可能な明るさのある範囲を示す。これはボケカーネルの種類、NAによって変化する。また、明るさのパラメータ(γ値、コントラスト、明るさなど)によっても変化する。ボケカーネルの種類は通常のコンベンショナルのPSF、コンフォーカルのPSF、その他ユーザーが任意に設定可能である。コンベンショナルのPSFによるボケカーネルは回折、収差なしの幾何光学ボケカーネルである。これは光軸に直交する断面が均一な円で表される関数となり、この関数は、円の半径は焦点からの距離をdz、開口数をNAとすると、dz*tan(asn(NA))となる。また、PSFの強度は円の面積で正規化する。ここで、コンフォーカルのPSFはコンベンショナルのPSFの2乗で表される。このためコンフォーカルのPSFは焦点から外れると急激に強度が低下し、属性(2)の「奥行表示深度」が焦点位置から狭い範囲に限られる傾向となる。ボケカーネルの種類をコンフォーカルとすることで焦点位置付近に特化した観察が容易に行える。また、コンフォーカルボケのNAを小さくすることで、解像度を劣化することなしに「奥行表示深度」を増加させることができる。対物レンズのNAを小さくすると解像限界が落ちて解像度が劣化するが、ボケカーネルのNAを小さくしても解像度は劣化しない。属性(3)の焦点深度は通常の意味での焦点深度で、2点が分離可能な範囲を示す。これはボケカーネルのNAに依存し、NAが大きいほど焦点深度は浅くなる。コンベンショナルPSFのボケカーネルを用いた場合、ボケカーネルのNAを大きくすると、焦点深度は浅くなるが、コンフォーカル顕微鏡のようなピンフォール効果がないので、「奥行表示深度」はかなり深く、これがフレアーとなり、試料によっては観察しにくくなる場合がある。コンフォーカルPSFのボケカーネルを用いて高NAのボケカーネルとした場合、焦点深度も浅く、「奥行表示深度」も浅くなるので、フレアーの少ない鮮明な観察が行える。コンフォーカルPSFのボケカーネルを用いて低NAのボケカーネルとした場合、焦点深度も深く、「奥行表示深度」も深くなるので、フレアーの少ない鮮明な高深度観察が行える。さらにユーザー定義のボケカーネルとして、コンベンショナルのPSFの3乗、4乗、n乗のカーネルを準備すれば、さらにフレアーの少ない観察が行える。
(3D表示する場合の奥行表示の各属性のパラメータ設定方法)
まず、属性(1)の最大視差量はディスプレイ上の最大表示倍率にて決定する。蛍光顕微鏡の場合、顕微鏡解像度λ/2NA(NAは対物レンズのもの)とナイキスト条件からλ/4NA(NAは対物レンズのもの)の画素ピッチでデータを取得することが一般的である。観察する場合、等倍表示(表示素子1ピクセルに撮像素子1ピクセルを対応させて表示するという意味。観察対象物体のディスプレイ上での拡大倍率ではない。)で光学解像限界まで観察することが可能となる。したがって、標準観視距離でディスプレイを鑑賞する場合、等倍が実質的な最大観察倍率となる。この条件で属性(1)の最大視差量が決まる。フォーカススタックデータのzステップが150nmであって、フォーカススタックデータ1枚当たり、1画素のシフトを与える場合、「奥行表示範囲」は(150nm)*(±28枚)=±4200nmとなる。
次に、ボケカーネルの種類、ボケカーネルのNAを適宜選んで、属性(2)、属性(3)を観察上最適となるように決定する。この際、ボケカーネルの強度が焦点にくらべて所定の値(例えば焦点の強度の1%)以下になる範囲を属性(2)の範囲と定義すれば、ボケカーネルの種類と「奥行表示範囲」が決まり、「奥行表示範囲」内で収まる最適なボケ像強度を与えるボケカーネルのNAは計算できる。
また、表示倍率を低下させていくと、等倍で画面の幅の1.5%、1920*1.5%から28画素の視差を設定して計算したものが、表示倍率50%では1920*1.5%*50%=14画素の視差となるので、健康上問題なく表示可能な視差量は等倍換算で56画素まで視差を与えられることになり、フォーカススタックデータのzステップが150nmであって、フォーカススタックデータ1枚当たり、1画素のシフトを与える場合、「奥行表示範囲」は焦点がディスプレイ面とした場合、(150nm)*(±56枚)=±8400nmとなる。このように表示倍率に応じて「奥行表示範囲」を自動で変えるようにしても良い。
また、ボケカーネルの種類はユーザー定義も可能とし、例えばコンベンショナルPSFの3乗や4乗のボケカーネルを定義する。これらはより狭い表示深度、を実現させる。
<X,Y,Zの3Dステレオ表示倍率を1:1:1とする条件>
健康上の理由から視差の設定を画面幅の3%以下で画像生成する条件であっても、前後方向の奥行幅はディスプレイの幅を上回るので、X,Y,Zの3Dステレオ表示倍率を1:1:1とすることが余裕をもって実現可能である。実験によれば、神経細胞などの形状認識を行う場合、X,Y,Zの3Dステレオ表示倍率を1:1:1とすると、あたかも手に取るように、立体形状を良好に認識できることを確認できた。
人間の目の瞳孔間間隔IPD、眼とディスプレイまでの距離(視距離)をLとすると、ディスプレイ中心への輻輳角α(ディスプレイ上の注目点と両目のなす角)との関係は式(19)となる。なお、IPDは平均65mm、Lは26インチディスプレイで1000mm程度である。
IPD/2=L*tan(α/2) …(19)
X,Y,Zの3Dステレオ表示倍率を1:1:1とするには、ディスプレイの視差方向の画素サイズPxのときに視差一画素当たりのデフォーカスピッチdfcsが式(20)でZ相対倍率Mz=1として与えられる量として、視差一画素当たりのデフォーカスピッチdfcsの割合で画像の横ずらしを与えて、任意ボケアルゴリズムにて画像合成すればよい。(この場合、視差一画素に満たないデフォーカスピッチの画像データは間引きされ、合成に用いられないことになる。)視差1画素当たりのデフォーカスピッチdfcsは式(20)で示される。
dfcs=Px/tan(α/2)/Mz …(20)
例えば、後述する図31に示されるように、設定パラメータ画面にZ相対倍率Mzを表示、入力可能とすることが望ましい。その場合、瞳孔間間隔、ディスプレイのサイズ、視距離、画素ピッチの情報も入力できるようにする(不図示)。ここで、本実施形態では、Z軸方向が奥行き方向に対応するので、以降の説明においてZ相対倍率Mzを奥行相対倍率Mzと称する。
(座標系XYZの目盛り付き立体表示)
物体、試料の寸法測定のために、目盛り付きの座標系XYZを立体表示することが望ましい。これを実現するには、目盛り付きの座標系XYZの3次元データ(ZをパラメータとしたXY2次元画像をスタックしたいわゆるZスタックデータまたはフォーカススタックデータ。座標のみの画像で、観察対象の情報は含まない。)を右目用、左目用に同じものを準備し、フォーカススタックデータの各Z値のXY画像1枚につき右目用、左目用としてX方向に互いに異なる方向にZに比例した画素ずつずらす。これらをZ軸方向に積分すれば、立体表示可能な右目用、左目用の画像データとなる。奥行相対倍率Mzは物体表示と同じ値にするので、視差1画素当たりのzステップ量も物体表示のdfcsと同じにする。これらの画像データを任意ボケアルゴリズムで合成した物体の右目用、左目用の画像データにそれぞれ足し合わせれば、目盛り付きの座標系XYZを物体と一緒に立体表示できる画像となる。目盛り付きの座標系XYZの3次元データの原点および目盛りの間隔をカーソルまたはキーボード入力で変更できるようにすることが望ましい。目盛り付きの座標系XYZは、物体の回転後の方向を常に表示しても良いし、常に回転前の方向を表示しても良い。
(カーソルによる物体の回転)
カーソルのドラッグにより物体を回転、シフトを押しながら平行移動としても良い。
[視差画像の生成例]
図25は、コンフォーカル顕微鏡の無収差回折無しの点像強度分布にボケ関数を適用した観察者の左右両眼の方向をX方向(紙面水平方向)とした視差画像の生成例を示す。図25(a)は、図24(b)に示したNA:0.1の視差なしの合成画像である。ここで、3D画像としてステレオ視するためには、左右の視差画像を生成する必要がある。例えば、左目用の画像は、左に視点がずれた画像を合成することで生成できる。この場合、先の実施形態で説明したように、式(17)によって計算する。式(17)の合成画像を生成する際にリフォーカスの距離を中心に、1画像手前の画像は右に例えば1画素ずらし、2画像手前の画像は例えば2画素右にずらし、3画像手前の画像は例えば3画素右にずらす処理を順番に行う。反対に、リフォーカスの距離から1画像奥の画像は左に例えば1画素ずらし、2画像奥の画像は左に例えば2画素ずらし、3画像奥の画像は左に例えば3画素ずらす処理を順番に行う。ここで、左右のずらす方向はデータの奥行方向に応じて見え方が正しい方向に決定する。逆になると凸形状が凹形状になる。なお、画像をずらした際にはボケ関数PSFaは左右にずらす必要はない。このようにして、図25(a)のCF_NA0.1の視差なし画像から図25(b)に示すCF_NA0.1左目画像を生成することができる。同様に、右目用の画像は、右に視点がずれた画像を生成する。この場合、画像処理の際にリフォーカスの距離を中心に、1画像手前の画像は左に例えば1画素ずらし、2画像手前の画像は例えば2画素左にずらし、3画像手前の画像は例えば3画素左にずらす処理を順番に行う。反対に、リフォーカスの距離から1画像奥の画像は右に例えば1画素ずらし、2画像奥の画像は右に例えば2画素ずらす処理を順番に行う。このような操作により、3次元データに対して観察方向Z軸に直交するXY面内で観察者の左右両眼の方向X軸に沿って、リフォーカスの距離を中心に、Z軸に比例した横ずらし(シアー)を与えることになる。なお、右目用画像と同様に、画像をずらした際にはボケ関数PSFaは左右にずらす必要はない。このようにして、式(17)に沿って計算することで、図25(a)のCF_NA0.1の視差なし画像から図25(c)に示すCF_NA0.1右目画像を生成することができる。
図26は、落射型顕微鏡の無収差回折無しの点像強度分布をボケ関数として適用した合成画像の一例を示す。なお、図26(a)は、図24(a)に対応する元画像である。図26(b)は、先の実施形態で説明した任意ボケアルゴリズムを適用し、落射型広視野顕微鏡のボケ関数(Conv(コンベンショナル))を再現しNA=0.1(以降、Conv_NA0.1と記載)にて合成した視差なしの合成画像の一例である。図26(b)は、図25(b)と同じ方法により生成して、観察者の左右両眼の方向をX方向(紙面水平方向)とした、左目画像(Conv_NA0.1)の一例である。同様に、図26(c)は、図25(c)と同じ方法により生成した右目画像(Conv_NA0.1)の一例である。
図27は、XZ面の視差画像の生成例を示す。なお、図27に示したXZ面の画像は、図21のXZ面の画像を90度回転させて表示したものである。図27(a)は、図21(a)に示したXZ面の元画像であり、図27(b)は、図25(a)と同様に、焦点深度を拡大する共焦点フィルタ(CF)でNA=0.25(以降、CF_NA0.25と記載)にて合成した視差なしの合成画像の一例である。また、図27(c)は、図25(b)と同じ方法により生成して、観察者の左右両眼の方向をZ方向(紙面水平方向)とした、左目画像(Conv_NA0.25)の一例である。同様に、図27(d)は、図25(c)と同じ方法により生成した右目画像(Conv_NA0.25)の一例である。なお、図21のYZ面の画像についても、図27と同様に、左目用と右目用の視差画像を生成することができる。
このようにして、本実施形態に係る画像処理装置は、任意のリフォーカス位置における任意のボケ量(例えばCF_NA0.1、Conv_NA0.1およびConv_NA0.25など)の視差画像を合成することによりステレオ化が行えるので、3Dディスプレイやヘッドマウントディスプレイなどで3次元被写体の立体視が可能となる。ここで、図25、図26および図27では、座標系XYZの各軸方向の任意のリフォーカス位置における任意のボケ量の視差画像を生成する例を示したが、図23で説明したように、座標系XYZを各軸方向に任意の角度で回転させた座標系X’Y’Z’における合成画像を生成する方法に適用してもよい。これにより、座標系X’Y’Z’の各軸方向の任意のリフォーカス位置における任意のボケ量の視差画像を生成することができるので、三次元形状の標本を任意の方向から任意のボケ量で立体視することが可能になる。
[操作インターフェースの例]
図28は、本実施形態に係る画像処理装置100Aの操作インターフェースの一例と表示画像例を示す。図28(a)は、図22で説明した画像処理装置100Aの入力装置IMおよび出力装置OMにより実現される操作インターフェース300の一例を示し、ユーザーはディスプレイ上に表示された設定パラメータの設定を行う。ここで、図22の出力装置OMは2D/3Dディスプレイおよびヘッドマウントディスプレイなどに対応し、入力装置IMはマウス、キーボードおよびタッチパネルなどに対応する。図28(b)は、図28(a)の設定パラメータによる表示画像の一例を示す。ここで、図28(a)に示す設定パラメータの画面と図28(b)に示す画像表示の画面とが1つのディスプレイ上に並べて表示されてもよいし、設定パラメータの画面と画像表示の画面とが別々のディスプレイに表示されてもよい。また、図28(b)に示す合成画像の画面には、元画像の撮影データの情報(NA、媒質屈折率、蛍光励起波長、受光波長など)が合成画像と共に表示される。
図28(a)において、操作インターフェース300の画像種類選択ボタン「断面/3D/2D」によりフォーカススタックの生のデータによる断面画像、任意ボケアルゴリズムで処理した後の3D画像および2D画像の表示を選択することができる。図28(a)の例では、丸印で囲まれた「断面」が選択されており、図28(b)には断面画像が表示される。「Pr(Xr,Yr,Zr)」の設定領域には、図28(b)に表示される画像のXY,YZ,XZの各断面の位置を設定する。点Prの座標は、マウスによるカーソル操作、またはキーボードにより入力する。点Prの座標が決まるとディスプレイ上に点Prを通るX,Y,Z軸に平行な直線(図28(b)の画像上の実線部分)が表示され、同時にXY,YZ,XZ各断面が表示され、物体のどこの断面を観察しているかが明確に表示される。「全画面」ボタンを押すとあらかじめ選択したXY,YZ,XZの3断面のうち任意の断面を全画面表示できる。「全データ」ボタンを押すとデータ全体が表示される。全データの大きさは「データサイズ」に表示され、その時の倍率が自動的に「倍率=_%」に表示される。また、倍率を変更すると表示する大きさが変更される。倍率を大きくすると表示範囲が狭くなる。このとき表示中心の位置は各断面で変わらない。「データピッチ」にはデータの間隔が表示される。また、「表示範囲」にはデータの表示範囲が表示され、例えば図28(b)の画像上でコントロールキーとマウスのドラッグにより各断面を平行に上下左右に移動することができる。拡大後もXY,YZ,XZ各断面は連動して平行移動するようにする。そうすることで表示領域を任意に変えられる。断面表示において物体の回転も可能である。物体の回転は全体のデータを「全データ」ボタンを押して表示させ、オルトキーとカーソルのドラッグにより全データの中心を回転の中心として回転させる。回転により、角度φ、θ、ψが決定する(「φ=_deg」、「θ=_deg」、「ψ=_deg」に表示(或いはキーボードで入力してもよい))。回転させた後のデータは先に述べたアフィン変換と補手段によりXY,YZ,XZ各断面内の方眼座標のデータが計算され、画面上に画像が表示される。
断面表示画面で任意ボケアルゴリズムによる画像合成を行うパラメータを設定する。奥行表示の属性(1)「奥行表示範囲」、属性(2)「奥行表示深度」、属性(3)「奥行焦点深度」が画面上に表示される。属性(1)「奥行表示範囲」はマニュアルにより任意の値を入力または、健康上の安全基準から決まる最大両眼視差と奥行相対倍率Mzから自動計算されるオート(auto)が選択可能である。奥行相対倍率Mzのデフォルト値は1である。奥行相対倍率Mzは任意の値に設定できる。つづいてボケカーネルを設定する。ボケカーネルはコンフォーカル(CFと表示),通常落射広視野(convと表示)、ユーザー定義、等から選択する。(ユーザー定義はPSF^n(PSFのn乗)などとして、CFより深度を浅くしたりすることが可能。)それぞれに対して、光軸に直する断面が均一円形分布とガウス分布が選択可能である。さらにボケカーネルのNAをauto(自動)、manual(手動でキーボード入力)、一点鎖線(画像上でカーソル指定)のいずれかにより設定する。autoが選択されるとNAは属性(1)「奥行表示範囲」内でボケカーネルの強度が最大から最小までたとえば100倍に変化するように、奥行相対倍率Mzと「奥行表示範囲」などの情報から自動で設定される。この時「奥行表示深度」は「奥行表示範囲」と等しくなる(表示深度をピーク強度の1%までとした場合)。「奥行表示範囲」は図28(b)の画像上に一点鎖線で表示され、「奥行表示深度」は図28(b)の画像上に破線で表示される。「奥行焦点深度」は例えばλ/NA^2で計算される。「奥行表示深度」および「奥行焦点深度」の値は、操作インターフェース300の設定パラメータ画面のGUIに表示される。ボケカーネルは合成画像の深度とボケ量、ボケ像質を決定する。なお、「深度」ボタンにより、「奥行表示範囲」および「奥行表示深度」の破線および一点鎖線の表示を入り切りすることができる。また、「ルーラー」ボタンにより、3D表示の際に計測用の3Dルーラーを表示させ、2D表示の際に計測用の2Dルーラーを表示させることができる。
以上のパラメータの設定後、画像種類選択ボタン「断面/3D/2D」の「3D」または「2D」を選択すると任意ボケアルゴリズムで処理された画像が表示される。例えば、図29は「2D」が選択されたときの任意ボケアルゴリズムで処理された画像、図30は「3D」が選択されたときの任意ボケアルゴリズムで処理された画像をそれぞれ示す。
図31は、本実施形態に係る画像処理装置100Aの使用例を示す。図31に示した操作インターフェース300は、図28から図30で説明した操作インターフェース300に対応する。図31では、角度設定領域301、観察位置設定領域302、観察点名称領域303、倍率設定領域304および断面/3D/2D選択領域305の操作例を説明する。ここで、操作インターフェース300は、画像処理装置100Aを操作して、3Dディスプレイ400およびヘッドマウントディスプレイ(HMD)401に観察画像を表示するときのパラメータを設定するためのインターフェースであり、例えばタッチパネル、キーボード、マウスなどにより数値の入力や項目の選択を行う。
角度設定領域301は、図23および式(18)で説明したX軸、Y軸、Z軸の各軸の回転角度φ、θ、ψをそれぞれ設定する領域である。キーボード入力またはカーソルで「シフト+ドラッグ」操作で変更できるようにしても良い。例えば、回転角度φの領域に30度、回転角度θの領域に15度、回転角度ψの領域に10度、のように回転角度が設定される。
観察位置設定領域302は、X軸、Y軸、Z軸の各軸の断面観察位置およびリフォーカス位置をそれぞれ設定する領域である。例えば、X軸の領域にXr=+80μm、Y軸の領域にYr=-50μm、Z軸の領域にZr=+100μm、の合成画像を生成するように、データの処理範囲およびリフォーカス位置が設定される。マウスによるクリックによっても入力できるようにソフトウェアを構成する。
観察点名称領域303は、角度設定領域301および観察位置設定領域302により設定されたパラメータで合成された画像は設定パラメータと関連付けたファイル名でメモリなどに登録される。そして、以降の操作において、使用者は設定パラメータを反映したファイル名を選択することで過去の処理データの観察を容易に行うことができる。
倍率設定領域304は、観察画像を3Dディスプレイ400またはHMD401に表示するときの倍率量を設定する領域である。倍率量は、例えば、50%、25%、10%のように設定される。設定された倍率で自動的に表示サイズが計算され表示される。これにより、画像処理装置100Aは、3Dディスプレイ400またはHMD401に表示する画像の拡大や縮小を行うことができる。
断面/3D/2D選択領域305は、3Dディスプレイ400またはHMD401に断面画像を表示するか合成画像の3D画像を表示するか合成画像の2D画像を表示するかを選択するための領域であり、例えば断面/3D/2D選択領域305をマウスでクリックする毎に「断面」と「3D」と「2D」の文字が順番に繰り返し表示される。
そして、画像処理装置100Aは、断面/3D/2D選択領域305に「3D」が表示された状態では、左目画像および右目画像の視差画像を3Dディスプレイ400またはHMD401に表示し、「2D」が表示された状態では、視差なしの画像を3Dディスプレイ400またはHMD401に表示する。また、「断面」が表示された状態では、指定された観察面に対応する断面画像を3Dディスプレイ400またはHMD401に表示する。
このようにして、観察位置や表示画像の種類などのパラメータが設定される。
一方、図28から図30で説明したように、任意ボケアルゴリズムで画像合成するために必要なパラメータの決定を行う。まず、先に説明した方法で「奥行表示範囲」を自動または任意に設定する。「奥行表示範囲」が決定するとグラフィック上に一点鎖線などで表示される。さらにボケカーネル種類、ボケカーネルNAを設定することで「奥行表示深度」が決まり、グラフィック上に破線などで表示される。また、「奥行焦点深度」も計算される。なお、「奥行表示範囲」、「奥行表示深度」および「奥行焦点深度」の値は、操作インターフェース300の設定パラメータ画面のGUIに表示される。これらのパラメータが決定すると、画像処理装置100は、座標系XYZを各軸方向に設定された角度で回転させた合成画像を3Dディスプレイ400またはHMD401に表示する。なお、「奥行表示範囲」と「奥行表示深度」は、断面表示モードまたは2D表示モードで表示して観察領域を確認して、3Dモードに切り替えて観察することが望ましい。3Dモードでは先に述べた3次元目盛り付き軸(ルーラー)表示を行い、物体の寸法を計測可能である。
3D設定Autoボタンは上で述べた「奥行表示範囲」とボケカーネルNAを含めた設定すべてを自動で計算、設定するボタンである。デフォルトではボケカーネルは円形コンフォーカルが選択され、奥行相対倍率Mzは1が設定される。「奥行表示深度」は強度で100%~1%までの範囲とされる。これらのデフォルト値は設定画面(不図示)にて変更可能である。
奥行表示倍率Mzはデフォルトで1、任意の値が入力可能である。
このようにして、本実施形態に係る画像処理装置100Aは、操作インターフェース300により設定されたパラメータで任意の(1)「奥行表示範囲」、(2)「奥行表示深度」、(3)「奥行焦点深度」で3D画像を生成して、3Dディスプレイ400またはHMD401に表示することができる。
以上、各実施形態で説明したように、画像処理装置100および画像処理装置100Aは、任意ボケアルゴリズムで焦点深度方向の複数の画像データに基づいて1枚の合成画像を生成するので、ノイズ成分が除去され、画像のSN比が向上するという効果が得られる。なお、例えばZ軸方向の元画像の取得ピッチは、同程度の間隔に設定するのが望ましい。
また、画像処理装置100および画像処理装置100Aは、SN比の観点から励起光の照度を下げられなかった場合でも合計の照度(画像取得枚数×1枚当たりの照度)が従来の照度と同等となる程度に元画像の取得時のZ軸方向のステップを細かくして、Z軸方向の画像取得枚数を増やすことで、画像取得枚数に反比例して1枚当たりの照度を低くすることができる。これにより、画像処理装置100および画像処理装置100Aは、観察対象の生物試料へのダメージを従来と同程度に抑えつつ、元画像取得時のZ軸方向の解像度を上げることが可能になる。なお、本実施形態では、Z軸方向の異なる焦点位置で元画像を取得する例を示したが、X軸方向またはY軸方向で元画像を取得してもよい。この場合、座標軸を入れ替えれば上述の実施形態と同様に考えることができる。
[自由視点で任意の深度でのステレオ画像生成を行う手法]
以下、式(17)に沿って任意ボケアルゴリズムを用いて合成する場合と、式(11)に沿って任意ボケアルゴリズムを用いないで合成する場合とにおいて、自由視点で任意の深度でのステレオ画像生成を行う手法について説明する。
[A]式(17)に沿って任意ボケアルゴリズムを用いて合成する場合
任意ボケアルゴリズムを用いて合成する場合は次のように行う。
(1)3次元フォーカススタックデータの回転、補間
アフィン変換などにより3次元フォーカススタックデータを回転させる。回転後、観察方向をZ軸、観察者の左右両眼の方向をX軸とした座標系に等間隔に整列したデータとなるように補間を行う。
(2)光学系の3次元点像強度分布の回転、補間
アフィン変換などにより光学系の3次元点像強度分布を(1)と同じだけ回転させる。回転後、観察方向をZ軸、観察者の左右両眼の方向をX軸とした座標系に等間隔に整列したデータとなるように補間を行う。
(3)3次元ボケカーネルの2次元コンボリューション
回転後の3次元フォーカススタックデータの観察方向に直交する断面に対して、任意の3次元ボケカーネルの観察方向に直交する円形断面を2次元コンボリューションする。この結果は、観察方向をZ軸、観察者の左右両眼の方向をX軸とした新フォーカススタックデータと称する。3次元ボケカーネルの焦点はリフォーカス距離に設定される。
(4)ステレオ化
上記(3)の結果の3次元データに対して観察方向Z軸に直交するXY面内で観察者の左右両眼の方向X軸に沿って、リフォーカスの距離を中心に、Z軸に比例した横ずらし(シアー)を与える。つまり、新フォーカススタックデータに対してリフォーカスの距離を中心に、Z軸に比例し1画像手前の画像は右に1画素ずらし、2画像手前の画像は2画素右にずらし、3画像手前の画像は3画素右にずらす処理を順番に行う。反対に、リフォーカスの距離から1画像奥の画像は左に1画素ずらし、2画像奥の画像は左に2画素ずらし、3画像奥の画像は左に3画素ずらす処理を順番に行う。なお、左右のずらす方向はデータの奥行方向に応じて見え方が正しい方向に決定する。逆になると凸形状が凹形状になる。また、(4)と(3)の順番は逆でもよい。
(5)観察方向への積分
上記(4)の結果を観察方向に積分する。結果は2次元データとなる。
(6)3次元ボケカーネルと回転後の3次元点像強度分布の2次元コンボリューションと積分
回転後の3次元点像強度分布の観察方向に直交する断面に対して、3次元ボケカーネルの観察方向に直交する円形断面を2次元コンボリューションする。この結果を観察方向であるZ軸方向に積分する。結果は2次元データとなる。
(7)デコンボリューション
上記(5)の結果の2次元データを(6)の結果の2次元データでデコンボリューションする。
[B]式(11)に沿って任意ボケアルゴリズムを用いないで合成する場合
任意ボケアルゴリズムを用いないで合成する場合は次のように行う。
(1)3Dフォーカススタックデータの光学PSFによる3次元デコンボリューション
光学PSFによる3次元デコンボリューション処理により3Dフォーカススタックデータは3次元物体強度分布に変換される。
(2)3次元物体強度分布の回転、補間
アフィン変換などにより3次元物体強度分布を回転させる。回転後、観察方向をZ軸、観察者の左右両眼の方向をX軸とした座標系に等間隔に整列したデータとなるように補間を行う。
(3)3次元ボケカーネルの2次元コンボリューション
回転後の3次元物体強度分布の観察方向に直交する断面に対して、任意の3次元ボケカーネル観察方向に直交する円形断面を2次元コンボリューションする。の結果は、観察方向をZ軸、観察者の左右両眼の方向をX軸とした新フォーカススタックデータと称する。3次元ボケカーネルの焦点はリフォーカス距離に設定される。
(4)ステレオ化
(3)の結果の3次元データに対して観察方向に直交する面内で観察者の左右両眼の方向X軸に沿って、リフォーカスの距離を中心に、Z軸に比例した横ずらし(シアー)を与える。つまり、新フォーカススタックデータに対してリフォーカスの距離を中心に、Z軸に比例し1画像手前の画像は右に1画素ずらし、2画像手前の画像は2画素右にずらし、3画像手前の画像は3画素右にずらす処理を順番に行う。反対に、リフォーカスの距離から1画像奥の画像は左に1画素ずらし、2画像奥の画像は左に2画素ずらし、3画像奥の画像は左に3画素ずらす処理を順番に行う。なお、左右のずらす方向はデータの奥行方向に応じて見え方が正しい方向に決定する。逆になると凸形状が凹形状になる。
(5)観察方向への積分
上記(4)の結果を観察方向に積分する。
このように、式(17)に沿って任意ボケアルゴリズムを用いて合成する場合と、式(11)に沿って任意ボケアルゴリズムを用いないで合成する場合とにおいて、自由視点で任意の深度でのステレオ画像の生成を行うことができる。式(17)に沿って任意ボケアルゴリズムを用いて合成する場合は2次元のデコンボリューションは周波数領域の割り算で行われ、ワンステップの線形演算で高速に行うことができ、高精度にPSFの影響を除去可能である。一方、式(11)の3次元のデコンボリューションは通常繰り返しの推定計算となり、パラメータの調整が必要で、時間がかかり、高精度にPSFの影響を除去することが困難である。
以上説明した本自由視点ステレオ3D画像生成技術の検証を行った。検証には無回折、無収差の液浸NA1.49のコンフォーカル顕微鏡のPSFを用いた。ボケをコンフォーカルボケとして、コンフォーカルボケカーネルのNAを1.25から0.001まで適宜変化させ、自由視点を10度刻みでX軸およびY軸周りでランダムに変化させた。この条件で生成された点像の画像は常にデルタ関数となることが確認された。このことから本自由視点ステレオ3D画像生成技術は従来の技術(3Dデコンボリューション技術など)で不可避であったアーティファクトの発生の無い、高品質の自由視点ステレオ3D画像生成が行える技術、と言うことができる。しかも、レンズPSFの実データを用いれば、元の画像よりも解像度を上げることができる。
本技術は、CT,MRIなどの3次元画像データに用いて、高品質の自由視点ステレオ3D画像生成を行えることはもちろん、CG(コンピュータグラフィックス)技術により生成された3次元画像データに適用して、自由視点でステレオ3D画像生成を行えることから、アーティファクトの無い、自然なシネマ上映用自由視点ステレオ3D画像の生成が可能となるなど、広い範囲のアプリケーションに適用できることは言うまでもない。
また本技術は、シネマ用カメラでフォーカスブラケット撮影して得られるフォーカススタック3次元画像データに用いても自由視点でステレオ3D画像生成を行えることから、実写画像からもアーティファクトの無い、自然なシネマ上映用自由視点ステレオ3D画像の生成が可能となる。
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。
10…IF部;15,15a(1)-15a(N)…前処理部;16…回転処理部;17…FFT部;20,20a(1)-20a(N)…ボケ処理部;30,30a…積算部;40,40a…鮮鋭化処理部;50…IFFT部;90…制御部;100,100A…画像処理装置;100a…画像処理部;110…撮影レンズ;120…絞り;130…撮像部;140…フレームメモリ;150…操作部材;151…レリーズ釦;152…電源スイッチ;160…表示部;170…記憶IF部;180…記憶媒体;190…プリズム;195a,195b…反射面;200…撮像装置;210…カメラボディ;220…撮影開口;300…操作インターフェース;301…角度設定領域;302…観察位置設定領域;303…観察点名称領域;304…倍率設定領域;305…断面/3D/2D選択領域;400…3Dディスプレイ;401…ヘッドマウントディスプレイ(HMD);CAM…カメラ;IM…入力装置;OM…出力装置

Claims (16)

  1. 互いに合焦位置が異なる複数の画像の各々に、(1)再合焦位置および絞り値、または(2)再合焦位置および開口数NAに対応するボケの度合いで、前記再合焦位置に設定されたボケ関数を用いてボケ処理を実行する第1処理部と、
    前記ボケ処理が実行された前記複数の画像を奥行き方向に積算した積算画像を生成する積算部と
    記積算部で生成された前記積算画像に鮮鋭化処理を実行し、所定のボケの度合いを有する合成画像を生成する第2処理部と
    を備え
    前記鮮鋭化処理は、前記積算画像を前記奥行き方向に沿って積分した関数で2次元デコンボリューションしたものであり、前記関数は、前記複数の画像が取得された光学系の点拡がり関数に前記ボケ関数を前記奥行き方向に垂直な平面内で2次元コンボリューションしたものであ
    画像処理装置。
  2. (1)前記再合焦位置および前記絞り値、または(2)前記再合焦位置および前記開口数NAは、入力装置を介して、ユーザにより指示される
    請求項1に記載の画像処理装置。
  3. 前記第1処理部は、前記複数の画像の各々が互いに異なる複数の色成分を有する場合、前記複数の画像の各々に対する前記ボケ処理を前記色成分毎に実行し、
    前記積算部は、前記色成分毎に前記積算画像を生成し、
    前記第2処理部は、前記色成分毎に前記積算画像の前記鮮鋭化処理を実行する
    請求項1又は請求項に記載の画像処理装置。
  4. 前記第1処理部による前記ボケ処理および前記第2処理部による前記鮮鋭化処理は、周波数領域で実行される
    請求項1乃至請求項のいずれか1項に記載の画像処理装置。
  5. 前記複数の画像の各々が互いに異なる複数の色成分を有する場合、前記各色成分の前記複数の画像を前記奥行き方向に移動させることにより、前記各色成分における前記合焦位置を互いに一致させる前処理部をさらに備え、
    前記第2処理部は、前記各色成分の前記複数の画像における前記移動に応じて、前記各色成分の点拡がり関数における前記合焦位置を互いに一致させる
    請求項1乃至請求項のいずれか1項に記載の画像処理装置。
  6. 前記前処理部は、前記複数の色成分がR成分、G成分およびB成分の場合、前記合焦位置の画像以外の前記G成分の前記複数の画像を前記奥行き方向に移動させることにより、前記各色成分における前記合焦位置を互いに一致させ、
    前記第2処理部は、前記G成分の前記複数の画像の前記移動に応じて、前記各色成分の点拡がり関数における前記合焦位置を互いに一致させる
    請求項に記載の画像処理装置。
  7. 前記第2処理部は、前記光学系の光軸に対して垂直な平面上で(1)前記複数の画像および前記点拡がり関数、または(2)前記ボケ関数を所定量シフトさせ、任意の再合焦位置で前記合成画像を生成する
    請求項1に記載の画像処理装置。
  8. 前記第2処理部は、ステレオ視するための第1の目用の前記合成画像と第2の目用の前記合成画像とをそれぞれ生成する
    請求項に記載の画像処理装置。
  9. 前記第2処理部は、
    第1の目用の画像を生成するときには、前記複数の画像を、前記再合焦位置から前記光学系に近くなるほど第1の方向側に大きくシフトさせ前記複数の画像を、前記再合焦位置から前記光学系に対して遠くなるほど前記第1の方向とは逆の第2の方向側に大きくシフトさせる処理を行い、
    第2の目用の画像を生成するときには、前記複数の画像を、前記再合焦位置から前記光学系に近くなるほど前記第2の方向側に大きくシフトさせ前記再合焦位置から前記光学系に対して遠くなるほど前記第1の方向側に大きくシフトさせる処理を行う
    請求項に記載の画像処理装置。
  10. 前記複数の画像に対して、三次元座標の各軸の少なくとも1つの軸を任意の回転角度で回転させた複数の画像を生成する回転処理部をさらに設け、
    前記第1処理部は、前記回転処理部が回転させた複数の画像の各々に、前記再合焦位置でのボケ処理を実行する
    請求項1乃至請求項のいずれか一項に記載の画像処理装置。
  11. 前記ボケ処理のボケの度合いおよび前記回転角度の少なくとも1つを設定するための操作インターフェースをさらに備える
    請求項10に記載の画像処理装置。
  12. 互いに合焦状態が異なる複数の画像の各々に、(1)再合焦位置および絞り値、または(2)再合焦位置および開口数NAに対応するボケの度合いで、前記再合焦位置に設定されたボケ関数を用いてボケ処理を実行し、
    前記ボケ処理が実行された前記複数の画像を奥行き方向に積算した積算画像を生成し
    成された前記積算画像に鮮鋭化処理を実行し、所定のボケの度合いを有する合成画像を生成し、
    前記鮮鋭化処理は、前記積算画像を前記奥行き方向に沿って積分した関数で2次元デコンボリューションしたものであり、前記関数は、前記複数の画像が取得された光学系の点拡がり関数に前記ボケ関数を前記奥行き方向に垂直な平面内で2次元コンボリューションしたものであ
    処理をコンピュータに実行させる画像処理プログラム。
  13. 前記複数の画像に対して、三次元座標の各軸の少なくとも1つの軸を任意の回転角度で回転させた複数の画像を生成する回転処理をさらに実行し、前記回転処理により回転させた複数の画像の各々に、前記再合焦位置でのボケ処理を実行する
    処理をコンピュータに実行させる
    請求項12に記載の画像処理プログラム。
  14. 互いに合焦状態が異なる複数の画像の各々に、(1)再合焦位置および絞り値、または(2)再合焦位置および開口数NAに対応するボケの度合いで、前記再合焦位置に設定されたボケ関数を用いてボケ処理を実行し、
    前記ボケ処理が実行された前記複数の画像を奥行き方向に積算した積算画像を生成し
    成された前記積算画像に鮮鋭化処理を実行し、所定のボケの度合いを有する合成画像を生成し、
    前記鮮鋭化処理は、前記積算画像を前記奥行き方向に沿って積分した関数で2次元デコンボリューションしたものであり、前記関数は、前記複数の画像が取得された光学系の点拡がり関数に前記ボケ関数を前記奥行き方向に垂直な平面内で2次元コンボリューションしたものであ
    ことを含む画像処理方法。
  15. 前記複数の画像に対して、三次元座標の各軸の少なくとも1つの軸を任意の回転角度で回転させた複数の画像を生成する回転処理をさらに実行し、前記回転処理により回転させた複数の画像の各々に、前記再合焦位置でのボケ処理を実行する
    請求項14に記載の画像処理方法。
  16. 少なくとも1つの対物レンズと、
    少なくとも1つの撮像素子と、
    前記対物レンズと前記撮像素子とを用いて取得した前記複数の画像に基づき、所定の前記ボケの度合いを有する前記合成画像を生成する請求項1乃至請求項11のいずれか1項に記載の画像処理装置と
    を備える顕微鏡。
JP2018236689A 2017-12-21 2018-12-18 画像処理装置、画像処理プログラム、画像処理方法および顕微鏡 Active JP7238381B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19898401.5A EP3902238A4 (en) 2017-12-21 2019-06-14 IMAGE PROCESSING DEVICE, IMAGE PROCESSING PROGRAM, IMAGE PROCESSING METHOD AND IMAGE DEVICE
PCT/JP2019/023772 WO2020129280A1 (ja) 2017-12-21 2019-06-14 画像処理装置、画像処理プログラム、画像処理方法および撮像装置
US17/353,539 US11928794B2 (en) 2017-12-21 2021-06-21 Image processing device, image processing program, image processing method, and imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017244786 2017-12-21
JP2017244786 2017-12-21

Publications (3)

Publication Number Publication Date
JP2019114250A JP2019114250A (ja) 2019-07-11
JP2019114250A5 JP2019114250A5 (ja) 2022-01-27
JP7238381B2 true JP7238381B2 (ja) 2023-03-14

Family

ID=67221573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018236689A Active JP7238381B2 (ja) 2017-12-21 2018-12-18 画像処理装置、画像処理プログラム、画像処理方法および顕微鏡

Country Status (4)

Country Link
US (1) US11928794B2 (ja)
EP (1) EP3902238A4 (ja)
JP (1) JP7238381B2 (ja)
WO (1) WO2020129280A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246788A1 (ko) * 2019-06-05 2020-12-10 세종대학교산학협력단 스캐닝 홀로그램 기반 자동광학검사 장치 및 방법
CN110503620B (zh) * 2019-07-31 2023-01-06 茂莱(南京)仪器有限公司 一种基于傅立叶频谱提取的图像融合方法
CN114730070A (zh) * 2019-11-22 2022-07-08 索尼集团公司 图像处理方法、图像处理装置和图像处理***
CN113452898B (zh) * 2020-03-26 2023-07-18 华为技术有限公司 一种拍照方法及装置
CN111784695B (zh) * 2020-06-01 2024-03-22 北京像素软件科技股份有限公司 图形的裁剪方法、装置、电子设备及存储介质
US11893668B2 (en) * 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
US20230044716A1 (en) * 2021-08-03 2023-02-09 Samsung Electronics Co., Ltd. Meta-lens, imaging optics, and electronic device including the same
CN115049655B (zh) * 2022-08-15 2022-11-11 汕头大学·香港中文大学联合汕头国际眼科中心 一种小鼠模型视网膜病灶分布分析方法
CN115100440B (zh) * 2022-08-22 2023-01-10 深圳市今朝时代股份有限公司 基于超级电容储能的电源监管反馈***

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247439A (ja) 2001-02-13 2002-08-30 Ricoh Co Ltd 画像入力装置、画像入力方法、およびその方法をコンピュータで実行するためのプログラムが格納されているコンピュータが読み取り可能な記録媒体
JP2013026844A (ja) 2011-07-21 2013-02-04 Nikon Corp 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ
JP2013531309A (ja) 2010-06-29 2013-08-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム
JP2014107631A (ja) 2012-11-26 2014-06-09 Nikon Corp 画像生成方法及び装置
US20140368494A1 (en) 2013-06-18 2014-12-18 Nvidia Corporation Method and system for rendering simulated depth-of-field visual effect
WO2015146380A1 (ja) 2014-03-28 2015-10-01 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2017034682A (ja) 2016-09-08 2017-02-09 株式会社ニコン 画像生成装置、画像処理装置、画像生成方法及び画像処理プログラム
US20170091906A1 (en) 2015-09-30 2017-03-30 Lytro, Inc. Depth-Based Image Blurring
JP2017201810A (ja) 2017-06-27 2017-11-09 株式会社ニコン 撮像装置及び撮像方法
JP2018157573A (ja) 2018-04-25 2018-10-04 株式会社ニコン 任意視点画像合成方法及び画像処理装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3303128B2 (ja) 1998-04-15 2002-07-15 東京大学長 複数画像を用いる画像処理方法およびそれに用いる複数画像同時撮像型カメラ装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247439A (ja) 2001-02-13 2002-08-30 Ricoh Co Ltd 画像入力装置、画像入力方法、およびその方法をコンピュータで実行するためのプログラムが格納されているコンピュータが読み取り可能な記録媒体
JP2013531309A (ja) 2010-06-29 2013-08-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム
JP2013026844A (ja) 2011-07-21 2013-02-04 Nikon Corp 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ
JP2014107631A (ja) 2012-11-26 2014-06-09 Nikon Corp 画像生成方法及び装置
US20140368494A1 (en) 2013-06-18 2014-12-18 Nvidia Corporation Method and system for rendering simulated depth-of-field visual effect
WO2015146380A1 (ja) 2014-03-28 2015-10-01 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
US20170091906A1 (en) 2015-09-30 2017-03-30 Lytro, Inc. Depth-Based Image Blurring
JP2017034682A (ja) 2016-09-08 2017-02-09 株式会社ニコン 画像生成装置、画像処理装置、画像生成方法及び画像処理プログラム
JP2017201810A (ja) 2017-06-27 2017-11-09 株式会社ニコン 撮像装置及び撮像方法
JP2018157573A (ja) 2018-04-25 2018-10-04 株式会社ニコン 任意視点画像合成方法及び画像処理装置

Also Published As

Publication number Publication date
JP2019114250A (ja) 2019-07-11
US11928794B2 (en) 2024-03-12
EP3902238A1 (en) 2021-10-27
EP3902238A4 (en) 2022-09-07
US20210312596A1 (en) 2021-10-07
WO2020129280A1 (ja) 2020-06-25

Similar Documents

Publication Publication Date Title
JP7238381B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法および顕微鏡
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
JP5968107B2 (ja) 画像処理方法、画像処理装置およびプログラム
JP5780865B2 (ja) 画像処理装置、撮像システム、画像処理システム
CN109310278B (zh) 图像处理装置、图像处理方法、程序和图像处理***
US10146039B2 (en) Image capture method for a microscope system, and corresponding microscope system
EP3086185A1 (en) Holographic three-dimensional display system and method
CN104144284B (zh) 成像设备和成像方法
JP5464279B2 (ja) 画像処理装置、そのプログラム、および画像処理方法
CN109031642B (zh) 一种通用的体视显微裸眼可视化的显示方法和***装置
JP6478511B2 (ja) 画像処理方法、画像処理装置、複眼撮像装置、画像処理プログラム、および、記憶媒体
JP2000207549A (ja) 画像処理装置
JP2019114250A5 (ja) 画像処理装置、画像処理プログラム、画像処理方法および顕微鏡
JP2013026844A (ja) 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ
JP2016024489A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
KR20210005555A (ko) 디지털 가능하게 보정된 수차가 있는 혼합 현실 광학 시스템
KR102253320B1 (ko) 집적영상 현미경 시스템에서의 3차원 영상 디스플레이 방법 및 이를 구현하는 집적영상 현미경 시스템
US20160353079A1 (en) Image processing apparatus, image processing method, and storage medium
Mignard-Debise et al. Light-field microscopy with a consumer light-field camera
US20180081161A1 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP6170725B2 (ja) 画像処理装置、及びプログラム
JP2017034682A (ja) 画像生成装置、画像処理装置、画像生成方法及び画像処理プログラム
JP2019520897A (ja) 拡張された被写界深度を有する口腔内イメージング装置
JP2017050662A (ja) 画像処理装置、撮像装置および画像処理プログラム
US20040169922A1 (en) Stereo microscopy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R150 Certificate of patent or registration of utility model

Ref document number: 7238381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150