JP6655379B2 - 焦点スタックから適応スライス画像を生成する方法および装置 - Google Patents

焦点スタックから適応スライス画像を生成する方法および装置 Download PDF

Info

Publication number
JP6655379B2
JP6655379B2 JP2015246946A JP2015246946A JP6655379B2 JP 6655379 B2 JP6655379 B2 JP 6655379B2 JP 2015246946 A JP2015246946 A JP 2015246946A JP 2015246946 A JP2015246946 A JP 2015246946A JP 6655379 B2 JP6655379 B2 JP 6655379B2
Authority
JP
Japan
Prior art keywords
image
subject
focus
processor
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015246946A
Other languages
English (en)
Other versions
JP2016122444A (ja
JP2016122444A5 (ja
Inventor
ジユエ,ピエリツク
ドラジツク,バルテル
ロベール,フイリツプ
バンダム,ブノワ
Original Assignee
インターデジタル シーイー パテント ホールディングス
インターデジタル シーイー パテント ホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル シーイー パテント ホールディングス, インターデジタル シーイー パテント ホールディングス filed Critical インターデジタル シーイー パテント ホールディングス
Publication of JP2016122444A publication Critical patent/JP2016122444A/ja
Publication of JP2016122444A5 publication Critical patent/JP2016122444A5/ja
Application granted granted Critical
Publication of JP6655379B2 publication Critical patent/JP6655379B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20108Interactive selection of 2D slice in a 3D data set
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Lenses (AREA)
  • Optics & Photonics (AREA)

Description

本開示は、概ね、画像の焦点スタックから適応スライス画像を生成する方法および装置に関する。
プレノプティック・カメラは、主レンズとセンサとの間にマイクロレンズ・アレイを配置することによって、センサを横切る各光束に沿って進行する光の量を測定することができる。光照射野(ライトフィールド)を後処理して、1つのシーンの異なる視点からの複数の画像を再構築することができる。光照射野画像を使用して、異なる奥行きを有する複数の画像を含む焦点スタックを生成することができる。その結果として、ユーザは、画像の焦点を変化させることができる。従来のカメラと比較すると、プレノプティック・カメラは、後処理による上記の異なる視点および奥行きからのシーンの複数の画像の再構築を実現するための追加の光学情報構成要素を得ることができる。
Lytro社から入手可能なLytroライトフィールド・カメラなどのプレノプティック・タイプ1では、マイクロレンズのアレイは、センサの前に配置される。マイクロレンズ・アレイの全てのマイクロレンズは、同じ焦点距離を有し、マイクロレンズ・アレイは、センサから焦点距離1つ分離れたところに配置される。この構成により、最大の角度分解能と、低い空間分解能とを得ることができる。
(例えばプレノプティック・カメラまたはカメラ・アレイによって取得した、あるいはコンピュータ生成画像(CGI)でシミュレートした)ライトフィールド画像またはビデオのデータセットを再編成して、その焦点面の近傍のレンズによって生成されるライトフィールドと同様のフロント・レンズの焦点面の近傍の光データ・ボリュームを形成する。このような焦点スタックを、図1に概略的に示す。
カメラを用いた従来の合焦は、焦点スタック内の画像のうちの1つを選択することによってシミュレートされ、これは、カメラの主光学軸に対して直交する方向に焦点面を移動させることに対応する。これに対して、ライトフィールド・カメラでは、異なる視点および異なる焦点からのピクチャを探索することができる。従って、ライトフィールド・カメラのユーザは、通常とは異なる方法で合焦を制御することができ、例えば、図1に示すように、焦点スタックを横切る交差平面を定義して、焦点スタック内のスライス画像を抽出することができる。そのようなスライス画像は、交差平面に沿った「全焦点」画像を提供することができる。
非特許文献1は、ライトフィールド画像を使用して焦点スタックを生成することができることに言及しており、プレノプティック・カメラから全焦点画像を生成することを提案している。
ただし、被写体が焦点スタックの焦点面上に位置するときには、交差平面が図2に示すように被写体を横切る場合には、被写体の左端の前面は、距離d1だけ交差平面より後方にあり、被写体の右端の前面は、距離d2だけ交差平面より前方にある。焦点面上の被写体と交差平面との間のこれらの距離により、スライス画像の再合焦プロセスが行われた後でスライス画像上に合焦した画像では、被写体の両端がぼやけることになる。
J.P.Luke他、「Near Real−Time Estimation of Super−Resolved Depth and All−in−Focus Images from a Plenoptic Camera Using Graphics Processing Units」、International Journal of Digital Multimedia Broadcasting Volume 2010 Wikipedia、「Bilinear interpolation」のページ N.Sabater他、「Accurate Disparity Estimation for Plenoptic Images」、ICCP 2014 Nathan Silberman他、「Indoor Segmentation and Support Inference from RGBD Images」、ECCV−12
本開示の一態様によれば、再合焦画像の焦点スタックから、この焦点スタックから導出した全焦点画像を使用して適応スライス画像を生成する装置は、焦点スタック中においてスライス画像を選択し、適応スライス画像中に合焦させる、全焦点画像中の少なくとも1つの被写体を選択し、全焦点画像中の選択した少なくとも1つの被写体を選択したスライス画像に合成することによって適応スライス画像を生成するように構成されたプロセッサを有することができる。
本開示の別の態様によれば、再合焦画像の焦点スタックから、被写体が合焦して見えるこの焦点スタックから導出した全焦点画像を使用して適応スライス画像を生成する方法は、焦点スタック中においてスライス画像を選択することと、適応スライス画像中に合焦させる、全焦点画像中の少なくとも1つの被写体を選択することと、全焦点画像中の選択した少なくとも1つの被写体を選択したスライス画像に合成することによって適応スライス画像を生成することとを含むことができる。
本開示の別の態様によれば、通信ネットワークからダウンロード可能であり、コンピュータによって可読な媒体に記録され、かつ/またはプロセッサによって実行可能なコンピュータ・プログラム製品は、本開示による方法を実施するプログラム・コード命令を含むことができる。
本開示のさらに別の態様によれば、非一時的なコンピュータ可読媒体は、本開示による方法を実施するプログラム・コード命令を含む、その媒体に記録されてプロセッサによって実行することができるコンピュータ・プログラム製品を含むことができる。
本開示の目的および利点は、特許請求の範囲に特に指摘する要素およびその組合せによって実現および達成される。
以上の大まかな説明および以下の詳細な説明は、ともに例示および説明のためのものであり、請求する本発明を制限するものではないことを理解されたい。
焦点スタック内のスライス画像の一例を示す図である。 焦点スタック内の焦点面上に位置する被写体と、被写体を横切るスライス画像とを示す図である。 プレノプティック・カメラおよびマルチアレイ・カメラの例を示す図である。 画像センサの感知表面上に配置されたセンサ領域の一例を概略的に示す平面図である。 理想的な完璧な薄肉レンズ・モデルを含む概略的なライトフィールド・カメラを示す図である。 本開示の実施形態による焦点スタックから適応スライス画像を生成する装置の一例を示す概略ブロック図である。 本開示の実施形態による焦点スタックから適応スライス画像を得るプロセスを説明するためのフローチャートである。 本開示の実施形態による焦点スタックから生成された適応スライス画像の一例を示す図である。
本開示の実施形態について、添付の図面を参照して説明する。
以下、本開示による各実施形態における焦点スタックから適応スライス画像を得る方法、装置、およびコンピュータ可読記憶媒体について説明する。
1)ライトフィールド・カメラ
図3は、プレノプティック・カメラおよびマルチアレイ・カメラの例を示す図である。ライトフィールド・カメラは、4Dライトフィールド・データを記録することができる。例えば、4Dライトフィールド・カメラは、主レンズ305と、マイクロレンズ・アレイ310と、画像センサ315とを備えるプレノプティック・カメラ300(図3(a))、またはレンズ・アレイ355と、単一の画像センサ360とを備えるマルチアレイ・カメラ350(図3(b))とすることができる。
図3(a)に示すプレノプティック・カメラ300の例では、主レンズ305は、主レンズ305の被写体視野内の被写体(図示せず)からの光を受光し、この光を主レンズ305の画像フィールドを通過させる。マイクロレンズ・アレイ310は、2次元アレイ状に配列された複数のマイクロレンズ315を含む。
図4は、画像センサの感知表面上に配列されるセンサ領域の一例を概略的に示す平面図である。図4に示すように、画像センサ400は、2次元アレイ状に配列された複数のピクセル405を含み、マイクロレンズ・アレイ410を通して被写体からの光を受光する。マイクロレンズ・アレイ410の各マイクロレンズ411は、この光を画像センサ400上の円形領域415に向けるレンズ特性を有する。円形領域415の外側輪郭は、画像センサ400上に形成されて取り込まれるマイクロレンズ画像の形状を表すことができ、この形状は、マイクロレンズ411の形状によって決まる。画像センサ400上の全てのピクセル405のうちで、円形領域415の実質的に内側に位置するピクセル405のみが、撮像に寄与する。換言すれば、撮像に寄与する各ピクセル405のピクセル領域(または感知領域)は、円形領域415の実質的に内側に位置する。
ライトフィールド・カメラの画像センサ400は、2D画像内に配列された2Dマイクロレンズ画像の集合を含む画像を記録する。マイクロレンズ・アレイ410の各マイクロレンズ411は、円形領域415で表されるマイクロレンズ画像を形成する。センサ400上のピクセル405の座標は、図4に示すように、画像センサ400の表面上のx−y座標系内の(x,y)で示される。図4に示す距離pは、2つの連続するマイクロレンズ画像の間の距離である。マイクロレンズ411は、距離pがピクセル405のサイズより大きくなるように選択される。図4に示す距離wは、2つの連続するマイクロレンズ画像の間のずれ距離である。マイクロレンズ画像は、図4に示すように、画像センサ400の表面上のi−j座標系内のそれぞれの座標(i,j)で参照される。
上述のように、円形領域415の実質的に内側に位置するピクセル405のみが、マイクロレンズ411を通して光を受光する。マイクロレンズ間の空間を遮蔽して、光子(フォトン)がマイクロレンズ411の外側を通過するのを防止することができる(マイクロレンズ411が正方形で、マイクロレンズ間の空間が形成されない場合には、このような遮蔽は不要である)。
マイクロレンズ画像(i,j)の中心は、画像センサ400上の座標(xi,j,yi,j)に位置する。図4中のθは、ピクセル405の正方格子とマイクロレンズ411の正方格子の間の角度を表す。座標(xi,j,yi,j)は、マイクロレンズ画像(0,0)のピクセル座標である(x0,0,y0,0)を考慮した以下の数式(1)によって演繹することができる。
Figure 0006655379
距離pおよびwは、ピクセルの単位で与えられる。これらの距離は、ピクセル・サイズδを乗算することによって、物理的な距離単位(メートル)PおよびWにそれぞれ変換される。すなわち、W=δw、P=δpである。これらの距離は、ライトフィールド・カメラの特徴によって決まる。
2)ライトフィールド・カメラの光学特性
ここで、ライトフィールド・カメラの例示的な光学特性について、理想的な完璧な薄肉レンズ・モデルを含む概略的なライトフィールド・カメラを示す図5を参照して説明する。
主レンズは、焦点距離Fおよび口径Φを有する。マイクロレンズ・アレイは、焦点距離fを有するマイクロレンズを含む。マイクロレンズ・アレイのピッチは、φである。マイクロレンズ・アレイは、主レンズから距離Dであり、且つセンサから距離dのところに位置する。被写体(図示せず)は、主レンズから距離zのところに位置する。この被写体は、主レンズによって、主レンズから距離z’のところに合焦される。図5は、D>z’である場合を示している。この場合には、マイクロレンズ画像は、dおよびfに応じてセンサ上に合焦することができる。
ずれWは、被写体(図示せず)と主レンズとの間の距離zとともに変化する。Wとzとの間の関係を確立するためには、薄肉レンズの数式(2)、およびタレスの法則の数式(3)に依拠することができる。
Figure 0006655379
次いで、数式(2)と(3)を混合することにより、以下の数式(4)を演繹する。
Figure 0006655379
Wとzとの間の関係では、マイクロレンズ画像が合焦していることを前提とはしていない。マイクロレンズ画像は、以下の薄肉レンズの数式によれば、厳密に合焦している。
Figure 0006655379
3)画像の再合焦
ライトフィールド・カメラの重要な特性は、画像の撮影後に再合焦距離が自由に調節可能である場合に、2D再合焦画像を計算することができることである。単にマイクロレンズ画像をシフトおよびズームし、その後それらを合計して2D画像にすることによって、サイズ[N,N]を有する4Dライトフィールド画像Lが、2D画像に投影される。マイクロレンズ画像のシフトの量によって、再合焦距離を制御する。4Dライトフィールド・ピクセルL(x,y,i,j)の再合焦2D画像座標(X,Y)への投影は、以下の数式によって定義される。
Figure 0006655379
ここで、sは、2D再合焦画像のサイズを調節し、gは、再合焦画像の合焦距離を調節する。この数式(6)は、数式(1)を考慮することによって、数式(7)に書き換えることができる。
Figure 0006655379
パラメータgは、数式(8)のようにpおよびwの関数として表現することができる。パラメータgは、同じ被写体の様々なズーム・ビューが重なり合うように、マイクロレンズ画像のそれぞれの中心を基準として使用して、マイクロレンズ画像上で実行されるべきズームを表す。
Figure 0006655379
数式(7)は、以下のようになる。
Figure 0006655379
4Dライトフィールド・ピクセル(x,y,i,j)は、2D再合焦画像に投影される。事前に、再合焦画像Rおよび再合焦画像重みRweightを0に設定する。再合焦画像のサイズ[N,N]は、4Dライトフィールド画像のサイズのs倍に設定される([N,N]=[sN,sN])。この投影は、座標(X,Y)の投影ピクセルを合計して再合焦画像にすることによって実行される。投影された4Dライトフィールド・ピクセルのそれぞれについて、ピクセル座標(X,Y)で1を追加することによって再合焦画像重みを更新する。
R(X,Y)+=L(x,y,i,j)
W(X,Y)+=1 (10)
再合焦画像重みは、座標(X,Y)について、これまでにいくつの4Dライトフィールド・ピクセルが投影されたかを表している。Lの全ての4Dライトフィールド・ピクセルを投影した後で、再合焦画像Rを、再合焦画像重みRweightで割る。この最後のステップで、座標(X,Y)について受け取ったピクセルの数を調和させる。
投影座標(X,Y)は、必ずしも整数座標であるとは限らないので、必要に応じて補間技術を使用して、非整数のピクセル座標(X,Y)を再合焦画像Rおよび再合焦画像重みRweightのグリッドにマッピングすることができる。補間技術は、一般的に使用されており、例示的な説明は、例えば非特許文献2に見ることができる。従って、本明細書では、補間技術についての詳細な説明は省略する。
4)焦点スタック(focal stack)
焦点スタックは、画像の立方体を定義するN個の再合焦画像R(n∈[1,N])の集合である。ここで、Nは、ユーザが選択する画像の数である。N個の再合焦画像を、数式(4)および(8)によって定義されるzminとzmaxの間の合焦距離の範囲に対応するgminからgmaxの間で線形に変化するgについて計算する。別の選択肢は、数式(4)によって定義されるzminとzmaxの間の合焦距離の範囲に対応するwminからwmaxの間で線形に変化するwを用いて焦点スタックを計算するものである。gまたはwのminおよびmaxの境界は、zminおよびzmaxの範囲内の合焦距離で再合焦画像を包含するようにユーザによって定義される。
本実施形態で説明する焦点スタックの計算は、4Dライトフィールドがレンズ・アレイと必要に応じて主レンズとを備える単一の画像センサによって記録されることを前提としている。ただし、焦点スタックの計算は、このようなタイプのライトフィールド・カメラによって記録される4Dライトフィールドに限定されるわけではなく、従って、任意のタイプのライトフィールド・カメラで記録される4Dライトフィールドに基づいて、再合焦画像の焦点スタックを計算することができることに留意されたい。
5)奥行きマップの推定
焦点スタックを使用して、画像中で観察されている被写体の距離を推定することができる。奥行きマップ画像Zは、再合焦画像Rのサイズを有する。奥行きマップ画像Zは、焦点スタックを用いて、再合焦画像R(X,Y)のピクセル(x,y)の鮮鋭度を、直前の再合焦画像Rn−1および次の再合焦画像Rn+1と比較することによって推定される。例えば、ピクセルR(X,Y)が直前の再合焦画像Rn−1および次の再合焦画像Rn+1より鮮鋭である場合には、奥行きマップ画像は、再合焦画像R(X,Y)のピクセル(x,y)に基づいて、Z(X,Y)=nによって実現される。奥行きマップは、(N,N)に属する全てのピクセル(X,Y)について推定される。
ピクセルR(X,Y)の鮮鋭度S(X,Y)は、例えば、R(X,Y)の周りのピクセルについて高周波数でのエネルギーの量を計算することによって推定される。鮮鋭度S(X,Y)は、以下のように表現することができる。
(X,Y)=(−R(X−1,Y)−R(X+1,Y)−R(X,Y−1)−R(X,Y+1)+4R(X,Y)) (11)
6)全焦点画像(all−in−focus image)
全焦点画像Rallは、奥行きマップ画像Zによって得ることができる。全焦点画像Rallは、全ての被写体が合焦して見える再合焦画像に対応する。全焦点画像Rallは、所与のピクセル位置(x,y)で奥行きマップ画像Zによって与えられる指標を考慮することにより、焦点スタック内のピクセルを集めることによって得られる。すなわち、Rall(X,Y)=RZ(X,Y)(X,Y)である。
7)スライス画像
再合焦する2Dスライス画像Rsliceは、焦点スタック内の少なくとも2つの画像を横切る交差平面を定義することによって得ることができる。スライス画像の座標は、焦点スタックの座標系内のその法線によって指定され、その法線は、再合焦スライス画像Rsliceを選択するためにユーザによって与えられる。
8)スライス画像および全焦点画像からの、合焦させる(1つまたは複数の)被写体の選択
本開示の実施形態によれば、再合焦適応スライス画像を得る手法がユーザに提供される。この再合焦画像は、装置のディスプレイのグラフィカル・ユーザ・インタフェース(GUI)を使用して、全焦点画像Rallから少なくとも1つの合焦させる被写体を選択することによって作成される。
図6は、本開示の実施形態による、焦点スタックから適応スライス画像を生成する装置の一例を示す概略ブロック図である。
図6に示す装置60は、プロセッサ61と、記憶ユニット62と、入力デバイス63と、ディスプレイ・デバイス64と、インタフェース・ユニット65とを含み、これらの構成要素は、バス66で接続されている。もちろん、コンピュータ装置60の構成要素は、バス66を使用するバス接続以外の接続で接続されていてもよい。
プロセッサ61は、装置60の動作を制御する。記憶ユニット62は、プロセッサ61によって実行される少なくとも1つのプログラム、ならびにライトフィールド・カメラによって取り込まれて提供される4Dライトフィールド画像のデータ、プロセッサ61によって実行される計算で使用されるパラメータ、およびプロセッサ61によって実行される計算の中間データなどを含む様々なデータを記憶する。プロセッサ61は、任意の既知の適当なハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組合せによって構成することができる。例えば、プロセッサ61は、処理回路などの専用ハードウェアによって、またはそのメモリに記憶されたプログラムを実行するCPU(中央処理装置)などのプログラマブル処理ユニットによって構成することができる。
記憶ユニット62は、プログラムまたはデータなどをコンピュータ可読的に記憶することができる任意の適当な記憶装置または手段によって構成することができる。記憶ユニット62の例としては、半導体メモリ・デバイス、ならびに読取りおよび書込みユニットにロードされる磁気的、光学的または光磁気的な記録媒体など、非一時的なコンピュータ可読記憶媒体が挙げられる。プログラムによって、プロセッサ61は、図7を参照して後述する本開示の実施形態による焦点スタックから適応スライス画像を得るプロセスを実行する。
入力デバイス63は、ユーザがコマンドを入力し、画像内の合焦させる部分をユーザが選択するために使用する、キーボード、またはマウスなどのポインティング・デバイスなどによって構成することができる。出力デバイス64は、例えばグラフィカル・ユーザ・インタフェース(GUI)、焦点スタックの画像、スライス画像、および奥行きマップ画像を表示するディスプレイ・デバイスによって構成することができる。入力デバイス63と出力デバイス64は、例えばタッチスクリーン・パネルによって一体的に構成することもできる。
インタフェース・ユニット65は、装置60と外部装置との間のインタフェースとなる。インタフェース・ユニット65は、ケーブルまたは無線通信を介して外部装置と通信可能であることもある。本実施形態では、外部装置は、ライトフィールド・カメラとすることができる。この場合には、ライトフィールド・カメラによって取り込まれた4Dライトフィールド画像のデータを、ライトフィールド・カメラからインタフェース・ユニット65を介して装置60に入力し、次いで記憶ユニット62に記憶することができる。
本実施形態では、一例として、装置60がライトフィールド・カメラから分離しており、両者がケーブルまたは無線通信を介して互いに通信可能であるものとして説明しているが、装置60は、このようなライトフィールド・カメラと一体化することもできることに留意されたい。
図7は、本開示の実施形態による焦点スタックから適応スライス画像を生成するプロセスを説明するフローチャートである。
図7に示すステップS705で、ユーザは、ライトフィールド・カメラを用いてシーンの4Dライトフィールド画像を取り込む。取り込まれた4Dライトフィールド画像のデータは、インタフェース・ユニット65を介してライトフィールド・カメラから装置60(図6)に転送され、この装置の記憶ユニット62に記憶される。このデータ転送は、装置60のプロセッサ61によって制御することができる。装置60がライトフィールド・カメラと一体化されている場合には、取り込まれたライトフィールド画像のデータは、記憶ユニット62に直接記憶することができる。
ステップS710で、装置60のプロセッサ61は、4Dライトフィールド画像データに基づいて、シーン内の異なる再合焦距離を有する2D再合焦画像Rを計算して、N個の再合焦画像Rの焦点スタックを構築する。2D再合焦画像Rおよび再合焦画像Rの焦点スタックの生成は、「3)画像の再合焦」および「4)焦点スタック」の項で上述したように実行することができる。生成した焦点スタックのデータは、記憶ユニット62に記憶される。
ステップS715で、プロセッサ61は、「5)奥行きマップの推定」の項で上述したように再合焦画像Rnの焦点スタックを使用してシーンの奥行きマップ画像Zを生成する。奥行きマップの計算は、非特許文献3でも既知である。奥行きマップ画像Zにおける被写体のセグメント化も、このステップS715で実行されることに留意されたい。このセグメント化プロセスによれば、奥行きマップ画像Z中でそれぞれの奥行きを有する被写体がセグメント化される。各被写体に属するピクセルGのグループをグループ化して、それぞれの被写体と関連付けることができる。このような被写体のセグメント化プロセスは、非特許文献4で既知であるので、本開示では、セグメント化プロセスの詳細について説明しない。奥行きマップ画像Zのデータおよび被写体のセグメント化情報は、記憶ユニット62に記憶される。
ステップS720で、プロセッサ61は、「6)全焦点画像」の項で説明したように奥行きマップ画像Zに基づいて全焦点画像Rallを生成する。全焦点画像Rallでは、画像内の全ての被写体が合焦して見え、これらの被写体は、上述のようにセグメント化されている。生成した全焦点画像Rallのデータは、記憶ユニット62に記憶される。
ステップS705からS720は、4Dライトフィールド画像データが装置60に供給された後に、プロセッサ61によって自動的に実行することができる。
ステップS725で、プロセッサ61は、ディスプレイ64上で第1のGUI(グラフィカル・ユーザ・インタフェース)機能を実行し、さらに、再合焦画像の焦点スタックを表示し得る。第1のGUI機能により、ユーザは、焦点スタックと交差するスライス画像Rsliceを選択することができる。スライス画像Rsliceは、GUI上で焦点スタック中の少なくとも2つの画像を横切る交差平面を設定することによって選択することができる。「7)スライス画像」の項で説明したように、スライス画像Rsliceの座標は、焦点スタックの座標系内のその法線によって指定され、この法線は、再合焦スライス画像Rsliceを選択するためにユーザによって定められる。選択したスライス画像Rsliceのデータは、記憶ユニット62に記憶される。
ステップS730で、プロセッサ61は、ディスプレイ64上で第2のGUI機能を実行し、ディスプレイ64に全焦点画像Rallを表示する。第2のGUI機能により、ユーザは、再合焦スライス画像Rslice上に合焦させる、表示された全焦点画像Rall中の(1つまたは複数の)被写体を選択することができる。ステップS715に関連して上述したように、これらの被写体はセグメント化されており、それぞれの被写体に属するピクセルはグループ化され、それぞれの被写体と関連付けられているので、ディスプレイ64のGUIにおけるユーザによる被写体の選択は、入力デバイス63を使用して、その被写体と関連付けられたピクセルGのグループ内の任意のピクセルを指すことによって行うことができる。(1つまたは複数の)被写体の選択の情報は、記憶ユニット62に記憶される。
ステップS735で、プロセッサ61は、ステップS730で選択した(1つまたは複数の)被写体の合焦画像を、ステップS725で選択したスライス画像Rsliceに合成することによって、再合焦適応スライス画像Ruserを生成する。再合焦適応スライス画像RUserは、ピクセルGに属さないピクセル(X,Y)については、スライス画像Rsliceに対応し得る。
Figure 0006655379
図8は、本開示の実施形態による焦点スタックから生成された適応スライス画像の一例を示す図である。図8に示すように、選択した被写体が適応スライス画像上で合焦して見えるように、最初に選択したスライス画像を修正して適応スライス画像を生成する。この点で、本開示で使用する「適応スライス画像」という用語は、選択した被写体が合焦して見える、最初に選択したスライス画像の修正画像として解釈することができることに留意されたい。
本明細書に記載する全ての例および条件に関する表現は、本発明と当技術分野をさらに進歩させるために発明者らが与える概念とを読者が理解するのを助けるという教育的な目的を有するものであって、これらの具体的に列挙した例および条件に限定するものではないと解釈されたい。また、本明細書のこれらの例の構成は、本発明の原理の優劣を示すものではない。本開示の実施形態について詳細に説明したが、本開示の範囲を逸脱することなく、様々な変更、置換および改変をこれらの実施形態に加えることができることを理解されたい。
上記の実施形態に加えて、以下の付記を開示する。
(付記1)
再合焦画像の焦点スタックから、該焦点スタックから導出した全焦点画像を使用して適応スライス画像を生成する装置であって、
前記焦点スタック中においてスライス画像を選択し、
前記適応スライス画像中に合焦させる、前記全焦点画像中の少なくとも1つの被写体を選択し、
前記全焦点画像中の前記選択した少なくとも1つの被写体を前記選択したスライス画像に合成することによって前記適応スライス画像を生成するように構成されたプロセッサを有する、前記装置。
(付記2)
前記プロセッサは、前記焦点スタックを使用して奥行きマップ画像を推定し、該奥行きマップ画像に基づいて前記全焦点画像を生成することによって、前記全焦点画像を生成するようにさらに構成されている、付記1に記載の装置。
(付記3)
前記プロセッサは、前記奥行きマップ画像中の前記少なくとも1つの被写体をセグメント化するようにさらに構成されており、前記少なくとも1つの被写体は前記奥行きマップ画像中においてそれぞれの奥行きを有する、付記2に記載の装置。
(付記4)
前記プロセッサは、被写体に属するピクセルをグループ化して、前記ピクセルのグループを前記被写体と関連付けるようにさらに構成されている、付記3に記載の装置。
(付記5)
前記プロセッサは、前記被写体に属する前記ピクセルのグループ中の任意のピクセルを選択することによって、前記少なくとも1つの被写体を選択するようにさらに構成されている、付記4に記載の装置。
(付記6)
再合焦画像の焦点スタックから、該焦点スタックから導出した全焦点画像を使用して適応スライス画像を生成する方法であって、
前記焦点スタック中においてスライス画像を選択することと、
前記適応スライス画像中に合焦させる、前記全焦点画像中の少なくとも1つの被写体を選択することと、
前記全焦点画像中の前記選択した少なくとも1つの被写体を前記選択したスライス画像に合成することによって前記適応スライス画像を生成することと、
を含む、前記方法。
(付記7)
前記焦点スタックを使用して奥行きマップ画像を推定することと、前記奥行きマップ画像に基づいて前記全焦点画像を生成することとをさらに含む、付記6に記載の方法。
(付記8)
前記推定することは、前記奥行きマップ画像中の前記少なくとも1つの被写体をセグメント化することをさらに含み、前記少なくとも1つの被写体は前記奥行きマップ画像中においてそれぞれの奥行きを有する、付記7に記載の方法。
(付記9)
前記セグメント化することは、被写体に属するピクセルをグループ化して、前記ピクセルのグループを前記被写体と関連付けることをさらに含む、付記8に記載の方法。
(付記10)
前記全焦点画像中の少なくとも1つの被写体を選択することは、前記少なくとも1つの被写体に属する前記ピクセルのグループ中の任意のピクセルを選択することをさらに含む、付記9に記載の方法。
(付記11)
通信ネットワークからダウンロード可能であり、かつ/またはコンピュータによって可読な媒体に記録され、かつ/またはプロセッサによって実行可能な、コンピュータ・プログラム製品であって、付記6から10のいずれか1つに記載の方法を実施するプログラム・コード命令を含む、前記コンピュータ・プログラム製品。
(付記12)
非一時的なコンピュータ可読媒体であって、付記6から10のいずれか1つに記載の方法を実施するプログラム・コード命令を含む、前記媒体に記録され、プロセッサによって実行することができるコンピュータ・プログラム製品を含む、前記非一時的なコンピュータ可読媒体。

Claims (12)

  1. 再合焦画像の焦点スタックから、該焦点スタックから導出した全焦点画像を使用して適応スライス画像を生成する装置であって、
    前記焦点スタック中においてスライス画像を選択し、
    前記適応スライス画像中に合焦させる、前記全焦点画像中の少なくとも1つの被写体を選択し、
    前記全焦点画像中の前記選択した少なくとも1つの被写体を前記選択したスライス画像に合成することによって前記適応スライス画像を生成するように構成されたプロセッサを有する、前記装置。
  2. 前記プロセッサは、前記焦点スタックを使用して奥行きマップ画像を推定し、該奥行きマップ画像に基づいて前記全焦点画像を生成することによって、前記全焦点画像を生成するようにさらに構成されている、請求項1に記載の装置。
  3. 前記プロセッサは、前記奥行きマップ画像中の前記少なくとも1つの被写体をセグメント化するようにさらに構成されており、前記少なくとも1つの被写体は前記奥行きマップ画像中においてそれぞれの奥行きを有する、請求項2に記載の装置。
  4. 前記プロセッサは、被写体に属するピクセルをグループ化して、前記ピクセルのグループを前記被写体と関連付けるようにさらに構成されている、請求項3に記載の装置。
  5. 前記プロセッサは、前記被写体に属する前記ピクセルのグループ中の任意のピクセルを選択することによって、前記少なくとも1つの被写体を選択するようにさらに構成されている、請求項4に記載の装置。
  6. 再合焦画像の焦点スタックから、該焦点スタックから導出した全焦点画像を使用して適応スライス画像を生成する方法であって、
    前記焦点スタック中においてスライス画像を選択することと、
    前記適応スライス画像中に合焦させる、前記全焦点画像中の少なくとも1つの被写体を選択することと、
    前記全焦点画像中の前記選択した少なくとも1つの被写体を前記選択したスライス画像に合成することによって前記適応スライス画像を生成することと、
    を含む、前記方法。
  7. 前記焦点スタックを使用して奥行きマップ画像を推定することと、前記奥行きマップ画像に基づいて前記全焦点画像を生成することとをさらに含む、請求項6に記載の方法。
  8. 前記推定することは、前記奥行きマップ画像中の前記少なくとも1つの被写体をセグメント化することをさらに含み、前記少なくとも1つの被写体は前記奥行きマップ画像中においてそれぞれの奥行きを有する、請求項7に記載の方法。
  9. 前記セグメント化することは、被写体に属するピクセルをグループ化して、前記ピクセルのグループを前記被写体と関連付けることをさらに含む、請求項8に記載の方法。
  10. 前記全焦点画像中の少なくとも1つの被写体を選択することは、前記少なくとも1つの被写体に属する前記ピクセルのグループ中の任意のピクセルを選択することをさらに含む、請求項9に記載の方法。
  11. 通信ネットワークからダウンロード可能であり、かつ/またはコンピュータによって可読な媒体に記録され、かつ/またはプロセッサによって実行可能な、コンピュータ・プログラムであって、請求項6から10のいずれか1項に記載の方法を実施するプログラム・コード命令を含む、前記コンピュータ・プログラム。
  12. 一時的なコンピュータ可読媒体であって、請求項6から10のいずれか1項に記載の方法を実施するプログラム・コード命令を含む、前記媒体に記録され、プロセッサによって実行することができるコンピュータ・プログラムを含む、前記非一時的なコンピュータ可読媒体。
JP2015246946A 2014-12-19 2015-12-18 焦点スタックから適応スライス画像を生成する方法および装置 Active JP6655379B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP14307106.6 2014-12-19
EP14307106.6A EP3035284A1 (en) 2014-12-19 2014-12-19 Method and apparatus for generating an adapted slice image from a focal stack

Publications (3)

Publication Number Publication Date
JP2016122444A JP2016122444A (ja) 2016-07-07
JP2016122444A5 JP2016122444A5 (ja) 2019-01-31
JP6655379B2 true JP6655379B2 (ja) 2020-02-26

Family

ID=52394851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015246946A Active JP6655379B2 (ja) 2014-12-19 2015-12-18 焦点スタックから適応スライス画像を生成する方法および装置

Country Status (5)

Country Link
US (1) US10270957B2 (ja)
EP (2) EP3035284A1 (ja)
JP (1) JP6655379B2 (ja)
KR (1) KR102400412B1 (ja)
CN (1) CN105721768B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2958766C (en) * 2016-02-25 2018-01-02 Synaptive Medical (Barbados) Inc. System and method for scope based depth map acquisition
WO2018218643A1 (en) * 2017-06-02 2018-12-06 Shanghaitech University Method and apparatus for estimating depth of field information
DE102018222865A1 (de) * 2018-12-21 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung mit einer Multiaperturabbildungsvorrichtung zur Erzeugung einer Tiefenkarte
CN110246172A (zh) * 2019-06-18 2019-09-17 首都师范大学 一种两种深度线索融合的光场全聚焦图像提取方法及***
CN110246162A (zh) * 2019-06-20 2019-09-17 首都师范大学 一种全聚焦光场图像组成方法及***
CN111277758B (zh) * 2020-02-25 2022-04-15 深圳传音控股股份有限公司 拍摄方法、终端及计算机可读存储介质
CN111462075B (zh) * 2020-03-31 2023-12-15 湖南国科智瞳科技有限公司 一种全切片数字病理图像模糊区域的快速重聚焦方法及***

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19632637C2 (de) * 1996-08-13 1999-09-02 Schwertner Verfahren zur Erzeugung parallaktischer Schnittbildstapelpaare für die hochauflösende Stereomikroskopie und/oder 3D-Animation mit konventionellen, nicht stereoskopischen Lichtmikroskopen
US6940555B2 (en) * 2000-05-19 2005-09-06 Minolta Co., Ltd. Image taking apparatus having focus control
US7262798B2 (en) * 2001-09-17 2007-08-28 Hewlett-Packard Development Company, L.P. System and method for simulating fill flash in photography
JP3867143B2 (ja) * 2003-06-25 2007-01-10 独立行政法人産業技術総合研究所 三次元顕微鏡システムおよび画像表示方法
JP2009110137A (ja) * 2007-10-29 2009-05-21 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2009171466A (ja) * 2008-01-18 2009-07-30 Fujifilm Corp デジタルカメラおよびその画像合成方法
US8184196B2 (en) * 2008-08-05 2012-05-22 Qualcomm Incorporated System and method to generate depth data using edge detection
US8405742B2 (en) * 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
JP5206494B2 (ja) * 2009-02-27 2013-06-12 株式会社リコー 撮像装置、画像表示装置と、撮像方法及び画像表示方法並びに合焦領域枠の位置補正方法
KR20110020519A (ko) * 2009-08-24 2011-03-03 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체
KR20110076831A (ko) * 2009-12-28 2011-07-06 (주)주인네트 분산 네트워크 pvr 시스템 및 그 서비스 방법
KR101756910B1 (ko) * 2010-05-11 2017-07-26 삼성전자주식회사 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법
WO2011158515A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 距離推定装置、距離推定方法、集積回路、コンピュータプログラム
EP2403234A1 (en) * 2010-06-29 2012-01-04 Koninklijke Philips Electronics N.V. Method and system for constructing a compound image from data obtained by an array of image capturing devices
US8493432B2 (en) * 2010-06-29 2013-07-23 Mitsubishi Electric Research Laboratories, Inc. Digital refocusing for wide-angle images using axial-cone cameras
JP2012027408A (ja) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd 電子機器
US8780251B2 (en) * 2010-09-20 2014-07-15 Canon Kabushiki Kaisha Image capture with focus adjustment
CN102314683B (zh) * 2011-07-15 2013-01-16 清华大学 一种非平面图像传感器的计算成像方法和成像装置
JP6095266B2 (ja) * 2012-01-13 2017-03-15 キヤノン株式会社 画像処理装置及びその制御方法
JP6029380B2 (ja) * 2012-08-14 2016-11-24 キヤノン株式会社 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
US9124762B2 (en) 2012-12-20 2015-09-01 Microsoft Technology Licensing, Llc Privacy camera
JP6112925B2 (ja) * 2013-03-15 2017-04-12 オリンパス株式会社 表示機器及び表示方法
EP3005286B1 (en) * 2013-05-30 2019-09-04 Nokia Technologies Oy Image refocusing
CN103702032B (zh) * 2013-12-31 2017-04-12 华为技术有限公司 图像处理方法、装置和终端设备
CN103826064A (zh) * 2014-03-06 2014-05-28 华为技术有限公司 图像处理方法、装置及手持电子设备
CN104079827B (zh) * 2014-06-27 2017-12-22 中国科学院自动化研究所 一种光场成像自动重对焦方法

Also Published As

Publication number Publication date
JP2016122444A (ja) 2016-07-07
EP3035285B1 (en) 2019-04-03
US20160182813A1 (en) 2016-06-23
EP3035284A1 (en) 2016-06-22
CN105721768B (zh) 2020-08-11
KR20160075357A (ko) 2016-06-29
KR102400412B1 (ko) 2022-05-19
EP3035285A1 (en) 2016-06-22
CN105721768A (zh) 2016-06-29
US10270957B2 (en) 2019-04-23

Similar Documents

Publication Publication Date Title
JP6655379B2 (ja) 焦点スタックから適応スライス画像を生成する方法および装置
US10116867B2 (en) Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product
US9412151B2 (en) Image processing apparatus and image processing method
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
US8929677B2 (en) Image processing apparatus and method for synthesizing a high-resolution image and a refocused image
TWI510086B (zh) 數位重對焦方法
KR20170005009A (ko) 3d 라돈 이미지의 생성 및 사용
US8810672B2 (en) Image processing method, image processing device, and recording medium for synthesizing image data with different focus positions
JP2014197824A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2011022796A (ja) 画像処理方法および画像処理装置
JP2022174085A (ja) 場面の積層深度データを生成するための方法
JP7204021B2 (ja) 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法
JP5809607B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5900017B2 (ja) 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム
JP6494402B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
JP7416573B2 (ja) 立体画像生成装置及びそのプログラム
JP6089742B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP7014175B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP5310890B2 (ja) 画像生成装置、画像生成方法及びプログラム
Park et al. 50.3: Arbitrary View Generation in Perspective and Orthographic Projection Geometry using Lens Array
JPWO2017145755A1 (ja) 情報処理装置および情報処理方法
JP2012060512A (ja) 多眼撮像装置およびプログラム
JP2015201044A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160627

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181213

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R150 Certificate of patent or registration of utility model

Ref document number: 6655379

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250