JP6655485B2 - Image processing parameter determination device, image processing device, and program - Google Patents
Image processing parameter determination device, image processing device, and program Download PDFInfo
- Publication number
- JP6655485B2 JP6655485B2 JP2016127888A JP2016127888A JP6655485B2 JP 6655485 B2 JP6655485 B2 JP 6655485B2 JP 2016127888 A JP2016127888 A JP 2016127888A JP 2016127888 A JP2016127888 A JP 2016127888A JP 6655485 B2 JP6655485 B2 JP 6655485B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- depth
- reference frame
- processing parameter
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 118
- 238000000034 method Methods 0.000 claims description 22
- 238000009499 grossing Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、参照フレームに対する画像処理に用いられる画像処理パラメータを生成する画像処理パラメータ決定装置、該画像処理パラメータを用いて画像処理を行う画像処理装置、及びそれらのプログラムに関する。 The present invention relates to an image processing parameter determination device that generates image processing parameters used for image processing on a reference frame, an image processing device that performs image processing using the image processing parameters, and a program for the same.
H.265/HEVC(High Efficiency Video Coding)方式などによる映像符号化では、符号化効率を高めるために、フレーム間の動き推定(動き検出)の結果を用いた動き補償を行う。この動き推定では、ハードウェア化の容易さなどの理由により、一般にブロックマッチング法が用いられる。ただし、ブロックマッチング法は、回転や奥行方向の動き推定の確度が低い。そこで、拡大や縮小を伴う映像に対する動き補償効率を改善するために、外部動き推定法により変倍率を推定し、幾何変換処理による変倍補償を行う手法が提案されている(例えば、非特許文献1及び2参照)。 H. In video coding by the H.265 / HEVC (High Efficiency Video Coding) method or the like, motion compensation is performed using the result of motion estimation (motion detection) between frames in order to increase coding efficiency. In this motion estimation, a block matching method is generally used for reasons such as easy hardware implementation. However, the block matching method has low accuracy in estimating the motion in the rotation and depth directions. Therefore, in order to improve the motion compensation efficiency for a video with enlargement or reduction, a method of estimating a scaling factor by an external motion estimation method and performing scaling compensation by geometric transformation processing has been proposed (for example, Non-Patent Documents). 1 and 2).
しかしながら、従来の幾何変換を伴う手法により動き推定を行っても、オブジェクトの奥行方向の動きにおいて、被写界深度の内側から外側への動きを伴う場合に発生する平滑化(ぼやけ)や、被写界深度の外側から内側への動きを伴う場合に発生する先鋭化により、動き推定の確度が低くなることがある。仮に、確度が高い検出ができたとしても、被写界深度を考慮していないため、動き補償時の差分情報量が大きくなりがちである。 However, even if motion estimation is performed by a conventional method involving geometric transformation, smoothing (blurring) that occurs when the object moves in the depth direction accompanied by movement from inside to outside of the depth of field, The sharpening that occurs when the motion accompanies the movement from the outside to the inside of the depth of field may reduce the accuracy of the motion estimation. Even if detection with high accuracy can be performed, the difference information amount at the time of motion compensation tends to be large because the depth of field is not considered.
かかる事情に鑑みてなされた本発明の目的は、被写界深度を考慮し、奥行方向の動きに対する動き推定の確度を向上させるために用いられる画像処理パラメータを決定する画像処理パラメータ決定装置、該画像処理パラメータを用いて画像処理を行う画像処理装置、及びそれらのプログラムを提供することにある。 An object of the present invention made in view of such circumstances is to provide an image processing parameter determination device that determines an image processing parameter used to improve the accuracy of motion estimation for a motion in the depth direction in consideration of the depth of field. It is an object of the present invention to provide an image processing apparatus that performs image processing using image processing parameters, and a program for them.
上記課題を解決するため、本発明に係る画像処理パラメータ決定装置は、参照フレームに対する画像処理に用いられる画像処理パラメータを生成する画像処理パラメータ決定装置であって、カメラパラメータに基づいて被写界深度を算出する被写界深度算出部と、基準フレームと参照フレームとの間でオブジェクトの奥行方向の動きを示す奥行方向動き情報を生成し、基準フレームと参照フレームとの間の動き推定に用いるブロックに対して、撮像面から被写体までの撮影距離を示す被写体距離情報が存在する場合には、該被写体距離情報を奥行情報とし、前記被写体距離情報が存在せず、且つ前記奥行方向動き情報が存在する場合には、該奥行方向動き情報を奥行情報とする奥行情報生成部と、前記奥行情報に基づき、参照フレームの動き推定先ブロックのオブジェクトが前記被写界深度の内側に位置し、基準フレームの動き推定元ブロックのオブジェクトが前記被写界深度の外側に位置すると判定した場合には、平滑化処理を行うための画像処理パラメータを決定する画像処理パラメータ決定部と、を備えることを特徴とする。 In order to solve the above problems, an image processing parameter determining apparatus according to the present invention is an image processing parameter determining apparatus that generates an image processing parameter used for image processing on a reference frame, and includes a depth of field based on a camera parameter. And a block used to generate depth direction motion information indicating the depth direction motion of the object between the reference frame and the reference frame, and to use for estimating the motion between the reference frame and the reference frame. On the other hand, if there is subject distance information indicating the shooting distance from the imaging surface to the subject, the subject distance information is used as depth information, the subject distance information does not exist, and the depth direction motion information exists. The depth information generating unit that uses the depth direction motion information as depth information, and a motion of a reference frame based on the depth information. When it is determined that the object of the destination block is located inside the depth of field and the object of the motion estimation source block of the reference frame is located outside the depth of field, a smoothing process is performed. An image processing parameter determining unit that determines an image processing parameter.
さらに、本発明に係る画像処理パラメータ決定装置において、前記画像処理パラメータ決定部は、前記動き推定元ブロックのオブジェクトの被写体距離とピント距離との差が大きいほど、平滑化の度合いが大きくなるような値とすることを特徴とする。 Further, in the image processing parameter determination device according to the present invention, the image processing parameter determination unit may be configured such that the greater the difference between the subject distance and the focus distance of the object of the motion estimation source block, the greater the degree of smoothing. It is characterized by a value.
また、本発明に係る画像処理パラメータ決定装置は、参照フレームに対する画像処理に用いられる画像処理パラメータを生成する画像処理パラメータ決定装置であって、カメラパラメータに基づいて被写界深度を算出する被写界深度算出部と、基準フレームと参照フレームとの間でオブジェクトの奥行方向の動きを示す奥行方向動き情報を生成し、基準フレームと参照フレームとの間の動き推定に用いるブロックに対して、撮像面から被写体までの撮影距離を示す被写体距離情報が存在する場合には、該被写体距離情報を奥行情報とし、前記被写体距離情報が存在せず、且つ前記奥行方向動き情報が存在する場合には、該奥行方向動き情報を奥行情報とする奥行情報生成部と、前記奥行情報に基づき、参照フレームの動き推定先ブロックのオブジェクトが前記被写界深度の外側に位置し、基準フレームの動き推定元ブロックのオブジェクトが前記被写界深度の内側に位置すると判定した場合には、先鋭化処理を行うための画像処理パラメータを決定する画像処理パラメータ決定部と、を備えることを特徴とする。 An image processing parameter determining apparatus according to the present invention is an image processing parameter determining apparatus that generates an image processing parameter used for image processing on a reference frame, wherein the image processing parameter determining apparatus calculates a depth of field based on a camera parameter. A depth-of-field calculating unit, which generates depth-direction motion information indicating the depth-direction motion of the object between the reference frame and the reference frame, and captures an image of a block used for motion estimation between the reference frame and the reference frame. When subject distance information indicating the shooting distance from the surface to the subject exists, the subject distance information is used as depth information, and when the subject distance information does not exist and the depth direction motion information exists, A depth information generating unit that uses the depth direction motion information as depth information, and an o of a motion estimation destination block of a reference frame based on the depth information. If the object is located outside the depth of field, and it is determined that the object of the motion estimation source block of the reference frame is located inside the depth of field, an image processing parameter for performing the sharpening process is set. And an image processing parameter determining unit for determining.
さらに、本発明に係る画像処理パラメータ決定装置において、前記画像処理パラメータ決定部は、前記動き推定先ブロックのオブジェクトの被写体距離とピント距離との差が大きいほど、先鋭化の度合いが大きくなるような値とすることを特徴とする。 Further, in the image processing parameter determination device according to the present invention, the image processing parameter determination unit may determine that the degree of sharpening increases as the difference between the subject distance and the focus distance of the object of the motion estimation destination block increases. It is characterized by a value.
さらに、本発明に係る画像処理パラメータ決定装置において、前記画像処理パラメータ決定部は、基準フレームの動き推定元ブロックと参照フレームの動き推定先ブロックの奥行情報により、変倍処理を行うための画像処理パラメータを決定することを特徴とする。 Further, in the image processing parameter determination device according to the present invention, the image processing parameter determination unit is configured to perform image processing for performing a scaling process based on depth information of a motion estimation source block of a reference frame and a motion estimation destination block of a reference frame. The method is characterized in that parameters are determined.
さらに、本発明に係る画像処理パラメータ決定装置において、前記奥行情報生成部は、動き推定に用いるブロックに対して、前記被写体距離情報及び前記奥行方向動き情報が存在しない場合には、該ブロックに近接するブロックに対する被写体距離情報又は奥行方向動き情報を用いて前記奥行情報を生成することを特徴とする。 Further, in the image processing parameter determination device according to the present invention, when the subject distance information and the depth direction motion information do not exist for the block used for motion estimation, The depth information is generated using subject distance information or depth direction motion information for a block to be executed.
さらに、本発明に係る画像処理パラメータ決定装置において、前記奥行情報生成部は、SURF特徴量又はSIFT特徴量のマッチングを行う手法により前記奥行方向動き情報を生成することを特徴とする。 Further, in the image processing parameter determination device according to the present invention, the depth information generation unit generates the depth direction motion information by a method of matching a SURF feature amount or a SIFT feature amount.
また、上記課題を解決するため、本発明に係る画像処理装置は、上記画像処理パラメータ決定装置と、前記画像処理パラメータを用いて、前記参照フレームに対して画像処理を行う画像処理部と、を備えることを特徴とする。 Further, in order to solve the above problem, an image processing device according to the present invention includes the image processing parameter determining device, and an image processing unit that performs image processing on the reference frame using the image processing parameter. It is characterized by having.
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記画像処理パラメータ決定装置として機能させることを特徴とする。 According to another aspect of the present invention, there is provided a program that causes a computer to function as the image processing parameter determination device.
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記画像処理装置として機能させることを特徴とする。 Further, in order to solve the above problem, a program according to the present invention causes a computer to function as the image processing device.
本発明によれば、被写界深度を考慮した、参照フレームに対する画像処理パラメータを決定することができる。また、この画像処理パラメータを用いて参照フレームに対して画像処理を行い、基準フレームと画像処理後の参照フレームを用いた動き推定を行うことにより、奥行方向の動きに対する動き推定の確度を向上させることができる。 According to the present invention, it is possible to determine an image processing parameter for a reference frame in consideration of the depth of field. Further, image processing is performed on the reference frame using the image processing parameters, and motion estimation is performed using the reference frame and the reference frame after the image processing, thereby improving the accuracy of the motion estimation for the motion in the depth direction. be able to.
以下、本発明の実施形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1に、本発明の第1の実施形態に係る画像処理装置の構成例を示す。図1に示す例では、画像処理装置1は、画像処理パラメータ決定装置10と、画像処理部20とを備える。画像処理パラメータ決定装置10は、被写界深度算出部101と、奥行情報生成部102と、画像処理パラメータ決定部103とを備える。
FIG. 1 shows a configuration example of an image processing apparatus according to the first embodiment of the present invention. In the example illustrated in FIG. 1, the image processing device 1 includes an image processing
画像処理パラメータ決定装置10は、カメラパラメータ、撮影距離情報、及び原画像列(基準フレーム及び参照フレーム)を入力し、参照フレームに対する画像処理に用いられる画像処理パラメータを生成し、画像処理部20に出力する。
The image processing
画像処理部20は、画像処理パラメータ決定装置10により決定された画像処理パラメータを用いて、参照フレームに対して画像処理を行って、修正参照フレームを生成し、外部に出力する。
The
被写界深度算出部101は、カメラパラメータに基づいて被写界深度を算出し、被写界深度を示す被写界深度情報を画像処理パラメータ決定部103に出力する。ここで、カメラパラメータは、センサ情報と、焦点距離情報と、絞り値情報と、ピント距離情報とを含む。
The depth of
一例として、スーパー35mmCMOSセンサを搭載した4Kカメラを用い、焦点距離が50mmで絞り値Fが5.6のレンズでピント距離を8mとして撮影した場合の被写界深度の算出の仕方を、図2を参照して説明する。図2は、レンズの焦点深度及び被写界深度を示す図である。 As an example, FIG. 2 shows how to calculate the depth of field when shooting with a lens having a focal length of 50 mm and an aperture value F of 5.6 and a focusing distance of 8 m using a 4K camera equipped with a super 35 mm CMOS sensor. This will be described with reference to FIG. FIG. 2 is a diagram illustrating the depth of focus and the depth of field of the lens.
スーパー35mmCMOSセンサのサイズは24×14mmで、画素数は水平3840画素、垂直2160画素とすると、水平方向の画素ピッチは6.25[um/画素]であり、垂直方向の画素ピッチは6.48[um/画素]となる。画素ピッチは約6[um/画素]であるため、許容錯乱円径δを0.012[mm]とする。 Assuming that the size of the super 35 mm CMOS sensor is 24 × 14 mm and the number of pixels is 3840 pixels horizontally and 2160 pixels vertically, the pixel pitch in the horizontal direction is 6.25 [um / pixel] and the pixel pitch in the vertical direction is 6.48. [Um / pixel]. Since the pixel pitch is about 6 [um / pixel], the permissible circle of confusion δ is set to 0.012 [mm].
前側焦点深度zf及び後側焦点深度zbはともに、絞り値F及び許容錯乱円径δを用いてδ・Fで求められる。δ=0.012[mm]、F=5.6の場合、前側焦点深度zf及び後側焦点深度zbは0.0672[mm]となる。なお、焦点深度zは2×0.0672=0.134[mm]となる。 Front focal depth z f and the rear-side focal depth z b are both given by [delta] · F using the aperture value F and permissible circle of confusion [delta]. δ = 0.012 [mm], the case of F = 5.6, the front focal depth z f and the rear-side focal depth z b becomes 0.0672 [mm]. Note that the depth of focus z is 2 × 0.0672 = 0.134 [mm].
また、ピント距離(レンズの主点から物体面までの距離)a、レンズの主点から撮像面までの距離b、及び焦点距離fは、レンズの公式により式(1)の関係が成り立つ。 Further, the relationship of the formula (1) is established for the focus distance (the distance from the principal point of the lens to the object plane) a, the distance b from the principal point of the lens to the imaging surface, and the focal length f according to the lens formula.
式(1)にf=50[mm]、a=8000[mm]を代入すると、b=50.314[mm]と求まる。すなわち、レンズの繰り出し量は0.314[mm]である。このとき、焦点深度zをレンズの主点からの距離範囲で示すと、50.314−0.0672=50.2468[mm]から、50.314+0.0672=50.3812[mm]となる。 Substituting f = 50 [mm] and a = 8000 [mm] into Equation (1) gives b = 50.314 [mm]. That is, the extension amount of the lens is 0.314 [mm]. At this time, if the depth of focus z is represented by a distance range from the principal point of the lens, it will be from 50.314-0.0672 = 50.2468 [mm] to 50.314 + 0.0672 = 50.3812 [mm].
近点距離a1は、式(1)にf=50[mm]、b=50.3812[mm]を代入することにより、6.7[m]と求まる。また遠点距離a2は、式(1)にf=50[mm]、b=50.2468[mm]を代入することにより、10.0[m]と求まる。したがって、被写界深度Dをレンズの主点からの距離範囲で示すと、6.7mから10.0mとなる。 The near point distance a1 is obtained as 6.7 [m] by substituting f = 50 [mm] and b = 50.812 [mm] into Expression (1). Further, the far point distance a2 is obtained as 10.0 [m] by substituting f = 50 [mm] and b = 50.2468 [mm] into the equation (1). Therefore, when the depth of field D is shown in the range of the distance from the principal point of the lens, it is 6.7 m to 10.0 m.
奥行情報生成部102は、撮像面から被写体までの距離(被写体距離)を示す被写体距離情報を取得する。原画像列を撮像したカメラがRGB−Dセンサを搭載している場合には、該カメラはセンサにより画素単位で数画素おきに被写体距離を検出するため、奥行情報生成部102は該カメラから被写体距離情報を取得することができる。ただし、例えば赤外光を被写体に照射してその反射光により被写体距離検出する場合において、光の吸収や乱反射などの理由により被写体距離情報を取得できないこともあり、その場合には被写体距離情報は存在しない。
The depth
また、奥行情報生成部102は、原画像列を入力し、基準フレームと参照フレームとの間で奥行方向の動き推定を行い、オブジェクトの奥行方向の動きを示す奥行方向動き情報を生成する。ただし、被写体が動いていないなどの理由により奥行方向の動き推定ができない場合には、奥行方向動き情報を生成できないこともあり、その場合には奥行方向動き情報は存在しない。
Further, the depth
奥行方向の動き推定には、奥行方向の動きに頑健なSURF(Speeded-Up Robust Features)特徴量のマッチングを行う手法や、SIFT(Scale-Invariant Feature Transform)特徴量のマッチングを行う手法を用いるのが好適である。なお、SURFの詳細については、例えば、H. Bay, A. Ess, T. Tuytelaars, and L. V. Gool, "Speeded-Up Robust Features (SURF)", Elsevier, vol. 110, Issue 3, p. 346-359, Jun. 2008を参照されたい。 For the motion estimation in the depth direction, a method of matching a SURF (Speeded-Up Robust Features) feature amount that is robust to the motion in the depth direction or a method of matching a SIFT (Scale-Invariant Feature Transform) feature amount is used. Is preferred. For details of SURF, see, for example, H. Bay, A. Ess, T. Tuytelaars, and LV Gool, "Speeded-Up Robust Features (SURF)", Elsevier, vol. 110, Issue 3, p. 346- 359, Jun. 2008.
基準フレームと参照フレームとの間のブロック単位の動き推定に用いられるブロック(動き推定元ブロック及び動き推定先ブロック)に対して、被写体距離情報が存在する場合には、奥行情報生成部102は動き推定元ブロックに対する被写体距離情報及び動き推定先ブロックに対する被写体距離情報を奥行情報として画像処理パラメータ決定部103に出力する。これは、被写体の奥行について、被写体距離情報のほうが奥行方向動き情報よりも高精度な情報だからである。動き推定に用いるブロックに対して被写体距離情報が複数ある場合には、撮影距離の平均値又は中央値を示す情報を奥行情報とする。
When subject distance information is present for blocks (motion estimation source block and motion estimation destination block) used for block-based motion estimation between the reference frame and the reference frame, the depth
動き推定に用いるブロックに対して、被写体距離情報が存在せず、且つ奥行方向動き情報が存在する場合には、奥行情報生成部102は動き推定元ブロックに対する奥行方向動き情報及び動き推定先ブロックに対する奥行方向動き情報を奥行情報として画像処理パラメータ決定部103に出力する。動き推定に用いるブロック内に奥行方向動き情報が複数ある場合には、奥行方向の動きの平均値又は中央値を奥行情報とする。
When the subject distance information does not exist and the depth direction motion information exists for the block used for the motion estimation, the depth
動き推定に用いるブロックに対して、被写体距離情報及び奥行方向動き情報の双方が存在しない場合には、奥行情報生成部102は該ブロックにそれぞれ近接する近接ブロック(動き推定元ブロックに近接するブロック及び動き推定先ブロックに近接するブロック)に対する被写体距離情報又は奥行方向動き情報を用いて同様に奥行情報を生成する。つまり、近接ブロックに対して、被写体距離情報及び奥行方向動き情報の双方が存在する場合には、被写体距離情報を奥行情報として画像処理パラメータ決定部103に出力し、被写体距離情報が存在せず、且つ奥行方向動き情報が存在する場合には、奥行方向動き情報を奥行情報として画像処理パラメータ決定部103に出力する。
If both the subject distance information and the depth direction motion information do not exist for the block used for the motion estimation, the depth
画像処理パラメータ決定部103は、被写界深度算出部101により生成された被写界深度情報と、奥行情報生成部102により生成された奥行情報と、ピント情報と、原画像列とを入力し、平滑化処理(低域通過型のフィルタ処理)を行うためのパラメータ(平滑化パラメータ)、又は先鋭化処理を行うためのパラメータ(先鋭化パラメータ)を含む画像処理パラメータを決定する。
The image processing
画像処理パラメータ決定部103は、参照フレームの動き推定先ブロックと基準フレームの動き推定元ブロックに対して、オブジェクトが被写界深度の内側に位置するか否かを判定する。参照フレームの動き推定先ブロックと基準フレームの動き推定元ブロックのオブジェクトがともに被写界深度の内側に位置する場合には、平滑化パラメータ及び先鋭化パラメータを生成しない。
The image processing
画像処理パラメータ決定部103は、参照フレームの動き推定先ブロックのオブジェクトが被写界深度の内側に位置し、基準フレームの動き推定元ブロックのオブジェクトが被写界深度の外側に位置する場合には、平滑化パラメータを決定する。平滑化パラメータは、動き推定元ブロックのオブジェクトの被写体距離とピント距離との差が大きいほど、平滑化の度合いが大きくなるような値とする。平滑化パラメータは、例えば低域通過型フィルタ処理に用いられるカットオフ周波数により設定することができる。カットオフ周波数が低いほど、低域通過型フィルタ時の平滑化の度合いが大きくなる。なお、実際の平滑化の度合いはレンズの光学特性に依存するため、高精度に推定するためにはレンズの光学特性を詳細に測定する必要がある。そこでレンズの光学特性が既知でない場合には、平滑化パラメータを複数設定するようにしてもよい。
The image processing
一方、画像処理パラメータ決定部103は、参照フレームの動き推定先ブロックのオブジェクトが被写界深度の外側に位置し、基準フレームの動き推定元ブロックのオブジェクトが被写界深度の内側に位置する場合には、先鋭化パラメータを決定する。先鋭化パラメータは、動き推定先ブロックのオブジェクトの被写体距離とピント距離との差が大きいほど、先鋭化の度合いが大きくなるような値とする。先鋭化パラメータは、例えば超解像処理の際に付加される高周波帯域により設定することができる。付加される高周波帯域が高いほど、超解像処理時の先鋭化の度合いが大きくなる。なお、平滑化の度合いと同様に先鋭化の度合いもレンズの光学特性に依存するため、レンズの光学特性が既知でない場合には、先鋭化パラメータを複数設定するようにしてもよい。 On the other hand, when the object of the motion estimation destination block of the reference frame is located outside the depth of field and the object of the motion estimation source block of the reference frame is located inside the depth of field, , A sharpening parameter is determined. The sharpening parameter is set to a value such that the greater the difference between the subject distance and the focus distance of the object of the motion estimation destination block, the greater the degree of sharpening. The sharpening parameter can be set, for example, by a high-frequency band added at the time of super-resolution processing. The higher the added high-frequency band, the greater the degree of sharpening during super-resolution processing. Note that, like the degree of smoothing, the degree of sharpening also depends on the optical characteristics of the lens. If the optical characteristics of the lens are not known, a plurality of sharpening parameters may be set.
また、画像処理パラメータ決定部103は、基準フレームの動き推定元ブロックと参照フレームの動き推定先ブロックの奥行情報により、変倍処理を行うための画像処理パラメータを決定してもよい。
Further, the image processing
例えば、基準フレームの動き推定元ブロックに対して参照フレームの動き推定先ブロックが手前方向にある場合には、その程度に応じて縮小率を決定する。逆に、基準フレームの動き推定元ブロックに対して参照フレームの動き推定先ブロックが奥方向にある場合には、その程度に応じて拡大率を決定する。奥行情報が被写体距離情報である場合には、例えば基準フレームの動き推定元ブロックの被写体距離に対する参照フレームの動き推定先ブロックの被写体距離の比を変倍率とする。 For example, when the motion estimation destination block of the reference frame is in the forward direction with respect to the motion estimation source block of the reference frame, the reduction ratio is determined according to the degree. Conversely, when the motion estimation destination block of the reference frame is in the depth direction with respect to the motion estimation source block of the reference frame, the enlargement ratio is determined according to the degree. When the depth information is the subject distance information, for example, the ratio of the subject distance of the motion estimation destination block of the reference frame to the subject distance of the motion estimation source block of the reference frame is set as the magnification.
なお、上述した画像処理パラメータ決定装置10、及び画像処理装置1として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、画像処理パラメータ決定装置10、及び画像処理装置1の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。なお、このプログラムは、コンピュータ読取り可能な記録媒体に記録可能である。
Note that a computer can be suitably used to function as the image processing
このように、画像処理パラメータ決定装置10及びそのプログラムは、被写界深度を算出するとともに、奥行情報を生成する。そして、奥行情報に基づくオブジェクトの被写界深度との位置関係から、平滑化処理又は先鋭化処理を行うための画像処理パラメータを決定する。そのため、被写界深度を考慮した奥行方向の動きに対応する画像処理パラメータを決定することができるようになる。
As described above, the image processing
また、画像処理装置1及びそのプログラムは、上述の画像処理パラメータを用いて、参照フレームに対して画像処理を行い、修正参照フレームを生成する。その結果、参照フレーム内における、基準フレームに対して奥行方向の動きにより平滑化されたオブジェクトは先鋭化され、基準フレームに対して奥行方向の動きにより先鋭化されたオブジェクトは平滑化される。そのため、基準フレームと修正参照フレームとの間で動き推定を行うことにより、奥行方向の動きに対する動き推定の確度を向上させることができる。 Further, the image processing apparatus 1 and its program perform image processing on the reference frame using the above-described image processing parameters to generate a corrected reference frame. As a result, in the reference frame, the object smoothed by the movement in the depth direction with respect to the reference frame is sharpened, and the object sharpened by the movement in the depth direction with respect to the reference frame is smoothed. Therefore, by performing motion estimation between the reference frame and the modified reference frame, it is possible to improve the accuracy of the motion estimation for the motion in the depth direction.
上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。 Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the present invention. Therefore, the present invention should not be construed as being limited by the above-described embodiment, and various modifications and changes can be made without departing from the scope of the claims. For example, a plurality of constituent blocks described in the embodiment can be combined into one, or one constituent block can be divided.
1 画像処理装置
10 画像処理パラメータ決定装置
20 画像処理部
101 被写界深度算出部
102 奥行情報生成部
103 画像処理パラメータ決定部
REFERENCE SIGNS LIST 1
Claims (10)
カメラパラメータに基づいて被写界深度を算出する被写界深度算出部と、
基準フレームと参照フレームとの間でオブジェクトの奥行方向の動きを示す奥行方向動き情報を生成し、基準フレームと参照フレームとの間の動き推定に用いられるブロックに対して、撮像面から被写体までの撮影距離を示す被写体距離情報が存在する場合には、該被写体距離情報を奥行情報とし、前記被写体距離情報が存在せず、且つ前記奥行方向動き情報が存在する場合には、該奥行方向動き情報を奥行情報とする奥行情報生成部と、
前記奥行情報に基づき、参照フレームの動き推定先ブロックのオブジェクトが前記被写界深度の内側に位置し、基準フレームの動き推定元ブロックのオブジェクトが前記被写界深度の外側に位置すると判定した場合には、平滑化処理を行うための画像処理パラメータを決定する画像処理パラメータ決定部と、
を備えることを特徴とする画像処理パラメータ決定装置。 An image processing parameter determination device that generates an image processing parameter used for image processing on a reference frame,
A depth of field calculation unit that calculates a depth of field based on camera parameters,
Generates depth direction motion information indicating the motion of the object in the depth direction between the reference frame and the reference frame, and generates, for a block used for motion estimation between the reference frame and the reference frame, the distance from the imaging surface to the subject. When subject distance information indicating a shooting distance exists, the subject distance information is used as depth information. When the subject distance information does not exist and the depth direction motion information exists, the subject A depth information generating unit that sets
Based on the depth information, when it is determined that the object of the motion estimation destination block of the reference frame is located inside the depth of field, and the object of the motion estimation source block of the reference frame is located outside the depth of field. Includes an image processing parameter determination unit that determines an image processing parameter for performing a smoothing process;
An image processing parameter determining apparatus comprising:
カメラパラメータに基づいて被写界深度を算出する被写界深度算出部と、
基準フレームと参照フレームとの間でオブジェクトの奥行方向の動きを示す奥行方向動き情報を生成し、基準フレームと参照フレームとの間の動き推定に用いられるブロックに対して、撮像面から被写体までの撮影距離を示す被写体距離情報が存在する場合には、該被写体距離情報を奥行情報とし、前記被写体距離情報が存在せず、且つ前記奥行方向動き情報が存在する場合には、該奥行方向動き情報を奥行情報とする奥行情報生成部と、
前記奥行情報に基づき、参照フレームの動き推定先ブロックのオブジェクトが前記被写界深度の外側に位置し、基準フレームの動き推定元ブロックのオブジェクトが前記被写界深度の内側に位置すると判定した場合には、先鋭化処理を行うための画像処理パラメータを決定する画像処理パラメータ決定部と、
を備えることを特徴とする画像処理パラメータ決定装置。 An image processing parameter determination device that generates an image processing parameter used for image processing on a reference frame,
A depth of field calculation unit that calculates a depth of field based on camera parameters,
Generates depth direction motion information indicating the motion of the object in the depth direction between the reference frame and the reference frame, and generates a block for use in estimating the motion between the reference frame and the reference frame. When subject distance information indicating a shooting distance exists, the subject distance information is set as depth information. When the subject distance information does not exist and the depth direction motion information exists, the depth direction motion information A depth information generating unit that sets
Based on the depth information, when it is determined that the object of the motion estimation destination block of the reference frame is located outside the depth of field, and the object of the motion estimation source block of the reference frame is located inside the depth of field. Includes an image processing parameter determining unit that determines an image processing parameter for performing the sharpening process;
An image processing parameter determining apparatus comprising:
前記画像処理パラメータを用いて、前記参照フレームに対して画像処理を行う画像処理部と、
を備えることを特徴とする画像処理装置。 An image processing parameter determination device according to any one of claims 1 to 7,
Using the image processing parameters, an image processing unit that performs image processing on the reference frame,
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016127888A JP6655485B2 (en) | 2016-06-28 | 2016-06-28 | Image processing parameter determination device, image processing device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016127888A JP6655485B2 (en) | 2016-06-28 | 2016-06-28 | Image processing parameter determination device, image processing device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018006872A JP2018006872A (en) | 2018-01-11 |
JP6655485B2 true JP6655485B2 (en) | 2020-02-26 |
Family
ID=60948124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016127888A Active JP6655485B2 (en) | 2016-06-28 | 2016-06-28 | Image processing parameter determination device, image processing device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6655485B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130293741A1 (en) * | 2011-01-06 | 2013-11-07 | Nikon Corporation | Image processing apparatus, image capturing apparatus, and storage medium storing image processing program |
JP6452360B2 (en) * | 2013-12-19 | 2019-01-16 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
-
2016
- 2016-06-28 JP JP2016127888A patent/JP6655485B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018006872A (en) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6271609B2 (en) | Autofocus for stereoscopic cameras | |
US8508605B2 (en) | Method and apparatus for image stabilization | |
JP6799593B2 (en) | Motion detection in images | |
US20130101177A1 (en) | Motion estimation apparatus, depth estimation apparatus, and motion estimation method | |
WO2014069103A1 (en) | Image processing device | |
US9843711B2 (en) | Image processing device, image processing method, and image processing program | |
Zhang et al. | Extended depth-of-field via focus stacking and graph cuts | |
US9077926B2 (en) | Image processing method and image processing apparatus | |
CN104200456B (en) | A kind of coding/decoding method for line-structured light three-dimensional measurement | |
KR102003460B1 (en) | Device and Method for dewobbling | |
TW201523516A (en) | Video frame stabilization method for the moving camera | |
JP2012073703A (en) | Image blur amount calculation device and program for the same | |
JP6655485B2 (en) | Image processing parameter determination device, image processing device, and program | |
JP6576179B2 (en) | Image processing apparatus, image processing method, and program | |
JP2019067169A (en) | Moving vector calculation method, device, program, and moving vector calculation method including noise cancellation processing | |
JP6727902B2 (en) | Reference frame generation device, motion estimation device, and program | |
JP2016201037A (en) | Image processing device, image processing method, and program | |
JP6378496B2 (en) | Image processing apparatus, control method, and recording medium | |
Karaali et al. | Adaptive scale selection for multiresolution defocus blur estimation | |
JP7039215B2 (en) | Image processing equipment, image processing methods, and programs | |
JP5334241B2 (en) | Frame image motion vector estimation apparatus and program | |
JP6579934B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP6639155B2 (en) | Image processing apparatus and image processing method | |
JP2019097004A (en) | Image generation apparatus, image generation method and image generation program | |
JP2016163130A (en) | Camera parameter estimation device and camera parameter estimation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6655485 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |