JP2012109656A - Image processing apparatus and method, and image display unit and method - Google Patents

Image processing apparatus and method, and image display unit and method Download PDF

Info

Publication number
JP2012109656A
JP2012109656A JP2010254753A JP2010254753A JP2012109656A JP 2012109656 A JP2012109656 A JP 2012109656A JP 2010254753 A JP2010254753 A JP 2010254753A JP 2010254753 A JP2010254753 A JP 2010254753A JP 2012109656 A JP2012109656 A JP 2012109656A
Authority
JP
Japan
Prior art keywords
video signal
motion vector
frame
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010254753A
Other languages
Japanese (ja)
Inventor
Naoyuki Fujiyama
直之 藤山
Yoshiki Ono
良樹 小野
Toshiaki Kubo
俊明 久保
Tomoatsu Horibe
知篤 堀部
Osamu Nasu
督 那須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010254753A priority Critical patent/JP2012109656A/en
Priority to CN201110359416.9A priority patent/CN102572222B/en
Publication of JP2012109656A publication Critical patent/JP2012109656A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Picture Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To further improve the image quality of a frame-interpolated moving image by reducing the motion blur width included in an input video signal.SOLUTION: Based on a motion vector detected by a motion vector detection unit (5) which detects a motion vector in a video signal (D2), the direction and the size of a motion blur are estimated (32), filtering is performed (34) for the video signal (D2) by using a filter factor corresponding to the direction and the size of the estimated motion blur, a gain (GAIN) is determined (39) based on the results (FL1(i,j)) of the filtering, correction is performed (30) by multiplying the video signal (D2(i,j)) by the determined gain (GAIN), and then frame interpolation is performed using a corrected video signal (E(i,j)).

Description

本発明は、画像処理装置及び方法、並びに画像表示装置及び方法に関する。本発明は特に、画像のフレーム間に新たな補間フレームを挿入するフレーム補間処理に関するものである。   The present invention relates to an image processing apparatus and method, and an image display apparatus and method. The present invention particularly relates to a frame interpolation process for inserting a new interpolation frame between frames of an image.

液晶ディスプレイなどのホールド型ディスプレイは、1フレーム期間同じ画像を表示し続けており、画像中の物体が動いた場合に、動く物体に対する人間の目の追従が連続的に移動するのに対して、物体の移動が1フレーム単位の不連続な移動を行っているためにエッジ部分がぼやけて見える問題がある。   A hold-type display such as a liquid crystal display continues to display the same image for one frame period, and when the object in the image moves, the tracking of the human eye to the moving object moves continuously, There is a problem that the edge portion looks blurry because the object moves discontinuously in units of one frame.

また、映画などのフィルム映像がテレビ信号に変換された素材については、両者(フィルム映像とテレビ信号)のフレーム周波数の違いから、2フレーム又は3フレームが同じフレームから作られた画像信号となっており、そのまま表示すると、動きがぼやけたり、動きがギクシャクしたジャダーが発生したりする問題がある。   In addition, for a material in which a film image such as a movie is converted into a TV signal, two or three frames are image signals made from the same frame because of the difference in frame frequency between the two (film image and TV signal). However, if displayed as it is, there is a problem that the motion is blurred or judder with a jerky motion occurs.

同様に、コンピュータ処理された映像がテレビ信号に変換された素材についても、2フレームが同じフレームから作られた画像信号であり、そのまま表示すると、先述と同様に動きがぼやけたり、動きがギクシャクしたジャダーが発生したりする問題がある。
これらの問題の解決のため、フレームを補間することで表示フレーム数を多くして物体の移動をスムーズにすることが考えられる。
Similarly, for the material in which computer-processed video is converted to a TV signal, the two frames are image signals made from the same frame, and when displayed as they are, the motion is blurred or the motion is jerky as described above. There is a problem that judder occurs.
In order to solve these problems, it is conceivable to increase the number of display frames by interpolating the frames to make the object move smoothly.

従来の画像処理装置及び方法として、補間フレームに対して1フレーム前のフレームと同じ画像で補間する零次ホールド法や、補間フレームに対して1フレーム前の画像と1フレーム後の画像の平均画像で補間する平均値補間法などが知られている。しかし、零次ホールド法は、一定方向に動く画像に対して、滑らかな移動をしないので、依然ホールド型ディスプレイのぼやけの問題は解決されない。また、平均値補間法は、動いた画像が2重像になる問題がある。   As a conventional image processing apparatus and method, a zero-order hold method in which interpolation is performed with the same image as the frame one frame before the interpolation frame, or an average image of the image one frame before and one frame after the interpolation frame An average value interpolation method that interpolates using the method is known. However, since the zero-order hold method does not move smoothly with respect to an image moving in a fixed direction, the problem of blurring of the hold-type display still cannot be solved. Further, the average value interpolation method has a problem that a moving image becomes a double image.

この改善策として、補間フレームの補間画素に対して点対称の位置にある時間的に前のフレーム上の画素と時間的に後のフレーム上の画素との画素間の相関が最も大きい画素から補間フレームの補間画素を生成するものがある(例えば、特許文献1参照)。この方法によれば、例えば前フレームから後フレームにかけて移動するオブジェクトが映像中に存在する場合、前フレームと後フレームの間に生成された補間フレームでは、前フレームのオブジェクトの位置と後フレームのオブジェクトの位置のちょうど中間に移動するオブジェクトが補間されるため、滑らかな映像ストリームを表示することが可能となる。しかし、適切にフレーム補間がなされ、例えばフレームレートを2倍とすることができたとしても、動きによるぼやけ(以下、動きぼやけと呼ぶこともある)で劣化した移動オブジェクトが含まれるフレームにおいては、撮像時に生じた動きによるぼやけは依然として低減できておらず、ぼやけた映像ストリームしか表示されない。   As an improvement measure, interpolation is performed from the pixel having the highest correlation between the pixels on the temporally previous frame and the temporally subsequent frame that are in point symmetry with respect to the interpolated pixel of the interpolated frame. Some generate interpolated pixels of a frame (see, for example, Patent Document 1). According to this method, for example, when an object moving from the previous frame to the subsequent frame exists in the video, the interpolation frame generated between the previous frame and the subsequent frame uses the position of the object of the previous frame and the object of the subsequent frame. Since an object moving in the middle of the position is interpolated, a smooth video stream can be displayed. However, even if frame interpolation is appropriately performed and the frame rate can be doubled, for example, in a frame including a moving object deteriorated due to motion blur (hereinafter also referred to as motion blur), Blurring due to motion that occurred during imaging has not been reduced, and only a blurred video stream is displayed.

一方で、特許文献2では、動きベクトル検出を用いた、ぼやけ関数のデコンボリューションによる手法によって、動きによるぼやけで劣化した移動オブジェクトが含まれるフレームについて、動きによりぼやけた領域を補正する手法が開示されている。   On the other hand, Patent Document 2 discloses a technique for correcting a blurred region due to motion for a frame including a moving object that has deteriorated due to motion blur by using a blur function deconvolution method using motion vector detection. ing.

表示装置が受信する映像信号は、カメラの受光部がフレーム蓄積時間(例えば1/60秒)の間に被写体から受ける受光総量を量子化し、規格によって決められた画素順に並べて送られてくるものである。カメラの受光部と被写体が相対的に動く場合、被写体の輪郭部にはフレーム蓄積時間と、カメラと被写体の相対速度によって決まるぼやけが発生する。これに対し、特許文献2の手法は、画像に数学的モデルを当てはめ、数学的モデルに含まれるぼやけ関数の逆関数でフィルタリングする。しかしながら、前述のように、液晶ディスプレイなどのホールド型ディスプレイは、1フレーム期間同じ画像を表示し続けており、画像中の物体が動いた場合、物体の移動が1フレーム単位の不連続な移動を行っているために、依然エッジ部分がぼやけて表示される問題がある。   The video signal received by the display device is obtained by quantizing the total amount of light received from the subject during the frame accumulation time (for example, 1/60 seconds) by the light receiving unit of the camera, and arranging them in the pixel order determined by the standard. is there. When the light receiving unit of the camera and the subject move relatively, blurring determined by the frame accumulation time and the relative speed of the camera and the subject occurs in the contour portion of the subject. On the other hand, the method of Patent Document 2 applies a mathematical model to an image and performs filtering with an inverse function of a blurring function included in the mathematical model. However, as described above, a hold-type display such as a liquid crystal display continues to display the same image for one frame period. When an object in the image moves, the movement of the object does not move discontinuously in units of one frame. As a result, there is still a problem that the edge portion is still blurred.

特開2006−129181号公報(第8頁、第3図)Japanese Patent Laying-Open No. 2006-129181 (page 8, FIG. 3) 特許第3251127号明細書Japanese Patent No. 3251127

従来のフレーム補間処理は、上記の様に構成されており、適切に補間フレームを生成しても、映像中を移動するオブジェクトの動きによるぼやけが軽減できない問題がある。また、1フレーム内において、動きによってぼやけた移動するオブジェクトを、デコンボリューションによる逆フィルタリングで動きによるぼやけを軽減しても、移動するオブジェクトが1フレーム単位で不連続な移動を行っているために、エッジ部分がぼやけて見えてしまう。   The conventional frame interpolation process is configured as described above, and there is a problem that blurring due to the movement of an object moving in a video cannot be reduced even if an interpolation frame is appropriately generated. In addition, even if an object that is blurred due to movement within one frame is reduced in blurring due to movement by inverse filtering by deconvolution, the moving object is moving discontinuously in units of one frame. The edge portion appears blurred.

本発明の一つの態様の画像処理装置は、
第1の映像信号における動きベクトルを検出する動きベクトル検出部と、
前記動きベクトル検出部で検出された動きベクトルを用い、前記第1の映像信号における動きぼやけを軽減する画像補正部と、
前記動きぼやけを軽減した互いに異なる2枚の補正画像間に位置するフレームを補間により生成するフレーム生成部と
を備えることを特徴とする。
本発明の他の態様の画像処理方法は、
第1の映像信号における動きベクトルを検出する動きベクトル検出ステップと、
前記動きベクトル検出ステップで検出された動きベクトルを用い、前記第1の映像信号における動きぼやけを軽減する画像補正ステップと、
前記動きぼやけを軽減した互いに異なる2枚の補正画像間に位置するフレームを補間により生成するフレーム生成ステップと
を備えることを特徴とする。
An image processing apparatus according to one aspect of the present invention includes:
A motion vector detection unit for detecting a motion vector in the first video signal;
An image correction unit that reduces motion blur in the first video signal using the motion vector detected by the motion vector detection unit;
A frame generation unit configured to generate a frame located between two different corrected images with reduced motion blur by interpolation.
An image processing method according to another aspect of the present invention includes:
A motion vector detection step of detecting a motion vector in the first video signal;
An image correction step for reducing motion blur in the first video signal using the motion vector detected in the motion vector detection step;
A frame generation step of generating a frame located between two different corrected images with reduced motion blur by interpolation.

本発明によれば、
動きベクトルを参照することで現フレームの動きぼやけを補正し、時間的に連続する動きぼやけを補正した2枚のフレームと動きベクトルを参照することで、それらのフレームの間に位置するフレームを補間により生成するので、動画表示時の画質を向上させることが可能となる。
According to the present invention,
The motion blur of the current frame is corrected by referring to the motion vector, and the frames located between those frames are interpolated by referring to the two motion frames and the motion vector. Therefore, it is possible to improve the image quality when displaying a moving image.

本発明の実施の形態1に係る画像表示装置を示すブロック図である。It is a block diagram which shows the image display apparatus which concerns on Embodiment 1 of this invention. 図1の画像遅延部4の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image delay part 4 of FIG. 図1の動きベクトル検出部5の構成例を示すブロック図である。It is a block diagram which shows the structural example of the motion vector detection part 5 of FIG. (a)及び(b)は、連続した2フレームの映像信号において、動きベクトルの探索範囲の一例を示す図である。(A) And (b) is a figure which shows an example of the search range of a motion vector in the video signal of 2 continuous frames. 図1の画像補正部6の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image correction part 6 of FIG. フレーム期間と撮像期間の関係を示す図である。It is a figure which shows the relationship between a frame period and an imaging period. 動きぼやけに対する有効フィルタリング領域EFAの一例を示す図である。It is a figure which shows an example of the effective filtering area | region EFA with respect to motion blur. 動きぼやけに対する有効フィルタリング領域EFAの他の例を示す図である。It is a figure which shows the other example of the effective filtering area | region EFA with respect to motion blur. 動きぼやけに対する有効フィルタリング領域EFAの他の例を示す図である。It is a figure which shows the other example of the effective filtering area | region EFA with respect to motion blur. 画素値と平均値の差と、調整後の補正強度パラメータとの関係の一例を示す図である。It is a figure which shows an example of the relationship between the difference of a pixel value and an average value, and the correction | amendment intensity | strength parameter after adjustment. (a)〜(j)は、図1及び図5の構成の各部に現れる信号のタイミングを示すタイムチャートである。(A)-(j) is a time chart which shows the timing of the signal which appears in each part of the structure of FIG.1 and FIG.5. 動きベクトルの各成分を示す図である。It is a figure which shows each component of a motion vector. (a)及び(b)は、2枚のフレームにおける動きベクトルと動きぼやけの一例を示す図である。(A) And (b) is a figure which shows an example of the motion vector and motion blur in two frames. (a)及び(b)は、2枚のフレームにおける動きベクトルと動きぼやけの他の例を示す図である。(A) And (b) is a figure which shows the other example of the motion vector and motion blur in two frames. 動きベクトルの方向および大きさと、フィルタ係数テーブルへのポインタ(IND)の一例を示す図である。It is a figure which shows an example of the direction and magnitude | size of a motion vector, and the pointer (IND) to a filter coefficient table. 閾値による非線形処理を示すグラフである。It is a graph which shows the nonlinear process by a threshold value. 本発明の実施の形態2における画像補正部6の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image correction part 6 in Embodiment 2 of this invention.

実施の形態1.
図1は、本発明に係る画像処理装置を備えた画像表示装置の構成を示すブロック図である。図示の画像表示装置1は、画像処理装置2と、画像表示部3とを備え、
画像処理装置2は、画像遅延部4と、動きベクトル検出部5と、画像補正部6と、フレーム生成部7を備える。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of an image display apparatus provided with an image processing apparatus according to the present invention. The illustrated image display device 1 includes an image processing device 2 and an image display unit 3.
The image processing apparatus 2 includes an image delay unit 4, a motion vector detection unit 5, an image correction unit 6, and a frame generation unit 7.

画像処理装置2は、入力された映像信号D0を受けて、動きぼやけ補正とフレーム補間を行うものである。映像信号D0は、画像を構成する複数の画素の画素値を表す信号の列から成り、画像処理装置2は、複数の画素を順に補正対象画素(注目画素)として動きぼやけ補正処理を行い、動きぼやけ補正処理後の映像信号E1およびE2(補正された画素値を持つ信号の列から成る)に対し、その間に含まれるフレームHFを補間により生成し、映像信号E1、E2及びHFを含む、補間された映像信号(画像信号列)HVを出力する。   The image processing apparatus 2 receives the input video signal D0 and performs motion blur correction and frame interpolation. The video signal D0 is composed of a sequence of signals representing the pixel values of a plurality of pixels constituting an image, and the image processing device 2 performs motion blur correction processing with the plurality of pixels as correction target pixels (target pixels) in order. Interpolation is performed on the video signals E1 and E2 (consisting of a train of signals having corrected pixel values) after the blur correction processing by generating a frame HF included therebetween and including the video signals E1, E2, and HF The output video signal (image signal string) HV is output.

画像処理装置2に入力された映像信号D0は、画像遅延部4に供給される。画像遅延部4はフレームメモリを用いて、入力された映像信号D0のフレーム遅延を行い、2枚の互いに異なるフレームの映像信号D2、D1を動きベクトル検出部5に出力する。   The video signal D0 input to the image processing device 2 is supplied to the image delay unit 4. The image delay unit 4 uses the frame memory to delay the frame of the input video signal D0, and outputs the video signals D2 and D1 of two different frames to the motion vector detection unit 5.

動きベクトル検出部5は、画像遅延部4から出力された2枚の異なるフレームの映像信号D2、D1を用い、映像信号D2に含まれる動きベクトルVを検出し、動きベクトルVを画像補正部6に出力する。
また、動きベクトルVを1フレーム期間遅延させ、フレーム生成部7へ動きベクトルVdとして出力する。
The motion vector detection unit 5 detects the motion vector V included in the video signal D2 using the video signals D2 and D1 of two different frames output from the image delay unit 4, and detects the motion vector V as the image correction unit 6 Output to.
Further, the motion vector V is delayed by one frame period, and is output to the frame generation unit 7 as the motion vector Vd.

画像補正部6は、動きベクトル検出部5から出力された動きベクトルVを入力とし、画像遅延部4から出力された映像信号D2において被写体の動きやカメラの動きにより劣化が生じた映像の動きぼやけを補正し、補正された映像信号Eを画像遅延部4に出力し、画像遅延部4は、補正された映像信号Eのフレーム遅延を行い、2枚の互いに異なるフレームの映像信号E1及びE2を出力する。   The image correction unit 6 receives the motion vector V output from the motion vector detection unit 5, and the motion blur of the video in which the video signal D <b> 2 output from the image delay unit 4 has deteriorated due to the motion of the subject or the motion of the camera. And the corrected video signal E is output to the image delay unit 4, and the image delay unit 4 performs frame delay of the corrected video signal E, and outputs the video signals E 1 and E 2 of two different frames. Output.

フレーム生成部7は、画像遅延部4から出力された2枚の異なるフレームの映像信号E1、E2と、動きベクトル検出部5から入力する動きベクトルVdを用い、映像信号E1とE2の間にフレームを補間し、補間フレームの映像信号HFを含む補間された映像信号HVとして画像表示部3へ出力する。補間された映像信号HVにおいては、フレーム生成部7からは、映像信号E1、補間フレーム映像信号HF、映像信号E2の順に出力される。   The frame generation unit 7 uses the video signals E1 and E2 of two different frames output from the image delay unit 4 and the motion vector Vd input from the motion vector detection unit 5, and uses a frame between the video signals E1 and E2. And is output to the image display unit 3 as an interpolated video signal HV including the video signal HF of the interpolated frame. The interpolated video signal HV is output from the frame generator 7 in the order of the video signal E1, the interpolated frame video signal HF, and the video signal E2.

画像表示部3は動きぼやけが補正され、さらにフレーム補間された映像信号HVに基づく画像の表示を行なう。ここで、ユーザが調整パラメータPRを入力することにより、動きぼやけ補正の度合いの調整や、補正画質の調整を可能とする。   The image display unit 3 displays an image based on the video signal HV in which the motion blur is corrected and the frame is interpolated. Here, when the user inputs the adjustment parameter PR, it is possible to adjust the degree of motion blur correction and the correction image quality.

以下の説明では、画像サイズを垂直方向M画素、水平方向N画素とする。このとき、変数iとjをそれぞれ1≦i≦M、1≦j≦Nと定義して、画素の位置を示す座標を(i,j)で示し、当該座標で表される位置の画素をP(i,j)で表す。即ち、変数iは垂直方向位置、変数jは水平方向位置を表す。画像の左上隅の画素の位置においては、i=1、j=1であり、下方に1画素ピッチ進むごとにiが1ずつ増加し、右方に1画素ピッチ進むごとにjが1ずつ増加する。   In the following description, the image size is assumed to be M pixels in the vertical direction and N pixels in the horizontal direction. At this time, the variables i and j are defined as 1 ≦ i ≦ M and 1 ≦ j ≦ N, respectively, the coordinates indicating the position of the pixel are indicated by (i, j), and the pixel at the position represented by the coordinates is defined as P (i, j). That is, the variable i represents the vertical position, and the variable j represents the horizontal position. At the pixel position at the upper left corner of the image, i = 1 and j = 1, i increases by 1 as the pixel pitch advances downward, and j increases by 1 as the pixel pitch advances to the right. To do.

図2は、画像遅延部4の構成例を示す。図示の画像遅延部4は、フレームメモリ11と、フレームメモリ制御部12とを備えている。フレームメモリ11は入力された映像信号D0を少なくとも2フレーム分記憶するとともに、補正された映像信号Eを2フレーム分記憶することが可能な容量を有している。なお、映像信号D0、Eの各々に対して、2フレーム分記憶可能とせず、1フレーム分のみ記憶可能な構成とすることもできる。   FIG. 2 shows a configuration example of the image delay unit 4. The illustrated image delay unit 4 includes a frame memory 11 and a frame memory control unit 12. The frame memory 11 has a capacity capable of storing the input video signal D0 for at least two frames and storing the corrected video signal E for two frames. Note that each of the video signals D0 and E can be configured to store only one frame without storing two frames.

フレームメモリ制御部12は、入力された映像信号D0に含まれる同期信号を元に生成したメモリアドレスに従い、入力映像信号の書込みと、蓄積された映像信号D0の読み出しとを行い、連続する2フレームの映像信号D1、D2を生成する。
映像信号D1は、入力映像信号D0に対して遅延が無いものであり、現フレーム映像信号とも呼ばれる。
映像信号D2は、映像信号D1に対して1フレーム遅延することにより得られた、時間的に1フレーム期間前の信号であり、1フレーム遅延映像信号とも呼ばれる。
The frame memory control unit 12 writes the input video signal and reads the stored video signal D0 in accordance with the memory address generated based on the synchronization signal included in the input video signal D0, so that two consecutive frames Video signals D1 and D2 are generated.
The video signal D1 has no delay with respect to the input video signal D0 and is also called a current frame video signal.
The video signal D2 is a signal temporally one frame period obtained by delaying one frame from the video signal D1, and is also called a one-frame delayed video signal.

また、以下に説明するように、映像信号D2を対象として処理を行うので、映像信号D2を注目フレーム映像信号と呼び、映像信号D1を後フレーム映像信号と呼ぶこともある。映像信号D1、D2は、上記のように、画像を構成する複数の画素の信号の列から成り、座標(i,j)の位置にある画素P(i,j)の画素値はD1(i,j)、D2(i,j)と表される。   Further, as will be described below, since the processing is performed on the video signal D2, the video signal D2 may be referred to as a frame-of-interest video signal and the video signal D1 may be referred to as a post-frame video signal. As described above, the video signals D1 and D2 are composed of a sequence of signals of a plurality of pixels constituting the image, and the pixel value of the pixel P (i, j) located at the coordinates (i, j) is D1 (i , J), D2 (i, j).

フレームメモリ制御部12はまた、補正された映像信号Eの書込みと、蓄積された映像信号Eの読み出しとを行い、映像信号Eと同じ自フレーム期間に映像信号E1を出力し、
1フレーム期間後に、映像信号E2を出力する。
The frame memory control unit 12 also writes the corrected video signal E and reads the stored video signal E, outputs the video signal E1 in the same frame period as the video signal E,
After one frame period, the video signal E2 is output.

図3は動きベクトル検出部5の構成例を示す。図示の動きベクトル検出部5は、注目フレームブロック切り出し部21と、後フレームブロック切り出し部22と、動きベクトル決定部23と、メモリ24と、メモリ制御部25を備える。
注目フレームブロック切り出し部21は、画像遅延部4から出力される注目フレーム映像信号D2から、図4(a)に示されるように、注目画素P(i,j)の周辺領域、例えば注目画素を中心とし、高さ(垂直方向サイズ)が(2*BM+1)、幅(水平方向サイズ)が(2*BN+1)の矩形領域(ブロック)D2B(i,j)を切り出し、当該矩形領域D2Bが、後フレーム映像信号D1のどの領域に動いたかを推定し、推定された領域D1Bの、矩形領域D2B(i,j)に対する相対位置を、注目画素P(i、j)についての動きベクトルV(他の画素についての動きベクトルとの区別のため「V(i,j)と表すこともある)として出力する。
FIG. 3 shows a configuration example of the motion vector detection unit 5. The illustrated motion vector detection unit 5 includes a target frame block cutout unit 21, a subsequent frame block cutout unit 22, a motion vector determination unit 23, a memory 24, and a memory control unit 25.
As shown in FIG. 4A, the target frame block cutout unit 21 extracts a peripheral region of the target pixel P (i, j), for example, the target pixel from the target frame video signal D2 output from the image delay unit 4. A rectangular region (block) D2B (i, j) having a center (height (vertical size)) (2 * BM + 1) and width (horizontal size) (2 * BN + 1) is cut out, and the rectangular region D2B is It is estimated which region of the rear frame video signal D1 has moved, and the relative position of the estimated region D1B with respect to the rectangular region D2B (i, j) is determined as a motion vector V (others) for the pixel of interest P (i, j). Is output as “V (i, j)” in order to distinguish it from the motion vector.

後フレームブロック切り出し部22は、画像遅延部4より入力される映像信号D1に対し、前記注目画素P(i、j)毎に定義される座標の集合
S(i,j)={(i+k,j+l)} (1)
(ただし、−SV≦k≦SV、−SH≦l≦SH
また、SV、SHは所定の値である。)
に含まれる位置(i+k,j+l)を中心として、矩形領域D2Bと同じサイズの矩形領域D1B(i+k,j+l)を切り出す(図4(b))。ここで、S(i,j)は、注目画素P(i、j)についての動きベクトルの探索範囲とも呼ばれる。このように定義される探索範囲は、横方向が2SH+1、縦方向が2SV+1の矩形の領域である。
The rear frame block cutout unit 22 sets a set of coordinates S (i, j) = {(i + k,) for each pixel of interest P (i, j) with respect to the video signal D1 input from the image delay unit 4. j + 1)} (1)
(However, -SV≤k≤SV, -SH≤l≤SH
SV and SH are predetermined values. )
A rectangular region D1B (i + k, j + l) having the same size as the rectangular region D2B is cut out with the position (i + k, j + l) included in the center (FIG. 4B). Here, S (i, j) is also referred to as a motion vector search range for the pixel of interest P (i, j). The search range defined in this way is a rectangular area with 2SH + 1 in the horizontal direction and 2SV + 1 in the vertical direction.

動きベクトル決定部23は、注目フレームブロック切り出し部21から入力される矩形領域D2B(i,j)と、後フレームブロック切り出し部22から入力されるブロックD1B(i+k,j+l)との間で、それぞれのブロック内のすべての画素、即ち(2*BM+1)*(2*BN+1)個の、互いに対応する位置の画素同士の差分の絶対値の総和(差分絶対値和)SAD(i+k,j+l)を求める。該差分絶対値和SAD(i+k,j+l)は下記の式(2)で表される。   The motion vector determination unit 23 is respectively connected between the rectangular area D2B (i, j) input from the target frame block cutout unit 21 and the block D1B (i + k, j + l) input from the subsequent frame block cutout unit 22. Sum of absolute values of differences (sum of absolute differences) SAD (i + k, j + l) of all pixels in the block, that is, (2 * BM + 1) * (2 * BN + 1) pixels at corresponding positions. Ask. The difference absolute value sum SAD (i + k, j + l) is expressed by the following equation (2).

Figure 2012109656
Figure 2012109656

後述のように、(2*SV+1)*(2*SH+1)個の矩形領域D1B(i+k,j+l)に対応して(2*SV+1)*(2*SH+1)個の差分絶対値和SAD(i+k,j+l)が得られ、その中で値が最小となるものを生じさせた矩形領域D1B(i+km,j+lm)を特定し、該矩形領域の、矩形領域D2Bに対する相対位置(km,lm)を動きベクトルV=(Vy,Vx)=(km,lm)として、画像補正部6へ出力する。
また、連続した2枚のフレームから、それらの間にフレームを補間するため、動きベクトルVをメモリ24に蓄えて遅延させ、メモリ制御部25により動きベクトルVdとしてフレーム生成部7へ出力する。
As will be described later, (2 * SV + 1) * (2 * SH + 1) absolute difference sums SAD (i + k) corresponding to (2 * SV + 1) * (2 * SH + 1) rectangular areas D1B (i + k, j + l). , j + l) is obtained, and the rectangular area D1B (i + km, j + lm) that produced the smallest value is specified, and the relative position (km, lm) of the rectangular area to the rectangular area D2B is moved. The vector V = (Vy, Vx) = (km, lm) is output to the image correction unit 6.
Further, in order to interpolate a frame between two consecutive frames, the motion vector V is accumulated in the memory 24 and delayed, and is output to the frame generation unit 7 as the motion vector Vd by the memory control unit 25.

上記のような動きベクトル検出を、画像遅延部4から出力される映像信号D2の全画素に対して行い、各画素について動きベクトルを検出し、このようにして得られた動きベクトルを動きぼやけの軽減と2枚の連続したフレーム間に位置するフレームの補間に利用する。   The motion vector detection as described above is performed on all the pixels of the video signal D2 output from the image delay unit 4, the motion vector is detected for each pixel, and the motion vector thus obtained is used as the motion blur. Used for mitigation and interpolation of frames located between two consecutive frames.

なお、動きベクトル検出部5における動きベクトル検出に当たり、画像の上端、下端、左端、右端の外側の画素が、上記の矩形領域D2B、D1Bの一部となり、それらの画素値が必要とされる場合は、例えば、上端、下端、左端、右端の外側の画素が、それぞれ上端、下端、左端、右端の画素と同じ値を持つものとして処理をすれば良い。後述のフィルタリング部34、平均値算出部37などにおける演算においても同様である。   When the motion vector is detected by the motion vector detection unit 5, pixels outside the upper end, lower end, left end, and right end of the image become a part of the rectangular areas D2B and D1B, and those pixel values are required. For example, the processing may be performed assuming that the pixels outside the upper end, the lower end, the left end, and the right end have the same values as the pixels at the upper end, the lower end, the left end, and the right end, respectively. The same applies to calculations in a filtering unit 34, an average value calculation unit 37, and the like, which will be described later.

また、動きベクトル検出部5の動きベクトル検出方法は、上記方法に限定されるものでは無く、注目フレームの映像信号、及び注目フレームよりも時間的に後のフレームの映像信号のほかに、注目フレームよりも時間的に前のフレームの映像信号をも用いる方法や、注目フレームよりも時間的に後のフレームの映像信号を用いずに、注目フレーム映像信号と、注目フレームよりも時間的に前のフレームの映像信号を用いる方法を採用しても良く、さらに、注目フレームの映像信号と注目フレームよりも時間的に後のフレームの映像信号とを用い、位相相関関数を用いて求める方法を採用しても良い。また、注目フレームとその前後のフレームとの時間間隔は1フレーム期間に限らず、2以上のフレーム期間であっても良い。   Further, the motion vector detection method of the motion vector detection unit 5 is not limited to the above method, and in addition to the video signal of the frame of interest and the video signal of the frame later in time than the frame of interest, the frame of interest A method that also uses a video signal of a frame that is earlier in time than a frame of time, or a video signal of a frame of interest that is earlier than the frame of interest without using a video signal of a frame that is later in time than the frame of interest A method that uses a video signal of a frame may be employed, and a method that uses a video signal of a frame of interest and a video signal of a frame that is later in time than the frame of interest and uses a phase correlation function is employed. May be. Further, the time interval between the frame of interest and the frames before and after it is not limited to one frame period, and may be two or more frame periods.

図5は、画像補正部6の構成例を示す。図示の画像補正部6は、補正処理部30と、操作信号処理部31と、動きぼやけ推定部32と、フィルタ係数保存部33と、フィルタリング部34と、平均値算出部37と、補正強度調整部38と、利得計算部39とを備える。   FIG. 5 shows a configuration example of the image correction unit 6. The illustrated image correction unit 6 includes a correction processing unit 30, an operation signal processing unit 31, a motion blur estimation unit 32, a filter coefficient storage unit 33, a filtering unit 34, an average value calculation unit 37, and correction intensity adjustment. A unit 38 and a gain calculation unit 39 are provided.

補正処理部30は、映像信号D2を受け、後述の利得GAINにより、画素毎に補正処理を行い、補正後の映像信号Eを画像遅延部4へ出力する。   The correction processing unit 30 receives the video signal D2, performs correction processing for each pixel with a gain GAIN described later, and outputs the corrected video signal E to the image delay unit 4.

操作信号処理部31は、ユーザより図示しないインターフェースを用いて入力された信号PRを解析し、解析結果として得られたパラメータを出力する。
操作信号処理部31から出力されるパラメータには、調整パラメータADJ、補正強度パラメータBST0、閾値TH1、TH2、TH3が含まれる。
The operation signal processing unit 31 analyzes the signal PR input by using an interface (not shown) from the user, and outputs a parameter obtained as an analysis result.
The parameters output from the operation signal processing unit 31 include an adjustment parameter ADJ, a correction intensity parameter BST0, threshold values TH1, TH2, and TH3.

調整パラメータADJは、動きベクトルから動きぼやけ量を算出するためのものであり、動きぼやけ推定部32へ供給される。
閾値TH1は、フィルタリング部34の特性を調整するためのものであり、フィルタリング部34へ供給される。
補正強度パラメータBST0は、補正強度を決定するものであり、閾値TH2は、画像の特徴の判別に用いられるものであり、これらは補正強度調整部38へ供給される。
The adjustment parameter ADJ is for calculating the motion blur amount from the motion vector, and is supplied to the motion blur estimation unit 32.
The threshold value TH1 is for adjusting the characteristics of the filtering unit 34, and is supplied to the filtering unit 34.
The correction strength parameter BST0 determines the correction strength, and the threshold value TH2 is used for discrimination of image characteristics, and these are supplied to the correction strength adjustment unit 38.

動きぼやけ推定部32は、動きベクトル検出部5で検出した動きベクトルV(垂直方向成分Vy(=km),水平方向成分Vx(=lm))を入力とし、該動きベクトルを極座標で表したときの成分(大きさ及び角度)を算出する。具体的には、動きベクトルの向きが水平方向右向きとなる場合を0度として、動きベクトルの方向A(度)と大きさLM(画素)を次式にて算出する。   The motion blur estimation unit 32 receives the motion vector V (vertical direction component Vy (= km), horizontal direction component Vx (= lm)) detected by the motion vector detection unit 5 and expresses the motion vector in polar coordinates. The component (size and angle) is calculated. Specifically, the direction A (degree) and the magnitude LM (pixel) of the motion vector are calculated by the following equations, assuming that the direction of the motion vector is rightward in the horizontal direction.

Figure 2012109656
Figure 2012109656

動きぼやけ推定部32ではさらに、動きベクトルに対応する角度及び動きぼやけの大きさ(動きの方向のぼやけ幅)を求める。例えば、動きぼやけの角度は、動きベクトルの角度Aと同じとし、一方、動きぼやけの大きさLBは、動きベクトルの大きさLMに調整パラメータADJ(0<ADJ≦1)を乗算した値に等しいとし、下記の式(5)により、動きぼやけの大きさLBを求める。
LB=LM*ADJ (5)
The motion blur estimation unit 32 further obtains the angle corresponding to the motion vector and the magnitude of motion blur (blur width in the direction of motion). For example, the motion blur angle is the same as the motion vector angle A, while the motion blur magnitude LB is equal to the motion vector magnitude LM multiplied by the adjustment parameter ADJ (0 <ADJ ≦ 1). Then, the magnitude LB of motion blur is obtained by the following equation (5).
LB = LM * ADJ (5)

調整パラメータADJは、図6に示すように、フレーム期間の長さTfに対する、撮像期間の長さTs、例えば電荷蓄積時間の比(Ts/Tf)に相当する値を持つものであり、各フレームにおける実際の撮像期間の長さTsに応じて変更しても良いが、本発明が対象としている条件下での撮像期間の典型的な値、平均値、あるいは中間値に基づいて定めても良い。例えば中間値を用いる場合、撮像期間がフレーム期間のEXS倍からEXL倍(EXS、EXLともに1より小さい)の範囲内であれば、その中間値(EXS+EXL)/2をADJと定めることとする。
このように調整パラメータADJを掛けるのは、動きベクトルVはフレーム間で検出され、従って、フレーム期間当たりの動きの量を反映したものであるのに対して、動きぼやけは、撮像期間中の被写体の動きに起因するものであるためである。
As shown in FIG. 6, the adjustment parameter ADJ has a value corresponding to the length Ts of the imaging period with respect to the length Tf of the frame period, for example, the ratio (Ts / Tf) of the charge accumulation time. However, it may be determined based on a typical value, average value, or intermediate value of the imaging period under the conditions targeted by the present invention. . For example, when an intermediate value is used, if the imaging period is in the range of EXS times to EXL times (both EXS and EXL are less than 1) the frame period, the intermediate value (EXS + EXL) / 2 is determined as ADJ.
Multiplying the adjustment parameter ADJ in this way is that the motion vector V is detected between frames and thus reflects the amount of motion per frame period, whereas motion blur is the subject during the imaging period. This is because it is caused by the movement of.

フィルタ係数保存部33は、予め複数の動きぼやけの方向及び大きさの組合せに対応付けて複数のローパスフィルタ係数(2次元FIRフィルタ係数)をテーブル形式で記憶している。このフィルタ係数は、特定の方向及び大きさの動きぼやけを含む映像信号から、動きぼやけの成分を低減するためのものである。
動きぼやけ推定部32は、上記のようにして算出した動きぼやけの方向A及び大きさLBの組合せに対応したフィルタ係数をテーブルから読み出すため、動きぼやけの方向A及び大きさLBからテーブルへのポインタINDを算出して、フィルタ係数保存部33へ入力する。
フィルタ係数保存部33は、入力されたポインタINDに対応して記憶されているフィルタ係数CF(p,q)を読み出し、フィルタリング部34へ出力する。
The filter coefficient storage unit 33 stores a plurality of low-pass filter coefficients (two-dimensional FIR filter coefficients) in a table format in advance in association with a combination of a plurality of motion blur directions and sizes. This filter coefficient is for reducing a motion blur component from a video signal including motion blur in a specific direction and size.
The motion blur estimation unit 32 reads out the filter coefficient corresponding to the combination of the motion blur direction A and the magnitude LB calculated as described above from the table, so that the pointer from the motion blur direction A and the magnitude LB to the table is read. IND is calculated and input to the filter coefficient storage unit 33.
The filter coefficient storage unit 33 reads out the filter coefficient CF (p, q) stored corresponding to the input pointer IND, and outputs it to the filtering unit 34.

フィルタリング部34は、フィルタ係数保存部33から読み出されるフィルタ係数CF(p,q)(但し、−P≦p≦P、−Q≦q≦Q)を用いて、映像信号D2の各注目画素D2(i,j)の周辺領域内の画素の画素値を用いて、フィルタリングを行い、フィルタリングの結果FL1(i,j)を出力するものであり、非線形処理部35と、ローパスフィルタ36とを有する。   The filtering unit 34 uses each filter coefficient CF (p, q) (where −P ≦ p ≦ P, −Q ≦ q ≦ Q) read from the filter coefficient storage unit 33 to each pixel of interest D2 of the video signal D2. Filtering is performed using the pixel values of the pixels in the peripheral region of (i, j), and the result of filtering FL1 (i, j) is output. The nonlinear processing unit 35 and the low-pass filter 36 are provided. .

非線形処理部35は、注目画素の画素値D2(i,j)と、その周辺領域内の画素の画素値D2(i−p,j−q)との差分と、操作信号処理部31より入力される閾値TH1とに基づいて下記の式(6a)〜(6f)で示される非線形処理を行う。   The nonlinear processing unit 35 receives the difference between the pixel value D2 (i, j) of the pixel of interest and the pixel value D2 (ip, jq) of the pixel in the peripheral region, and the operation signal processing unit 31. Based on the threshold TH1 to be performed, nonlinear processing represented by the following formulas (6a) to (6f) is performed.

(A) D2(i−p,j−q)−D2(i,j)>TH1のとき
D2b(i−p,j−q)−D2(i,j)=TH1 (6a)
となるように、即ち、
D2b(i−p,j−q)=D2(i,j)+TH1 (6b)
により、
(B) D2(i,j)−D2(i−p,j−q)<−TH1のとき
D2b(i−p,j−q)−D2(i,j)=−TH1 (6c)
となるように、即ち、
D2b(i−p,j−q)=D2(i,j)−TH1 (6d)
により、
(C) 上記(A)、(B)以外のとき
D2b(i−p,j−q)−D2(i,j)
=D2(i−p,j−q)−D2(i,j) (6e)
となるように、即ち、
D2b(i−p,j−q)=D2(i−p,j−q) (6f)
により、それぞれD2b(i−p,j−q)を定める。
(A) When D2 (ip, jq) -D2 (i, j)> TH1, D2b (ip, jq) -D2 (i, j) = TH1 (6a)
That is,
D2b (ip, jq) = D2 (i, j) + TH1 (6b)
By
(B) When D2 (i, j) -D2 (ip, jq) <-TH1, D2b (ip, jq) -D2 (i, j) =-TH1 (6c)
That is,
D2b (ip, jq) = D2 (i, j) -TH1 (6d)
By
(C) When other than (A) and (B) above D2b (ip, jq) -D2 (i, j)
= D2 (ip, jq) -D2 (i, j) (6e)
That is,
D2b (ip, jq) = D2 (ip, jq) (6f)
Respectively, D2b (ip, jq) is determined.

ローパスフィルタ36は、各注目画素D2(i,j)の周辺領域、即ち、(2P+1)*(2Q+1)個の画素から成る範囲で、上記の非線形処理の結果として得られる値D2b(i−p,j−p)に対して、対応するフィルタ係数CF(p,q)を乗算し、乗算結果の総和をフィルタリング結果FL1(i,j)として求める。   The low-pass filter 36 is a value D2b (i−p) obtained as a result of the above nonlinear processing in a peripheral region of each pixel of interest D2 (i, j), that is, a range including (2P + 1) * (2Q + 1) pixels. , J−p) is multiplied by the corresponding filter coefficient CF (p, q), and the sum of the multiplication results is obtained as the filtering result FL1 (i, j).

ローパスフィルタ36で用いられるフィルタ係数CF(p,q)について以下に説明する。
フィルタ係数は注目画素を中心として、−P≦p≦P、−Q≦q≦Qの領域内の画素について定義される。
先にも述べたように、フィルタ係数CF(p,q)は、動きぼやけの角度A及び大きさLBに基づいて決められる。
図7〜図9は、フィルタ係数が定義される領域のうち、動きぼやけの幾つかの例に対して、フィルタ係数が0以外の値に定義される領域を示す。以下では、このフィルタ係数が0以外の値となる領域を有効フィルタリング領域EFAと言う。有効フィルタリング領域EFA内の画素位置におけるフィルタ係数の総和は1である。
The filter coefficient CF (p, q) used in the low pass filter 36 will be described below.
The filter coefficient is defined for pixels in the region of −P ≦ p ≦ P and −Q ≦ q ≦ Q with the pixel of interest at the center.
As described above, the filter coefficient CF (p, q) is determined based on the motion blur angle A and the magnitude LB.
7 to 9 show regions in which the filter coefficient is defined to a value other than 0 for some examples of motion blur among the regions in which the filter coefficient is defined. Hereinafter, an area where the filter coefficient is a value other than 0 is referred to as an effective filtering area EFA. The sum of filter coefficients at pixel positions in the effective filtering area EFA is 1.

動きぼやけの大きさLB及びその角度Aに応じた帯状の領域が、有効フィルタリング領域EFAとされる。そして、有効フィルタリング領域EFAに完全に又は部分的に含まれる画素に対して、その有効フィルタリング領域EFAに含まれる割合に応じた重み付け係数を与える。例えば、有効フィルタリング領域EFAに部分的に含まれる画素に対しては、有効フィルタリング領域EFAに完全に(その全体が)含まれる画素よりも重み付け係数の値を小さくし、各画素についての重み付け係数の値は、該画素が有効フィルタリング領域EFAに含まれる割合に比例した値とする。   A band-shaped area corresponding to the magnitude LB of motion blur and the angle A is set as an effective filtering area EFA. And the weighting coefficient according to the ratio contained in the effective filtering area | region EFA is given with respect to the pixel included in the effective filtering area | region EFA completely or partially. For example, for the pixels partially included in the effective filtering area EFA, the weighting coefficient value is made smaller than the pixels that are completely (entirely) included in the effective filtering area EFA, and the weighting coefficient for each pixel is reduced. The value is a value proportional to the proportion of the pixel included in the effective filtering area EFA.

この帯状の領域は、動きぼやけの方向に延在するものであり、その長さは、動きぼやけの大きさLBの所定数倍、例えば2倍であり、動きぼやけの始端及び終端からその前後に所定量、例えば、動きぼやけの大きさLBの0.5倍ずつ延長した長さを有する。帯状の領域の幅は、1画素のサイズに相当するものとする。図7〜図9に示す例は、1画素のサイズが水平方向と垂直方向とで同じであるものとして示してある。図7〜図9ではまた、動きぼやけの始点が座標(i,j)で示される位置にあるものとしている。   This band-like region extends in the direction of motion blur, and the length thereof is a predetermined number of times, for example, twice the size LB of motion blur, and from the start and end of motion blur to the front and back thereof. The length is extended by a predetermined amount, for example, by 0.5 times the magnitude LB of motion blur. The width of the band-like region is equivalent to the size of one pixel. In the example shown in FIGS. 7 to 9, the size of one pixel is shown to be the same in the horizontal direction and the vertical direction. 7 to 9, it is assumed that the start point of motion blur is at a position indicated by coordinates (i, j).

図7に示される例では、動きぼやけが水平方向右向きでその大きさLBが4画素分である。この場合、動ききぼやけは、動きぼやけの始点の画素Ps(座標(i,j)の画素)の中心から終点の画素Pe(座標(i、j+4)の中心まで延びていると見て、その前後に2画素(0.5×4画素)の長さを加える。即ち、始点の画素Psの中心から後方(図7で左方)へ2画素分後退した(図で左方に移動した)位置、即ち、座標(i,j−2)の画素の中心から、終点の画素Peの中心から前方(図7で右方)へ2画素分前進した位置(図で右方に移動した)位置、即ち、座標(i,j+6)の画素の中心までの範囲を有効範囲とする。これらの画素に対して、その有効フィルタリング領域EFAに含まれる割合に応じた重み付け係数を与える。即ち、座標(i,j−1)の画素から、座標(i,j+5)までの画素に対しては同じ値の係数を与え、座標(i,j−2)の画素、座標(i,j+6)の画素は、各々半分のみが有効フィルタリング領域EFAに含まれるので、他の画素(座標(i,j−1)から座標(i,j+5)までの画素)の係数の1/2の値を与える。   In the example shown in FIG. 7, the motion blur is directed rightward in the horizontal direction, and the size LB is 4 pixels. In this case, the motion blur is viewed as extending from the center of the start pixel Ps (pixel of coordinates (i, j)) to the center of the end pixel Pe (coordinates (i, j + 4)). A length of 2 pixels (0.5 × 4 pixels) is added to the front and back, that is, the pixel is moved backward by 2 pixels from the center of the starting pixel Ps (leftward in FIG. 7) (moved leftward in the figure). Position, that is, a position (moved to the right in the figure) that has moved forward by two pixels from the center of the pixel at the coordinates (i, j-2) to the front (right in FIG. 7) from the center of the end point pixel Pe In other words, the effective range is the range of the coordinates (i, j + 6) to the center of the pixel, and a weighting coefficient corresponding to the ratio included in the effective filtering area EFA is given to these pixels. Coefficients of the same value for pixels from i, j-1) to coordinates (i, j + 5) Since only half of the pixel at the coordinate (i, j-2) and the pixel at the coordinate (i, j + 6) are included in the effective filtering area EFA, from the other pixel (coordinate (i, j-1)) A value of ½ of the coefficient of the pixel (up to coordinates (i, j + 5)) is given.

図7の例では、有効フィルタリング領域EFA内に半分のみ含まれる画素の数が2であり、有効フィルタリング領域EFAに完全に含まれる画素の数が6であるので、有効フィルタリング領域EFAに完全に含まれる画素に対しては1/7の重み付け係数が与えられ、有効フィルタリング領域EFAに半分だけ含まれる画素に対しては1/14の重み付け係数が与えられる。   In the example of FIG. 7, the number of pixels included only in half in the effective filtering area EFA is 2, and the number of pixels completely included in the effective filtering area EFA is 6, so that it is completely included in the effective filtering area EFA. A 1/7 weighting coefficient is given to the pixels to be assigned, and a 1/14 weighting coefficient is given to the pixels that are only half of the effective filtering area EFA.

図8に示される例では、動きぼやけが水平方向右向きでその大きさLBが3画素分である。この場合、動ききぼやけは、動きぼやけの始点の画素Ps(座標(i,j)の画素)の中心から終点の画素Pe(座標(i、j+3)の中心まで延びていると見て、その前後に1.5画素(0.5×3画素)の長さを加える。即ち、始点の画素Psの中心から後方(図8で左方)へ1.5画素分後退した位置、即ち、座標(i,j−1)の画素の左端から、終点の画素Peの中心から前方(図8で右方)へ1.5画素分前進した位置、即ち、座標(i,j+4)の画素の右端までの範囲を有効範囲とする。そして、図8の例では、有効フィルタリング領域EFAに部分的に含まれる画素は存在せず、有効フィルタリング領域EFAに完全に含まれる画素の数が6であるので、これらの画素の各々についての係数を1/6と定める。   In the example shown in FIG. 8, the motion blur is directed rightward in the horizontal direction, and its size LB is three pixels. In this case, the motion blur is viewed as extending from the center of the pixel Ps (coordinate (i, j)) at the start point of the motion blur to the center of the end pixel Pe (coordinate (i, j + 3)). A length of 1.5 pixels (0.5 × 3 pixels) is added to the front and back, that is, a position retreated by 1.5 pixels from the center of the starting point pixel Ps backward (leftward in FIG. 8), that is, coordinates A position advanced by 1.5 pixels forward from the center of the end point pixel Pe from the left end of the pixel at (i, j−1), that is, the right end of the pixel at coordinates (i, j + 4) 8, the pixel partially included in the effective filtering area EFA does not exist and the number of pixels completely included in the effective filtering area EFA is six. The coefficient for each of these pixels is defined as 1/6.

図9に示される例では、動きぼやけの大きさLBは3画素分であり、図8の場合と同じであり、有効フィルタリング領域EFAの長さ及び幅は、図8の場合と同じであるが、動きぼやけの角度が30度であり、その結果、部分的にのみ有効フィルタリング領域EFAに含まれる画素の数が多く存在する。具体的には、座標(i−3,j+4)、座標(i−2,j+2)、座標(i−2,j+3)、座標(i−2,j+4)、座標(i−1,j)、座標(i−1,j+1)、座標(i−1,j+2)、座標(i−1,j+3)、座標(i,j−1)、座標(i,j)、座標(i,j+1)、座標(i,j+2)座標(i+,j−1)、座標(i+,j)の画素がそれぞれ部分的に有効フィルタリング領域EFAに含まれている。そこで、これらの14個の画素に対して有効フィルタリング領域EFAに含まれる割合に応じて重み付け係数を与える。   In the example shown in FIG. 9, the magnitude LB of motion blur is 3 pixels, which is the same as in FIG. 8, and the length and width of the effective filtering area EFA are the same as in FIG. The angle of motion blur is 30 degrees, and as a result, there are a large number of pixels that are only partially included in the effective filtering area EFA. Specifically, coordinates (i−3, j + 4), coordinates (i−2, j + 2), coordinates (i−2, j + 3), coordinates (i−2, j + 4), coordinates (i−1, j), Coordinates (i-1, j + 1), coordinates (i-1, j + 2), coordinates (i-1, j + 3), coordinates (i, j-1), coordinates (i, j), coordinates (i, j + 1), Pixels with coordinates (i, j + 2) coordinates (i +, j-1) and coordinates (i +, j) are partially included in the effective filtering area EFA. Therefore, a weighting coefficient is given to these 14 pixels according to the ratio included in the effective filtering area EFA.

動きぼやけの大きさLB、角度Aの他の値についても同様に各画素についての重み付け係数を求める。但し、動きぼやけの大きさLB、角度Aが取り得る値のすべてについて重み付け係数を求めるのではなく、大きさLB、角度Aの各々について、互いに所定の範囲ごとの代表値LR、ARに対して重み付け係数を求め、フィルタ係数としてフィルタ係数保存部33に保存しておき、それぞれの範囲内の大きさLB、角度Aに対しては、代表値LR、ARに対して求められ、保存されているフィルタ係数を用いる。代表値LR、AR(またはこれに対応する値)は、後述のポインタINDの生成に用いられる。これらの点については後にさらに詳しく説明する。   For other values of motion blur magnitude LB and angle A, the weighting coefficient for each pixel is obtained in the same manner. However, the weighting coefficient is not calculated for all the values that the magnitude LB and the angle A of the motion blur can take, but for each of the magnitude LB and the angle A, the representative values LR and AR for each predetermined range. Weighting coefficients are obtained and stored in the filter coefficient storage unit 33 as filter coefficients, and the magnitude LB and angle A within the respective ranges are obtained and stored for the representative values LR and AR. Use filter coefficients. The representative values LR and AR (or values corresponding thereto) are used for generating a pointer IND described later. These points will be described in more detail later.

なお、上記の例では、有効フィルタリング領域EFAが、動きぼやけを、その始端及び終端から前後に動きぼやけの大きさLBの0.5倍ずつ延長した長さを有することとしているが、該延長量を動きぼやけの大きさLBに関係しない所定値としてもよく、例えば、該延長量を0.5画素分としても良い。また、該延長量をゼロとしても良い。
また、有効フィルタリング領域EFAに含まれる画素について、有効フィルタリング領域EFAに含まれる割合に応じた重み付けを行う一方、注目画素からの距離に応じた重み付けを行わない構成を持つ移動平均フィルタを用いているが、注目画素からの距離に応じた重み付けを行う構成であっても良い。そのようなフィルタの例としてガウスフィルタがある。
先にも述べた通り、ローパスフィルタ36は、各注目画素D2(i,j)の周辺領域の画素についての非線形処理の結果として得られる値D2b(i−p,j−p)に対して、フィルタリング係数保存部33から読み出された、対応するフィルタ係数CF(p,q)を乗算し、乗算結果の総和をフィルタリング結果FL1(i,j)として求める。このフィルタリングは下記の式で表される。
In the above example, the effective filtering area EFA has a length obtained by extending the motion blur from the start end and the end of the effective filtering area EFA by 0.5 times the motion blur magnitude LB. May be a predetermined value not related to the magnitude LB of motion blur, for example, the extension amount may be 0.5 pixels. Further, the extension amount may be zero.
Also, a moving average filter having a configuration in which weighting according to the ratio included in the effective filtering area EFA is performed on the pixels included in the effective filtering area EFA while weighting according to the distance from the target pixel is not performed. However, a configuration in which weighting according to the distance from the target pixel may be performed. An example of such a filter is a Gaussian filter.
As described above, the low-pass filter 36 applies the value D2b (ip, jp) obtained as a result of the nonlinear processing for the pixels in the peripheral region of each pixel of interest D2 (i, j) to The corresponding filter coefficient CF (p, q) read from the filtering coefficient storage unit 33 is multiplied, and the sum of the multiplication results is obtained as the filtering result FL1 (i, j). This filtering is expressed by the following equation.

Figure 2012109656
Figure 2012109656

式(7)によるフィルタ結果FL1(i,j)は、利得計算部39へ出力される。
平均値算出部37は、映像信号D2の各注目画素D2(i,j)の周辺領域内の画素の画素値の平均値FL2(i,j)を出力する。
ここで言う周辺領域は、例えば、(2P+1)*(2Q+1)個の画素から成る範囲であり、平均値算出部37は、該範囲内の画素値D2(i−p,j−q)の平均値FL2(i,j)、即ち、下記の式(8)で表される値を計算し、補正強度調整部38へ出力する。
The filter result FL1 (i, j) according to Expression (7) is output to the gain calculation unit 39.
The average value calculation unit 37 outputs an average value FL2 (i, j) of the pixel values of the pixels in the peripheral region of each target pixel D2 (i, j) of the video signal D2.
The peripheral region referred to here is, for example, a range including (2P + 1) * (2Q + 1) pixels, and the average value calculation unit 37 calculates the average of the pixel values D2 (ip, jq) within the range. A value FL2 (i, j), that is, a value represented by the following equation (8) is calculated and output to the correction intensity adjusting unit 38.

Figure 2012109656
Figure 2012109656

補正強度調整部38は、操作信号処理部31から入力される補正強度パラメータBST0に基づいて、調整後の補正強度パラメータBST1を出力するものであり、画像遅延部4から入力された映像信号D2の注目画素の画素値D2(i,j)と、平均値算出部37からの平均値FL2(i,j)との差分の絶対値が、操作信号処理部31から入力される閾値TH2より小さい場合は、操作信号処理部31から入力される補正強度パラメータBST0より小さい調整後の補正強度パラメータBST1(i,j)を生成して、利得計算部39へ出力する。調整後の補正強度パラメータBST1(i,j)としては、例えばBST0×β(β<1)で与えられるものを用いることができる。調整後の補正強度パラメータBST1(i,j)を補正強度パラメータBST0に対してどの程度小さくするか(例えば、βの値)は、ユーザが決定可能としても良い。例えば、β=1/2としても良く、β=0としても良い。   The correction intensity adjustment unit 38 outputs the adjusted correction intensity parameter BST1 based on the correction intensity parameter BST0 input from the operation signal processing unit 31, and the video signal D2 input from the image delay unit 4 is output. When the absolute value of the difference between the pixel value D2 (i, j) of the target pixel and the average value FL2 (i, j) from the average value calculation unit 37 is smaller than the threshold value TH2 input from the operation signal processing unit 31 Generates an adjusted correction strength parameter BST1 (i, j) smaller than the correction strength parameter BST0 input from the operation signal processing unit 31, and outputs the generated correction strength parameter BST1 (i, j) to the gain calculation unit 39. As the corrected correction strength parameter BST1 (i, j), for example, the one given by BST0 × β (β <1) can be used. It may be possible for the user to determine how much the correction intensity parameter BST1 (i, j) after adjustment is to be smaller than the correction intensity parameter BST0 (for example, the value of β). For example, β = 1/2 may be set, and β = 0 may be set.

画素値D2(i,j)と平均値FL2(i,j)の差分の絶対値が、閾値TH2よりも小さくないときは、補正強度パラメータBST0をそのまま調整後の補正強度パラメータBST1(i,j)として出力する。従って、(D2(i,j)−FL2(i,j))と、調整後の補正強度パラメータBST1との関係は、図10に示されるごとくである。   When the absolute value of the difference between the pixel value D2 (i, j) and the average value FL2 (i, j) is not smaller than the threshold value TH2, the corrected strength parameter BST1 (i, j) is adjusted as it is. ). Therefore, the relationship between (D2 (i, j) −FL2 (i, j)) and the corrected correction strength parameter BST1 is as shown in FIG.

利得計算部39は、フィルタリング部34から得られるフィルタ結果FL1(i,j)と、補正強度調整部38から出力される調整後の補正強度パラメータBST1(i,j)と、画像遅延部4から入力される映像信号D2の注目画素の画素値D2(i,j)を参照し、補正処理で用いられる乗算係数乃至利得GAIN(i,j)を次式に基づき計算する。   The gain calculation unit 39 receives the filter result FL1 (i, j) obtained from the filtering unit 34, the corrected correction strength parameter BST1 (i, j) output from the correction strength adjustment unit 38, and the image delay unit 4 With reference to the pixel value D2 (i, j) of the target pixel of the input video signal D2, the multiplication coefficient or gain GAIN (i, j) used in the correction processing is calculated based on the following equation.

GAIN(i,j)
=1+BST1(i,j)−BST1(i,j)*FL1(i,j)/D2(i,j)
(9)
GAIN (i, j)
= 1 + BST1 (i, j) -BST1 (i, j) * FL1 (i, j) / D2 (i, j)
(9)

ただし、D2(i,j)=0の場合は、便宜的にD2(i,j)=1として計算する。また、式(9)を計算した結果、GAIN<0となる場合は、GAIN(i,j)=0とする。そして、得られた利得GAIN(i,j)を補正処理部30へ出力する。   However, when D2 (i, j) = 0, it is calculated as D2 (i, j) = 1 for convenience. If GAIN <0 as a result of calculating Equation (9), GAIN (i, j) = 0 is set. Then, the obtained gain GAIN (i, j) is output to the correction processing unit 30.

補正処理部30は、画像遅延部4から入力される映像信号D2の注目画素の画素値D2(i,j)に対し、次式に基づく計算により画素値E(i,j)を求め、補正後の映像信号の画素P(i,j)の画素値として画像遅延部4へ出力する。
E(i,j)=GAIN(i,j)*D2(i,j) (10)
The correction processing unit 30 obtains a pixel value E (i, j) by calculation based on the following expression for the pixel value D2 (i, j) of the target pixel of the video signal D2 input from the image delay unit 4, and performs correction. The pixel value of the pixel P (i, j) of the subsequent video signal is output to the image delay unit 4.
E (i, j) = GAIN (i, j) * D2 (i, j) (10)

本発明においては、画像遅延部4、動きベクトル検出部5、及び画像補正部6において、輝度信号(Y)のみを処理することで、被写体の動きやカメラの動きにより劣化が生じた映像の動きぼやけを補正することができる。しかしながら、輝度信号(Y)だけでなく、赤色信号(R)、青色信号(G)、緑色信号(B)を個別に処理してもよい。またR、G、Bの和を表す信号で、式(9)の利得GAIN(i,j)を求め、画像補正部6の式(10)ではR、G、B個別に処理をしても良い。また、輝度信号(Y)と色差信号(Cb、Cr)を個別に処理してもよい。輝度信号(Y)で利得GAIN(i,j)を求め、求めた利得GAIN(i,j)を用いて、輝度信号(Y)と色差信号(Cb、Cr)の各々に対して、式(10)の演算により個別に処理しても良い。他の色表現フォーマットでも同様な処理が行える。   In the present invention, the image delay unit 4, the motion vector detection unit 5, and the image correction unit 6 process only the luminance signal (Y), so that the motion of the image deteriorated due to the motion of the subject or the motion of the camera. Blur can be corrected. However, not only the luminance signal (Y) but also the red signal (R), blue signal (G), and green signal (B) may be processed individually. Further, the gain GAIN (i, j) of equation (9) is obtained from a signal representing the sum of R, G, and B, and R, G, and B are processed individually in equation (10) of the image correction unit 6. good. Further, the luminance signal (Y) and the color difference signals (Cb, Cr) may be processed individually. The gain GAIN (i, j) is obtained from the luminance signal (Y), and the obtained gain GAIN (i, j) is used for each of the luminance signal (Y) and the color difference signals (Cb, Cr). You may process separately by the calculation of 10). Similar processing can be performed with other color representation formats.

また、実施の形態1ではローパスフィルタを用いた手法について説明しているが、古くから研究されている画像修復問題の解法を適用しても良い。   In the first embodiment, a method using a low-pass filter is described. However, an image restoration problem solution that has been studied for a long time may be applied.

次に、画像遅延部4から2枚の連続した補正画像E1およびE2を、動きベクトル検出部5からは補正画像E2に対応した動きベクトルVdをフレーム生成部7に入力し、E1とE2の間にフレームを補間する。実施の形態1では、画像遅延部1に入力される映像信号のフレームレートを2倍にするフレーム生成処理について説明するが、3倍以上のフレーム生成や、位相をずらしたフレーム生成についても、同様の考え方でフレームを生成することができる。   Next, two consecutive corrected images E1 and E2 are input from the image delay unit 4 and a motion vector Vd corresponding to the corrected image E2 is input from the motion vector detection unit 5 to the frame generation unit 7, and between E1 and E2 Interpolate frames into In the first embodiment, the frame generation processing for doubling the frame rate of the video signal input to the image delay unit 1 will be described. The same applies to frame generation of three times or more and frame generation with a phase shift. A frame can be generated based on the above idea.

E2を注目フレームの補正画像、E1を後フレームの補正画像と呼ぶことにし、これらの間にフレームを補間する場合、注目フレームの動きベクトルVdを参照する。補間されるフレーム(以後、補間フレームと呼ぶ)Hにおける動きベクトルは注目フレームの動きベクトルVdを参照することで求めることができる。具体的には、フレームレートを2倍にする場合、注目フレームの動きベクトルの1/2を用いてフレームの補正画像での移動先を求め、注目フレームの動きベクトルの1/2をその位置での動きベクトルとすれば良い。補間フレームHの動きベクトルが求まれば、注目フレームの補正画像E2および後フレームの補正画像E1との対応関係が求まるため、補間フレームHを生成することができる。補間フレームの生成についての詳細は後述する。   E2 is referred to as a corrected image of the target frame, and E1 is referred to as a corrected image of the subsequent frame. When a frame is interpolated between them, the motion vector Vd of the target frame is referred to. A motion vector in an interpolated frame (hereinafter referred to as an interpolated frame) H can be obtained by referring to the motion vector Vd of the frame of interest. Specifically, when doubling the frame rate, the movement destination in the corrected image of the frame is obtained using 1/2 of the motion vector of the frame of interest, and 1/2 of the motion vector of the frame of interest is calculated at that position. The motion vector may be used. If the motion vector of the interpolation frame H is obtained, the correspondence relationship between the corrected image E2 of the frame of interest and the corrected image E1 of the subsequent frame can be obtained, so that the interpolation frame H can be generated. Details of the generation of the interpolation frame will be described later.

以下、画像処理装置2の各構成要素の動作についてさらに詳しく説明する。
画像処理装置2に入力された映像信号D0は画像遅延部4に入力される。
図11(a)〜(j)は、画像処理装置2内の各部における信号のタイミングを示す。図11(a)に示される入力垂直同期信号SYIに同期して、図11(b)に示すように、フレームF0、F1、F2、F3、F4の入力映像信号D0が順次入力される。
Hereinafter, the operation of each component of the image processing apparatus 2 will be described in more detail.
The video signal D0 input to the image processing device 2 is input to the image delay unit 4.
FIGS. 11A to 11J show signal timings in the respective units in the image processing apparatus 2. In synchronization with the input vertical synchronization signal SYI shown in FIG. 11A, as shown in FIG. 11B, the input video signals D0 of the frames F0, F1, F2, F3, and F4 are sequentially input.

フレームメモリ制御部12は入力垂直同期信号SYIを元にフレームメモリ書込みアドレスを生成し、入力映像信号D0をフレームメモリ11に記憶させると共に、図11(c)に示す出力垂直同期信号SYO(入力垂直同期信号SYIに対して遅れがないものとして示してある)に同期して、図11(d)に示すように、入力映像信号D0に対してフレーム遅延のない映像信号D1(フレームF0、F1、F2、F3、F4の映像信号)を出力する。   The frame memory control unit 12 generates a frame memory write address based on the input vertical synchronization signal SYI, stores the input video signal D0 in the frame memory 11, and outputs the output vertical synchronization signal SYO (input vertical) shown in FIG. In synchronization with the synchronization signal SYI), as shown in FIG. 11D, the video signal D1 (frames F0, F1,. F2, F3, and F4 video signals) are output.

フレームメモリ制御部12はまた、出力垂直同期信号SYOを元にフレームメモリ読み出しアドレスを生成し、フレームメモリ11に蓄えられた、1フレーム遅延映像信号D2(図11(e))を読み出して出力する。   The frame memory control unit 12 also generates a frame memory read address based on the output vertical synchronization signal SYO, and reads and outputs the 1-frame delayed video signal D2 (FIG. 11 (e)) stored in the frame memory 11. .

この結果、画像遅延部4からは、連続する2フレームの映像信号D1、D2が同時に出力される。即ち、フレームF1の映像信号が映像信号D0として入力されるタイミング(フレーム期間)に、フレームF1、F0の映像信号が映像信号D1、D2として出力され、フレームF2の映像信号が映像信号D0として入力されるタイミング(フレーム期間)に、フレームF2、F1の映像信号が映像信号D1、D2として出力される。   As a result, the image delay unit 4 outputs two consecutive frames of video signals D1 and D2 simultaneously. That is, at the timing (frame period) when the video signal of the frame F1 is input as the video signal D0, the video signals of the frames F1 and F0 are output as the video signals D1 and D2, and the video signal of the frame F2 is input as the video signal D0. At the timing (frame period), the video signals of the frames F2 and F1 are output as the video signals D1 and D2.

画像遅延部4から出力された、連続する2フレームの映像信号D1、D2は、動きベクトル検出部5へ供給され、映像信号D2は画像補正部6へも供給される。   The two consecutive frames of video signals D1 and D2 output from the image delay unit 4 are supplied to the motion vector detection unit 5, and the video signal D2 is also supplied to the image correction unit 6.

映像信号D1、D2に基づいて、動きベクトル検出部5で動きベクトルVが生成される。この動きベクトルVは、各フレームの映像信号D2から次のフレームの映像信号D1への動きベクトルであり、従って、フレームF0からフレームF1への動きベクトル(図11(f)では、「F0→F1」で示す)は、フレームF0、F1の映像信号D2、D1が動きベクトル検出部5に入力されるタイミングで出力される。   A motion vector V is generated by the motion vector detector 5 based on the video signals D1 and D2. This motion vector V is a motion vector from the video signal D2 of each frame to the video signal D1 of the next frame. Therefore, the motion vector from the frame F0 to the frame F1 (“F0 → F1 in FIG. 11F)”. Are indicated at the timing when the video signals D2 and D1 of the frames F0 and F1 are input to the motion vector detection unit 5.

映像信号D2、及びこれに利得GAINを掛けることで生成される映像信号Eは、映像信号D2と同じフレーム期間に出力される(図11(h))。
映像信号Eと同じフレーム期間に映像信号E1が出力され(図11(i))、1フレーム期間後に映像信号E2が出力される(図11(j))。
動きベクトルVは1フレーム期間遅延され、フレームF0について映像信号E2と、フレームF1についての映像信号E1が出力されるタイミングで、フレームF0からフレームF1への動きベクトルVd(図11(g)では、「F0→F1」で示す)が出力される。
The video signal D2 and the video signal E generated by multiplying this by the gain GAIN are output in the same frame period as the video signal D2 (FIG. 11 (h)).
The video signal E1 is output during the same frame period as the video signal E (FIG. 11 (i)), and the video signal E2 is output after one frame period (FIG. 11 (j)).
The motion vector V is delayed by one frame period, and the motion vector Vd from the frame F0 to the frame F1 is output at the timing when the video signal E2 for the frame F0 and the video signal E1 for the frame F1 are output. “F0 → F1”) is output.

動きベクトル検出部5では、映像符号化でよく用いられる差分絶対値和SADを用いた動きベクトルの検出を行う。本発明では、動きぼやけが生じている画素の動きぼやけを軽減することが目的であるため、画素毎に差分絶対値和SADを計算し、その最小値から動きベクトルを求める。
しかし、差分絶対値和SADを求める演算を全画素について実行すれば、演算量が莫大となってしまうため、映像符号化と同様に動きベクトルを検出するためのブロックが、隣り合うもの同士で重ならないように処理し、動きベクトルを検出しない画素に対しては、周辺で検出された動きベクトルより補間することとしても良い。
The motion vector detection unit 5 detects a motion vector using a difference absolute value sum SAD often used in video coding. In the present invention, since the purpose is to reduce the motion blur of the pixel in which motion blur occurs, the difference absolute value sum SAD is calculated for each pixel, and the motion vector is obtained from the minimum value.
However, if the calculation for obtaining the sum of absolute differences SAD is executed for all the pixels, the amount of calculation becomes enormous. Therefore, as in the case of video encoding, blocks for detecting a motion vector overlap with each other. For pixels that are processed so that no motion vector is detected, interpolation may be performed from motion vectors detected in the vicinity.

また、上記においては、動きベクトル検出部5で用いるブロックサイズを、注目画素P(i,j)を中心に上下及び左右が同じサイズの矩形の領域とし、矩形領域の高さ及び幅をそれぞれ(2*BM+1)、(2*BN+1)で表される奇数とした。しかしながら、矩形領域の高さ及び幅は、奇数でなくても良く、注目画素の矩形領域内の位置は正確に中心でなくても、若干ずれた位置であっても良い。   In the above description, the block size used in the motion vector detection unit 5 is a rectangular area having the same size in the vertical and horizontal directions around the pixel of interest P (i, j), and the height and width of the rectangular area are ( 2 * BM + 1) and odd numbers represented by (2 * BN + 1). However, the height and width of the rectangular area do not have to be odd numbers, and the position of the target pixel in the rectangular area may not be exactly the center or may be slightly shifted.

さらには、式(1)のように、探索範囲を−SV≦k≦SV、−SH≦l≦SHと定義し、該範囲に含まれる全てのkおよびlに対して差分絶対値和SADを計算するものとした。しかし、演算量を削減する目的でkおよびlを適度に間引き差分絶対値和SADを計算しても良い。この場合、間引かれた(間引きにより除去された)位置(i+k,j+l)については、その周辺の位置についての、差分絶対値和SAD(i+k,j+l)から補間をして用いても良い。また、動きベクトルの精度を検討し、精度に問題が無ければ間引いて得られた差分絶対値和SADを用いても良い。   Further, as in equation (1), the search range is defined as −SV ≦ k ≦ SV and −SH ≦ l ≦ SH, and the sum of absolute differences SAD is calculated for all k and l included in the range. Calculated. However, for the purpose of reducing the amount of calculation, k and l may be appropriately thinned and the absolute difference sum SAD may be calculated. In this case, the position (i + k, j + l) that has been thinned out (removed by thinning) may be interpolated from the sum of absolute differences SAD (i + k, j + l) for the surrounding positions. Further, the accuracy of the motion vector is examined, and if there is no problem in accuracy, the difference absolute value sum SAD obtained by thinning may be used.

画像補正部6に入力された動きベクトルVは、まず動きぼやけ推定部32へ入力される。動きぼやけ推定部32へ入力される動きベクトルVは、図12のように垂直方向の成分Vy(i,j)と水平方向の成分Vx(i,j)とで表されているので、式(3)より動きベクトルの方向A(度)を算出し、式(4)より動きベクトルの大きさLM(画素)を算出する。   The motion vector V input to the image correction unit 6 is first input to the motion blur estimation unit 32. Since the motion vector V input to the motion blur estimation unit 32 is represented by a vertical component Vy (i, j) and a horizontal component Vx (i, j) as shown in FIG. The direction A (degree) of the motion vector is calculated from 3), and the magnitude LM (pixel) of the motion vector is calculated from Equation (4).

ここで、カメラを静止し、等速直線運動をしている物体を撮影した場合を考える。この時撮像される連続した3フレームの映像信号で表される画像の要素の動きの一例を図13(a)、(b)に示す。図示の例では、1フレーム目(図13(a))と2フレーム目(図13(b))との間で、画像の要素ESが、水平方向に4画素移動し、垂直方向には移動していない(Vx=4、Vy=0)。従って、すなわち1フレーム目(図13(a))における動きベクトルは、図13(a)の矢印のように水平方向4画素、垂直方向0画素として検出される。   Here, consider a case where the camera is stationary and an object that is moving in a uniform linear motion is photographed. FIGS. 13A and 13B show an example of the movement of the elements of the image represented by the video signals of three consecutive frames picked up at this time. In the illustrated example, the image element ES moves by four pixels in the horizontal direction and moves in the vertical direction between the first frame (FIG. 13A) and the second frame (FIG. 13B). (Vx = 4, Vy = 0). Therefore, the motion vector in the first frame (FIG. 13A) is detected as 4 pixels in the horizontal direction and 0 pixel in the vertical direction as indicated by arrows in FIG.

仮に、図13(a)、図13(b)に示される画像の撮像期間Tsが1フレーム期間Tfと等しければ、動きぼやけの大きさLBも水平方向に4画素、垂直方向に0画素となる。
しかし、実際には撮像期間Tsは、図6に示すように、1フレーム期間Tfよりも短いため、図14(a)、(b)に示すように、動きぼやけの大きさLBは、動きベクトルの大きさLMによりも小さく、その割合は、1フレーム期間Tfに対する、撮像期間Tsの長さの比(Ts/Tf)に相当する。
If the image capturing period Ts shown in FIGS. 13A and 13B is equal to one frame period Tf, the magnitude LB of the motion blur is 4 pixels in the horizontal direction and 0 pixel in the vertical direction. .
However, since the imaging period Ts is actually shorter than one frame period Tf as shown in FIG. 6, the magnitude of motion blur LB is the motion vector as shown in FIGS. 14 (a) and 14 (b). The ratio is smaller than the size LM, and the ratio corresponds to the ratio (Ts / Tf) of the length of the imaging period Ts to the one frame period Tf.

このことを考慮し、動きベクトルの大きさLMに、1よりも小さい調整パラメータADJを掛けた値を、動きぼやけの大きさLBと推定する。調整パラメータADJは、先に述べたように、各フレームの実際の撮像期間の長さTsに基づいて決めても良く、経験的に決定することとしても良く、ユーザにより設定可能としても良い。   Considering this, a value obtained by multiplying the magnitude LM of the motion vector by the adjustment parameter ADJ smaller than 1 is estimated as the magnitude LB of motion blur. As described above, the adjustment parameter ADJ may be determined based on the actual imaging period length Ts of each frame, may be determined empirically, or may be set by the user.

次に、フィルタ係数保存部33のテーブルからフィルタ係数を読み出すためのポインタINDの算出方法を説明する。
例えば、フィルタ係数保存部33に保存されているフィルタ係数が、角度(単位が「度」であるとする)の代表値としての、0度から165度までの15度毎の角度、大きさの代表値としての、1から21までの奇数に対して定義されているとする。
このとき、式(5)で得られたLBを四捨五入し、四捨五入の結果が偶数であれば1を加算して奇数にし(LB=LB+1)、このような処理の結果が「21」よりも大きければ、「21」にクリッピングし、このような処理をした結果を、動きぼやけの大きさの代表値LRとして出力する。動きぼやけの大きさLBの値が代表値LRを含む所定の範囲内であれば、上記の処理をすることにより、動きぼやけの大きさLBは代表値LRに変換される。
Next, a method for calculating the pointer IND for reading the filter coefficient from the table of the filter coefficient storage unit 33 will be described.
For example, the filter coefficient stored in the filter coefficient storage unit 33 has an angle and size of 15 degrees from 0 degrees to 165 degrees as a representative value of the angle (assuming that the unit is “degree”). It is assumed that it is defined for odd numbers from 1 to 21 as representative values.
At this time, the LB obtained by the equation (5) is rounded, and if the rounding result is an even number, 1 is added to make it an odd number (LB = LB + 1), and the result of such processing is larger than “21”. For example, clipping to “21” is performed, and the result of such processing is output as a representative value LR of the magnitude of motion blur. If the value of the motion blur magnitude LB is within a predetermined range including the representative value LR, the motion blur magnitude LB is converted into the representative value LR by performing the above processing.

一方、角度Aについては、式(3)で求められたAが0より小さければ、180度を加算し(A=A+180)、15度単位で四捨五入(R丸め)するためA2=(A+7.5)/15を小数点以下切り捨て、その結果が12以上であれば(A2≧12)、A2=0とする。このような処理の結果を、動きぼやけの角度の代表値ARに対応する値AR2として出力する。ARとAR2との間には次の関係がある。
AR=15×AR2
On the other hand, with respect to the angle A, if A obtained by the expression (3) is smaller than 0, 180 degrees is added (A = A + 180), and rounded off to the nearest 15 degrees (R rounding), A2 = (A + 7.5 ) / 15 is rounded down, and if the result is 12 or more (A2 ≧ 12), A2 = 0. The result of such processing is output as a value AR2 corresponding to the representative value AR of the motion blur angle. There is the following relationship between AR and AR2.
AR = 15 × AR2

動きぼやけの角度Aの値が代表値ARを含む所定の範囲内であれば、上記の処理をすることにより、動きぼやけの角度Aは代表値ARに対応する値AR2に変換される。
動きぼやけの大きさの代表値LR、及び角度の代表値ARに対応する値AR2を用いて、次式のような計算により、テーブルからの読み出しのためのポインタINDとすることができる。
IND=12*((LR−1)/2−1)+AR2 (11)
If the value of the motion blur angle A is within a predetermined range including the representative value AR, the motion blur angle A is converted to a value AR2 corresponding to the representative value AR by performing the above processing.
By using the value AR2 corresponding to the representative value LR of the magnitude of motion blur and the representative value AR of the angle, the pointer IND for reading from the table can be obtained by the following calculation.
IND = 12 * ((LR-1) / 2-1) + AR2 (11)

式(11)に基づいてAR2およびLRからポインタINDを求めるテーブルの具体例を図15に示す。   A specific example of a table for obtaining the pointer IND from AR2 and LR based on Expression (11) is shown in FIG.

フィルタ係数保存部33は、動きぼやけ推定部32よりポインタINDが入力されると、入力されたポインタINDに対応するフィルタ係数CF(p,q)をローパスフィルタ36に供給する。フィルタ係数保存部33に保存されるフィルタ係数は、ユーザが自由に設計することができる。フィルタ係数はローパスフィルタを実現するものであればよく、比較的設計しやすいことも本発明の特徴である。   When the pointer IND is input from the motion blur estimation unit 32, the filter coefficient storage unit 33 supplies the low-pass filter 36 with the filter coefficient CF (p, q) corresponding to the input pointer IND. The filter coefficient stored in the filter coefficient storage unit 33 can be freely designed by the user. The filter coefficient only needs to realize a low-pass filter, and it is a feature of the present invention that it is relatively easy to design.

次に、ローパスフィルタ36を備えるフィルタリング部34について詳細に説明する。本発明は、被写体の動きやカメラの動きにより動きぼやけが生じた領域の動きぼやけを、適切に軽減することを目的としており、次式に示すローパスフィルタを用いた手法をベースとしている。
E(i,j)
=D2(i,j)+BST1(i,j)*(D2(i,j)−FL1(i,j))
(12)
Next, the filtering unit 34 including the low-pass filter 36 will be described in detail. An object of the present invention is to appropriately reduce motion blur in a region where motion blur has occurred due to subject motion or camera motion, and is based on a technique using a low-pass filter represented by the following equation.
E (i, j)
= D2 (i, j) + BST1 (i, j) * (D2 (i, j) -FL1 (i, j))
(12)

式(12)を変形すると式(9)、式(10)が得られる。式(12)の考え方に基づいて処理を行うこととすれば、例えば緑色信号(G)を用いて式(9)による計算を行って、利得GAIN(i,j)を求め、補正処理部30において、同じ画素の複数の色信号に対して同じ利得GAIN(i,j)を用いて式(10)の演算を行うことで演算量を削減できる利点がある。しかしながら、式(12)を用いる手法には以下の欠点もあり、そのため以下のような処理を行うこととしている。   When Expression (12) is modified, Expression (9) and Expression (10) are obtained. If processing is performed based on the concept of Expression (12), for example, the calculation according to Expression (9) is performed using the green signal (G) to obtain the gain GAIN (i, j), and the correction processing unit 30 In this case, there is an advantage that the amount of calculation can be reduced by performing the calculation of Expression (10) using the same gain GAIN (i, j) for a plurality of color signals of the same pixel. However, the method using Expression (12) has the following drawbacks, and therefore the following processing is performed.

式(12)による手法は、フィルタ係数保存部33より出力されたフィルタ係数CF(p,q)を用い、画像補正部6に入力された映像信号D2に対しローパスフィルタリングを行い、フィルタ結果FL1(i,j)を利得計算部39へ出力する。しかし、式(12)に基づくローパスフィルタリングによる動きぼやけ補正処理は、補正画像において強いエッジ部にオーバーシュートが生じる弊害が起きやすい。   The method according to Expression (12) uses the filter coefficient CF (p, q) output from the filter coefficient storage unit 33, performs low-pass filtering on the video signal D2 input to the image correction unit 6, and outputs the filter result FL1 ( i, j) is output to the gain calculator 39. However, the motion blur correction process using low-pass filtering based on Expression (12) is liable to cause an adverse effect of overshooting at a strong edge portion in the corrected image.

そこで、ローパスフィルタ36の前段に非線形処理部35を挿入して、強いエッジ部でオーバーシュートが抑制できるような非線形処理を行う。例えば、操作信号処理部31より入力される閾値TH1を用いて非線形処理を行い、オーバーシュートの抑制を行うこととする。具体的には、図16に示すように、注目画素の画素値D2(i,j)と、その周辺領域内の画素の画素値D2(i−p,j−q)との差分値DIF(i−p,j−q)=D2(i,j)−D2(i−p,j−q)を閾値TH1によりクリッピングする。これにより、仮に抑制を行わないとすれば、差分値DIF(i−p,j−q)が大きく、利得計算部39で算出される利得GAIN(i,j)が大きくなる画像のエッジ部において、利得を適切に制御することができる。   Therefore, a non-linear processing unit 35 is inserted before the low-pass filter 36 to perform non-linear processing that can suppress overshoot at a strong edge portion. For example, it is assumed that nonlinear processing is performed using the threshold value TH1 input from the operation signal processing unit 31 to suppress overshoot. Specifically, as shown in FIG. 16, the difference value DIF () between the pixel value D2 (i, j) of the pixel of interest and the pixel value D2 (ip, jq) of the pixels in the peripheral area. i−p, j−q) = D2 (i, j) −D2 (i−p, j−q) is clipped by the threshold value TH1. Accordingly, if no suppression is performed, the difference value DIF (ip, j-q) is large and the gain GAIN (i, j) calculated by the gain calculation unit 39 is large at the edge portion of the image. The gain can be appropriately controlled.

次に、補正強度調整部38における処理について詳細を述べる。
補正強度調整部38は、動きぼやけ補正処理後、ノイズ増幅効果で動きぼやけ補正画像の品質が下がることを抑制するためのものであり、操作信号処理部31より入力される補正強度パラメータBST0を、画像の特徴に応じて小さくしもしくは0として、調整後の補正強度パラメータBST1とし、利得計算部39へ出力する。
Next, details of the processing in the correction intensity adjusting unit 38 will be described.
The correction intensity adjustment unit 38 is for suppressing the deterioration of the quality of the motion blur correction image due to the noise amplification effect after the motion blur correction process. The correction intensity parameter BST0 input from the operation signal processing unit 31 is Depending on the feature of the image, it is reduced or set to 0, and the adjusted correction strength parameter BST1 is output to the gain calculation unit 39.

具体的には、映像信号D2を入力し、注目画素の周辺領域内の画素の画素値(例えば輝度値)の変化を検出し、該変化の大きさに応じて調整後の補正強度パラメータBST1の値を決める。上記画素値の変化を表す指標としては、注目画素の画素値D2(i,j)と平均値算出部37から出力される平均値FL2(i,j)との差分値の絶対値を用いる。そして、例えば、該絶対値が操作信号処理部31より入力される閾値TH2より小さければ、注目画素の周辺領域内の画素値の変化が少ないと判断し、例えば調整後の補正強度パラメータBST1を調整前の補正強度パラメータBST0の1/2とし、上記の絶対値が閾値TH2より大きければ画素値の変化が大きいと判断し、調整前の補正強度パラメータBST0をそのまま調整後の補正強度パラメータBST1とする。そして、このようにして定められた調整後の補正強度パラメータBST1を利得計算部39へ出力する。   Specifically, the video signal D2 is input, a change in the pixel value (for example, luminance value) of the pixel in the peripheral region of the target pixel is detected, and the corrected correction intensity parameter BST1 is adjusted according to the magnitude of the change. Determine the value. As an index representing the change in the pixel value, an absolute value of a difference value between the pixel value D2 (i, j) of the target pixel and the average value FL2 (i, j) output from the average value calculation unit 37 is used. For example, if the absolute value is smaller than the threshold value TH2 input from the operation signal processing unit 31, it is determined that the change in the pixel value in the peripheral region of the target pixel is small, and the adjusted correction strength parameter BST1 is adjusted, for example. If the absolute value is larger than the threshold value TH2, it is determined that the change in the pixel value is large, and the pre-adjustment correction intensity parameter BST0 is directly used as the post-adjustment correction intensity parameter BST1. . Then, the corrected correction strength parameter BST1 determined in this way is output to the gain calculation unit 39.

以下、上記の処理を行う意義についてさらに詳しく説明する。
被写体の動きやカメラの動きにより動きぼやけが生じた領域の動きぼやけを軽減するための処理は、必然的に映像信号中のノイズを増幅してしまうこととなる。特に、画素値の変化、例えば輝度の変化の少ない平坦な領域は、動きぼやけが生じていてもその影響は視覚的に小さく、補正処理が弱くても済む。仮にこのような領域で、補正強度パラメータ値BST0をそのまま用いて補正を行うと、ノイズを大きく増幅し、動きぼやけ補正結果の品質が低下することになる。そこで、平坦な領域を検出し、そのような領域では補正強度パラメータBST0の代りにより小さい値を用いる適応処理を行う。このとき、平坦な領域か否かを判定するには、前述のように注目画素の画素値D2(i,j)とその周辺領域内の画素の画素値の平均FL2との差分を取り、閾値との大小で判定することとしている。
また、このような理由から、前述のように平均値算出部37で算出された−P≦p≦P、−Q≦q≦Qの領域内のすべての画素の画素値の単純平均値を用いている。
Hereinafter, the significance of performing the above processing will be described in more detail.
Processing for reducing motion blur in a region where motion blur has occurred due to subject motion or camera motion inevitably amplifies noise in the video signal. In particular, in a flat area where there is little change in pixel value, for example, a change in luminance, even if motion blur occurs, the effect is visually small, and correction processing may be weak. If correction is performed using the correction intensity parameter value BST0 as it is in such a region, noise is greatly amplified, and the quality of the motion blur correction result is degraded. Therefore, a flat region is detected, and in such a region, adaptive processing is performed using a smaller value instead of the correction strength parameter BST0. At this time, in order to determine whether or not the region is a flat region, as described above, the difference between the pixel value D2 (i, j) of the pixel of interest and the average FL2 of the pixel values of the pixels in the surrounding region is taken, and the threshold value Judgment is based on the size.
For this reason, the simple average value of the pixel values of all the pixels in the region of −P ≦ p ≦ P and −Q ≦ q ≦ Q calculated by the average value calculation unit 37 as described above is used. ing.

利得計算部39は、フィルタリング部34の出力FL1(i,j)、補正強度調整部38から出力される調整後の補正強度パラメータBST1(i,j)、映像信号D2の注目画素の画素値D2(i,j)を用いて上記の式(9)に基づき利得GAIN(i,j)を計算し、算出した利得GAIN(i,j)を補正処理部30へ供給する。
ただし、式(9)に示される演算において、注目画素の画素値D2(i,j)で除算する必要から、D2(i,j)=0の場合にはD2(i,j)=1として計算を行う。また、GAIN(i,j)<0となった場合は、GAIN(i,j)=0とクリッピングする。以上の計算により得られた利得GAIN(i,j)を補正処理部30へ出力する。
補正処理部30では、供給された利得GAIN(i,j)を画素値D2(i,j)に乗算することで、動きぼやけ補正を行う。乗算結果は、動きぼやけ補正を受けた画素値E(i,j)として出力され、画像遅延部4に供給される。
The gain calculation unit 39 outputs the output FL1 (i, j) of the filtering unit 34, the corrected correction intensity parameter BST1 (i, j) output from the correction intensity adjustment unit 38, and the pixel value D2 of the target pixel of the video signal D2. The gain GAIN (i, j) is calculated based on the above equation (9) using (i, j), and the calculated gain GAIN (i, j) is supplied to the correction processing unit 30.
However, in the calculation shown in Expression (9), since it is necessary to divide by the pixel value D2 (i, j) of the target pixel, when D2 (i, j) = 0, D2 (i, j) = 1 is set. Perform the calculation. If GAIN (i, j) <0, clipping is performed with GAIN (i, j) = 0. The gain GAIN (i, j) obtained by the above calculation is output to the correction processing unit 30.
The correction processing unit 30 performs motion blur correction by multiplying the supplied gain GAIN (i, j) by the pixel value D2 (i, j). The multiplication result is output as a pixel value E (i, j) that has undergone motion blur correction, and is supplied to the image delay unit 4.

次に、フレーム生成部7の処理について詳細に説明する。注目フレームの補正画像E2、後フレームの補正画像E1の間にフレームを補間するため、画像遅延部4からこれらの映像信号を、動きベクトル検出部5からは注目フレームの動きベクトルVdを、フレーム生成部7へ入力する。位置(i,j)の動きベクトルVdを、垂直方向Vdx(i,j)、水平方向Vdy(i,j)と表現すると、補間フレームHの位置(i,j)における動きベクトルは、次のように求めることができる。
Vhx(i+si,j+sj)=Vdx(i,j)/2 (13a)
Vhy(i+si,j+sj)=Vdy(i,j)/2 (13b)
ただし、
si=round[Vdx(i,j)/2]
sj=round[Vdy(i,j)/2]
round[*]は*の四捨五入
である。
つまり、注目フレームの補正画像E2と後フレームの補正画像E1の中間に位置するフレームを生成するため、注目フレームの動きベクトルVdを2で割り四捨五入することで算出された位置(i+si,j+sj)に、注目フレームの動きベクトルVdを2で割った値が格納される。また、次の処理で差分絶対値和を用いるため、補間フレームにおける差分絶対値和SADhをも算出する。
SADh(i+si,j+sj)=mv_sad(i,j) (13c)
(si、sjは、上記の式(13a)、(13b)について説明したのと同じものである。)
式(13c)で、(si,sj)が映像として定義された位置の範囲を超えた位置を指定した場合、処理をしない。ここで、式(13a)及び式(13b)で計算された補間フレームにおける動きベクトルは、全ての位置(i,j)に対して得られないことに注意を要する。このため、動きベクトル値の修正乃至補間処理(以下単に修正処理と言う)が必要となる。動きベクトルの修正処理は、様々なアルゴリズムが提案されているが、ここでは代表的な処理を記載することとする。
Next, the process of the frame generation unit 7 will be described in detail. In order to interpolate a frame between the corrected image E2 of the target frame and the corrected image E1 of the subsequent frame, these video signals are generated from the image delay unit 4, and the motion vector Vd of the target frame is generated from the motion vector detection unit 5. Input to part 7. When the motion vector Vd at the position (i, j) is expressed as the vertical direction Vdx (i, j) and the horizontal direction Vdy (i, j), the motion vector at the position (i, j) of the interpolation frame H is Can be asking.
Vhx (i + si, j + sj) = Vdx (i, j) / 2 (13a)
Vhy (i + si, j + sj) = Vdy (i, j) / 2 (13b)
However,
si = round [Vdx (i, j) / 2]
sj = round [Vdy (i, j) / 2]
round [*] is the rounding of *.
That is, in order to generate a frame located between the corrected image E2 of the target frame and the corrected image E1 of the subsequent frame, the motion vector Vd of the target frame is divided by 2 and rounded to the position (i + si, j + sj). The value obtained by dividing the motion vector Vd of the frame of interest by 2 is stored. Further, since the difference absolute value sum is used in the next processing, the difference absolute value sum SADh in the interpolation frame is also calculated.
SADh (i + si, j + sj) = mv_sad (i, j) (13c)
(Si and sj are the same as those described for the equations (13a) and (13b) above.)
In the expression (13c), when (si, sj) designates a position exceeding the range of the position defined as a video, no processing is performed. Here, it should be noted that the motion vectors in the interpolation frame calculated by the equations (13a) and (13b) cannot be obtained for all positions (i, j). For this reason, motion vector value correction or interpolation processing (hereinafter simply referred to as correction processing) is required. Various algorithms for motion vector correction processing have been proposed, but here, representative processing will be described.

動きベクトルの修正は、補間フレームHFの全画素における動きベクトルに対して3×3の範囲でSADの最小値を探索することと、3×3の範囲に動きベクトルが存在しなければ動きベクトルを新たに設定する2つの処理で構成されている。   The motion vector is corrected by searching for the minimum value of SAD in the range of 3 × 3 with respect to the motion vector in all the pixels of the interpolation frame HF, and if there is no motion vector in the 3 × 3 range, the motion vector is determined. It consists of two newly set processes.

位置(i,j)を中心とした3×3の範囲でSADの最小値とその位置を探索し、探索の結果、最小値と判断された位置(ci、cj)の動きベクトル(Vhx(ci、cj)、Vhy(ci、cj))を、位置(i,j)の動きベクトルの修正値
Vcx(i、j)=Vhx(ci、cj)
Vcy(i、j)=Vhy(ci、cj) (14)
とする。このとき、(ci、cj)は、

Figure 2012109656
と表現される。 The minimum value of the SAD and its position are searched in a 3 × 3 range centered on the position (i, j), and the motion vector (Vhx (ci) of the position (ci, cj) determined to be the minimum value as a result of the search. , Cj), Vhy (ci, cj)) and the modified value of the motion vector at position (i, j) Vcx (i, j) = Vhx (ci, cj)
Vcy (i, j) = Vhy (ci, cj) (14)
And At this time, (ci, cj) is
Figure 2012109656
It is expressed.

また、3×3の範囲に動きベクトルが存在しなければ、Vcx(i、j)=Vcy(i、j)=0を動きベクトルの修正値として設定する。   If there is no motion vector in the 3 × 3 range, Vcx (i, j) = Vcy (i, j) = 0 is set as the motion vector correction value.

以上により、補間フレームにおける動きベクトルVcx(i、j)、Vcy(i、j)が求まったので、これらを用いて注目フレームの補正画像E2と後フレームの補正画像E1の値を参照し、補間フレームHFを求める。補間フレームの注目画素(i,j)に対応する注目フレームの補正画像E2と後フレームの補正画像E1の位置をそれぞれ(bi、bj)、(ai,aj)とすると、補間フレームHFの各画素の画素値HF(i,j)は、
HF(i,j)={E2(bi,bj)+E1(ai,aj)}/2 (16)
として求めることができる。ここで、
bi=iーround[Vcx(i,j)]
bj=j−round[Vcy(i,j)]
ai=i+fix[Vcx(i,j)]
aj=j+fix[Vcy(i,j)]
である。ただし、fix[*]は*の0方向への切捨てを示す。
As described above, since the motion vectors Vcx (i, j) and Vcy (i, j) in the interpolated frame are obtained, the values of the corrected image E2 of the target frame and the corrected image E1 of the subsequent frame are referred to using these to perform interpolation. Find the frame HF. When the positions of the corrected image E2 of the target frame corresponding to the target pixel (i, j) of the interpolation frame and the corrected image E1 of the subsequent frame are (bi, bj) and (ai, aj), each pixel of the interpolation frame HF The pixel value HF (i, j) of
HF (i, j) = {E2 (bi, bj) + E1 (ai, aj)} / 2 (16)
Can be obtained as here,
bi = i-round [Vcx (i, j)]
bj = j-round [Vcy (i, j)]
ai = i + fix [Vcx (i, j)]
aj = j + fix [Vcy (i, j)]
It is. However, fix [*] indicates truncation of * in the 0 direction.

以上説明したように、入力された画像信号のフレーム間における動きベクトルを画素毎に検出することで、映像中に含まれる動きぼやけの発生している領域を検出し、検出された動きぼやけの方向、大きさに合わせて利得を定めることにより、動きぼやけにより劣化した映像信号を補正することができる。さらに、補正された連続する2枚の映像信号を用いることで、それらの間に存在すると考えられる映像信号を補間すれば、元の映像信号から補間する場合よりも、または、フレーム内の動きぼやけを補正するだけの場合よりも、動画表示時の画質を向上させることが可能となる。   As described above, by detecting a motion vector between frames of the input image signal for each pixel, a motion blur region included in the video is detected, and the detected motion blur direction is detected. By determining the gain according to the size, it is possible to correct the video signal deteriorated due to motion blur. Further, by using two corrected video signals in succession, if a video signal that is considered to exist between them is interpolated, the motion blur in the frame may be less than when interpolating from the original video signal. It is possible to improve the image quality at the time of displaying a moving image, compared with the case where only the correction is performed.

実施の形態2.
図17は、実施の形態2で用いられる画像補正部6を示す。
図示の画像補正部6は、図5の画像補正部と概して同じであるが、操作信号処理部31から出力されるパラメータに閾値TH3が含まれ、該閾値TH3が、補正処理部30に供給され、補正処理部30では、閾値TH3に基づいて処理を行う点で異なる。閾値TH3は、画素値の補正が過補正とならないように、補正の度合いを抑制するためのものである。
Embodiment 2. FIG.
FIG. 17 shows the image correction unit 6 used in the second embodiment.
The illustrated image correction unit 6 is generally the same as the image correction unit in FIG. 5, but the parameter TH 3 is included in the parameter output from the operation signal processing unit 31, and the threshold value TH 3 is supplied to the correction processing unit 30. The correction processing unit 30 is different in that the processing is performed based on the threshold value TH3. The threshold value TH3 is for suppressing the degree of correction so that the correction of the pixel value is not overcorrected.

補正処理部30では、利得計算部39から供給された利得GAINを用いて、動きぼやけ補正画像を得る。しかしながら、実施の形態1の方法で、フィルタリング部34でオーバーシュートの抑制処理を行っても、動きぼやけ補正処理の結果、オーバーシュートが発生することがある。これは、補正強度パラメータBST0の設定を高くし補正した場合に多い。   The correction processing unit 30 obtains a motion blur correction image using the gain GAIN supplied from the gain calculation unit 39. However, even if the filtering unit 34 performs the overshoot suppression process in the method of the first embodiment, overshoot may occur as a result of the motion blur correction process. This is often the case when correction is made by increasing the setting of the correction strength parameter BST0.

そこで、本実施の形態2では、動きぼやけ補正処理の結果に対して、クリッピング処理を行うことでオーバーシュートを回避する。具体的には、操作信号処理部31より閾値TH3を入力し、フィルタリング部34における非線形処理と同様に、補正前の注目画素の画素値D2(i,j)と該画素値D2(i,j)に利得GAIN(i,j)を乗算した値との差分値の絶対値が閾値TH3を超えるときは、|E(i,j)−D2(i、j)|=TH3となるようにし、補正前の注目画素の画素値D2(i,j)と該画素値D2(i,j)に利得GAIN(i,j)を乗算した値との差分値の絶対値が閾値TH3以下であれば、E(i,j)=GAIN(i,j)*D2(i、j)となるような処理を行う。
即ち、
(A) GAIN(i,j)*D2(i,j)−D2(i、j)>TH3であれば、
E(i,j)−D2(i,j)=TH3 (17a)
となるように、即ち、
E(i,j)=D2(i,j)+TH3 (17b)
により、
(B) GAIN(i,j)*D2(i,j)−D2(i、j)<−TH3であれば、
E(i,j)−D2(i,j)=−TH3 (17c)
となるように、即ち、
E(i,j)=D2(i,j)−TH3 (17d)
により、
(C) (A)、(B)のいずれでもなければ、
E(i,j)−D2(i、j)
=GAIN(i,j)*D2(i,j)−D2(i、j) (17e)
となるように、即ち、
E(i,j)=GAIN(i,j)*D2(i,j) (17f)
により、E(i,j)を定める。
Therefore, in the second embodiment, overshoot is avoided by performing clipping processing on the result of motion blur correction processing. Specifically, the threshold value TH3 is input from the operation signal processing unit 31, and the pixel value D2 (i, j) of the target pixel before correction and the pixel value D2 (i, j) are the same as in the nonlinear processing in the filtering unit 34. ) Multiplied by the gain GAIN (i, j), the absolute value of the difference value exceeds the threshold TH3, so that | E (i, j) −D2 (i, j) | = TH3, If the absolute value of the difference value between the pixel value D2 (i, j) of the target pixel before correction and the value obtained by multiplying the pixel value D2 (i, j) by the gain GAIN (i, j) is equal to or less than the threshold value TH3 , E (i, j) = GAIN (i, j) * D2 (i, j).
That is,
(A) GAIN (i, j) * D2 (i, j) −D2 (i, j)> TH3,
E (i, j) -D2 (i, j) = TH3 (17a)
That is,
E (i, j) = D2 (i, j) + TH3 (17b)
By
(B) If GAIN (i, j) * D2 (i, j) −D2 (i, j) <− TH3,
E (i, j) -D2 (i, j) =-TH3 (17c)
That is,
E (i, j) = D2 (i, j) -TH3 (17d)
By
(C) If neither (A) nor (B)
E (i, j) -D2 (i, j)
= GAIN (i, j) * D2 (i, j) -D2 (i, j) (17e)
That is,
E (i, j) = GAIN (i, j) * D2 (i, j) (17f)
To determine E (i, j).

以上説明したように、入力された画像信号のフレーム間における動きベクトルを画素毎に検出することで、映像中に含まれる動きぼやけの発生している領域を検出し、検出された動きぼやけの方向、大きさに合わせて利得を構成することにより、動きぼやけにより劣化した映像信号を補正することができる。さらに、補正された連続する2枚の映像信号を用いることで、それらの間に存在すると考えられる映像信号を補間すれば、元の映像信号から補間する場合よりも、または、フレーム内の動きぼやけを補正するだけの場合よりも、動画表示時の画質を向上させることが可能となる。   As described above, by detecting a motion vector between frames of the input image signal for each pixel, a motion blur region included in the video is detected, and the detected motion blur direction is detected. By configuring the gain according to the size, it is possible to correct the video signal deteriorated due to motion blur. Further, by using two corrected video signals in succession, if a video signal that is considered to exist between them is interpolated, the motion blur in the frame may be less than when interpolating from the original video signal. It is possible to improve the image quality at the time of displaying a moving image, compared with the case where only the correction is performed.

以上本発明を画像処理装置及び画像表示装置として説明したが、これらの装置で実行される画像処理方法及び画像表示方法も本発明の一部を成す。本発明はさらに、上記の画像処理装置または画像処理方法における手順乃至各ステップの処理を実行するプログラムとしても成立し、該プログラムを記録したコンピュータで読み取り可能な記録媒体としても成立する。   Although the present invention has been described above as an image processing apparatus and an image display apparatus, an image processing method and an image display method executed by these apparatuses also form part of the present invention. The present invention is also realized as a program for executing the processing of the procedure or each step in the above-described image processing apparatus or image processing method, and is also realized as a computer-readable recording medium on which the program is recorded.

1 画像表示装置、 2 画像処理装置、 3 画像表示部、 4 画像遅延部、 5 動きベクトル検出部、 6 画像補正部、 7 フレーム生成部、 11 フレームメモリ、 12 フレームメモリ制御部、 21 注目フレームブロック切り出し部、 22 後フレームブロック切り出し部、 23 動きベクトル決定部、 24 メモリ、 25 メモリ制御部、 30 補正処理部、 31 操作信号処理部、 32 動きぼやけ推定部、 33 フィルタ係数保存部、 34 フィルタリング部、 35 非線形処理部、 36 ローパスフィルタ、 37 平均値算出部、 38 補正強度調整部、 39 利得計算部。   DESCRIPTION OF SYMBOLS 1 Image display apparatus, 2 Image processing apparatus, 3 Image display part, 4 Image delay part, 5 Motion vector detection part, 6 Image correction part, 7 Frame production | generation part, 11 Frame memory, 12 Frame memory control part, 21 Attention frame block Cutout unit, 22 post-frame block cutout unit, 23 motion vector determination unit, 24 memory, 25 memory control unit, 30 correction processing unit, 31 operation signal processing unit, 32 motion blur estimation unit, 33 filter coefficient storage unit, 34 filtering unit 35 Non-linear processing unit, 36 Low-pass filter, 37 Average value calculation unit, 38 Correction intensity adjustment unit, 39 Gain calculation unit.

Claims (10)

第1の映像信号における動きベクトルを検出する動きベクトル検出部と、
前記動きベクトル検出部で検出された動きベクトルを用い、前記第1の映像信号における動きぼやけを軽減する画像補正部と、
前記動きぼやけを軽減した互いに異なる2枚の補正画像間に位置するフレームを補間により生成するフレーム生成部と
を備える画像処理装置。
A motion vector detection unit for detecting a motion vector in the first video signal;
An image correction unit that reduces motion blur in the first video signal using the motion vector detected by the motion vector detection unit;
An image processing apparatus comprising: a frame generation unit configured to generate a frame located between two different corrected images with reduced motion blur by interpolation.
前記動きベクトル検出部は、前記第1の映像信号と、前記第1の映像信号に対し1フレーム以上時間的に前又は後の映像信号とに基づいて、前記第1の映像信号における動きベクトルを検出する
ことを特徴とする請求項1に記載の画像処理装置。
The motion vector detection unit obtains a motion vector in the first video signal based on the first video signal and a video signal temporally preceding or following the first video signal by one frame or more. The image processing apparatus according to claim 1, wherein the image processing apparatus is detected.
前記画像補正部が、
前記動きベクトルに基づいて、動きぼやけの方向及び大きさを推定する動きぼやけ推定部と、
前記推定された動きぼやけの方向及び大きさに対応したフィルタ係数を用いて前記第1の映像信号に対するフィルタリングを行うフィルタリング部と
を備えたことを特徴とする請求項1又は2に記載の画像処理装置。
The image correction unit is
A motion blur estimation unit that estimates the direction and magnitude of motion blur based on the motion vector;
The image processing according to claim 1, further comprising: a filtering unit that performs filtering on the first video signal using a filter coefficient corresponding to the estimated direction and magnitude of motion blur. apparatus.
前記補正処理部は、
前記フィルタリング部におけるフィルタリングの結果に基づいて、利得を求める利得計算部と、
前記利得計算部で算出された前記利得を、前記第1の映像信号に乗算することで、前記第1の映像信号に対する補正を行う補正処理部と
をさらに備えたことを特徴とする請求項3に記載の画像処理装置。
The correction processing unit
A gain calculation unit for obtaining a gain based on a filtering result in the filtering unit;
The correction processing unit for correcting the first video signal by multiplying the first video signal by the gain calculated by the gain calculation unit. An image processing apparatus according to 1.
請求項1から4のいずれかの画像処理装置と、前記画像処理装置で生成された画像を表示する画像表示部とを備えた画像表示装置。   An image display device comprising: the image processing device according to claim 1; and an image display unit that displays an image generated by the image processing device. 第1の映像信号における動きベクトルを検出する動きベクトル検出ステップと、
前記動きベクトル検出ステップで検出された動きベクトルを用い、前記第1の映像信号における動きぼやけを軽減する画像補正ステップと、
前記動きぼやけを軽減した互いに異なる2枚の補正画像間に位置するフレームを補間により生成するフレーム生成ステップと
を備える画像処理方法。
A motion vector detection step of detecting a motion vector in the first video signal;
An image correction step for reducing motion blur in the first video signal using the motion vector detected in the motion vector detection step;
An image processing method comprising: a frame generation step of generating a frame located between two different corrected images with reduced motion blur by interpolation.
前記動きベクトル検出ステップは、前記第1の映像信号と、前記第1の映像信号に対し1フレーム以上時間的に前又は後の映像信号とに基づいて、前記第1の映像信号における動きベクトルを検出する
ことを特徴とする請求項6に記載の画像処理方法。
In the motion vector detection step, a motion vector in the first video signal is determined based on the first video signal and a video signal that is temporally before or after one frame from the first video signal. The image processing method according to claim 6, wherein detection is performed.
前記画像補正ステップが、
前記動きベクトルに基づいて、動きぼやけの方向及び大きさを推定する動きぼやけ推定ステップと、
前記推定された動きぼやけの方向及び大きさに対応したフィルタ係数を用いて前記第1の映像信号に対するフィルタリングを行うフィルタリングステップと
を備えたことを特徴とする請求項6又は7に記載の画像処理方法。
The image correction step includes
A motion blur estimation step for estimating the direction and magnitude of motion blur based on the motion vector;
The image processing according to claim 6, further comprising: a filtering step of performing filtering on the first video signal using a filter coefficient corresponding to the estimated direction and magnitude of motion blur. Method.
前記補正処理ステップは、
前記フィルタリングステップにおけるフィルタリングの結果に基づいて、利得を求める利得計算ステップと、
前記利得計算ステップで算出された前記利得を、前記第1の映像信号に乗算することで、前記第1の映像信号に対する補正を行う補正処理ステップと
をさらに備えたことを特徴とする請求項8に記載の画像処理方法。
The correction processing step includes
A gain calculating step for obtaining a gain based on a filtering result in the filtering step;
9. The correction processing step of correcting the first video signal by multiplying the first video signal by the gain calculated in the gain calculation step. An image processing method described in 1.
請求項6から9のいずれかの画像処理方法と、前記画像処理方法で生成された画像を表示する画像表示ステップとを備えた画像表示方法。   An image display method comprising: the image processing method according to claim 6; and an image display step for displaying an image generated by the image processing method.
JP2010254753A 2010-11-15 2010-11-15 Image processing apparatus and method, and image display unit and method Withdrawn JP2012109656A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010254753A JP2012109656A (en) 2010-11-15 2010-11-15 Image processing apparatus and method, and image display unit and method
CN201110359416.9A CN102572222B (en) 2010-11-15 2011-11-14 Image processing apparatus and method, and image display apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010254753A JP2012109656A (en) 2010-11-15 2010-11-15 Image processing apparatus and method, and image display unit and method

Publications (1)

Publication Number Publication Date
JP2012109656A true JP2012109656A (en) 2012-06-07

Family

ID=46416613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010254753A Withdrawn JP2012109656A (en) 2010-11-15 2010-11-15 Image processing apparatus and method, and image display unit and method

Country Status (2)

Country Link
JP (1) JP2012109656A (en)
CN (1) CN102572222B (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014091854A1 (en) * 2012-12-11 2014-06-19 富士フイルム株式会社 Image processing device, image capture device, image processing method, and image processing program
WO2017122997A1 (en) * 2016-01-11 2017-07-20 삼성전자 주식회사 Image encoding method and apparatus, and image decoding method and apparatus
JP7139858B2 (en) * 2018-10-12 2022-09-21 株式会社Jvcケンウッド Interpolated frame generation device and method
KR102537029B1 (en) * 2019-01-09 2023-05-26 미쓰비시덴키 가부시키가이샤 Control device and control method
CN110084765B (en) * 2019-05-05 2021-08-06 Oppo广东移动通信有限公司 Image processing method, image processing device and terminal equipment
CN111698427B (en) * 2020-06-23 2021-12-24 联想(北京)有限公司 Image processing method and device and electronic equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7728909B2 (en) * 2005-06-13 2010-06-01 Seiko Epson Corporation Method and system for estimating motion and compensating for perceived motion blur in digital video
EP1991957A2 (en) * 2005-07-12 2008-11-19 Nxp B.V. Method and device for removing motion blur effects
CN101272488B (en) * 2007-03-23 2010-12-22 展讯通信(上海)有限公司 Video decoding method and device for reducing LCD display movement fuzz
JP4586052B2 (en) * 2007-08-08 2010-11-24 キヤノン株式会社 Image processing apparatus and control method thereof

Also Published As

Publication number Publication date
CN102572222A (en) 2012-07-11
CN102572222B (en) 2014-10-15

Similar Documents

Publication Publication Date Title
US8243150B2 (en) Noise reduction in an image processing method and image processing apparatus
JP4666012B2 (en) Image processing apparatus, image processing method, and program
KR100973100B1 (en) Image processing apparatus and control method
US8369649B2 (en) Image processing apparatus, image processing method, and computer program for performing super-resolution process
US8233062B2 (en) Image processing apparatus, image processing method, and imaging apparatus
RU2419243C1 (en) Device and method to process images and device and method of images display
US7991196B2 (en) Continuous extended range image processing
JP5045674B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US10200649B2 (en) Image processing device, image processing method and recording medium for reducing noise in image
US20060222077A1 (en) Method, apparatus and computer program product for generating interpolation frame
JP2012109656A (en) Image processing apparatus and method, and image display unit and method
US20090273717A1 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
JP2006081150A (en) Image processing apparatus and method, recording medium, and program
KR101125977B1 (en) Image processing apparatus and method, recording medium
JP2014021928A (en) Image processor, image processing method and program
JP2015007816A (en) Image correction apparatus, imaging apparatus, and image correction computer program
JP2009081574A (en) Image processor, processing method and program
US8345163B2 (en) Image processing device and method and image display device
JP4930541B2 (en) Image processing method and image processing apparatus
JP4872508B2 (en) Image processing apparatus, image processing method, and program
JP2008021163A (en) Image processor
JP2018061130A (en) Image processing device, image processing method, and program
KR101517233B1 (en) Apparatus for removing noise using moving estimation
JP2013106151A (en) Image processing apparatus and image processing method
US20180332227A1 (en) Image processing device, image processing method, image processing program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140204