JP6836495B2 - Image generator, image generation method and image generation program - Google Patents
Image generator, image generation method and image generation program Download PDFInfo
- Publication number
- JP6836495B2 JP6836495B2 JP2017223843A JP2017223843A JP6836495B2 JP 6836495 B2 JP6836495 B2 JP 6836495B2 JP 2017223843 A JP2017223843 A JP 2017223843A JP 2017223843 A JP2017223843 A JP 2017223843A JP 6836495 B2 JP6836495 B2 JP 6836495B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- value
- corresponding position
- target
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、画像生成装置、画像生成方法及び画像生成プログラムに関する。 The present invention relates to an image generator, an image generation method, and an image generation program.
従来のカメラは、光学系の開口時間を変更することによって、時間方向の画質である動きボケ及び重畳雑音を制御する。カメラが開口時間を短くすれば動きボケは低減するが、開口時間の短縮によって受光量が減少するため、重畳雑音は増加してしまう。このように、動きボケの低減と重畳雑音の低減とは、トレードオフの関係にある。つまり、雑音重畳を回避したい場合、従来のカメラは、動きボケを許容して一定の開口時間を確保する必要がある。動きボケを回避したい場合、従来のカメラは、雑音重畳を許容して開口時間を制限する必要がある。 A conventional camera controls motion blur and superimposed noise, which are image quality in the time direction, by changing the aperture time of the optical system. If the opening time of the camera is shortened, the motion blur is reduced, but the amount of received light is reduced by shortening the opening time, so that the superimposed noise is increased. As described above, there is a trade-off relationship between the reduction of motion blur and the reduction of superimposed noise. That is, when it is desired to avoid noise superposition, the conventional camera needs to allow motion blur and secure a certain opening time. If it is desired to avoid motion blur, the conventional camera needs to allow noise superposition and limit the opening time.
昨今の半導体技術の進歩を受け、高速度カメラにおける動画像のフレームレートが大きく向上している。高速度カメラにより取得された高フレームレート画像の用途は、画像再生時の高画質化と画像解析の高精度化とに分類される。 Due to recent advances in semiconductor technology, the frame rate of moving images in high-speed cameras has greatly improved. Applications of high frame rate images acquired by high-speed cameras are classified into high image quality during image reproduction and high accuracy in image analysis.
画像再生時の高画質化は、視覚系で検知可能(ディスプレイで表示可能)なフレームレートの上限に迫ることにより、滑らかな動きを表現することが目的である。このため、画像再生時の高画質化は、ディスプレイ装置での等速再生を前提としている。 The purpose of improving the image quality during image reproduction is to express smooth movement by approaching the upper limit of the frame rate that can be detected by the visual system (displayable on the display). Therefore, high image quality during image reproduction is premised on constant speed reproduction on a display device.
一方、画像解析の高精度化は、視覚の検知限を越えた高フレームレート画像を用いることにより、画像解析の高精度化を行うことが目的である。スポーツ選手、FA・検査、自動車等の高速移動物体のスロー再生による画像解析は、代表的な応用例である。 On the other hand, the purpose of improving the accuracy of image analysis is to improve the accuracy of image analysis by using a high frame rate image that exceeds the visual detection limit. Image analysis by slow reproduction of high-speed moving objects such as athletes, FA / inspection, and automobiles is a typical application example.
動画像の入力システムのフレームレートの上限と動画像の出力システムのフレームレートの上限とは非対称である。現在では、動画像の入力システムである高速度カメラのフレームレートの上限は、10000fpsを超えている。一方、動画像の出力システムであるディスプレイ装置のフレームレートの上限は、120fpsから240fpsである。このため、高速度カメラで撮影された動画像は、スロー再生に用いられる(非特許文献1参照)。 The upper limit of the frame rate of the moving image input system and the upper limit of the frame rate of the moving image output system are asymmetric. At present, the upper limit of the frame rate of a high-speed camera, which is a moving image input system, exceeds 10,000 fps. On the other hand, the upper limit of the frame rate of the display device, which is a moving image output system, is 120 fps to 240 fps. Therefore, the moving image taken by the high-speed camera is used for slow reproduction (see Non-Patent Document 1).
しかしながら、動きボケや雑音低減を目的とした画像生成処理では、画像生成装置が再生フレームレートでフレームをサンプリングすることが前提となっている。このため、従来の画像生成装置は、再生フレームレートよりも高い時間分解能ではフレームをサンプリングしていない。 However, in the image generation process for the purpose of reducing motion blur and noise, it is premised that the image generation device samples frames at the reproduction frame rate. For this reason, conventional image generators do not sample frames with a time resolution higher than the playback frame rate.
高フレームレート画像は、時間方向に高密度でサンプリングされたフレーム群を含んでいる。画像生成装置は、1000Hz等の高密度時間サンプリングされたフレーム群を用いて30Hz等の等速再生用の画像を生成した場合、動きボケが低減された等速再生用の画像を生成することが可能である。しかしながら、従来の画像生成装置は、動きボケ及び重畳雑音が低減された等速再生用の画像を生成することができない場合があった。 A high frame rate image contains a group of frames sampled at high density in the time direction. When the image generator generates an image for constant velocity reproduction such as 30 Hz using a frame group sampled at a high density time such as 1000 Hz, it can generate an image for constant velocity reproduction with reduced motion blur. It is possible. However, the conventional image generator may not be able to generate an image for constant velocity reproduction in which motion blur and superimposed noise are reduced.
上記事情に鑑み、本発明は、動きボケ及び重畳雑音が低減された等速再生用の画像を生成することが可能である画像生成装置、画像生成方法及び画像生成プログラムを提供することを目的としている。 In view of the above circumstances, an object of the present invention is to provide an image generation device, an image generation method, and an image generation program capable of generating an image for constant velocity reproduction in which motion blur and superimposed noise are reduced. There is.
本発明の一態様は、対象フレームと複数の参照フレームとを取得する動画像取得部と、前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出する検出部と、前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成する重み生成部と、前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成する近似値生成部と、前記近似値に基づいて、前記対象画素の画素値を更新する更新処理部とを備える画像生成装置である。 One aspect of the present invention is based on a moving image acquisition unit that acquires a target frame and a plurality of reference frames, and a lower limit value of a degree of deviation between a region in the target frame and a region in the reference frame. A detection unit that detects a corresponding position in the reference frame for each target pixel in the frame, a weight generation unit that generates a weight coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position, and a pixel of the reference pixel. It includes an approximate value generation unit that generates an approximate value of the pixel value of the target pixel based on the value and the weight coefficient, and an update processing unit that updates the pixel value of the target pixel based on the approximate value. It is an image generator.
本発明の一態様は、上記の画像生成装置であって、前記検出部は、前記乖離度の下限値に基づいて前記乖離度の最小値の探索を省略し、前記対応位置を検出する。 One aspect of the present invention is the above-mentioned image generation device, in which the detection unit omits the search for the minimum value of the degree of deviation based on the lower limit of the degree of deviation and detects the corresponding position.
本発明の一態様は、画像生成装置が実行する画像生成方法であって、対象フレームと複数の参照フレームとを取得するステップと、前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出するステップと、前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成するステップと、前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成するステップと、前記近似値に基づいて、前記対象画素の画素値を更新するステップとを含む画像生成方法である。 One aspect of the present invention is an image generation method executed by an image generation device, in which a step of acquiring a target frame and a plurality of reference frames and a gap between a region in the target frame and a region in the reference frame A step of detecting a corresponding position in the reference frame for each target pixel in the target frame based on the lower limit of the degree, and a step of generating a weighting coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position. A step of generating an approximate value of the pixel value of the target pixel based on the pixel value of the reference pixel and the weight coefficient, and a step of updating the pixel value of the target pixel based on the approximate value. It is an image generation method including.
本発明の一態様は、コンピュータに、対象フレームと複数の参照フレームとを取得する手順と、前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出する手順と、前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成する手順と、前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成する手順と、前記近似値に基づいて、前記対象画素の画素値を更新する手順とを実行させるための画像生成プログラムである。 One aspect of the present invention is based on a procedure for acquiring a target frame and a plurality of reference frames on a computer and a lower limit value of a degree of deviation between a region in the target frame and a region in the reference frame. A procedure for detecting a corresponding position in the reference frame for each target pixel in the frame, a procedure for generating a weighting coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position, a pixel value of the reference pixel, and the above. It is an image generation program for executing a procedure of generating an approximate value of a pixel value of the target pixel based on a weighting coefficient and a procedure of updating a pixel value of the target pixel based on the approximate value. ..
本発明により、動きボケ及び重畳雑音が低減された等速再生用の画像を生成することが可能である。 According to the present invention, it is possible to generate an image for constant velocity reproduction in which motion blur and superimposed noise are reduced.
本発明の実施形態について、図面を参照して詳細に説明する。
図1は、画像生成装置1の構成の例を示す図である。画像生成装置1は、画像を生成する装置である。画像生成装置1は、動きボケ及び重畳雑音が低減された等速再生用の画像を生成する。
Embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an example of the configuration of the
画像生成装置1は、入力画像記憶部10と、参照フレーム設定部11と、局所近傍領域設定部12と、対応位置同定部13と、参照画素設定部14と、重み設定部15と、近似値生成部16と、最終参照フレーム判定部17と、画素値更新処理部18と、最終画素判定部19とを備える。
The
各機能部のうち一部又は全部は、例えば、CPU(Central Processing Unit)等のプロセッサが、記憶部に記憶されたプログラムを実行することにより実現される。各機能部のうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。 A part or all of each functional unit is realized by, for example, a processor such as a CPU (Central Processing Unit) executing a program stored in the storage unit. A part or all of each functional unit may be realized by using hardware such as LSI (Large Scale Integration) or ASIC (Application Specific Integrated Circuit).
入力画像記憶部10は、例えばフラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性の記録媒体(非一時的な記録媒体)である。入力画像記憶部10は、例えば、RAM(Random Access Memory)やレジスタなどの揮発性の記録媒体を有してもよい。
The input
入力画像記憶部10は、画像生成装置1に入力された画像データである入力画像を記憶する。入力画像記憶部10は、フィルタリング処理の対象フレームと参照フレームとを、入力画像として記憶する。対象フレーム及び参照フレームは、高フレームレート(高い時間解像度)の動画像のフレームである。動画像の出力システムであるディスプレイ装置のフレームレートの上限が例えば240fpsである場合、高フレームレートは、例えば240fpsを超えるレートである。
The input
参照フレーム設定部11は、入力画像記憶部10に記憶されている参照フレームの候補から、予め定められた順序に基づいて参照フレームを選択する。
The reference
局所近傍領域設定部12は、対象フレーム内の処理対象の画素(以下「対象画素」という。)の局所近傍の領域(以下「局所近傍領域」という。)の画素を、対象フレームに設定する。以下、局所近傍の領域の画素を「局所近傍画素」という。
The local neighborhood
対応位置同定部13は、局所近傍画素の画素値を、局所近傍領域設定部12から取得する。対応位置同定部13は、参照フレームの探索範囲の画素値を、入力画像記憶部10から取得する。対応位置同定部13は、対象フレーム内の対象画素について、参照フレーム内の対応点の位置である対応位置を同定する。対応位置同定部13は、対応位置情報を参照画素設定部14に出力する。
The corresponding
参照画素設定部14は、対応位置情報を対応位置同定部13から取得する。参照画素設定部14は、参照フレーム内の対応位置の近傍の整数画素位置の画素を、参照画素と設定する。参照画素設定部14は、予め定められた全ての参照フレーム内の対応位置の画素の局所近傍領域の画素値を、参照フレーム設定部11から取得する。
The reference
重み設定部15は、参照画素の局所近傍領域の画素値で対象画素の局所近傍領域内の画素値を近似した場合に近似誤差が最小となるように、参照画素の重み係数を定める。重み設定部15は、参照画素の重み係数を近似値生成部16に出力する。
The
近似値生成部16は、参照画素値と参照画素の重み係数との加重和を、対象画素の画素値である対象画素値の近似値として算出する。近似値生成部16は、対象画素値の近似値を最終参照フレーム判定部17に出力する。
The approximation
最終参照フレーム判定部17は、予め定められた全ての参照フレームについて対象画素値の近似値を算出する処理が終了したか否かを判定する。対象画素値の近似値を算出する処理がいずれかの参照フレームについて終了していない場合、参照画素設定部14は、対象画素値の近似値を算出する処理を繰り返す。画素値更新処理部18は、いずれかの画素に対する処理が終了していない場合、対象画素値の近似値を算出する処理を次の画素に対して実行する。
The final reference
予め定められた全ての参照フレームについて対象画素値の近似値を算出する処理が終了した場合、画素値更新処理部18は、予め定められた全ての参照フレームの近似値と対象画素値とを取得する。画素値更新処理部18は、近似値及び対象画素値の平均値を算出する。画素値更新処理部18は、近似値及び対象画素値の平均値を、対象画素値の更新値として最終画素判定部19に出力する。すなわち、画素値更新処理部18は、予め定められた全ての画素に対する処理が終了した場合、生成された画像(更新画素値)を最終画素判定部19に出力する。
When the process of calculating the approximate value of the target pixel value for all the predetermined reference frames is completed, the pixel value
最終画素判定部19は、対象フレームの最終画素まで画像が生成された場合、生成された画像(生成画像)を外部装置に出力する。
When the image is generated up to the final pixel of the target frame, the final
次に、画像生成装置1の動作の例を説明する。
図2は、画像生成装置1の動作の例を示すフローチャートである。入力画像記憶部10は、フィルタリング対象となる画像データを取得する。入力画像記憶部10は、指定された対象フレームである第tフレームと、指定されたrt枚の参照フレームを記憶する。
Next, an example of the operation of the
FIG. 2 is a flowchart showing an example of the operation of the
各フレームは、時間フィルタの入力信号のフレーム間隔t(=jδt(j=0,1,…))でサンプリングされる。f(x,y,t)(x=0,…,X−1, y=0,…,Y−1)は、第tフレームの位置x,yにおける画素値である(ステップS1)。 Each frame is sampled at the frame interval t (= jδ t (j = 0, 1, ...)) Of the input signal of the time filter. f (x, y, t) (x = 0, ..., X-1, y = 0, ..., Y-1) is a pixel value at the position x, y of the t-th frame (step S1).
参照フレーム設定部11は、取得された画像データのフレーム内の全ての対象画素に対して、ステップS3からステップS11までの処理を繰り返す(ステップS2)。
The reference
局所近傍領域設定部12は、対象画素に対して局所近傍画素を設定する。局所近傍領域設定部12は、対象フレーム内の対象画素f(x,y,t)に対する局所近傍領域Fb(x,y,t)として、(2bx+1)×(2by+1)×(2bt+1)画素から成る領域{f(x−i,y−j,t−k)|i∈[−bx,bx],j∈[−by,by],k∈[−bt,bt]}を設定する。
The local neighborhood
局所近傍領域設定部12は、rt枚の各参照フレームに対して、ステップS5からステップS8までの処理を実行する。局所近傍領域設定部12は、処理対象とする参照フレーム(t−rtフレーム)を、1,…,rtの順に設定する。つまり、局所近傍領域設定部12は、対象フレームから近い参照フレームを優先して処理に使用する(ステップS3)。
The local neighborhood
画像生成装置1は、参照フレーム内の全ての参照画素に対して、ステップS5からステップS9までの処理を繰り返す(ステップS4)。
The
対応位置同定部13は、局所近傍画素の画素値と参照フレームの探索範囲の画素値とを取得する。対応位置同定部13は、参照フレーム内の対応位置を同定し、同定された対応位置情報を取得する(ステップS5)。
The corresponding
参照画素設定部14は、対応位置情報に基づいて、対応位置の近傍の整数画素位置の画素(近傍画素)を参照画素として設定する(ステップS6)。
The reference
重み設定部15は、全ての参照画素の局所近傍領域の画素値と対象画素の局所近傍領域内の画素値とに基づいて、参照画素の重み係数を算出する。重み設定部15は、参照画素の局所近傍領域の画素値で対象画素の局所近傍領域内の画素値を近似した場合に近似誤差が最小となるように、参照画素の重み係数を算出する(ステップS7)。
The
近似値生成部16は、参照画素値と参照画素の重み係数との加重和を、対象画素値の近似値として算出する(ステップS8)。
The approximation
最終参照フレーム判定部17は、予め定められた全ての参照フレームについて対象画素値の近似値を算出する処理が終了したか否かを判定する。対象画素値の近似値を算出する処理がいずれかの参照フレームについて終了していない場合、最終参照フレーム判定部17は、ステップS2に処理を戻す(ステップS9)。
The final reference
画素値更新処理部18は、予め定められた全ての参照フレームについて対象画素値の近似値を算出する処理が終了した場合、取得された画像データの全ての参照フレームの近似値及び対象画素値の平均値を、対象画素値の更新値として最終画素判定部19に出力する(ステップS10)。
When the process of calculating the approximate value of the target pixel value for all the predetermined reference frames is completed, the pixel value
最終画素判定部19は、取得された画像データの対象フレーム内の全ての対象画素について処理が終了したか否かを判定する。すなわち、最終画素判定部19は、対象フレームの最終画素まで画像が生成されたか否かを判定する。最終画素判定部19は、対象フレームの最終画素まで画像が生成されていない場合、ステップS2に処理を戻す。最終画素判定部19は、対象フレームの最終画素まで画像が生成された場合、生成された画像を外部装置に出力する(ステップS11)。
The final
次に、図2のステップS5の詳細を説明する。
図3は、対応位置同定部13の動作の第1例を示す図である。
図4は、対応位置同定部13の動作の第1例を示すフローチャートである。
Next, the details of step S5 of FIG. 2 will be described.
FIG. 3 is a diagram showing a first example of the operation of the corresponding
FIG. 4 is a flowchart showing a first example of the operation of the corresponding
対応位置同定部13は、局所近傍領域Fb(x,y)と対応点の局所近傍領域との差分二乗和が最小値となる対応点を、式(1)のように参照フレーム内において同定する。
The corresponding
ここで、差分二乗和e(vx,vy,rt)は、式(2)のように表される。 Here, sum of squared differences e (v x, v y, r t) is expressed by formula (2).
式(2)は、差分二乗和e(vx,vy,rt−1)が最小値となる対応点の位置(V(x,t’−rt+1),V(y,t’−rt+1))を探索中心とした処理を表す。rtは、局所近傍領域Fb(x,y)から参照フレームまでの時間間隔を表す。(vx,vy)は、探索中心に対する変位量を表す。対象画素位置に対する変位量は、式(3)のように表される。 Equation (2), the difference square sum e (v x, v y, r t -1) position of the corresponding point becomes the minimum value (V (x, t'-r t +1), V (y, t ' -r t +1)) represents a process that was used as a search center. r t represents the time interval between the reference frame from the local neighborhood region F b (x, y). (V x, v y) represents the amount of displacement for the search center. The amount of displacement with respect to the target pixel position is expressed by the equation (3).
ここで、round()は、四捨五入によって整数値化された結果を返す関数である。対応位置同定部13は、(1/4)画素精度で対応点を探索する。対応位置同定部13は、小数画素位置の値を、バイリニア(bilinear)補間で取得する。
Here, round () is a function that returns the result of rounding to an integer value. The corresponding
閾値θeに対して、差分二乗和e(vx,vy)>θeとなる場合、対応位置同定部13は、適切な対応点が存在しないものと判定し、(vx,vy)を設定しない。閾値θeは、外部パラメータとして設定される。
Against a threshold theta e, sum of squared differences e (v x, v y) > If the theta e, the corresponding
以下では、g(x’−vx,y’−vy,t’)=f(x’−vx,V(x,t’+1),y’−vy,V(y,t’+1),t’)が成り立つ。差分二乗和e(vx,vy,rt)は、式(5)のように表される。 In the following, g (x'-v x , y'-v y , t') = f (x'-v x , V (x, t'+ 1), y'-v y , V (y, t' +1), t') holds. Sum of squared differences e (v x, v y, r t) is expressed by the following equation (5).
以下では、変位量vxと変位量vyと参照位置rtとについて、乖離度Sk(vx,vy,rt)(k=0,…,2bt)を「第kの部分フレーム間差分」という。対応位置同定部13は、第kの部分フレーム間差分S0(vx,vy,rt),S1(vx,vy,rt),…,S2bt(vx,vy,rt)を取得する。差分二乗和e(vx,vy,rt+1)は、式(6)のように表される。
In the following, a displacement v x and displacement v y and the reference position r t, deviance S k (v x, v y , r t) (k = 0, ..., 2b t) to "portion of the k It is called "difference between frames". Corresponding
対応位置同定部13は、S0(vx,vy,rt),S1(vx,vy,rt),…,S2bt(vx,vy,rt)のうちのS0(vx,vy,rt)を除くS1(vx,vy,rt),…,S2bt(vx,vy,rt)の下限値を算出する。対応位置同定部13は、第0の部分フレーム間差分S0(vx,vy,rt)を式(7)のように算出する。
Corresponding position identification unit 13, S 0 (v x, v y, r t), S 1 (v x, v y, r t), ..., S 2bt (v x, v y, r t) of the S 0 (v x, v y , r t)
ここで、式(8)が成立する。 Here, the equation (8) holds.
対応位置同定部13は、式(9)に基づいて、第1の部分フレーム間差分S1(vx,vy,rt)の下限値を算出する。
Corresponding
同様に、対応位置同定部13は、第(k+1)の部分フレーム間差分Sk+1(vx,vy,rt+1)の下限値を算出する。なお、k=0,…,t+2bt−1,t’=t−bt,…,t+bt−1である。
Similarly, the corresponding
ここで、Q(t’)は、局所近傍領域におけるフレーム間差分の絶対値和である。Q(t’)が探索領域の画素値に依存しない値であるため、対応位置同定部13は、e(vx,vy,rt+1)の最小値を探索する前に、Q(t’)を算出する。対応位置同定部13は、Q(t’)を記憶部に記録する。対応位置同定部13は、差分二乗和e(vx,vy,rt)の最小値を探索した際、第kの部分フレーム間差分Sk(vx,vy,rt+1)を記憶部に記録する。差分二乗和e(vx,vy,rt+1)の下限値は、式(3)に基づいて式(11)のように表される。
Here, Q (t') is the sum of the absolute values of the differences between frames in the local neighborhood region. For Q (t ') is a value that does not depend on the pixel values of the search area, the corresponding position identification unit 13, e (v x, v y , r t +1) before searching the minimum, Q (t ') Is calculated. The corresponding
対応位置同定部13は、式(12)を算出する。
The corresponding
ここで、式(13)が成立する。 Here, the equation (13) holds.
対応位置同定部13は、算出されたQ(t’)と式(13)とに基づいて、差分二乗和e(vx’,vy’,rt+1)の最小値を同定する。
Corresponding
式(13)において、第kの部分フレーム間差分Sk(vx,vy,rt)(k=0,…,2bt)が全て算出されている場合、対応位置同定部13は、式(11)に基づいて、差分二乗和e(vx,vy,rt+1)の下限値~e(v’x,v’y,rt+1)を算出する。対応位置同定部13は、最小値の同定処理におけるe(vx’,vy’,rt+1)の暫定最小値と下限値~e(v’x,v’y,rt+1)との大小を比較する。
In the formula (13), partial frame difference S k of the k (v x, v y, r t) (k = 0, ..., 2 bt) If is calculated every corresponding
差分二乗和の下限値~e(v’x,v’y,rt+1)が暫定最小値よりも大きい場合、e(vx’,vy’,rt+1)が暫定最小値よりも小さくなることはない。差分二乗和の下限値~e(v’x,v’y,rt+1)が暫定最小値以下である場合、差分二乗和e(vx’,vy’,rt+1)が暫定最小値よりも小さくなることがあるので、対応位置同定部13は、算出されたe(v’x,v’y,rt+1)とe(vx’,vy’,rt+1)の暫定最小値との大小を比較する。
Lower limit value ~ e of the sum of squared differences (v 'x, v' y , r t +1) is larger than the temporary minimum value, e (v x ', v y', r t +1) than the temporary minimum value It never gets smaller. If the lower limit value ~ e of the sum of squared differences (v 'x, v' y , r t +1) is equal to or less than the provisional minimum value, sum of squared differences e (v x ', v y ', r t +1) interim minimum since it may be less than the value, the corresponding
対応位置同定部13は、e(v’x,v’y,rt+1)が暫定最小値よりも小さい場合、暫定最小値をe(v’x,v’y,rt+1)に更新する(ステップS5−1からステップS5−10まで)。
Corresponding
図5は、対応位置同定部13の動作の第2例を示す図である。
図6は、対応位置同定部13の動作の第2例を示すフローチャートである。図6では、図4と比較して、ステップS5−11からステップS5−13までのステップが、ステップS5−3とステップS5−4との間に追加されている。
FIG. 5 is a diagram showing a second example of the operation of the corresponding
FIG. 6 is a flowchart showing a second example of the operation of the corresponding
式(13)において、第kの部分フレーム間差分Sk(vx,vy,rt)(k=0,…,2bt)のうちの一部が算出されており、算出されていないSk(vx,vy,rt)を参照することができない場合、対応位置同定部13は、e(v’x,v’y,rt+1)を算出し、e(v’x,v’y,rt+1)と暫定最小値との大小を比較する。また、対応位置同定部13は、後段の処理のため、Sk(vx,vy,rt+1)を記憶部に記録する。
In the formula (13), partial frame difference S k of the k (v x, v y, r t) (k = 0, ..., 2 bt) part are calculated among, not calculated If S k (v x, v y , r t) can not refer to the corresponding
e(v’x,v’y,rt+1)が暫定最小値よりも小さい場合、対応位置同定部13は、暫定最小値をe(v’x,v’y,rt+1)で置換する。Sk(vx,vy,rt)が算出されている場合、対応位置同定部13は、式(11)に基づいて、差分二乗和の下限値~e(v’x,v’y,rt+1)を算出し、差分二乗和の下限値~e(v’x,v’y,rt+1)と最小値の同定処理における暫定最小値との大小を比較する。
If e (v 'x, v' y, r t +1) is smaller than the temporary minimum value, the corresponding
差分二乗和の下限値~e(v’x,v’y,rt+1)が暫定最小値よりも大きい場合、e(v’x,v’y,rt+1)は、暫定最小値よりも小さくなることはない。差分二乗和の下限値~e(v’x,v’y,rt+1)が暫定最小値以下である場合、e(v’x,v’y,rt+1)が暫定最小値よりも小さくなることがあるので、対応位置同定部13は、算出されたe(v’x,v’y,rt+1)とe(vx’,vy’,rt+1)の暫定最小値との大小を比較する。
Lower limit value ~ e of the sum of squared differences (v 'x, v' y , r t +1) is larger than the temporary minimum value, e (v 'x, v ' y, r t +1) , from the provisional minimum value Will never get smaller. Lower limit value ~ e of the sum of squared differences (v 'x, v' y , r t +1) case is equal to or less than the provisional minimum value, e (v 'x, v ' y, r t +1) than the temporary minimum value since it may become smaller, the corresponding
対応位置同定部13は、差分二乗和e(v’x,v’y,rt+1)が暫定最小値よりも小さい場合、暫定最小値をe(v’x,v’y,rt+1)に更新する(ステップS5−1からステップS5−13まで)。
Corresponding
次に、図2のステップS6及びステップS7の詳細を説明する。
式(3)における、第(t−rt)フレームにおける対応位置での画素(x−V(x,t−rt),y−V(y,t−rt))と、その近傍に位置する画素(x−V(x,t−rt)+1,y−V(y,t−rt)),(x−V(x,t−rt),y−V(y,t−rt)+1),(x−V(x,t−rt)+1,y−V(y,t−rt)+1)とについて、各々の局所近傍領域を考える。
Next, the details of step S6 and step S7 of FIG. 2 will be described.
In equation (3), and the pixel at the corresponding position in the (t-rt) frame (x-V (x, t -r t), y-V (y, t-r t)), located in the vicinity thereof Pixels (x-V (x, tr t ) + 1, y-V (y, tr t )), (x-V (x, tr t ), y-V (y, t-) r t) +1), (x -V (x, t-r t) + 1, y-V (y, for t-r t) +1) and consider each of the local neighborhood area.
参照画素設定部14は、各近傍領域に含まれる画素をラスター走査順に一元化して、(2bx+1)×(2by+1)×(2bt+1)次元ベクトルの各ベクトルを算出する。(2bx+1)×(2by+1)×(2bt+1)次元ベクトルの各ベクトルは、R0(x,y,t−rt)と、R1(x,y,t−rt)と、R2(x,y,t−rt)と、R3(x,y,t−rt)とである。例えば、R0(x,y,t−rt)の要素は、式(14)のように表される。
Reference
近似値生成部16は、R0(x,y,t−rt)と、R1(x,y,t−rt)と、R2(x,y,t−rt)と、R3(x,y,t−rt)との加重和で、対象画素の局所近傍領域Fb(x,y,t)を近似する。近似誤差電力Eは、式(15)のように表される。
The approximate
重み設定部15は、近似誤差電力E(x,y,t−rt)を最小化する重み係数w0,w1,w2,w3を算出する。重み設定部15は、重み係数w0,w1,w2を、式(16)に基づいて算出する。
The
ここで、i,j=0,1,2に対して、ベクトルの内積値は、式(17)のように表される。 Here, for i, j = 0,1,2, the internal product value of the vector is expressed as in Eq. (17).
ここで、肩付のtは転置を表す。重み設定部15は、式(7)に示された重み係数w0,w1,w2を用いて、式(18)のように重み係数w3を算出する。
Here, t with a shoulder represents transposition. The
式(18)は、重み係数の和が1になるという制約条件の下で近似誤差電力を最小化した結果である。重み係数の和に関して制約条件が設けられていない場合、重み係数は式(19)のように表される。 Equation (18) is the result of minimizing the approximate error power under the constraint that the sum of the weighting coefficients is 1. When no constraint is provided on the sum of the weighting coefficients, the weighting coefficients are expressed as in Eq. (19).
ここで、i,j=0,1,2,3に対して、ベクトルの内積値は、式(20)のように表される。肩付のtは転置を表す。 Here, for i, j = 0,1,2,3, the inner product value of the vector is expressed by the equation (20). The t on the shoulder represents transposition.
次に、図2のステップS8の詳細を説明する。
近似値生成部16は、式(19)に示された重み係数を各参照画素の画素値に式(21)のように乗算することによって、対象画素値の近似値を算出する。近似値生成部16は、局所近傍領域単位で画素値に重み係数を乗じるのではなく、画素単位で画素値に重み係数を乗じる。
Next, the details of step S8 of FIG. 2 will be described.
The approximation
ここで、ri(x,y,t−rt)(i=0,1,2,3)は、式(22)のように表される。近似値生成部16は、rt枚の参照フレーム(第(t−rt)フレーム、(t=1,…,rt))に対する参照画素値を、式(22)のように算出する。
Here, r i (x, y, t-r t) (i = 0,1,2,3) is expressed by the equation (22). Approximate
次に、図2のステップS10の詳細を説明する。
画素値更新処理部18は、式(22)のように表されるrt枚の参照フレームに対する参照画素値に基づいて、式(23)のように対象画素値を更新する。
Next, the details of step S10 of FIG. 2 will be described.
The pixel value
係数akの第1の設定例は、式(24)及び式(25)のように表される。 The first setting example of the coefficient ak is expressed as the equation (24) and the equation (25).
係数akの第1の設定例は、式(26)及び式(27)のように表される。 The first setting example of the coefficient ak is expressed by the equations (26) and (27).
ここで、画素値更新処理部18は、各x,y,tに対して、|f(x,y,t)−^f(x,y,t,lt)|<ψを満たすサンプル数として、r’t(x,y,t)を定める。なお、r’t(x,y,t)の値域は、rt≦r’t(x,y,t)≦rtである。変数ψは、外部から与えられる閾値パラメータである。
Here, the pixel value
係数akの第3の設定例は、式(28)及び式(29)のように表される。ここで、εは、ゼロ除算を回避するために付与された微小量である。 A third example of setting the coefficient ak is expressed as in equations (28) and (29). Here, ε is a minute amount given to avoid division by zero.
以上のように、実施形態の画像生成装置1は、入力画像記憶部10(動画像取得部)と、対応位置同定部13(検出部)と、重み設定部15(重み生成部)と、近似値生成部16(近似値生成部)と、画素値更新処理部18(更新処理部)とを備える。入力画像記憶部10は、対象フレームと複数の参照フレームとを取得する。対応位置同定部13は、対象フレーム内の領域と参照フレーム内の領域との乖離度の下限値に基づいて乖離度の最小値の探索を省略し、対象フレーム内の対象画素ごとに参照フレーム内の対応位置を検出する。重み設定部15は、対応位置の近傍の参照画素ごとに、画素値の重み係数を生成する。近似値生成部16は、参照画素の画素値と重み係数とに基づいて、対象画素の画素値の近似値を生成する。画素値更新処理部18は、近似値に基づいて、対象画素の画素値を更新する。
As described above, the
すなわち、実施形態の画像生成装置1は、入力された画像信号について参照フレーム内の対応位置を同定する際、同じ時空間領域内の異なるフレームに属する領域間の第1乖離度を算出する。画像生成装置1は、参照フレーム内の対応位置を同定する際、同じ時空間領域内の異なるフレームと参照フレーム内の領域との間の第2乖離度を算出する。画像生成装置1は、第1乖離度及び第2乖離度に基づいて、同じ時空間領域と参照領域内の領域との間の第3乖離度の下限値を算出する。画像生成装置1は、複数のフレームに属する領域から成る時空間領域の第3乖離度に基づいて、乖離度の最小値の探索を省略し、参照フレーム内の対応位置を対象画素ごとに同定する。画像生成装置1は、対応位置の近傍に位置する整数画素を参照画素として設定する。画像生成装置1は、参照画素に対する重み係数を設定する。画像生成装置1は、参照画素の画素値に重み係数を乗じて、対象画素の画素値の近似値を生成する。画像生成装置1は、各参照フレームから得た近似値の加重和として、対象画素値を更新する。
That is, the
これによって、実施形態の画像生成装置1は、動きボケ及び重畳雑音が低減された等速再生用の画像を生成することが可能である。実施形態の画像生成装置1は、視覚の検知限を越えた高フレームレート画像から、等速再生用の高画質画像を生成すること(フィルタリング処理)が可能である。実施形態の画像生成装置1は、動きボケ及び重畳雑音が低減された等速再生用の画像を、繰り返し処理による計算量の増加を抑えて生成することが可能である。
As a result, the
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.
1…画像生成装置、10…入力画像記憶部、11…参照フレーム設定部、12…局所近傍領域設定部、13…対応位置同定部、14…参照画素設定部、15…重み設定部、16…近似値生成部、17…最終参照フレーム判定部、18…画素値更新処理部、19…最終画素判定部 1 ... Image generator, 10 ... Input image storage unit, 11 ... Reference frame setting unit, 12 ... Local proximity area setting unit, 13 ... Corresponding position identification unit, 14 ... Reference pixel setting unit, 15 ... Weight setting unit, 16 ... Approximate value generation unit, 17 ... final reference frame determination unit, 18 ... pixel value update processing unit, 19 ... final pixel determination unit
Claims (4)
前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出する検出部と、
前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成する重み生成部と、
前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成する近似値生成部と、
前記近似値に基づいて、前記対象画素の画素値を更新する更新処理部と
を備え、
前記検出部は、前記乖離度のうちの一部が算出されており、算出されていない前記乖離度を参照することができない場合に、前記対象フレーム内の処理対象の画素の局所近傍の領域と前記対応位置の局所近傍の領域との差分二乗和と、前記差分二乗和の暫定最小値との大小を比較し、前記差分二乗和が前記暫定最小値よりも小さい場合、前記暫定最小値を前記差分二乗和で置換する、
画像生成装置。 A moving image acquisition unit that acquires a target frame and a plurality of reference frames,
A detection unit that detects a corresponding position in the reference frame for each target pixel in the target frame based on the lower limit of the degree of deviation between the region in the target frame and the region in the reference frame.
A weight generation unit that generates a weighting coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position.
An approximation value generation unit that generates an approximation value of the pixel value of the target pixel based on the pixel value of the reference pixel and the weighting coefficient.
It is provided with an update processing unit that updates the pixel value of the target pixel based on the approximate value.
Wherein the detection unit is calculated part of the previous SL discrepancy, if it is not possible to see the degree of deviation that has not been calculated, the region of a local neighborhood of pixels to be processed within the target frame Compare the magnitude of the difference squared sum with the region near the local area of the corresponding position and the provisional minimum value of the difference squared sum, and if the difference squared sum is smaller than the provisional minimum value, the provisional minimum value is set. Replace with the sum of squared differences,
Image generator.
対象フレームと複数の参照フレームとを取得するステップと、
前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出するステップと、
前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成するステップと、
前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成するステップと、
前記近似値に基づいて、前記対象画素の画素値を更新するステップと
を含み、
前記検出するステップでは、前記乖離度のうちの一部が算出されており、算出されていない前記乖離度を参照することができない場合に、前記対象フレーム内の処理対象の画素の局所近傍の領域と前記対応位置の局所近傍の領域との差分二乗和と、前記差分二乗和の暫定最小値との大小を比較し、前記差分二乗和が前記暫定最小値よりも小さい場合、前記暫定最小値を前記差分二乗和で置換する、
画像生成方法。 An image generation method executed by an image generation device.
Steps to get the target frame and multiple reference frames,
A step of detecting a corresponding position in the reference frame for each target pixel in the target frame based on the lower limit of the degree of deviation between the region in the target frame and the region in the reference frame.
A step of generating a weighting coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position, and
A step of generating an approximate value of the pixel value of the target pixel based on the pixel value of the reference pixel and the weighting coefficient, and
Including a step of updating the pixel value of the target pixel based on the approximate value.
In the step of detecting, and the calculated part of the previous SL discrepancy, if it is not possible to see the degree of deviation that has not been calculated, the local neighborhood of pixels to be processed within the target frame The magnitude of the difference squared sum of the region and the region near the local area of the corresponding position is compared with the provisional minimum value of the difference squared sum, and if the difference squared sum is smaller than the provisional minimum value, the provisional minimum value. Is replaced by the difference squared sum,
Image generation method.
対象フレームと複数の参照フレームとを取得する手順と、
前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出する手順と、
前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成する手順と、
前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成する手順と、
前記近似値に基づいて、前記対象画素の画素値を更新する手順と
を実行させ、
前記検出する手順では、前記乖離度のうちの一部が算出されており、算出されていない前記乖離度を参照することができない場合に、前記対象フレーム内の処理対象の画素の局所近傍の領域と前記対応位置の局所近傍の領域との差分二乗和と、前記差分二乗和の暫定最小値との大小を比較し、前記差分二乗和が前記暫定最小値よりも小さい場合、前記暫定最小値を前記差分二乗和で置換する、
画像生成プログラム。 On the computer
The procedure to get the target frame and multiple reference frames,
A procedure for detecting a corresponding position in the reference frame for each target pixel in the target frame based on the lower limit of the degree of deviation between the region in the target frame and the region in the reference frame.
A procedure for generating a weighting coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position, and
A procedure for generating an approximate value of the pixel value of the target pixel based on the pixel value of the reference pixel and the weighting coefficient, and
Based on the approximate value, the procedure of updating the pixel value of the target pixel is executed.
The procedures the detection are calculated part of the previous SL discrepancy, if it is not possible to see the degree of deviation that has not been calculated, the local neighborhood of pixels to be processed within the target frame The magnitude of the difference squared sum of the region and the region near the local area of the corresponding position is compared with the provisional minimum value of the difference squared sum, and if the difference squared sum is smaller than the provisional minimum value, the provisional minimum value. Is replaced by the difference squared sum,
Image generator.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223843A JP6836495B2 (en) | 2017-11-21 | 2017-11-21 | Image generator, image generation method and image generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223843A JP6836495B2 (en) | 2017-11-21 | 2017-11-21 | Image generator, image generation method and image generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019097004A JP2019097004A (en) | 2019-06-20 |
JP6836495B2 true JP6836495B2 (en) | 2021-03-03 |
Family
ID=66972059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017223843A Active JP6836495B2 (en) | 2017-11-21 | 2017-11-21 | Image generator, image generation method and image generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6836495B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111031256B (en) * | 2019-11-15 | 2021-04-23 | Oppo广东移动通信有限公司 | Image processing method, image processing device, storage medium and electronic equipment |
-
2017
- 2017-11-21 JP JP2017223843A patent/JP6836495B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019097004A (en) | 2019-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5555706B2 (en) | High resolution video acquisition apparatus and method | |
JP5855445B2 (en) | Video data processing method and image processing circuit for stabilizing digital image, and camera using the same | |
KR100985805B1 (en) | Apparatus and method for image stabilization using adaptive Kalman filter | |
US9262684B2 (en) | Methods of image fusion for image stabilization | |
CN103139568B (en) | Based on the Video Stabilization method of degree of rarefication and fidelity constraint | |
JP2008541508A (en) | Movement stabilization | |
US9245316B2 (en) | Image processing device, image processing method and non-transitory computer readable medium | |
JP2014010621A (en) | Image area dividing device by optimal image size, method and program | |
JP6462372B2 (en) | Super-resolution device and program | |
JP6293374B2 (en) | Image processing apparatus, image processing method, program, recording medium recording the same, video photographing apparatus, and video recording / reproducing apparatus | |
CN102685371B (en) | Digital video image stabilization method based on multi-resolution block matching and PI (Portion Integration) control | |
JPWO2014069103A1 (en) | Image processing device | |
KR101202642B1 (en) | Method and apparatus for estimating global motion using the background feature points | |
JP2015060593A (en) | Method and apparatus for filtering image | |
JP2021043874A (en) | Image processing apparatus, image processing method, and program | |
JP6836495B2 (en) | Image generator, image generation method and image generation program | |
JP7027776B2 (en) | Movement vector calculation method, device, program, and movement vector calculation method including noise reduction processing. | |
US20120019677A1 (en) | Image stabilization in a digital camera | |
JP6221333B2 (en) | Image processing apparatus, image processing circuit, and image processing method | |
JP2006067541A (en) | Video converting apparatus and method, and recording medium | |
JP6017279B2 (en) | Image processing apparatus, image processing method, and program | |
JP6792541B2 (en) | Image generator, image generation method and image generation program | |
JP2006215657A (en) | Method, apparatus, program and program storage medium for detecting motion vector | |
JP6763826B2 (en) | Image generator, image generation method and program | |
JP6091082B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200915 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6836495 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |