JP6836495B2 - Image generator, image generation method and image generation program - Google Patents

Image generator, image generation method and image generation program Download PDF

Info

Publication number
JP6836495B2
JP6836495B2 JP2017223843A JP2017223843A JP6836495B2 JP 6836495 B2 JP6836495 B2 JP 6836495B2 JP 2017223843 A JP2017223843 A JP 2017223843A JP 2017223843 A JP2017223843 A JP 2017223843A JP 6836495 B2 JP6836495 B2 JP 6836495B2
Authority
JP
Japan
Prior art keywords
pixel
value
corresponding position
target
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017223843A
Other languages
Japanese (ja)
Other versions
JP2019097004A (en
Inventor
幸浩 坂東
幸浩 坂東
誠之 高村
誠之 高村
清水 淳
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017223843A priority Critical patent/JP6836495B2/en
Publication of JP2019097004A publication Critical patent/JP2019097004A/en
Application granted granted Critical
Publication of JP6836495B2 publication Critical patent/JP6836495B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、画像生成装置、画像生成方法及び画像生成プログラムに関する。 The present invention relates to an image generator, an image generation method, and an image generation program.

従来のカメラは、光学系の開口時間を変更することによって、時間方向の画質である動きボケ及び重畳雑音を制御する。カメラが開口時間を短くすれば動きボケは低減するが、開口時間の短縮によって受光量が減少するため、重畳雑音は増加してしまう。このように、動きボケの低減と重畳雑音の低減とは、トレードオフの関係にある。つまり、雑音重畳を回避したい場合、従来のカメラは、動きボケを許容して一定の開口時間を確保する必要がある。動きボケを回避したい場合、従来のカメラは、雑音重畳を許容して開口時間を制限する必要がある。 A conventional camera controls motion blur and superimposed noise, which are image quality in the time direction, by changing the aperture time of the optical system. If the opening time of the camera is shortened, the motion blur is reduced, but the amount of received light is reduced by shortening the opening time, so that the superimposed noise is increased. As described above, there is a trade-off relationship between the reduction of motion blur and the reduction of superimposed noise. That is, when it is desired to avoid noise superposition, the conventional camera needs to allow motion blur and secure a certain opening time. If it is desired to avoid motion blur, the conventional camera needs to allow noise superposition and limit the opening time.

昨今の半導体技術の進歩を受け、高速度カメラにおける動画像のフレームレートが大きく向上している。高速度カメラにより取得された高フレームレート画像の用途は、画像再生時の高画質化と画像解析の高精度化とに分類される。 Due to recent advances in semiconductor technology, the frame rate of moving images in high-speed cameras has greatly improved. Applications of high frame rate images acquired by high-speed cameras are classified into high image quality during image reproduction and high accuracy in image analysis.

画像再生時の高画質化は、視覚系で検知可能(ディスプレイで表示可能)なフレームレートの上限に迫ることにより、滑らかな動きを表現することが目的である。このため、画像再生時の高画質化は、ディスプレイ装置での等速再生を前提としている。 The purpose of improving the image quality during image reproduction is to express smooth movement by approaching the upper limit of the frame rate that can be detected by the visual system (displayable on the display). Therefore, high image quality during image reproduction is premised on constant speed reproduction on a display device.

一方、画像解析の高精度化は、視覚の検知限を越えた高フレームレート画像を用いることにより、画像解析の高精度化を行うことが目的である。スポーツ選手、FA・検査、自動車等の高速移動物体のスロー再生による画像解析は、代表的な応用例である。 On the other hand, the purpose of improving the accuracy of image analysis is to improve the accuracy of image analysis by using a high frame rate image that exceeds the visual detection limit. Image analysis by slow reproduction of high-speed moving objects such as athletes, FA / inspection, and automobiles is a typical application example.

動画像の入力システムのフレームレートの上限と動画像の出力システムのフレームレートの上限とは非対称である。現在では、動画像の入力システムである高速度カメラのフレームレートの上限は、10000fpsを超えている。一方、動画像の出力システムであるディスプレイ装置のフレームレートの上限は、120fpsから240fpsである。このため、高速度カメラで撮影された動画像は、スロー再生に用いられる(非特許文献1参照)。 The upper limit of the frame rate of the moving image input system and the upper limit of the frame rate of the moving image output system are asymmetric. At present, the upper limit of the frame rate of a high-speed camera, which is a moving image input system, exceeds 10,000 fps. On the other hand, the upper limit of the frame rate of the display device, which is a moving image output system, is 120 fps to 240 fps. Therefore, the moving image taken by the high-speed camera is used for slow reproduction (see Non-Patent Document 1).

A. Golwelkar and J. Woods. Motion-compensated temporal filtering and motion vector coding using biorthogonal filter. IEEE Trans. Circuits Syst. Video, Vol. CSVT-17, No.4, 2007.A. Golwelkar and J. Woods. Motion-compensated temporal filtering and motion vector coding using biorthogonal filter. IEEE Trans. Circuits Syst. Video, Vol. CSVT-17, No.4, 2007.

しかしながら、動きボケや雑音低減を目的とした画像生成処理では、画像生成装置が再生フレームレートでフレームをサンプリングすることが前提となっている。このため、従来の画像生成装置は、再生フレームレートよりも高い時間分解能ではフレームをサンプリングしていない。 However, in the image generation process for the purpose of reducing motion blur and noise, it is premised that the image generation device samples frames at the reproduction frame rate. For this reason, conventional image generators do not sample frames with a time resolution higher than the playback frame rate.

高フレームレート画像は、時間方向に高密度でサンプリングされたフレーム群を含んでいる。画像生成装置は、1000Hz等の高密度時間サンプリングされたフレーム群を用いて30Hz等の等速再生用の画像を生成した場合、動きボケが低減された等速再生用の画像を生成することが可能である。しかしながら、従来の画像生成装置は、動きボケ及び重畳雑音が低減された等速再生用の画像を生成することができない場合があった。 A high frame rate image contains a group of frames sampled at high density in the time direction. When the image generator generates an image for constant velocity reproduction such as 30 Hz using a frame group sampled at a high density time such as 1000 Hz, it can generate an image for constant velocity reproduction with reduced motion blur. It is possible. However, the conventional image generator may not be able to generate an image for constant velocity reproduction in which motion blur and superimposed noise are reduced.

上記事情に鑑み、本発明は、動きボケ及び重畳雑音が低減された等速再生用の画像を生成することが可能である画像生成装置、画像生成方法及び画像生成プログラムを提供することを目的としている。 In view of the above circumstances, an object of the present invention is to provide an image generation device, an image generation method, and an image generation program capable of generating an image for constant velocity reproduction in which motion blur and superimposed noise are reduced. There is.

本発明の一態様は、対象フレームと複数の参照フレームとを取得する動画像取得部と、前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出する検出部と、前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成する重み生成部と、前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成する近似値生成部と、前記近似値に基づいて、前記対象画素の画素値を更新する更新処理部とを備える画像生成装置である。 One aspect of the present invention is based on a moving image acquisition unit that acquires a target frame and a plurality of reference frames, and a lower limit value of a degree of deviation between a region in the target frame and a region in the reference frame. A detection unit that detects a corresponding position in the reference frame for each target pixel in the frame, a weight generation unit that generates a weight coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position, and a pixel of the reference pixel. It includes an approximate value generation unit that generates an approximate value of the pixel value of the target pixel based on the value and the weight coefficient, and an update processing unit that updates the pixel value of the target pixel based on the approximate value. It is an image generator.

本発明の一態様は、上記の画像生成装置であって、前記検出部は、前記乖離度の下限値に基づいて前記乖離度の最小値の探索を省略し、前記対応位置を検出する。 One aspect of the present invention is the above-mentioned image generation device, in which the detection unit omits the search for the minimum value of the degree of deviation based on the lower limit of the degree of deviation and detects the corresponding position.

本発明の一態様は、画像生成装置が実行する画像生成方法であって、対象フレームと複数の参照フレームとを取得するステップと、前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出するステップと、前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成するステップと、前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成するステップと、前記近似値に基づいて、前記対象画素の画素値を更新するステップとを含む画像生成方法である。 One aspect of the present invention is an image generation method executed by an image generation device, in which a step of acquiring a target frame and a plurality of reference frames and a gap between a region in the target frame and a region in the reference frame A step of detecting a corresponding position in the reference frame for each target pixel in the target frame based on the lower limit of the degree, and a step of generating a weighting coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position. A step of generating an approximate value of the pixel value of the target pixel based on the pixel value of the reference pixel and the weight coefficient, and a step of updating the pixel value of the target pixel based on the approximate value. It is an image generation method including.

本発明の一態様は、コンピュータに、対象フレームと複数の参照フレームとを取得する手順と、前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出する手順と、前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成する手順と、前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成する手順と、前記近似値に基づいて、前記対象画素の画素値を更新する手順とを実行させるための画像生成プログラムである。 One aspect of the present invention is based on a procedure for acquiring a target frame and a plurality of reference frames on a computer and a lower limit value of a degree of deviation between a region in the target frame and a region in the reference frame. A procedure for detecting a corresponding position in the reference frame for each target pixel in the frame, a procedure for generating a weighting coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position, a pixel value of the reference pixel, and the above. It is an image generation program for executing a procedure of generating an approximate value of a pixel value of the target pixel based on a weighting coefficient and a procedure of updating a pixel value of the target pixel based on the approximate value. ..

本発明により、動きボケ及び重畳雑音が低減された等速再生用の画像を生成することが可能である。 According to the present invention, it is possible to generate an image for constant velocity reproduction in which motion blur and superimposed noise are reduced.

実施形態における、画像生成装置の構成の例を示す図である。It is a figure which shows the example of the structure of the image generation apparatus in embodiment. 実施形態における、画像生成装置の動作の例を示すフローチャートである。It is a flowchart which shows the example of the operation of the image generation apparatus in embodiment. 実施形態における、対応位置同定部の動作の第1例を示す図である。It is a figure which shows the 1st example of the operation of the corresponding position identification part in an embodiment. 実施形態における、対応位置同定部の動作の第1例を示すフローチャートである。It is a flowchart which shows the 1st example of the operation of the corresponding position identification part in embodiment. 実施形態における、対応位置同定部の動作の第2例を示す図である。It is a figure which shows the 2nd example of the operation of the corresponding position identification part in an embodiment. 実施形態における、対応位置同定部の動作の第2例を示すフローチャートである。It is a flowchart which shows the 2nd example of the operation of the corresponding position identification part in embodiment.

本発明の実施形態について、図面を参照して詳細に説明する。
図1は、画像生成装置1の構成の例を示す図である。画像生成装置1は、画像を生成する装置である。画像生成装置1は、動きボケ及び重畳雑音が低減された等速再生用の画像を生成する。
Embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an example of the configuration of the image generation device 1. The image generation device 1 is a device that generates an image. The image generation device 1 generates an image for constant speed reproduction with reduced motion blur and superimposed noise.

画像生成装置1は、入力画像記憶部10と、参照フレーム設定部11と、局所近傍領域設定部12と、対応位置同定部13と、参照画素設定部14と、重み設定部15と、近似値生成部16と、最終参照フレーム判定部17と、画素値更新処理部18と、最終画素判定部19とを備える。 The image generation device 1 includes an input image storage unit 10, a reference frame setting unit 11, a local proximity region setting unit 12, a corresponding position identification unit 13, a reference pixel setting unit 14, a weight setting unit 15, and an approximate value. A generation unit 16, a final reference frame determination unit 17, a pixel value update processing unit 18, and a final pixel determination unit 19 are provided.

各機能部のうち一部又は全部は、例えば、CPU(Central Processing Unit)等のプロセッサが、記憶部に記憶されたプログラムを実行することにより実現される。各機能部のうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。 A part or all of each functional unit is realized by, for example, a processor such as a CPU (Central Processing Unit) executing a program stored in the storage unit. A part or all of each functional unit may be realized by using hardware such as LSI (Large Scale Integration) or ASIC (Application Specific Integrated Circuit).

入力画像記憶部10は、例えばフラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性の記録媒体(非一時的な記録媒体)である。入力画像記憶部10は、例えば、RAM(Random Access Memory)やレジスタなどの揮発性の記録媒体を有してもよい。 The input image storage unit 10 is a non-volatile recording medium (non-temporary recording medium) such as a flash memory or an HDD (Hard Disk Drive). The input image storage unit 10 may have, for example, a volatile recording medium such as a RAM (Random Access Memory) or a register.

入力画像記憶部10は、画像生成装置1に入力された画像データである入力画像を記憶する。入力画像記憶部10は、フィルタリング処理の対象フレームと参照フレームとを、入力画像として記憶する。対象フレーム及び参照フレームは、高フレームレート(高い時間解像度)の動画像のフレームである。動画像の出力システムであるディスプレイ装置のフレームレートの上限が例えば240fpsである場合、高フレームレートは、例えば240fpsを超えるレートである。 The input image storage unit 10 stores an input image which is image data input to the image generation device 1. The input image storage unit 10 stores the target frame and the reference frame of the filtering process as an input image. The target frame and the reference frame are frames of a moving image having a high frame rate (high time resolution). When the upper limit of the frame rate of the display device which is the output system of the moving image is, for example, 240 fps, the high frame rate is a rate exceeding, for example, 240 fps.

参照フレーム設定部11は、入力画像記憶部10に記憶されている参照フレームの候補から、予め定められた順序に基づいて参照フレームを選択する。 The reference frame setting unit 11 selects reference frames from the reference frame candidates stored in the input image storage unit 10 based on a predetermined order.

局所近傍領域設定部12は、対象フレーム内の処理対象の画素(以下「対象画素」という。)の局所近傍の領域(以下「局所近傍領域」という。)の画素を、対象フレームに設定する。以下、局所近傍の領域の画素を「局所近傍画素」という。 The local neighborhood region setting unit 12 sets the pixels of the region near the local region (hereinafter referred to as “local neighborhood region”) of the pixel to be processed (hereinafter referred to as “target pixel”) in the target frame to the target frame. Hereinafter, the pixels in the region near the local area are referred to as "local neighborhood pixels".

対応位置同定部13は、局所近傍画素の画素値を、局所近傍領域設定部12から取得する。対応位置同定部13は、参照フレームの探索範囲の画素値を、入力画像記憶部10から取得する。対応位置同定部13は、対象フレーム内の対象画素について、参照フレーム内の対応点の位置である対応位置を同定する。対応位置同定部13は、対応位置情報を参照画素設定部14に出力する。 The corresponding position identification unit 13 acquires the pixel value of the local neighborhood pixel from the local neighborhood region setting unit 12. The corresponding position identification unit 13 acquires the pixel value of the search range of the reference frame from the input image storage unit 10. The corresponding position identification unit 13 identifies the corresponding position, which is the position of the corresponding point in the reference frame, with respect to the target pixel in the target frame. The corresponding position identification unit 13 outputs the corresponding position information to the reference pixel setting unit 14.

参照画素設定部14は、対応位置情報を対応位置同定部13から取得する。参照画素設定部14は、参照フレーム内の対応位置の近傍の整数画素位置の画素を、参照画素と設定する。参照画素設定部14は、予め定められた全ての参照フレーム内の対応位置の画素の局所近傍領域の画素値を、参照フレーム設定部11から取得する。 The reference pixel setting unit 14 acquires the corresponding position information from the corresponding position identification unit 13. The reference pixel setting unit 14 sets a pixel at an integer pixel position in the vicinity of the corresponding position in the reference frame as a reference pixel. The reference pixel setting unit 14 acquires the pixel value of the local neighborhood region of the pixel at the corresponding position in all the predetermined reference frames from the reference frame setting unit 11.

重み設定部15は、参照画素の局所近傍領域の画素値で対象画素の局所近傍領域内の画素値を近似した場合に近似誤差が最小となるように、参照画素の重み係数を定める。重み設定部15は、参照画素の重み係数を近似値生成部16に出力する。 The weight setting unit 15 determines the weight coefficient of the reference pixel so that the approximation error is minimized when the pixel value in the local neighborhood region of the reference pixel is approximated by the pixel value in the local neighborhood region of the target pixel. The weight setting unit 15 outputs the weight coefficient of the reference pixel to the approximate value generation unit 16.

近似値生成部16は、参照画素値と参照画素の重み係数との加重和を、対象画素の画素値である対象画素値の近似値として算出する。近似値生成部16は、対象画素値の近似値を最終参照フレーム判定部17に出力する。 The approximation value generation unit 16 calculates the weighted sum of the reference pixel value and the weighting coefficient of the reference pixel as an approximation value of the target pixel value, which is the pixel value of the target pixel. The approximate value generation unit 16 outputs an approximate value of the target pixel value to the final reference frame determination unit 17.

最終参照フレーム判定部17は、予め定められた全ての参照フレームについて対象画素値の近似値を算出する処理が終了したか否かを判定する。対象画素値の近似値を算出する処理がいずれかの参照フレームについて終了していない場合、参照画素設定部14は、対象画素値の近似値を算出する処理を繰り返す。画素値更新処理部18は、いずれかの画素に対する処理が終了していない場合、対象画素値の近似値を算出する処理を次の画素に対して実行する。 The final reference frame determination unit 17 determines whether or not the process of calculating the approximate value of the target pixel value for all the predetermined reference frames has been completed. When the process of calculating the approximate value of the target pixel value is not completed for any of the reference frames, the reference pixel setting unit 14 repeats the process of calculating the approximate value of the target pixel value. When the processing for any of the pixels is not completed, the pixel value update processing unit 18 executes the processing for calculating the approximate value of the target pixel value for the next pixel.

予め定められた全ての参照フレームについて対象画素値の近似値を算出する処理が終了した場合、画素値更新処理部18は、予め定められた全ての参照フレームの近似値と対象画素値とを取得する。画素値更新処理部18は、近似値及び対象画素値の平均値を算出する。画素値更新処理部18は、近似値及び対象画素値の平均値を、対象画素値の更新値として最終画素判定部19に出力する。すなわち、画素値更新処理部18は、予め定められた全ての画素に対する処理が終了した場合、生成された画像(更新画素値)を最終画素判定部19に出力する。 When the process of calculating the approximate value of the target pixel value for all the predetermined reference frames is completed, the pixel value update processing unit 18 acquires the approximate value and the target pixel value of all the predetermined reference frames. To do. The pixel value update processing unit 18 calculates an approximate value and an average value of the target pixel values. The pixel value update processing unit 18 outputs an approximate value and an average value of the target pixel values to the final pixel determination unit 19 as an update value of the target pixel value. That is, the pixel value update processing unit 18 outputs the generated image (updated pixel value) to the final pixel determination unit 19 when the processing for all the predetermined pixels is completed.

最終画素判定部19は、対象フレームの最終画素まで画像が生成された場合、生成された画像(生成画像)を外部装置に出力する。 When the image is generated up to the final pixel of the target frame, the final pixel determination unit 19 outputs the generated image (generated image) to the external device.

次に、画像生成装置1の動作の例を説明する。
図2は、画像生成装置1の動作の例を示すフローチャートである。入力画像記憶部10は、フィルタリング対象となる画像データを取得する。入力画像記憶部10は、指定された対象フレームである第tフレームと、指定されたr枚の参照フレームを記憶する。
Next, an example of the operation of the image generation device 1 will be described.
FIG. 2 is a flowchart showing an example of the operation of the image generation device 1. The input image storage unit 10 acquires image data to be filtered. The input image storage unit 10 stores a designated t-frame, which is a designated target frame, and a designated rt number of reference frames.

各フレームは、時間フィルタの入力信号のフレーム間隔t(=jδ(j=0,1,…))でサンプリングされる。f(x,y,t)(x=0,…,X−1, y=0,…,Y−1)は、第tフレームの位置x,yにおける画素値である(ステップS1)。 Each frame is sampled at the frame interval t (= jδ t (j = 0, 1, ...)) Of the input signal of the time filter. f (x, y, t) (x = 0, ..., X-1, y = 0, ..., Y-1) is a pixel value at the position x, y of the t-th frame (step S1).

参照フレーム設定部11は、取得された画像データのフレーム内の全ての対象画素に対して、ステップS3からステップS11までの処理を繰り返す(ステップS2)。 The reference frame setting unit 11 repeats the processes from step S3 to step S11 for all the target pixels in the frame of the acquired image data (step S2).

局所近傍領域設定部12は、対象画素に対して局所近傍画素を設定する。局所近傍領域設定部12は、対象フレーム内の対象画素f(x,y,t)に対する局所近傍領域F(x,y,t)として、(2b+1)×(2b+1)×(2b+1)画素から成る領域{f(x−i,y−j,t−k)|i∈[−b,b],j∈[−b,b],k∈[−b,b]}を設定する。 The local neighborhood region setting unit 12 sets the local neighborhood pixel with respect to the target pixel. Local neighborhood region setting unit 12, the target pixel f in the target frame (x, y, t) as a local neighborhood region F b (x, y, t) for, (2b x +1) × ( 2b y +1) × ( 2b t +1) consists of the pixel region {f (x-i, y -j, t-k) | i∈ [-b x, b x], j∈ [-b y, b y], k∈ [- bt , bt ]} is set.

局所近傍領域設定部12は、r枚の各参照フレームに対して、ステップS5からステップS8までの処理を実行する。局所近傍領域設定部12は、処理対象とする参照フレーム(t−rフレーム)を、1,…,rの順に設定する。つまり、局所近傍領域設定部12は、対象フレームから近い参照フレームを優先して処理に使用する(ステップS3)。 The local neighborhood region setting unit 12 executes the processes from step S5 to step S8 for each rt number of reference frames. Local neighborhood region setting unit 12, reference frame to be processed the (t-r t frame), 1, ..., set in the order of r t. That is, the local neighborhood region setting unit 12 preferentially uses the reference frame close to the target frame for processing (step S3).

画像生成装置1は、参照フレーム内の全ての参照画素に対して、ステップS5からステップS9までの処理を繰り返す(ステップS4)。 The image generation device 1 repeats the processes from step S5 to step S9 for all the reference pixels in the reference frame (step S4).

対応位置同定部13は、局所近傍画素の画素値と参照フレームの探索範囲の画素値とを取得する。対応位置同定部13は、参照フレーム内の対応位置を同定し、同定された対応位置情報を取得する(ステップS5)。 The corresponding position identification unit 13 acquires the pixel value of the local neighborhood pixel and the pixel value of the search range of the reference frame. The corresponding position identification unit 13 identifies the corresponding position in the reference frame and acquires the identified corresponding position information (step S5).

参照画素設定部14は、対応位置情報に基づいて、対応位置の近傍の整数画素位置の画素(近傍画素)を参照画素として設定する(ステップS6)。 The reference pixel setting unit 14 sets a pixel (neighboring pixel) at an integer pixel position near the corresponding position as a reference pixel based on the corresponding position information (step S6).

重み設定部15は、全ての参照画素の局所近傍領域の画素値と対象画素の局所近傍領域内の画素値とに基づいて、参照画素の重み係数を算出する。重み設定部15は、参照画素の局所近傍領域の画素値で対象画素の局所近傍領域内の画素値を近似した場合に近似誤差が最小となるように、参照画素の重み係数を算出する(ステップS7)。 The weight setting unit 15 calculates the weight coefficient of the reference pixel based on the pixel value in the local neighborhood region of all the reference pixels and the pixel value in the local neighborhood region of the target pixel. The weight setting unit 15 calculates the weighting coefficient of the reference pixel so that the approximation error is minimized when the pixel value in the local neighborhood region of the reference pixel is approximated by the pixel value in the local neighborhood region of the target pixel (step). S7).

近似値生成部16は、参照画素値と参照画素の重み係数との加重和を、対象画素値の近似値として算出する(ステップS8)。 The approximation value generation unit 16 calculates the weighted sum of the reference pixel value and the weighting coefficient of the reference pixel as an approximation value of the target pixel value (step S8).

最終参照フレーム判定部17は、予め定められた全ての参照フレームについて対象画素値の近似値を算出する処理が終了したか否かを判定する。対象画素値の近似値を算出する処理がいずれかの参照フレームについて終了していない場合、最終参照フレーム判定部17は、ステップS2に処理を戻す(ステップS9)。 The final reference frame determination unit 17 determines whether or not the process of calculating the approximate value of the target pixel value for all the predetermined reference frames has been completed. If the process of calculating the approximate value of the target pixel value is not completed for any of the reference frames, the final reference frame determination unit 17 returns the process to step S2 (step S9).

画素値更新処理部18は、予め定められた全ての参照フレームについて対象画素値の近似値を算出する処理が終了した場合、取得された画像データの全ての参照フレームの近似値及び対象画素値の平均値を、対象画素値の更新値として最終画素判定部19に出力する(ステップS10)。 When the process of calculating the approximate value of the target pixel value for all the predetermined reference frames is completed, the pixel value update processing unit 18 determines the approximate value and the target pixel value of all the reference frames of the acquired image data. The average value is output to the final pixel determination unit 19 as an update value of the target pixel value (step S10).

最終画素判定部19は、取得された画像データの対象フレーム内の全ての対象画素について処理が終了したか否かを判定する。すなわち、最終画素判定部19は、対象フレームの最終画素まで画像が生成されたか否かを判定する。最終画素判定部19は、対象フレームの最終画素まで画像が生成されていない場合、ステップS2に処理を戻す。最終画素判定部19は、対象フレームの最終画素まで画像が生成された場合、生成された画像を外部装置に出力する(ステップS11)。 The final pixel determination unit 19 determines whether or not the processing has been completed for all the target pixels in the target frame of the acquired image data. That is, the final pixel determination unit 19 determines whether or not an image has been generated up to the final pixel of the target frame. The final pixel determination unit 19 returns the process to step S2 when the image has not been generated up to the final pixel of the target frame. When an image is generated up to the final pixel of the target frame, the final pixel determination unit 19 outputs the generated image to an external device (step S11).

次に、図2のステップS5の詳細を説明する。
図3は、対応位置同定部13の動作の第1例を示す図である。
図4は、対応位置同定部13の動作の第1例を示すフローチャートである。
Next, the details of step S5 of FIG. 2 will be described.
FIG. 3 is a diagram showing a first example of the operation of the corresponding position identification unit 13.
FIG. 4 is a flowchart showing a first example of the operation of the corresponding position identification unit 13.

対応位置同定部13は、局所近傍領域F(x,y)と対応点の局所近傍領域との差分二乗和が最小値となる対応点を、式(1)のように参照フレーム内において同定する。 The corresponding position identification unit 13 identifies the corresponding point in the reference frame in which the sum of the squares of the differences between the local neighborhood region F b (x, y) and the local neighborhood region of the corresponding point is the minimum value, as in Eq. (1). To do.

Figure 0006836495
Figure 0006836495

ここで、差分二乗和e(v,v,r)は、式(2)のように表される。 Here, sum of squared differences e (v x, v y, r t) is expressed by formula (2).

Figure 0006836495
Figure 0006836495

式(2)は、差分二乗和e(v,v,r−1)が最小値となる対応点の位置(V(x,t’−r+1),V(y,t’−r+1))を探索中心とした処理を表す。rは、局所近傍領域F(x,y)から参照フレームまでの時間間隔を表す。(v,v)は、探索中心に対する変位量を表す。対象画素位置に対する変位量は、式(3)のように表される。 Equation (2), the difference square sum e (v x, v y, r t -1) position of the corresponding point becomes the minimum value (V (x, t'-r t +1), V (y, t ' -r t +1)) represents a process that was used as a search center. r t represents the time interval between the reference frame from the local neighborhood region F b (x, y). (V x, v y) represents the amount of displacement for the search center. The amount of displacement with respect to the target pixel position is expressed by the equation (3).

Figure 0006836495
Figure 0006836495

ここで、round()は、四捨五入によって整数値化された結果を返す関数である。対応位置同定部13は、(1/4)画素精度で対応点を探索する。対応位置同定部13は、小数画素位置の値を、バイリニア(bilinear)補間で取得する。 Here, round () is a function that returns the result of rounding to an integer value. The corresponding position identification unit 13 searches for a corresponding point with (1/4) pixel accuracy. The corresponding position identification unit 13 acquires the value of the decimal pixel position by bilinear interpolation.

Figure 0006836495
Figure 0006836495

閾値θに対して、差分二乗和e(v,v)>θとなる場合、対応位置同定部13は、適切な対応点が存在しないものと判定し、(v,v)を設定しない。閾値θは、外部パラメータとして設定される。 Against a threshold theta e, sum of squared differences e (v x, v y) > If the theta e, the corresponding position identifying unit 13 determines that the appropriate corresponding points does not exist, (v x, v y ) Is not set. The threshold θ e is set as an external parameter.

以下では、g(x’−v,y’−v,t’)=f(x’−v,V(x,t’+1),y’−v,V(y,t’+1),t’)が成り立つ。差分二乗和e(v,v,r)は、式(5)のように表される。 In the following, g (x'-v x , y'-v y , t') = f (x'-v x , V (x, t'+ 1), y'-v y , V (y, t' +1), t') holds. Sum of squared differences e (v x, v y, r t) is expressed by the following equation (5).

Figure 0006836495
Figure 0006836495

以下では、変位量vと変位量vと参照位置rとについて、乖離度S(v,v,r)(k=0,…,2b)を「第kの部分フレーム間差分」という。対応位置同定部13は、第kの部分フレーム間差分S(v,v,r),S(v,v,r),…,S2bt(v,v,r)を取得する。差分二乗和e(v,v,r+1)は、式(6)のように表される。 In the following, a displacement v x and displacement v y and the reference position r t, deviance S k (v x, v y , r t) (k = 0, ..., 2b t) to "portion of the k It is called "difference between frames". Corresponding position identification unit 13, partial frame difference S 0 of the k (v x, v y, r t), S 1 (v x, v y, r t), ..., S 2bt (v x, v y , R t ). Sum of squared differences e (v x, v y, r t +1) is expressed by the equation (6).

Figure 0006836495
Figure 0006836495

対応位置同定部13は、S(v,v,r),S(v,v,r),…,S2bt(v,v,r)のうちのS(v,v,r)を除くS(v,v,r),…,S2bt(v,v,r)の下限値を算出する。対応位置同定部13は、第0の部分フレーム間差分S(v,v,r)を式(7)のように算出する。 Corresponding position identification unit 13, S 0 (v x, v y, r t), S 1 (v x, v y, r t), ..., S 2bt (v x, v y, r t) of the S 0 (v x, v y , r t) S 1 , except for (v x, v y, r t), ..., to calculate the lower limit of the S 2bt (v x, v y , r t). Corresponding position identification unit 13, between the 0th partial frame difference S 0 (v x, v y , r t) to be calculated as in Equation (7).

Figure 0006836495
Figure 0006836495

ここで、式(8)が成立する。 Here, the equation (8) holds.

Figure 0006836495
Figure 0006836495

対応位置同定部13は、式(9)に基づいて、第1の部分フレーム間差分S(v,v,r)の下限値を算出する。 Corresponding position identification unit 13, based on the equation (9), calculates the lower limit value between the first partial frame difference S 1 (v x, v y , r t).

Figure 0006836495
Figure 0006836495

同様に、対応位置同定部13は、第(k+1)の部分フレーム間差分Sk+1(v,v,r+1)の下限値を算出する。なお、k=0,…,t+2bt−1,t’=t−b,…,t+b−1である。 Similarly, the corresponding position identifying unit 13 calculates the lower limit value of the (k + 1) partial frame difference S k + 1 of the (v x, v y, r t +1). Note, k = 0, ..., t + 2 bt -1, t '= t-b t, ..., a t + b t -1.

Figure 0006836495
Figure 0006836495

ここで、Q(t’)は、局所近傍領域におけるフレーム間差分の絶対値和である。Q(t’)が探索領域の画素値に依存しない値であるため、対応位置同定部13は、e(v,v,r+1)の最小値を探索する前に、Q(t’)を算出する。対応位置同定部13は、Q(t’)を記憶部に記録する。対応位置同定部13は、差分二乗和e(v,v,r)の最小値を探索した際、第kの部分フレーム間差分S(v,v,r+1)を記憶部に記録する。差分二乗和e(v,v,r+1)の下限値は、式(3)に基づいて式(11)のように表される。 Here, Q (t') is the sum of the absolute values of the differences between frames in the local neighborhood region. For Q (t ') is a value that does not depend on the pixel values of the search area, the corresponding position identification unit 13, e (v x, v y , r t +1) before searching the minimum, Q (t ') Is calculated. The corresponding position identification unit 13 records Q (t') in the storage unit. Corresponding position identification unit 13, a difference square sum e (v x, v y, r t) when searching the minimum value of the partial frame difference S k of the k (v x, v y, r t +1) of Record in the storage. The lower limit of sum of squared differences e (v x, v y, r t +1) is expressed by the equation (11) based on equation (3).

Figure 0006836495
Figure 0006836495

対応位置同定部13は、式(12)を算出する。 The corresponding position identification unit 13 calculates the equation (12).

Figure 0006836495
Figure 0006836495

ここで、式(13)が成立する。 Here, the equation (13) holds.

Figure 0006836495
Figure 0006836495

対応位置同定部13は、算出されたQ(t’)と式(13)とに基づいて、差分二乗和e(v’,v’,r+1)の最小値を同定する。 Corresponding position identification unit 13, 'based on the equation (13), sum of squared differences e (v x calculated Q (t)', v y ', r t +1) identifying a minimum value of.

式(13)において、第kの部分フレーム間差分S(v,v,r)(k=0,…,2bt)が全て算出されている場合、対応位置同定部13は、式(11)に基づいて、差分二乗和e(v,v,r+1)の下限値~e(v’,v’,r+1)を算出する。対応位置同定部13は、最小値の同定処理におけるe(v’,v’,r+1)の暫定最小値と下限値~e(v’,v’,r+1)との大小を比較する。 In the formula (13), partial frame difference S k of the k (v x, v y, r t) (k = 0, ..., 2 bt) If is calculated every corresponding position identification unit 13, based on the equation (11), calculates a difference square sum e (v x, v y, r t +1) lower limit ~ e of (v 'x, v' y , r t +1) a. Corresponding position identification unit 13, e in the process of identifying the minimum value (v x ', v y' , r t +1) temporary minimum value and the lower limit value ~ e of (v 'x, v' y , r t +1) and Compare the size of.

差分二乗和の下限値~e(v’,v’,r+1)が暫定最小値よりも大きい場合、e(v’,v’,r+1)が暫定最小値よりも小さくなることはない。差分二乗和の下限値~e(v’,v’,r+1)が暫定最小値以下である場合、差分二乗和e(v’,v’,r+1)が暫定最小値よりも小さくなることがあるので、対応位置同定部13は、算出されたe(v’,v’,r+1)とe(v’,v’,r+1)の暫定最小値との大小を比較する。 Lower limit value ~ e of the sum of squared differences (v 'x, v' y , r t +1) is larger than the temporary minimum value, e (v x ', v y', r t +1) than the temporary minimum value It never gets smaller. If the lower limit value ~ e of the sum of squared differences (v 'x, v' y , r t +1) is equal to or less than the provisional minimum value, sum of squared differences e (v x ', v y ', r t +1) interim minimum since it may be less than the value, the corresponding position identification unit 13, the calculated e (v 'x, v' y, r t +1) and e (v x ', v y ', r t +1) of Compare the magnitude with the provisional minimum value.

対応位置同定部13は、e(v’,v’,r+1)が暫定最小値よりも小さい場合、暫定最小値をe(v’,v’,r+1)に更新する(ステップS5−1からステップS5−10まで)。 Corresponding position identification unit 13, if e (v 'x, v' y, r t +1) is smaller than the temporary minimum value, updates the temporary minimum value e (v 'x, v' y, r t +1) to (Steps S5-1 to S5-10).

図5は、対応位置同定部13の動作の第2例を示す図である。
図6は、対応位置同定部13の動作の第2例を示すフローチャートである。図6では、図4と比較して、ステップS5−11からステップS5−13までのステップが、ステップS5−3とステップS5−4との間に追加されている。
FIG. 5 is a diagram showing a second example of the operation of the corresponding position identification unit 13.
FIG. 6 is a flowchart showing a second example of the operation of the corresponding position identification unit 13. In FIG. 6, as compared with FIG. 4, the steps from step S5-11 to step S5-13 are added between steps S5-3 and S5-4.

式(13)において、第kの部分フレーム間差分S(v,v,r)(k=0,…,2bt)のうちの一部が算出されており、算出されていないS(v,v,r)を参照することができない場合、対応位置同定部13は、e(v’,v’,r+1)を算出し、e(v’,v’,r+1)と暫定最小値との大小を比較する。また、対応位置同定部13は、後段の処理のため、S(v,v,r+1)を記憶部に記録する。 In the formula (13), partial frame difference S k of the k (v x, v y, r t) (k = 0, ..., 2 bt) part are calculated among, not calculated If S k (v x, v y , r t) can not refer to the corresponding position identification unit 13 calculates the e (v 'x, v' y, r t +1), e (v 'x , v 'y, to compare the magnitude of a r t +1) and the provisional minimum value. Further, a corresponding position identification unit 13, for subsequent processing, S k (v x, v y, r t +1) is recorded in the storage unit.

e(v’,v’,r+1)が暫定最小値よりも小さい場合、対応位置同定部13は、暫定最小値をe(v’,v’,r+1)で置換する。S(v,v,r)が算出されている場合、対応位置同定部13は、式(11)に基づいて、差分二乗和の下限値~e(v’,v’,r+1)を算出し、差分二乗和の下限値~e(v’,v’,r+1)と最小値の同定処理における暫定最小値との大小を比較する。 If e (v 'x, v' y, r t +1) is smaller than the temporary minimum value, the corresponding position identification unit 13, replacing the temporary minimum value e (v 'x, v' y, r t +1) To do. If S k (v x, v y , r t) is calculated, the corresponding position identification unit 13, based on the equation (11), the lower limit of the sum of squared differences ~ e (v 'x, v ' y calculates a r t +1), the lower limit ~ e (v 'x, v ' of the sum of squared differences y, compares the magnitude of the temporary minimum value in the identification process of r t +1) and the minimum value.

差分二乗和の下限値~e(v’,v’,r+1)が暫定最小値よりも大きい場合、e(v’,v’,r+1)は、暫定最小値よりも小さくなることはない。差分二乗和の下限値~e(v’,v’,r+1)が暫定最小値以下である場合、e(v’,v’,r+1)が暫定最小値よりも小さくなることがあるので、対応位置同定部13は、算出されたe(v’,v’,r+1)とe(v’,v’,r+1)の暫定最小値との大小を比較する。 Lower limit value ~ e of the sum of squared differences (v 'x, v' y , r t +1) is larger than the temporary minimum value, e (v 'x, v ' y, r t +1) , from the provisional minimum value Will never get smaller. Lower limit value ~ e of the sum of squared differences (v 'x, v' y , r t +1) case is equal to or less than the provisional minimum value, e (v 'x, v ' y, r t +1) than the temporary minimum value since it may become smaller, the corresponding position identification unit 13, the calculated e (v 'x, v' y, r t +1) and e (v x ', v y ', r t +1) temporary minimum value of Compare the size with.

対応位置同定部13は、差分二乗和e(v’,v’,r+1)が暫定最小値よりも小さい場合、暫定最小値をe(v’,v’,r+1)に更新する(ステップS5−1からステップS5−13まで)。 Corresponding position identification unit 13, a difference square sum e (v 'x, v' y, r t +1) If less than the temporary minimum value, the temporary minimum value e (v 'x, v' y, r t +1 ) (From step S5-1 to step S5-13).

次に、図2のステップS6及びステップS7の詳細を説明する。
式(3)における、第(t−rt)フレームにおける対応位置での画素(x−V(x,t−r),y−V(y,t−r))と、その近傍に位置する画素(x−V(x,t−r)+1,y−V(y,t−r)),(x−V(x,t−r),y−V(y,t−r)+1),(x−V(x,t−r)+1,y−V(y,t−r)+1)とについて、各々の局所近傍領域を考える。
Next, the details of step S6 and step S7 of FIG. 2 will be described.
In equation (3), and the pixel at the corresponding position in the (t-rt) frame (x-V (x, t -r t), y-V (y, t-r t)), located in the vicinity thereof Pixels (x-V (x, tr t ) + 1, y-V (y, tr t )), (x-V (x, tr t ), y-V (y, t-) r t) +1), (x -V (x, t-r t) + 1, y-V (y, for t-r t) +1) and consider each of the local neighborhood area.

参照画素設定部14は、各近傍領域に含まれる画素をラスター走査順に一元化して、(2b+1)×(2b+1)×(2b+1)次元ベクトルの各ベクトルを算出する。(2b+1)×(2b+1)×(2b+1)次元ベクトルの各ベクトルは、R(x,y,t−rt)と、R(x,y,t−rt)と、R(x,y,t−rt)と、R(x,y,t−rt)とである。例えば、R(x,y,t−rt)の要素は、式(14)のように表される。 Reference pixel setting section 14 centralizes pixels included in each region near the raster scan order, calculating each vector of (2b x +1) × (2b y +1) × (2b t +1) dimensional vector. Each vector of (2b x +1) × (2b y +1) × (2b t +1) dimensional vector, R 0 (x, y, t-rt) and, R 1 (x, y, t-rt) and, R 2 (x, y, t-rt) and R 3 (x, y, t-rt). For example, the element of R 0 (x, y, t-rt) is expressed by the equation (14).

Figure 0006836495
Figure 0006836495

近似値生成部16は、R(x,y,t−r)と、R(x,y,t−r)と、R(x,y,t−r)と、R(x,y,t−r)との加重和で、対象画素の局所近傍領域F(x,y,t)を近似する。近似誤差電力Eは、式(15)のように表される。 The approximate value generation unit 16 includes R 0 (x, y, tr t ), R 1 (x, y, tr t ), R 2 (x, y, tr t ), and R. 3 (x, y, tr t ) is a weighted sum to approximate the local neighborhood region F b (x, y, t) of the target pixel. The approximate error power E is expressed by the equation (15).

Figure 0006836495
Figure 0006836495

重み設定部15は、近似誤差電力E(x,y,t−rt)を最小化する重み係数w,w,w,wを算出する。重み設定部15は、重み係数w,w,wを、式(16)に基づいて算出する。 The weight setting unit 15 calculates weight coefficients w 0 , w 1 , w 2 , and w 3 that minimize the approximate error power E (x, y, t-rt). The weight setting unit 15 calculates the weight coefficients w 0 , w 1 , and w 2 based on the equation (16).

Figure 0006836495
Figure 0006836495

ここで、i,j=0,1,2に対して、ベクトルの内積値は、式(17)のように表される。 Here, for i, j = 0,1,2, the internal product value of the vector is expressed as in Eq. (17).

Figure 0006836495
Figure 0006836495

ここで、肩付のtは転置を表す。重み設定部15は、式(7)に示された重み係数w,w,wを用いて、式(18)のように重み係数wを算出する。 Here, t with a shoulder represents transposition. The weight setting unit 15 calculates the weight coefficient w 3 as in the equation (18) by using the weight coefficients w 0 , w 1 , and w 2 shown in the equation (7).

Figure 0006836495
Figure 0006836495

式(18)は、重み係数の和が1になるという制約条件の下で近似誤差電力を最小化した結果である。重み係数の和に関して制約条件が設けられていない場合、重み係数は式(19)のように表される。 Equation (18) is the result of minimizing the approximate error power under the constraint that the sum of the weighting coefficients is 1. When no constraint is provided on the sum of the weighting coefficients, the weighting coefficients are expressed as in Eq. (19).

Figure 0006836495
Figure 0006836495

ここで、i,j=0,1,2,3に対して、ベクトルの内積値は、式(20)のように表される。肩付のtは転置を表す。 Here, for i, j = 0,1,2,3, the inner product value of the vector is expressed by the equation (20). The t on the shoulder represents transposition.

Figure 0006836495
Figure 0006836495

次に、図2のステップS8の詳細を説明する。
近似値生成部16は、式(19)に示された重み係数を各参照画素の画素値に式(21)のように乗算することによって、対象画素値の近似値を算出する。近似値生成部16は、局所近傍領域単位で画素値に重み係数を乗じるのではなく、画素単位で画素値に重み係数を乗じる。
Next, the details of step S8 of FIG. 2 will be described.
The approximation value generation unit 16 calculates an approximation value of the target pixel value by multiplying the pixel value of each reference pixel by the weighting coefficient shown in the equation (19) as in the equation (21). The approximation value generation unit 16 does not multiply the pixel value by the weight coefficient in the local neighborhood region unit, but multiplies the pixel value by the weight coefficient in the pixel unit.

Figure 0006836495
Figure 0006836495

ここで、r(x,y,t−r)(i=0,1,2,3)は、式(22)のように表される。近似値生成部16は、r枚の参照フレーム(第(t−r)フレーム、(t=1,…,r))に対する参照画素値を、式(22)のように算出する。 Here, r i (x, y, t-r t) (i = 0,1,2,3) is expressed by the equation (22). Approximate value generating unit 16, r t reference frames (the (t-r t) frame, (t = 1, ..., r t)) of the reference pixel values for, is calculated as Equation (22).

Figure 0006836495
Figure 0006836495

次に、図2のステップS10の詳細を説明する。
画素値更新処理部18は、式(22)のように表されるr枚の参照フレームに対する参照画素値に基づいて、式(23)のように対象画素値を更新する。
Next, the details of step S10 of FIG. 2 will be described.
The pixel value update processing unit 18 updates the target pixel value as in the equation (23) based on the reference pixel value for the rt number of reference frames expressed as in the equation (22).

Figure 0006836495
Figure 0006836495

係数aの第1の設定例は、式(24)及び式(25)のように表される。 The first setting example of the coefficient ak is expressed as the equation (24) and the equation (25).

Figure 0006836495
Figure 0006836495

Figure 0006836495
Figure 0006836495

係数aの第1の設定例は、式(26)及び式(27)のように表される。 The first setting example of the coefficient ak is expressed by the equations (26) and (27).

Figure 0006836495
Figure 0006836495

Figure 0006836495
Figure 0006836495

ここで、画素値更新処理部18は、各x,y,tに対して、|f(x,y,t)−^f(x,y,t,l)|<ψを満たすサンプル数として、r’(x,y,t)を定める。なお、r’(x,y,t)の値域は、r≦r’t(x,y,t)≦rである。変数ψは、外部から与えられる閾値パラメータである。 Here, the pixel value update processing unit 18 has a number of samples satisfying | f (x, y, t) − ^ f (x, y, t, l t ) | <ψ for each x, y, t. R't (x, y, t) is defined as. Incidentally, the range of the r 't (x, y, t) is r t ≦ r't (x, y , t) ≦ r t. The variable ψ is a threshold parameter given from the outside.

係数aの第3の設定例は、式(28)及び式(29)のように表される。ここで、εは、ゼロ除算を回避するために付与された微小量である。 A third example of setting the coefficient ak is expressed as in equations (28) and (29). Here, ε is a minute amount given to avoid division by zero.

Figure 0006836495
Figure 0006836495

Figure 0006836495
Figure 0006836495

以上のように、実施形態の画像生成装置1は、入力画像記憶部10(動画像取得部)と、対応位置同定部13(検出部)と、重み設定部15(重み生成部)と、近似値生成部16(近似値生成部)と、画素値更新処理部18(更新処理部)とを備える。入力画像記憶部10は、対象フレームと複数の参照フレームとを取得する。対応位置同定部13は、対象フレーム内の領域と参照フレーム内の領域との乖離度の下限値に基づいて乖離度の最小値の探索を省略し、対象フレーム内の対象画素ごとに参照フレーム内の対応位置を検出する。重み設定部15は、対応位置の近傍の参照画素ごとに、画素値の重み係数を生成する。近似値生成部16は、参照画素の画素値と重み係数とに基づいて、対象画素の画素値の近似値を生成する。画素値更新処理部18は、近似値に基づいて、対象画素の画素値を更新する。 As described above, the image generation device 1 of the embodiment is approximated by the input image storage unit 10 (moving image acquisition unit), the corresponding position identification unit 13 (detection unit), and the weight setting unit 15 (weight generation unit). It includes a value generation unit 16 (approximate value generation unit) and a pixel value update processing unit 18 (update processing unit). The input image storage unit 10 acquires the target frame and a plurality of reference frames. The corresponding position identification unit 13 omits the search for the minimum value of the degree of deviation based on the lower limit of the degree of deviation between the area in the target frame and the area in the reference frame, and in the reference frame for each target pixel in the target frame. Detects the corresponding position of. The weight setting unit 15 generates a pixel value weighting coefficient for each reference pixel in the vicinity of the corresponding position. The approximation value generation unit 16 generates an approximation value of the pixel value of the target pixel based on the pixel value of the reference pixel and the weighting coefficient. The pixel value update processing unit 18 updates the pixel value of the target pixel based on the approximate value.

すなわち、実施形態の画像生成装置1は、入力された画像信号について参照フレーム内の対応位置を同定する際、同じ時空間領域内の異なるフレームに属する領域間の第1乖離度を算出する。画像生成装置1は、参照フレーム内の対応位置を同定する際、同じ時空間領域内の異なるフレームと参照フレーム内の領域との間の第2乖離度を算出する。画像生成装置1は、第1乖離度及び第2乖離度に基づいて、同じ時空間領域と参照領域内の領域との間の第3乖離度の下限値を算出する。画像生成装置1は、複数のフレームに属する領域から成る時空間領域の第3乖離度に基づいて、乖離度の最小値の探索を省略し、参照フレーム内の対応位置を対象画素ごとに同定する。画像生成装置1は、対応位置の近傍に位置する整数画素を参照画素として設定する。画像生成装置1は、参照画素に対する重み係数を設定する。画像生成装置1は、参照画素の画素値に重み係数を乗じて、対象画素の画素値の近似値を生成する。画像生成装置1は、各参照フレームから得た近似値の加重和として、対象画素値を更新する。 That is, the image generation device 1 of the embodiment calculates the first degree of dissociation between regions belonging to different frames in the same spatiotemporal region when identifying the corresponding position in the reference frame for the input image signal. When identifying the corresponding position in the reference frame, the image generator 1 calculates the second degree of dissociation between different frames in the same spatiotemporal region and the region in the reference frame. The image generator 1 calculates the lower limit of the third degree of dissociation between the same spatiotemporal region and the region in the reference region based on the first degree of dissociation and the second degree of dissociation. The image generator 1 omits the search for the minimum value of the degree of deviation based on the third degree of deviation of the spatio-temporal region composed of regions belonging to a plurality of frames, and identifies the corresponding position in the reference frame for each target pixel. .. The image generation device 1 sets an integer pixel located in the vicinity of the corresponding position as a reference pixel. The image generation device 1 sets a weighting coefficient for the reference pixel. The image generation device 1 multiplies the pixel value of the reference pixel by a weighting coefficient to generate an approximate value of the pixel value of the target pixel. The image generation device 1 updates the target pixel value as a weighted sum of the approximate values obtained from each reference frame.

これによって、実施形態の画像生成装置1は、動きボケ及び重畳雑音が低減された等速再生用の画像を生成することが可能である。実施形態の画像生成装置1は、視覚の検知限を越えた高フレームレート画像から、等速再生用の高画質画像を生成すること(フィルタリング処理)が可能である。実施形態の画像生成装置1は、動きボケ及び重畳雑音が低減された等速再生用の画像を、繰り返し処理による計算量の増加を抑えて生成することが可能である。 As a result, the image generation device 1 of the embodiment can generate an image for constant velocity reproduction in which motion blur and superimposed noise are reduced. The image generation device 1 of the embodiment can generate a high-quality image for constant-velocity reproduction (filtering process) from a high frame rate image that exceeds the visual detection limit. The image generation device 1 of the embodiment can generate an image for constant velocity reproduction in which motion blur and superimposed noise are reduced, while suppressing an increase in the amount of calculation due to repetitive processing.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.

1…画像生成装置、10…入力画像記憶部、11…参照フレーム設定部、12…局所近傍領域設定部、13…対応位置同定部、14…参照画素設定部、15…重み設定部、16…近似値生成部、17…最終参照フレーム判定部、18…画素値更新処理部、19…最終画素判定部 1 ... Image generator, 10 ... Input image storage unit, 11 ... Reference frame setting unit, 12 ... Local proximity area setting unit, 13 ... Corresponding position identification unit, 14 ... Reference pixel setting unit, 15 ... Weight setting unit, 16 ... Approximate value generation unit, 17 ... final reference frame determination unit, 18 ... pixel value update processing unit, 19 ... final pixel determination unit

Claims (4)

対象フレームと複数の参照フレームとを取得する動画像取得部と、
前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出する検出部と、
前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成する重み生成部と、
前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成する近似値生成部と、
前記近似値に基づいて、前記対象画素の画素値を更新する更新処理部と
を備え、
前記検出部は、記乖離度のうちの一部が算出されており、算出されていない前記乖離度を参照することができない場合に、前記対象フレーム内の処理対象の画素の局所近傍の領域と前記対応位置の局所近傍の領域との差分二乗和と、前記差分二乗和の暫定最小値との大小を比較し、前記差分二乗和が前記暫定最小値よりも小さい場合、前記暫定最小値を前記差分二乗和で置換する、
画像生成装置。
A moving image acquisition unit that acquires a target frame and a plurality of reference frames,
A detection unit that detects a corresponding position in the reference frame for each target pixel in the target frame based on the lower limit of the degree of deviation between the region in the target frame and the region in the reference frame.
A weight generation unit that generates a weighting coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position.
An approximation value generation unit that generates an approximation value of the pixel value of the target pixel based on the pixel value of the reference pixel and the weighting coefficient.
It is provided with an update processing unit that updates the pixel value of the target pixel based on the approximate value.
Wherein the detection unit is calculated part of the previous SL discrepancy, if it is not possible to see the degree of deviation that has not been calculated, the region of a local neighborhood of pixels to be processed within the target frame Compare the magnitude of the difference squared sum with the region near the local area of the corresponding position and the provisional minimum value of the difference squared sum, and if the difference squared sum is smaller than the provisional minimum value, the provisional minimum value is set. Replace with the sum of squared differences,
Image generator.
前記検出部は、前記乖離度の下限値に基づいて前記乖離度の最小値の探索を省略し、前記対応位置を検出する、請求項1に記載の画像生成装置。 The image generation device according to claim 1, wherein the detection unit omits the search for the minimum value of the deviation degree based on the lower limit value of the deviation degree and detects the corresponding position. 画像生成装置が実行する画像生成方法であって、
対象フレームと複数の参照フレームとを取得するステップと、
前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出するステップと、
前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成するステップと、
前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成するステップと、
前記近似値に基づいて、前記対象画素の画素値を更新するステップと
を含み、
前記検出するステップでは、記乖離度のうちの一部が算出されており、算出されていない前記乖離度を参照することができない場合に、前記対象フレーム内の処理対象の画素の局所近傍の領域と前記対応位置の局所近傍の領域との差分二乗和と、前記差分二乗和の暫定最小値との大小を比較し、前記差分二乗和が前記暫定最小値よりも小さい場合、前記暫定最小値を前記差分二乗和で置換する、
画像生成方法。
An image generation method executed by an image generation device.
Steps to get the target frame and multiple reference frames,
A step of detecting a corresponding position in the reference frame for each target pixel in the target frame based on the lower limit of the degree of deviation between the region in the target frame and the region in the reference frame.
A step of generating a weighting coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position, and
A step of generating an approximate value of the pixel value of the target pixel based on the pixel value of the reference pixel and the weighting coefficient, and
Including a step of updating the pixel value of the target pixel based on the approximate value.
In the step of detecting, and the calculated part of the previous SL discrepancy, if it is not possible to see the degree of deviation that has not been calculated, the local neighborhood of pixels to be processed within the target frame The magnitude of the difference squared sum of the region and the region near the local area of the corresponding position is compared with the provisional minimum value of the difference squared sum, and if the difference squared sum is smaller than the provisional minimum value, the provisional minimum value. Is replaced by the difference squared sum,
Image generation method.
コンピュータに、
対象フレームと複数の参照フレームとを取得する手順と、
前記対象フレーム内の領域と前記参照フレーム内の領域との乖離度の下限値に基づいて、前記対象フレーム内の対象画素ごとに前記参照フレーム内の対応位置を検出する手順と、
前記対応位置の近傍の参照画素ごとに、画素値の重み係数を生成する手順と、
前記参照画素の画素値と前記重み係数とに基づいて、前記対象画素の画素値の近似値を生成する手順と、
前記近似値に基づいて、前記対象画素の画素値を更新する手順と
を実行させ、
前記検出する手順では、記乖離度のうちの一部が算出されており、算出されていない前記乖離度を参照することができない場合に、前記対象フレーム内の処理対象の画素の局所近傍の領域と前記対応位置の局所近傍の領域との差分二乗和と、前記差分二乗和の暫定最小値との大小を比較し、前記差分二乗和が前記暫定最小値よりも小さい場合、前記暫定最小値を前記差分二乗和で置換する、
画像生成プログラム。
On the computer
The procedure to get the target frame and multiple reference frames,
A procedure for detecting a corresponding position in the reference frame for each target pixel in the target frame based on the lower limit of the degree of deviation between the region in the target frame and the region in the reference frame.
A procedure for generating a weighting coefficient of a pixel value for each reference pixel in the vicinity of the corresponding position, and
A procedure for generating an approximate value of the pixel value of the target pixel based on the pixel value of the reference pixel and the weighting coefficient, and
Based on the approximate value, the procedure of updating the pixel value of the target pixel is executed.
The procedures the detection are calculated part of the previous SL discrepancy, if it is not possible to see the degree of deviation that has not been calculated, the local neighborhood of pixels to be processed within the target frame The magnitude of the difference squared sum of the region and the region near the local area of the corresponding position is compared with the provisional minimum value of the difference squared sum, and if the difference squared sum is smaller than the provisional minimum value, the provisional minimum value. Is replaced by the difference squared sum,
Image generator.
JP2017223843A 2017-11-21 2017-11-21 Image generator, image generation method and image generation program Active JP6836495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017223843A JP6836495B2 (en) 2017-11-21 2017-11-21 Image generator, image generation method and image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223843A JP6836495B2 (en) 2017-11-21 2017-11-21 Image generator, image generation method and image generation program

Publications (2)

Publication Number Publication Date
JP2019097004A JP2019097004A (en) 2019-06-20
JP6836495B2 true JP6836495B2 (en) 2021-03-03

Family

ID=66972059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223843A Active JP6836495B2 (en) 2017-11-21 2017-11-21 Image generator, image generation method and image generation program

Country Status (1)

Country Link
JP (1) JP6836495B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111031256B (en) * 2019-11-15 2021-04-23 Oppo广东移动通信有限公司 Image processing method, image processing device, storage medium and electronic equipment

Also Published As

Publication number Publication date
JP2019097004A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP5555706B2 (en) High resolution video acquisition apparatus and method
JP5855445B2 (en) Video data processing method and image processing circuit for stabilizing digital image, and camera using the same
KR100985805B1 (en) Apparatus and method for image stabilization using adaptive Kalman filter
US9262684B2 (en) Methods of image fusion for image stabilization
CN103139568B (en) Based on the Video Stabilization method of degree of rarefication and fidelity constraint
JP2008541508A (en) Movement stabilization
US9245316B2 (en) Image processing device, image processing method and non-transitory computer readable medium
JP2014010621A (en) Image area dividing device by optimal image size, method and program
JP6462372B2 (en) Super-resolution device and program
JP6293374B2 (en) Image processing apparatus, image processing method, program, recording medium recording the same, video photographing apparatus, and video recording / reproducing apparatus
CN102685371B (en) Digital video image stabilization method based on multi-resolution block matching and PI (Portion Integration) control
JPWO2014069103A1 (en) Image processing device
KR101202642B1 (en) Method and apparatus for estimating global motion using the background feature points
JP2015060593A (en) Method and apparatus for filtering image
JP2021043874A (en) Image processing apparatus, image processing method, and program
JP6836495B2 (en) Image generator, image generation method and image generation program
JP7027776B2 (en) Movement vector calculation method, device, program, and movement vector calculation method including noise reduction processing.
US20120019677A1 (en) Image stabilization in a digital camera
JP6221333B2 (en) Image processing apparatus, image processing circuit, and image processing method
JP2006067541A (en) Video converting apparatus and method, and recording medium
JP6017279B2 (en) Image processing apparatus, image processing method, and program
JP6792541B2 (en) Image generator, image generation method and image generation program
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP6763826B2 (en) Image generator, image generation method and program
JP6091082B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210205

R150 Certificate of patent or registration of utility model

Ref document number: 6836495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150