JP6763826B2 - Image generator, image generation method and program - Google Patents

Image generator, image generation method and program Download PDF

Info

Publication number
JP6763826B2
JP6763826B2 JP2017117081A JP2017117081A JP6763826B2 JP 6763826 B2 JP6763826 B2 JP 6763826B2 JP 2017117081 A JP2017117081 A JP 2017117081A JP 2017117081 A JP2017117081 A JP 2017117081A JP 6763826 B2 JP6763826 B2 JP 6763826B2
Authority
JP
Japan
Prior art keywords
pixel
value
target
corresponding position
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017117081A
Other languages
Japanese (ja)
Other versions
JP2019004293A (en
Inventor
幸浩 坂東
幸浩 坂東
誠之 高村
誠之 高村
清水 淳
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017117081A priority Critical patent/JP6763826B2/en
Publication of JP2019004293A publication Critical patent/JP2019004293A/en
Application granted granted Critical
Publication of JP6763826B2 publication Critical patent/JP6763826B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)

Description

本発明は、画像生成装置、画像生成方法及びプログラムに関する。 The present invention relates to an image generator, an image generation method and a program.

現行の映像撮像機器は、時間方向の画質を開口時間により制御する。開口時間を短くすれば、動きボケが低減する。一方、開口時間の短縮により受光量が減少するため、画像に重畳雑音が増加する。このように、動きボケの低減と重畳雑音の低減とはトレードオフの関係にある。つまり、雑音重畳を回避したい場合は、動きボケを許容し、一定量の開口時間を確保する必要がある。一方、動きボケを回避したい場合は、雑音重畳を許容し、開口時間を制限する必要がある。 Current video imaging equipment controls the image quality in the time direction by the aperture time. If the opening time is shortened, motion blur is reduced. On the other hand, since the amount of received light is reduced by shortening the opening time, superimposed noise is increased in the image. As described above, there is a trade-off relationship between the reduction of motion blur and the reduction of superimposed noise. That is, if it is desired to avoid noise superposition, it is necessary to allow motion blur and secure a certain amount of opening time. On the other hand, if it is desired to avoid motion blur, it is necessary to allow noise superposition and limit the opening time.

昨今の半導体技術の進歩を受け、映像撮像機器の映像取得速度が大きく向上している。現状、高速度カメラにより取得された高フレームレート映像の用途は、映像再生時の高画質化と映像解析の高精度化とに分類される。前者の高画質化は、視覚系で検知可能(ディスプレイで表示可能)なフレームレートの上限に迫ることを目的としており、映像の高フレームレート化により滑らかな動きを表現することを目的とする。このため、ディスプレイでのリアルタイム再生を前提としている。後者の映像解析の高精度化は、知覚の検知限を超えた高フレームレート映像を用いることにより、映像解析の高精度化を行うことを目的としている。スロー再生による高速移動体の解析は代表的な応用例であり、スポーツ映像、FA(Factory Automation)検査、自動車などにおいて用いられている。 Due to recent advances in semiconductor technology, the image acquisition speed of image imaging equipment has greatly improved. Currently, the applications of high frame rate video acquired by a high-speed camera are classified into high image quality during video playback and high accuracy of video analysis. The former purpose of improving the image quality is to approach the upper limit of the frame rate that can be detected by the visual system (displayable on the display), and the purpose is to express smooth movement by increasing the frame rate of the image. Therefore, real-time playback on a display is assumed. The latter purpose of improving the accuracy of video analysis is to improve the accuracy of video analysis by using a high frame rate video that exceeds the detection limit of perception. Analysis of a high-speed moving object by slow reproduction is a typical application example, and is used in sports video, FA (Factory Automation) inspection, automobiles, and the like.

これは、映像の入力システムと出力システムとにおけるフレームレートの上限が非対称であることによる。現行の撮像系としては、10000[fps]を超える高フレームレート映像を取得可能な高速度カメラが利用可能である。一方、現行のディスプレイの上限は120−240[fps]である。このため、高速度カメラで撮影された映像は、スロー再生用途で用いられる。特許文献1にはフレームレートを変換する技術が記載されているが、100[fps]より低いフレームレートの映像に関するものであり、前述のような高フレームレートの映像の利用を目的はしていない。 This is because the upper limit of the frame rate in the video input system and the output system is asymmetric. As the current imaging system, a high-speed camera capable of acquiring a high frame rate image exceeding 10000 [fps] can be used. On the other hand, the upper limit of the current display is 120-240 [fps]. Therefore, the image taken by the high-speed camera is used for slow playback. Patent Document 1 describes a technique for converting a frame rate, but it relates to a video having a frame rate lower than 100 [fps], and does not aim to use a video having a high frame rate as described above. ..

特開2004−201165号公報Japanese Unexamined Patent Publication No. 2004-201165

本発明は、高フレームレート映像を用いて映像の画質を高める画像生成装置、画像生成方法及びプログラムを提供することを目的としている。 An object of the present invention is to provide an image generation device, an image generation method, and a program for enhancing the image quality of an image using a high frame rate image.

本発明の第1の態様における画像生成装置は、映像データに含まれる対象フレーム及び複数の参照フレームを取得する取得部と、前記対象フレームにおける対象画素に対応する対応位置を前記参照フレームごとに定める対応位置同定部と、前記対応位置の近傍の画素と前記対応位置の画素とを含む参照画素の画素値と、前記対象画素の画素値とに基づいて、前記参照画素に対する重み係数を前記参照フレームごとに算出する重み算出部と、前記参照画素ごとに画素値と前記重み係数とを乗算し、乗算結果の和を前記対象画素の近似値として前記参照フレームごとに算出する近似値算出部と、前記対象画素の画素値と前記参照フレームそれぞれの前記近似値とを用いて、前記対象画素の画素値を更新する画素値更新部と、を備える。 The image generation device according to the first aspect of the present invention determines a target frame included in the video data, an acquisition unit for acquiring a plurality of reference frames, and a corresponding position corresponding to the target pixel in the target frame for each reference frame. Based on the pixel value of the reference pixel including the corresponding position identification unit, the pixel in the vicinity of the corresponding position, and the pixel in the corresponding position, and the pixel value of the target pixel, the weighting coefficient for the reference pixel is calculated in the reference frame. A weight calculation unit that calculates each reference pixel, an approximation value calculation unit that multiplies the pixel value and the weight coefficient for each reference pixel, and calculates the sum of the multiplication results as an approximation value of the target pixel for each reference frame. A pixel value updating unit for updating the pixel value of the target pixel by using the pixel value of the target pixel and the approximate value of each of the reference frames is provided.

本発明の第2の態様によれば、第1の態様の画像生成装置において、前記対応位置同定部は、前記対象画素の近傍領域と類似する領域を前記参照フレームにおいて検出し、検出した領域に基づいて前記対応位置を定める。 According to the second aspect of the present invention, in the image generation device of the first aspect, the corresponding position identification unit detects a region similar to the vicinity region of the target pixel in the reference frame, and in the detected region. The corresponding position is determined based on the above.

本発明の第3の態様によれば、第1の態様の画像生成装置において、前記重み算出部は、前記参照画素ごとに近傍領域の画素値で表されるベクトルの加重和と前記対象画素の近傍領域の画素値により得られるベクトルとの差分を最小にする前記加重和における重み値を、前記重み係数として算出する。 According to the third aspect of the present invention, in the image generation device of the first aspect, the weight calculation unit uses the weighted sum of the vectors represented by the pixel values in the neighborhood region for each reference pixel and the weighted sum of the target pixels. The weight value in the weighted sum that minimizes the difference from the vector obtained by the pixel value in the neighboring region is calculated as the weight coefficient.

本発明の第4の態様によれば、第1の態様の画像生成装置において、前記画素値更新部は、前記対象画素の画素値と前記参照フレームそれぞれの前記近似値との平均値で、前記対象画素の画素値を更新する。 According to the fourth aspect of the present invention, in the image generation device of the first aspect, the pixel value update unit is an average value of the pixel value of the target pixel and the approximate value of each of the reference frames. The pixel value of the target pixel is updated.

本発明の第5の態様によれば、第3の態様の画像生成装置において、前記画素値更新部は、前記参照フレームそれぞれの前記近似値に前記参照フレームにおける信頼度を乗じた値と、前記対象画素の画素値との平均値で前記対象画素の画素値を更新し、前記信頼度は、前記重み算出部により前記参照フレームごとに算出される前記差分に基づいて定められる。 According to the fifth aspect of the present invention, in the image generation device of the third aspect, the pixel value update unit has a value obtained by multiplying the approximate value of each of the reference frames by the reliability in the reference frame and the said. The pixel value of the target pixel is updated with the average value with the pixel value of the target pixel, and the reliability is determined based on the difference calculated for each reference frame by the weight calculation unit.

本発明の第6の態様における画像生成方法は、映像データに含まれる対象フレーム及び複数の参照フレームを取得する取得ステップと、前記対象フレームにおける対象画素に対応する対応位置を前記参照フレームごとに定める対応位置同定ステップと、前記対応位置の近傍の画素と前記対応位置の画素とを含む参照画素の画素値と、前記対象画素の画素値とに基づいて、前記参照画素に対する重み係数を前記参照フレームごとに算出する重み算出ステップと、前記参照画素ごとに画素値と前記重み係数とを乗算し、乗算結果の和を前記対象画素の近似値として前記参照フレームごとに算出する近似値算出ステップと、前記対象画素の画素値と前記参照フレームそれぞれの前記近似値とを用いて、前記対象画素の画素値を更新する画素値更新ステップと、を有する。 In the image generation method according to the sixth aspect of the present invention, an acquisition step for acquiring a target frame and a plurality of reference frames included in the video data and a corresponding position corresponding to the target pixel in the target frame are determined for each reference frame. Based on the corresponding position identification step, the pixel value of the reference pixel including the pixel in the vicinity of the corresponding position and the pixel in the corresponding position, and the pixel value of the target pixel, the weighting coefficient for the reference pixel is calculated in the reference frame. A weight calculation step calculated for each reference pixel, an approximate value calculation step for multiplying the pixel value and the weight coefficient for each reference pixel, and calculating the sum of the multiplication results as an approximate value for the target pixel for each reference frame. It has a pixel value update step of updating the pixel value of the target pixel by using the pixel value of the target pixel and the approximate value of each of the reference frames.

本発明の第7の態様におけるプログラムは、映像データに含まれる対象フレーム及び複数の参照フレームを取得する取得ステップと、前記対象フレームにおける対象画素に対応する対応位置を前記参照フレームごとに定める対応位置同定ステップと、前記対応位置の近傍の画素と前記対応位置の画素とを含む参照画素の画素値と、前記対象画素の画素値とに基づいて、前記参照画素に対する重み係数を前記参照フレームごとに算出する重み算出ステップと、前記参照画素ごとに画素値と前記重み係数とを乗算し、乗算結果の和を前記対象画素の近似値として前記参照フレームごとに算出する近似値算出ステップと、前記対象画素の画素値と前記参照フレームそれぞれの前記近似値とを用いて、前記対象画素の画素値を更新する画素値更新ステップと、をコンピュータに実行させるためのプログラムである。 In the program according to the seventh aspect of the present invention, the acquisition step of acquiring the target frame and a plurality of reference frames included in the video data, and the corresponding position corresponding to the target pixel in the target frame are determined for each reference frame. Based on the identification step, the pixel value of the reference pixel including the pixel in the vicinity of the corresponding position and the pixel in the corresponding position, and the pixel value of the target pixel, the weighting coefficient for the reference pixel is set for each reference frame. The weight calculation step to be calculated, the approximate value calculation step of multiplying the pixel value and the weight coefficient for each reference pixel, and calculating the sum of the multiplication results as the approximate value of the target pixel for each reference frame, and the target. This is a program for causing a computer to execute a pixel value update step of updating the pixel value of the target pixel by using the pixel value of the pixel and the approximate value of each of the reference frames.

本発明によれば、高フレームレート映像を用いて映像の画質を高めることが可能となる。 According to the present invention, it is possible to improve the image quality of an image by using a high frame rate image.

実施形態における画像生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image generation apparatus in embodiment. 実施形態の画像生成装置が行う画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation processing performed by the image generation apparatus of embodiment.

以下、図面を参照して、本発明の実施形態における画像生成装置、画像生成方法及びプログラムを説明する。実施形態における画像生成装置における処理の概略について説明する。画像生成装置は、高い時間解像度で取得した映像に含まれる複数のフレームを入力する。複数のフレームには、指定された1枚の対象フレーム(第tフレーム)と、r枚の参照フレーム(第t−iフレーム、i=1,2,…,r)が含まれる。画像生成装置は、対象フレームと複数の参照フレームとを用いて、第tフレームの位置の画像を出力する画像生成を行う。入力される映像に対する時間フィルタのフレーム間隔をδとして、各フレームは、t=jδ,(j=0,1,2,…)においてサンプリングされる。f(x,y,t),(x=0,1,…,X−1;y=0,1,Y−1)は、第tフレームにおける位置(x,y)の画素値を表す。 Hereinafter, the image generation device, the image generation method, and the program according to the embodiment of the present invention will be described with reference to the drawings. The outline of the processing in the image generator in the embodiment will be described. The image generator inputs a plurality of frames included in the video acquired at a high time resolution. The plurality of frames, and one target frame specified (the t frame), r t reference frames (the t-i-frame, i = 1,2, ..., r t) are included. The image generation device uses the target frame and the plurality of reference frames to generate an image that outputs an image at the position of the t-th frame. Each frame is sampled at t = jδ t , (j = 0, 1, 2, ...), With the frame interval of the time filter for the input video as δ t . f (x, y, t), (x = 0,1, ..., X-1; y = 0,1, Y-1) represents the pixel value of the position (x, y) in the t-frame.

[STEP1] 画像生成装置は、対象フレーム内の対象画素(x,y,t)に対する局所近傍領域F(x,y,t)として、(2b+1)×(2b+1)画素からなる領域{f(x−i,y−j,t)|i∈[−b,b],j∈[−b,b]}を設定する。画像生成装置は、r枚の参照フレームの各々に対して、以下の処理(STEP2〜STEP5)を行う。処理の対象となる参照フレームは、第t−iフレーム(i=1,2,…,r)の順で1枚ずつ選択される。すなわち、画像生成装置は、対象フレームに対して時間的に近い参照フレームから順に選択する。 [STEP1] The image generator sets the local proximity region F b (x, y, t) with respect to the target pixel (x, y, t) in the target frame as a region {f (2b + 1) × (2b + 1) pixels. x-i, y-j, t) | i ∈ [-b, b], j ∈ [-b, b]} is set. Image generating apparatus, for each of the r t reference frames, the following process is performed (STEP2~STEP5). Reference frame to be processed is the t-i frames (i = 1,2, ..., r t) is selected one by one in the order of. That is, the image generator selects in order from the reference frame that is close in time to the target frame.

[STEP2]画像生成装置は、選択された参照フレームにおいて、対象画素に対応する位置(以下、「対応位置」という)を同定する。
[STEP3]画像生成装置は、上記の対応位置の近傍画素を参照画素として設定する。
[STEP4]画像生成装置は、参照画素に対する重みを設定する。
[STEP5]画像生成装置は、上記の重みを用いて、対象画素の近似値を算出する。
[STEP6]画像生成装置は、参照フレームごとに算出した近似値を用いて画素の画素値を更新する。
[STEP2] The image generator identifies a position corresponding to the target pixel (hereinafter, referred to as “corresponding position”) in the selected reference frame.
[STEP3] The image generator sets pixels in the vicinity of the corresponding positions as reference pixels.
[STEP4] The image generator sets weights for reference pixels.
[STEP5] The image generator calculates an approximate value of the target pixel by using the above weights.
[STEP6] The image generation device updates the pixel value of the pixel using the approximate value calculated for each reference frame.

図1は、実施形態における画像生成装置100の構成例を示すブロック図である。画像生成装置100は、取得部101、参照フレーム設定部102、局所近傍領域設定部103、対応位置同定部104、参照画素設定部105、重み算出部106、近似値算出部107、最終参照フレーム判定部108、画素値更新部109、最終画素判定部110、出力部111及び記憶部120を備える。 FIG. 1 is a block diagram showing a configuration example of the image generation device 100 according to the embodiment. The image generation device 100 includes an acquisition unit 101, a reference frame setting unit 102, a local neighborhood region setting unit 103, a corresponding position identification unit 104, a reference pixel setting unit 105, a weight calculation unit 106, an approximate value calculation unit 107, and a final reference frame determination. A unit 108, a pixel value update unit 109, a final pixel determination unit 110, an output unit 111, and a storage unit 120 are provided.

取得部101は、高い時間解像度で取得された映像の映像データを画像生成の対象として取得する。取得部101は、外部の装置から映像データを受信することにより映像データを取得してもよいし、外部の記憶装置から映像データを読み出すことにより映像データを取得してもよい。取得部101は、取得した映像データに含まれる複数のフレームを、対象フレーム及び複数の参照フレームとして記憶部120に記憶させる。取得部101は、入力された複数のフレームのうち対象フレームを示す対象フレーム情報を取得する。取得部101は、対象フレームを示す対象フレーム情報を、参照フレーム設定部102と局所近傍領域設定部103とに出力する。 The acquisition unit 101 acquires the video data of the video acquired at a high time resolution as an image generation target. The acquisition unit 101 may acquire the video data by receiving the video data from an external device, or may acquire the video data by reading the video data from the external storage device. The acquisition unit 101 stores a plurality of frames included in the acquired video data in the storage unit 120 as a target frame and a plurality of reference frames. The acquisition unit 101 acquires target frame information indicating a target frame among a plurality of input frames. The acquisition unit 101 outputs the target frame information indicating the target frame to the reference frame setting unit 102 and the local neighborhood area setting unit 103.

参照フレーム設定部102は、記憶部120に記憶されている複数の参照フレームから1つの参照フレームを選択し、選択した参照フレームを処理対象に設定する。参照フレーム設定部102は、処理対象に設定した参照フレームを示す参照フレーム情報を対応位置同定部104へ出力する。 The reference frame setting unit 102 selects one reference frame from a plurality of reference frames stored in the storage unit 120, and sets the selected reference frame as a processing target. The reference frame setting unit 102 outputs the reference frame information indicating the reference frame set as the processing target to the corresponding position identification unit 104.

局所近傍領域設定部103は、対象フレーム情報により示される対象フレームにおける対象画素を選択する。例えば、局所近傍領域設定部103は、対象フレームにおいてラスター走査順に画素を対象画素として選択する。局所近傍領域設定部103は、対象画素の局所近傍画素と対象画素とを局所近傍領域F(x,y,t)に設定する。局所近傍領域設定部103は、局所近傍領域F(x,y,t)を示す局所近傍情報を、対応位置同定部104と重み算出部106とへ出力する。 The local neighborhood region setting unit 103 selects the target pixel in the target frame indicated by the target frame information. For example, the local neighborhood region setting unit 103 selects pixels as target pixels in the raster scanning order in the target frame. The local neighborhood region setting unit 103 sets the local neighborhood pixel and the target pixel of the target pixel in the local neighborhood region F b (x, y, t). The local neighborhood region setting unit 103 outputs the local neighborhood information indicating the local neighborhood region F b (x, y, t) to the corresponding position identification unit 104 and the weight calculation unit 106.

対応位置同定部104は、参照フレーム設定部102と局所近傍領域設定部103とから入力される参照フレーム情報と局所近傍情報から、局所近傍画素と参照フレームとを特定する。対応位置同定部104は、局所近傍画素の画素値と、参照フレームにおける探索範囲の画素値とを記憶部120から読み出す。対応位置同定部104は、読み出した画素値を用いて、対象画素の位置に対応する点の位置、すなわち対応位置を参照フレームにおいて同定する。対応位置同定部104は、対応位置を示す対応位置情報を参照画素設定部105に出力する。 The corresponding position identification unit 104 identifies the local neighborhood pixel and the reference frame from the reference frame information and the local neighborhood information input from the reference frame setting unit 102 and the local neighborhood region setting unit 103. The corresponding position identification unit 104 reads out the pixel value of the local neighborhood pixel and the pixel value of the search range in the reference frame from the storage unit 120. The corresponding position identification unit 104 identifies the position of the point corresponding to the position of the target pixel, that is, the corresponding position in the reference frame by using the read pixel value. The corresponding position identification unit 104 outputs the corresponding position information indicating the corresponding position to the reference pixel setting unit 105.

参照画素設定部105は、対応位置同定部104から出力される対応位置情報から対応位置を取得し、対応位置の近傍にあたる整数画素位置の各画素を参照画素として設定する。参照画素設定部105は、参照画素を示す参照画素情報を重み算出部106と近似値算出部107とに出力する。 The reference pixel setting unit 105 acquires the corresponding position from the corresponding position information output from the corresponding position identification unit 104, and sets each pixel of the integer pixel position in the vicinity of the corresponding position as a reference pixel. The reference pixel setting unit 105 outputs reference pixel information indicating a reference pixel to the weight calculation unit 106 and the approximate value calculation unit 107.

重み算出部106は、局所近傍領域設定部103と参照画素設定部105とから出力される参照画素情報と局所近傍情報とから、参照画素と局所近傍領域F(x,y,t)とを特定する。重み算出部106は、各参照画素の局所近傍の画素値と、局所近傍領域F(x,y,t)の画素値とを記憶部120から読み出す。重み算出部106は、参照画素の局所近傍の画素値により局所近傍領域F(x,y,t)内の画素値を近似する際の近似誤差を最小化する規範に基づいて、各参照画素に対する重みを算出する。重み算出部106は、各参照画素に対する重みを示す重み情報を近似値算出部107へ出力する。 The weight calculation unit 106 obtains the reference pixel and the local neighborhood region F b (x, y, t) from the reference pixel information and the local neighborhood information output from the local neighborhood region setting unit 103 and the reference pixel setting unit 105. Identify. The weight calculation unit 106 reads out the pixel value in the local neighborhood of each reference pixel and the pixel value in the local neighborhood region F b (x, y, t) from the storage unit 120. The weight calculation unit 106 uses each reference pixel based on a norm that minimizes an approximation error when approximating the pixel value in the local neighborhood region F b (x, y, t) with the pixel value in the local neighborhood of the reference pixel. Calculate the weight for. The weight calculation unit 106 outputs weight information indicating the weight for each reference pixel to the approximate value calculation unit 107.

近似値算出部107は、参照画素設定部105から出力される参照画素情報から参照画素を特定し、重み算出部106から出力される重み情報から重みを取得する。近似値算出部107は、各参照画素に画素値を記憶部120から読み出し、読み出した各画素値に対する重みの加重和を対象画素の近似値として算出する。近似値算出部107は、算出した近似値を記憶部120へ記憶させる。算出に用いられた参照フレームと対象画素とを示す情報が近似値に付与されてもよいし、算出に用いられた参照フレームと対象画素とに対応付けられた記憶部120の領域に近似値が記憶されてもよい。 The approximate value calculation unit 107 identifies the reference pixel from the reference pixel information output from the reference pixel setting unit 105, and acquires the weight from the weight information output from the weight calculation unit 106. The approximate value calculation unit 107 reads a pixel value for each reference pixel from the storage unit 120, and calculates the weighted sum of the weights for each read pixel value as an approximate value of the target pixel. The approximate value calculation unit 107 stores the calculated approximate value in the storage unit 120. Information indicating the reference frame and the target pixel used in the calculation may be added to the approximate value, or the approximate value is assigned to the area of the storage unit 120 associated with the reference frame and the target pixel used in the calculation. It may be remembered.

最終参照フレーム判定部108は、近似値算出部107による近似値の算出が終わる都度、参照フレームすべてにおいて対象画素の近似値が算出されたか否かを判定する。参照フレームすべてにおいての近似値が算出されていた場合、最終参照フレーム判定部108は、対象画素の画素値に対する更新を画素値更新部109に指示する。参照フレームすべてにおいて近似値が算出されていない場合、最終参照フレーム判定部108は、参照フレームの候補のうち次の参照フレームの選択を参照フレーム設定部102へ指示する。この指示により、次の参照フレームを用いた近似値の算出が行われる。 The final reference frame determination unit 108 determines whether or not the approximate value of the target pixel has been calculated in all the reference frames each time the approximate value calculation unit 107 finishes calculating the approximate value. When the approximate values for all the reference frames have been calculated, the final reference frame determination unit 108 instructs the pixel value update unit 109 to update the pixel value of the target pixel. When the approximate value is not calculated for all the reference frames, the final reference frame determination unit 108 instructs the reference frame setting unit 102 to select the next reference frame among the reference frame candidates. According to this instruction, the approximate value is calculated using the following reference frame.

画素値更新部109は、参照フレームの候補ごとに算出された近似値と、対象画素の画素値とを記憶部120から読み出す。画素値更新部109は、読み出した近似値及び画素値の平均値を算出する。画素値更新部109は、算出した平均値を対象画素の画素値として記憶部120に記憶させ、対象画素の画素値を更新する。 The pixel value updating unit 109 reads out the approximate value calculated for each reference frame candidate and the pixel value of the target pixel from the storage unit 120. The pixel value update unit 109 calculates the read approximate value and the average value of the pixel values. The pixel value updating unit 109 stores the calculated average value as the pixel value of the target pixel in the storage unit 120, and updates the pixel value of the target pixel.

最終画素判定部110は、画素値更新部109により画素値が更新される都度、対象フレームの画素すべてに対して画素値の更新が行われたか否かを判定する。対象フレームの画素すべてに対して画素値の更新が行われていた場合、最終画素判定部110は、対象フレームの出力を出力部111へ指示する。対象フレームの画素すべてに対して画素値の更新が行われていない場合、最終画素判定部110は、画素値の更新が行われていない対象画素に対する局所近傍画素の設定を局所近傍領域設定部103へ指示する。この場合、最終画素判定部110は、第t−1フレームを参照フレームに選択させる指示を参照フレーム設定部102へ出力する。これらの指示により、次の対象画素に対する画素値の更新が行われる。 The final pixel value determination unit 110 determines whether or not the pixel value has been updated for all the pixels of the target frame each time the pixel value is updated by the pixel value update unit 109. When the pixel values have been updated for all the pixels of the target frame, the final pixel determination unit 110 instructs the output unit 111 to output the target frame. When the pixel values have not been updated for all the pixels of the target frame, the final pixel determination unit 110 sets the local neighborhood pixels for the target pixels for which the pixel values have not been updated. Instruct to. In this case, the final pixel determination unit 110 outputs an instruction to select the t-1th frame to the reference frame to the reference frame setting unit 102. According to these instructions, the pixel value for the next target pixel is updated.

出力部111は、すべての画素値が更新された対象フレームを記憶部120から読み出し、読み出した対象フレームを生成画像として出力する。 The output unit 111 reads the target frame in which all the pixel values have been updated from the storage unit 120, and outputs the read target frame as a generated image.

図2は、実施形態の画像生成装置100が行う画像生成処理を示すフローチャートである。画像生成処理は、以下に説明するように、フィルタ処理とインター予測とを含む処理である。画像生成装置100において画像生成処理が開始されると、取得部101は映像データを取得し、取得した映像データに含まれる各フレームを記憶部120に記憶させる(ステップS101)。 FIG. 2 is a flowchart showing an image generation process performed by the image generation device 100 of the embodiment. The image generation process is a process including a filter process and an inter-prediction as described below. When the image generation process is started in the image generation device 100, the acquisition unit 101 acquires video data and stores each frame included in the acquired video data in the storage unit 120 (step S101).

画像生成装置100において、以下のステップS102からステップS107の動作が、対象フレームの各画素に対して繰り返される。局所近傍領域設定部103は、対象フレームにおいて局所近傍領域F(x,y,t)を設定する(ステップS102)。 In the image generation device 100, the following operations from step S102 to step S107 are repeated for each pixel of the target frame. The local neighborhood area setting unit 103 sets the local neighborhood area F b (x, y, t) in the target frame (step S102).

画像生成装置100において、以下のステップS103からステップS106の動作が各参照フレームに対して繰り返される。 In the image generator 100, the following operations from step S103 to step S106 are repeated for each reference frame.

[参照フレーム内の対応位置の同定]
対応位置同定部104は、処理対象の参照フレームにおいて、対象画素に対する対応位置を同定する(ステップS103)。対応位置同定部104は、局所近傍領域F(x,y,t)と対応点の近傍領域との差分二乗を最小化する対応点の位置を検出することにより、対応位置を同定する。対応点の近傍領域の大きさは、局所近傍領域F(x,y,t)と同じ、(2b+1)×(2b+1)画素である。対応点の位置を検出する際の探索は、式(1)として表される。

Figure 0006763826
[Identification of corresponding positions in the reference frame]
The corresponding position identification unit 104 identifies the corresponding position with respect to the target pixel in the reference frame to be processed (step S103). The corresponding position identification unit 104 identifies the corresponding position by detecting the position of the corresponding point that minimizes the difference squared between the local neighborhood region F b (x, y, t) and the neighboring region of the corresponding point. The size of the neighborhood region of the corresponding point is (2b + 1) × (2b + 1) pixels, which is the same as the local neighborhood region F b (x, y, t). The search for detecting the position of the corresponding point is expressed by the equation (1).
Figure 0006763826

式(1)における、Aは対象フレームにおける対応点の探索範囲の大きさを示すパラメータであり。対応位置同定部104は、予め定められた値をAとして用いてもよいし、外部から入力される値をAとして用いてもよい。すなわち、探索範囲は、対象フレームにおける2A×2A画素の領域である。式(1)におけるe(v,v)は、式(2)で得られる。

Figure 0006763826
In equation (1), A is a parameter indicating the size of the search range of the corresponding point in the target frame. The corresponding position identification unit 104 may use a predetermined value as A, or may use a value input from the outside as A. That is, the search range is a region of 2A × 2A pixels in the target frame. E in the formula (1) (v x, v y) is obtained by Equation (2).
Figure 0006763826

式(2)は、第(t−r+1)フレームにおいて同定される対応点の位置(V(x,t−r+1),V(y,t−r+1))を探索中心とした処理となっている。rは対象フレームから参照フレームまでの時間間隔を表す。(v,v)は、式(2)における探索中心に対する変位量である。探索中心位置に対する変位量は式(3)で表すとおりである。

Figure 0006763826
Equation (2) uses the position of the corresponding point (V (x, tr t +1), V (y, tr t +1)) identified in the (tr t +1) frame as the search center. It is a processed process. r t represents the time interval until the reference frame from the target frame. (V x, v y) is a displacement amount with respect to the search center in equation (2). The amount of displacement with respect to the search center position is as expressed by Eq. (3).
Figure 0006763826

式(3)において、round()は四捨五入により整数値化された結果を返す関数である。対応位置同定部104は、対応位置の探索を1/4画素精度で行う。その際、対応位置同定部104は、小数画素位置の画素値を、式(4)によりbilinear補間で算出する。

Figure 0006763826
In equation (3), round () is a function that returns the result of rounding to an integer value. The corresponding position identification unit 104 searches for the corresponding position with 1/4 pixel accuracy. At that time, the corresponding position identification unit 104 calculates the pixel value of the decimal pixel position by bilinear interpolation according to the equation (4).
Figure 0006763826

ただし、対応位置同定部104は、閾値θに対して、e(v,v)>θとなる場合は、適切な対応位置が存在しないと判定し、v,vを設定せずともよい。閾値θは、画像生成装置100の外部より入力されるパラメータである。
対応位置同定部104は、以上の演算を行い、参照フレームにおける対応位置(x−V(x,t−r),y−V(y,t−r))を同定する。
However, when e (v x , v y )> θ e with respect to the threshold value θ e , the corresponding position identification unit 104 determines that an appropriate corresponding position does not exist, and sets v x , v y . You don't have to. The threshold value θ e is a parameter input from the outside of the image generation device 100.
The corresponding position identification unit 104 performs the above calculation to identify the corresponding position (x-V (x, tr t ), y-V (y, tr t )) in the reference frame.

[参照画素の設定及び画素値に対する重みの設定]
参照画素設定部105は、対応位置同定部104が式(3)により得た対応位置の画素と、対応位置の近傍に位置する画素とを参照画素として設定する(ステップS104)。対応位置は(x−V(x,t−r),y−V(y,t−r))であり、対応位置の近傍の位置は、
(x−V(x,t−r)+1,y−V(y,t−r)),
(x−V(x,t−r),y−V(y,t−r)+1),
(x−V(x,t−r)+1,y−V(y,t−r)+1)
である。
[Setting of reference pixel and setting of weight for pixel value]
The reference pixel setting unit 105 sets the pixel at the corresponding position obtained by the corresponding position identification unit 104 according to the equation (3) and the pixel located near the corresponding position as reference pixels (step S104). The corresponding position is (x-V (x, tr t ), y-V (y, tr t )), and the position near the corresponding position is
(X-V (x, tr t ) + 1, y-V (y, tr t )),
(X-V (x, tr t ), y-V (y, tr t ) + 1),
(X-V (x, tr t ) +1, y-V (y, tr t ) + 1)
Is.

重み算出部106は、参照画素設定部105により設定された参照画素の近傍領域の画素値と、対象画素の局所近傍領域F(x,y,t)の画素値とを記憶部120から読み出す。重み算出部106は、読み出した参照画素の近傍領域の画素値と局所近傍領域F(x,y,t)の画素値とを用いて、参照画素に対する重み係数を算出する(ステップS105)。重み係数の算出手順について、以下に説明する。 The weight calculation unit 106 reads out the pixel value of the reference pixel neighborhood region set by the reference pixel setting unit 105 and the pixel value of the local neighborhood region F b (x, y, t) of the target pixel from the storage unit 120. .. The weight calculation unit 106 calculates the weighting coefficient for the reference pixel by using the pixel value in the vicinity region of the read reference pixel and the pixel value in the local neighborhood region F b (x, y, t) (step S105). The procedure for calculating the weighting factor will be described below.

重み算出部106は、各近傍領域の画素値をラスター走査順に一元化して得られる(2b+1)×(2b+1)次元ベクトルそれぞれを、ベクトルR(x,y,t−r),R(x,y,t−r),R(x,y,t−r),R(x,y,t−r)とする。例えば、参照画素の近傍領域の画素値からなるベクトルR(x,y,t−r)は、式(5)で表される。

Figure 0006763826
The weight calculation unit 106 converts the (2b + 1) × (2b + 1) dimensional vectors obtained by unifying the pixel values of each neighboring region in the raster scanning order into the vectors R 0 (x, y, tr t ), R 1 ( Let x, y, tr t ), R 2 (x, y, tr t ), and R 3 (x, y, tr t ). For example, a pixel value of the neighboring region of the reference pixel vector R 0 (x, y, t -r t) is expressed by Equation (5).
Figure 0006763826

重み算出部106は、ベクトルR(x,y,t−r),R(x,y,t−r),R(x,y,t−r),R(x,y,t−r)の加重和を、対象画素の局所近傍領域F(x,y,t)を近似するものとして、その近似誤差電力を算出する。近似誤差電力E(x,y,t,r)は式(6)により表される。

Figure 0006763826
Weight calculator 106, a vector R 0 (x, y, t -r t), R 1 (x, y, t-r t), R 2 (x, y, t-r t), R 3 (x , y, a weighted sum of t-r t), local neighborhood region F b (x of the target pixel, y, as that approximates t), and calculates the approximation error power. Approximation error power E (x, y, t, r t) is represented by the formula (6).
Figure 0006763826

近似誤差電力E(x,y,t,r)を最小化する重み係数w,w,w,wは、以下のように求められる。重み係数w,w,wが式(7)により求められる。

Figure 0006763826
Approximation error power E (x, y, t, r t) weighting factors w 0 that minimizes, w 1, w 2, w 3 is obtained as follows. The weighting coefficients w 0 , w 1 , and w 2 are obtained by Eq. (7).
Figure 0006763826

式(7)における、^ψi,j,^φは、i,j=0,1,2に対して式(8)で表されるベクトルの内積値である。なお、式(8)における肩付きの文字(t)は、転置を表す。

Figure 0006763826
In equation (7), ^ ψ i, j , ^ φ i are inner product values of the vectors represented by equation (8) for i, j = 0,1,2. The letter (t) with a shoulder in the formula (8) represents transposition.
Figure 0006763826

重み係数wは、求められた重み係数w,w,wを用いて、式(9)により、求められる。

Figure 0006763826
The weighting coefficient w 3 is obtained by the equation (9) using the obtained weighting coefficients w 0 , w 1 , and w 2 .
Figure 0006763826

上記の重み係数の算出は、重み係数w,w,w,wの和が1になる制約条件の下で近似誤差電力を最小化する手法である。なお、重み係数の和に対して制約条件を設けない場合、重み係数は式(10)を用いることにより、重み係数w,w,w,wが求められる。

Figure 0006763826
The above calculation of the weighting coefficient is a method of minimizing the approximate error power under the constraint condition that the sum of the weighting coefficients w 0 , w 1 , w 2 , and w 3 is 1. When no constraint condition is set for the sum of the weighting coefficients, the weighting coefficients w 0 , w 1 , w 2 , and w 3 can be obtained by using the equation (10).
Figure 0006763826

式(10)における、ψi,j,φは、i,j=0,1,2に対して式(11)で表されるベクトルの内積値である。式(10)における肩付きの文字(t)は、式(8)と同様に、転置を表す。

Figure 0006763826
In equation (10), ψ i, j , φ i are inner product values of the vectors represented by equation (11) for i, j = 0, 1, 2. The shouldered letter (t) in equation (10) represents transposition, as in equation (8).
Figure 0006763826

重み算出部106は、式(7)及び式(9)と、式(10)とのいずれかを用いて、重み係数w,w,w,wを算出する。 The weight calculation unit 106 calculates weight coefficients w 0 , w 1 , w 2 , and w 3 by using any of the equations (7) and (9) and the equation (10).

[参照画素を用いた対象画素の画素値の近似]
近似値算出部107は、参照画素設定部105により設定された参照画素の画素値を記憶部120から読み出す。近似値算出部107は、重み算出部106が算出した重み係数w,w,w,wと、読み出した画素値とをそれぞれ乗算し、乗算結果の和を対象画素の近似値として算出する(ステップS106)。対象画素の近似値^f(x,y,t,r)は、式(12)により表される。

Figure 0006763826
[Approximation of pixel value of target pixel using reference pixel]
The approximate value calculation unit 107 reads out the pixel value of the reference pixel set by the reference pixel setting unit 105 from the storage unit 120. The approximate value calculation unit 107 multiplies the weight coefficients w 0 , w 1 , w 2 , w 3 calculated by the weight calculation unit 106 and the read pixel value, respectively, and uses the sum of the multiplication results as the approximate value of the target pixel. Calculate (step S106). Approximate value of the target pixel ^ f (x, y, t , r t) is represented by the formula (12).
Figure 0006763826

式(12)における、r(x,y,t−r),(i=0,1,2,3)は、式(13)にて表される。

Figure 0006763826
In equation (12), r i (x , y, t-r t), (i = 0,1,2,3) is represented by the formula (13).
Figure 0006763826

式(13)は、時刻t−rに位置する参照フレームに対する参照画素の画素値の算出を表している。近似値算出部107は、式(13)に従い、r枚の参照フレーム(第t−iフレーム、(i=1,2,…,r))に対する参照画素の画素値を算出する。近似値算出部107は、式(12)に従い、参照画素の画素値を用いて対象画素の近似値^f(x,y,t,r)を算出する。 Equation (13) represents the calculation of the pixel values of the reference pixels relative to the reference frame located at a time t-r t. Approximate value calculating section 107 in accordance with equation (13), r t reference frames (the t-i frames, (i = 1,2, ..., r t)) to calculate the pixel values of the reference pixels for. Approximate value calculating section 107 in accordance with Equation (12), calculates the approximate value of the target pixel ^ f (x, y, t , r t) and using the pixel values of the reference pixels.

[対象画素の画素値の更新]
画素値更新部109は、近似値算出部107が式(12)により算出したr枚の参照フレームそれぞれの近似値^f(x,y,t,r)と、対象画素の画素値との平均値を算出する。画素値更新部109は、算出した平均値を記憶部120に記憶させ、記憶部120に記憶されている対象画素の画素値を更新する(ステップS107)。新たな画素値(平均値)は、式(14)により算出される。

Figure 0006763826
[Update the pixel value of the target pixel]
Pixel value updating unit 109, the approximate value calculating section 107 calculated r t reference frames respective approximation by Equation (12) ^ f (x, y, t, r t) and the pixel value of the target pixel Calculate the average value of. The pixel value updating unit 109 stores the calculated average value in the storage unit 120, and updates the pixel value of the target pixel stored in the storage unit 120 (step S107). The new pixel value (average value) is calculated by the equation (14).
Figure 0006763826

画素値更新部109は、対象フレーム内の各画素に対して、式(14)による画素値の更新を行う。対象フレーム内の画素すべてに対して画素値の更新が行われると、出力部111は、記憶部120から対象フレームを読み出し、読み出した対象フレームを生成画像として出力し(ステップS108)、画像生成装置100は、画像生成処理を終了する。 The pixel value update unit 109 updates the pixel value according to the equation (14) for each pixel in the target frame. When the pixel values are updated for all the pixels in the target frame, the output unit 111 reads the target frame from the storage unit 120, outputs the read target frame as a generated image (step S108), and the image generation device. 100 ends the image generation process.

上述したように、実施形態の画像生成装置100は、参照フレームにおける複数の参照画素と、各参照画素に対して定めた重み係数とを用いて対象画素の近似値を参照フレームごとに算出する。画像生成装置100は、各参照フレームの近似値と対象画素の画素値とを用いて、対象画素の画素値を更新する。画像生成装置100は、画素値の更新において、複数の参照フレームの画素値を用いるので、対象フレームにおけるノイズを低減し、画質を高めることができる。画像生成装置100は、複数のフレームを逐次入力し、複数のフレーム入力されるごとに前述の画像生成処理により生成される対象フレームを出力してもよい。画像生成装置100をこのように動作させることにより、映像データを生成できる。 As described above, the image generation device 100 of the embodiment calculates an approximate value of the target pixel for each reference frame by using a plurality of reference pixels in the reference frame and a weighting coefficient determined for each reference pixel. The image generation device 100 updates the pixel value of the target pixel by using the approximate value of each reference frame and the pixel value of the target pixel. Since the image generation device 100 uses the pixel values of a plurality of reference frames in updating the pixel values, it is possible to reduce noise in the target frame and improve the image quality. The image generation device 100 may sequentially input a plurality of frames and output a target frame generated by the above-mentioned image generation process each time a plurality of frames are input. By operating the image generation device 100 in this way, video data can be generated.

画像生成装置100は、高フレームレート映像の映像データに含まれる複数のフレームを逐次入力し、複数のフレーム入力されるごとに前述の画像生成処理を行ってもよい。画像生成装置100は、高フレームレート映像の映像データを入力することにより、動きボケが低減された画質を維持しつつ、重畳雑音を低減させて画質を高めた映像データを構成するフレームを生成することができる。 The image generation device 100 may sequentially input a plurality of frames included in the video data of a high frame rate video, and perform the above-mentioned image generation processing each time the plurality of frames are input. By inputting the video data of a high frame rate video, the image generation device 100 generates a frame constituting the video data in which the superimposed noise is reduced and the image quality is improved while maintaining the image quality with reduced motion blur. be able to.

高フレームレート映像は、時間方向に高密度でサンプリングされたフレーム群を含んでおり、高フレームレート映像には撮影対象の時間方向の情報が高い時間分解能で含まれている。高密度時間サンプリングされたフレーム群(例えば、1000[fps])を用いて、リアルタイム再生用途の映像(例えば、30[fps])を生成すれば、高い時間分解能で映像の生成を制御できる。すなわち、画像生成装置100によれば、視覚の検知限を超えた高フレームレート映像を入力として用いることで、動きボケの低減と重畳雑音の低減とを両立して高画質なリアルタイム再生用途の映像データを生成できる。 The high frame rate video includes a group of frames sampled at high density in the time direction, and the high frame rate video contains information in the time direction of the shooting target with high time resolution. If a video for real-time playback (for example, 30 [fps]) is generated using a high-density time-sampled frame group (for example, 1000 [fps]), the generation of the video can be controlled with high time resolution. That is, according to the image generation device 100, by using a high frame rate image that exceeds the visual detection limit as an input, a high-quality image for real-time reproduction that achieves both reduction of motion blur and reduction of superimposed noise is achieved. Data can be generated.

なお、画素値更新部109は、参照フレームそれぞれの近似値^f(x,y,t,r)と、対象画素の画素値との平均値に代えて、近似値^f(x,y,t,r)に対する信頼度を乗じた加重和と対象画素の画素値との平均値を新たな画素値として算出してもよい。信頼度は、例えば、重み係数を算出する際に用いた近似誤差電力E(x,y,t,r)に基づいて定められる。 Incidentally, the pixel value updating section 109, respectively reference frame approximation ^ f (x, y, t , r t) and, instead of the average value of the pixel value of the target pixel, an approximate value ^ f (x, y , t, it may calculate the average value between the pixel value of the weighted sum and the target pixels to be multiplied by the reliability of r t) as a new pixel value. Reliability, for example, the approximation error power E used for calculating a weighting factor (x, y, t, r t) is determined based on.

参照フレームにおける参照画素の近傍領域と局所近傍領域F(x,y,t)との類似度が高いほど、近似誤差電力E(x,y,t,r)は低い値となる。そこで、参照フレームにおける近似誤差電力E(x,y,t,r)と反比例する値を信頼度に用いてもよい。例えば、式(15)で表される値を参照フレームの信頼度に用いてもよい。

Figure 0006763826
Region near the local region near the reference pixels in the reference frame F b (x, y, t ) the higher the degree of similarity between, the approximation error power E (x, y, t, r t) becomes a low value. Therefore, the approximation error power E in the reference frame (x, y, t, r t) may be used a value inversely proportional to the reliability. For example, the value represented by the equation (15) may be used for the reliability of the reference frame.
Figure 0006763826

また、画素値更新部109は、式(15)得られる各参照フレームに対する値の総和が1になるように各値を正規化し、正規化により得られた値を各参照フレームに対する信頼度に用いてもよい。また、信頼度は、式(15)の例以外にも、近似誤差電力E(x,y,t,r)の増減と反比例する値が得られる関数やテーブルを用いて定めてもよい。各参照フレームから算出される近似値に対して信頼度を乗じることにより、類似度が低い参照画素の影響を低くすることができる。画素値更新部109が近似値に信頼度を乗じた加重和を用いて対象画素の画素値を更新することにより、画像生成装置100は、出力する対象フレームの画質を更に向上できる。 Further, the pixel value update unit 109 normalizes each value so that the sum of the values for each reference frame obtained in the equation (15) is 1, and uses the value obtained by the normalization for the reliability for each reference frame. You may. Further, the reliability, in addition to examples of formula (15), the approximation error power E (x, y, t, r t) may be determined using a function or a table value which is inversely proportional with the increase or decrease can be obtained. By multiplying the approximate value calculated from each reference frame by the reliability, the influence of the reference pixel having a low similarity can be reduced. When the pixel value updating unit 109 updates the pixel value of the target pixel by using a weighted sum obtained by multiplying the approximate value by the reliability, the image generation device 100 can further improve the image quality of the output target frame.

また、画素値更新部109は、式(14)に代えて式(16)を用いて、対象画素の画素値を更新する値を算出してもよい。画素値更新部109は、式(16)における係数a(k=0,1,…,r)として、以下に示す3通りの設定のうちいずれか一つを用いてもよい。

Figure 0006763826
Further, the pixel value updating unit 109 may calculate a value for updating the pixel value of the target pixel by using the formula (16) instead of the formula (14). Pixel value updating unit 109, the coefficient a k (k = 0,1, ... , r t) in Equation (16) as may be used any one of setting the triplicate below.
Figure 0006763826

第1の設定として、画素値更新部109は、式(17)で定められる値を係数aに用いてもよい。なお、第1の設定を用いた場合、式(16)と式(14)とは同じである。

Figure 0006763826
As the first setting, the pixel value update unit 109 may use the value defined by the equation (17) for the coefficient ak . When the first setting is used, the equation (16) and the equation (14) are the same.
Figure 0006763826

第2の設定として、画素値更新部109は、式(18)で定められる値を係数a(k=0,1,…,r)に用いてもよい。

Figure 0006763826
A second setting, the pixel value updating unit 109, the coefficient values determined by the following equation (18) a k (k = 0,1, ..., r t) may be used.
Figure 0006763826

式(18)におけるr’(x,y,t)は、各x,y,tに対して定まる値である。具体的には、式(6)により算出される近似誤差電力E(x,y,t,k)又は|f(x,y,t)−^f(x,y,t,k)|,(k=1,2,…,r)が閾値ψより小さい参照画素の数が、r’(x,y,t)の値となる。すなわち、画素値更新部109は、各参照フレームにおける参照画素のうち対象画素に対する類似度が低い参照画素から算出された近似値を外れ値として省き、一定以上の類似度を有する参照画素から算出された近似値を用いて対象画素の画素値を更新する。なお、r’(x,y,t)の値域は、1≦r’(x,y,t)≦rである。閾値ψは、画像生成装置100の外部より入力されるパラメータである。 R't (x, y, t) in the equation (18) is a value determined for each x, y, t. Specifically, the approximate error power E (x, y, t, k) or | f (x, y, t)-^ f (x, y, t, k) |, calculated by the equation (6). (k = 1,2, ..., r t) is the number of threshold ψ smaller reference pixels, the value of r 't (x, y, t). That is, the pixel value updating unit 109 omits the approximate value calculated from the reference pixel having a low similarity to the target pixel among the reference pixels in each reference frame as an outlier, and calculates from the reference pixel having a certain degree of similarity or more. The pixel value of the target pixel is updated using the approximate value. Incidentally, r 'range of t (x, y, t) is, 1 ≦ r' is t (x, y, t) ≦ r t. The threshold value ψ is a parameter input from the outside of the image generation device 100.

第3の設定として、画素値更新部109は、式(19)で定められる値を係数a,a(k=1,…,r)に用いてもよい。

Figure 0006763826
As a third setting, the pixel value updating unit 109, the coefficient values determined by the following equation (19) a 0, a k (k = 1, ..., r t) may be used.
Figure 0006763826

式(19)における変数eは、画像生成装置100の外部より入力されるパラメータである。変数eは、対象画素の画素値を更新する際における、元の対象画素の画素値に対する重みを表すパラメータである。なお、式(19)において、(1/(e +ε))を1に代えて係数aを算出してもよい。 The variable e 0 in the equation (19) is a parameter input from the outside of the image generator 100. The variable e 0 is a parameter representing the weight of the original target pixel with respect to the pixel value when updating the pixel value of the target pixel. In the equation (19) may be calculated coefficients a k instead 1 (1 / (e 0 2 + ε)).

第2及び第3の設定における係数aは、前述した信頼度の一例である。画素値更新部109は、第2又は第3の設定の係数aを用いることにより、対象画素の画素値の精度を高めることができ、対象フレームの画質を更に向上できる。 The coefficient ak in the second and third settings is an example of the reliability described above. By using the coefficient ak of the second or third setting, the pixel value updating unit 109 can improve the accuracy of the pixel value of the target pixel and further improve the image quality of the target frame.

前述した実施形態における画像生成装置100のすべて又は一部をコンピュータで実現するようにしてもよい。例えば、画像生成装置100が有する構成要素それぞれを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。また、このプログラムは、前述した構成要素の一部を実現するためのものであってもよく、更に前述した構成要素をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。 All or part of the image generator 100 in the above-described embodiment may be realized by a computer. For example, a program for realizing each of the components of the image generator 100 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system and executed. You may. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. Further, this program may be for realizing a part of the above-mentioned components, and further, the above-mentioned components can be realized in combination with a program already recorded in the computer system. It may be realized by using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and the design and the like within a range not deviating from the gist of the present invention are also included.

本発明は、高フレームレート映像を用いて映像の画質を高めることが不可欠な用途にも適用できる。 The present invention can also be applied to applications in which it is indispensable to improve the image quality of an image by using a high frame rate image.

100…画像生成装置
101…取得部
102…参照フレーム設定部
103…局所近傍領域設定部
104…対応位置同定部
105…参照画素設定部
106…重み算出部
107…近似値算出部
108…最終参照フレーム判定部
109…画素値更新部
110…最終画素判定部
111…出力部
120…記憶部
100 ... Image generator 101 ... Acquisition unit 102 ... Reference frame setting unit 103 ... Local neighborhood area setting unit 104 ... Corresponding position identification unit 105 ... Reference pixel setting unit 106 ... Weight calculation unit 107 ... Approximate value calculation unit 108 ... Final reference frame Judgment unit 109 ... Pixel value update unit 110 ... Final pixel determination unit 111 ... Output unit 120 ... Storage unit

Claims (7)

映像データに含まれる対象フレーム及び複数の参照フレームを取得する取得部と、
前記対象フレームにおける対象画素に対応する対応位置を前記参照フレームごとに定める対応位置同定部と、
前記対応位置の近傍の画素と前記対応位置の画素とを含む参照画素の画素値と、前記対象画素の画素値とから、前記参照画素に対する重み係数を前記参照画素に含まれる画素ごとに、前記対応位置の近傍内の画素を近似する際の近似誤差を最小化する規範に基づいて、前記参照フレームごとに算出する重み算出部と、
前記参照画素に含まれる画素ごとに画素値と前記画素に対する前記重み係数とを乗算し、乗算結果の和を前記対象画素の近似値として前記参照フレームごとに算出する近似値算出部と、
前記対象画素の画素値と前記参照フレームそれぞれの前記近似値とを用いて、前記対象画素の画素値を更新する画素値更新部と、
を備える画像生成装置。
An acquisition unit that acquires the target frame and a plurality of reference frames included in the video data,
A corresponding position identification unit that determines a corresponding position corresponding to a target pixel in the target frame for each reference frame,
Wherein the pixel values of reference pixels and the pixels in the vicinity of the corresponding position and a said corresponding position pixel, and a pixel value of the target pixel for each pixel contained a weighting factor for the reference pixel to the reference pixels, the A weight calculation unit that calculates for each reference frame based on a norm that minimizes the approximation error when approximating pixels in the vicinity of the corresponding position .
Wherein multiplying the weight coefficient for said pixel as the pixel value for each pixel included in the reference pixels, and the approximate value calculating unit for calculating for each of the reference frame the sum of the multiplication results as an approximation of the target pixel,
A pixel value update unit that updates the pixel value of the target pixel by using the pixel value of the target pixel and the approximate value of each of the reference frames.
An image generator comprising.
前記対応位置同定部は、前記対象画素の近傍領域と類似する領域を前記参照フレームにおいて検出し、検出した領域に基づいて前記対応位置を定める、
請求項1に記載の画像生成装置。
The corresponding position identification unit detects a region similar to the vicinity region of the target pixel in the reference frame, and determines the corresponding position based on the detected region.
The image generator according to claim 1.
前記重み算出部は、前記参照画素ごとに近傍領域の画素値で表されるベクトルの加重和と前記対象画素の近傍領域の画素値により得られるベクトルとの差分を最小にする前記加重和における重み値を、前記重み係数として算出する、
請求項1に記載の画像生成装置。
The weight calculation unit minimizes the difference between the weighted sum of the vectors represented by the pixel values in the neighboring region for each reference pixel and the vector obtained by the pixel values in the neighboring region of the target pixel. The value is calculated as the weighting coefficient.
The image generator according to claim 1.
前記画素値更新部は、前記対象画素の画素値と前記参照フレームそれぞれの前記近似値との平均値で、前記対象画素の画素値を更新する、
請求項1に記載の画像生成装置。
The pixel value update unit updates the pixel value of the target pixel with the average value of the pixel value of the target pixel and the approximate value of each of the reference frames.
The image generator according to claim 1.
前記画素値更新部は、前記参照フレームそれぞれの前記近似値に前記参照フレームにおける信頼度を乗じた値と、前記対象画素の画素値との平均値で前記対象画素の画素値を更新し、
前記信頼度は、前記重み算出部により前記参照フレームごとに算出される前記差分に基づいて定められる、
請求項3に記載の画像生成装置。
The pixel value update unit updates the pixel value of the target pixel with the average value of the value obtained by multiplying the approximate value of each of the reference frames by the reliability in the reference frame and the pixel value of the target pixel.
The reliability is determined based on the difference calculated for each reference frame by the weight calculation unit.
The image generator according to claim 3.
映像データに含まれる対象フレーム及び複数の参照フレームを取得する取得ステップと、
前記対象フレームにおける対象画素に対応する対応位置を前記参照フレームごとに定める対応位置同定ステップと、
前記対応位置の近傍の画素と前記対応位置の画素とを含む参照画素の画素値と、前記対象画素の画素値とから、前記参照画素に対する重み係数を前記参照画素に含まれる画素ごとに、前記対応位置の近傍内の画素を近似する際の近似誤差を最小化する規範に基づいて、前記参照フレームごとに算出する重み算出ステップと、
前記参照画素に含まれる画素ごとに画素値と前記画素に対する前記重み係数とを乗算し、乗算結果の和を前記対象画素の近似値として前記参照フレームごとに算出する近似値算出ステップと、
前記対象画素の画素値と前記参照フレームそれぞれの前記近似値とを用いて、前記対象画素の画素値を更新する画素値更新ステップと、
を有する画像生成方法。
An acquisition step for acquiring a target frame and a plurality of reference frames included in the video data, and
A corresponding position identification step in which a corresponding position corresponding to a target pixel in the target frame is determined for each reference frame, and
Wherein the pixel values of reference pixels and the pixels in the vicinity of the corresponding position and a said corresponding position pixel, and a pixel value of the target pixel for each pixel contained a weighting factor for the reference pixel to the reference pixels, the A weight calculation step calculated for each reference frame based on a norm for minimizing the approximation error when approximating pixels in the vicinity of the corresponding position, and
Wherein multiplying the weight coefficient for said pixel as the pixel value for each pixel included in the reference pixels, and the approximate value calculating step of calculating for each of the reference frame the sum of the multiplication results as an approximation of the target pixel,
A pixel value update step for updating the pixel value of the target pixel using the pixel value of the target pixel and the approximate value of each of the reference frames, and
Image generation method having.
映像データに含まれる対象フレーム及び複数の参照フレームを取得する取得ステップと、
前記対象フレームにおける対象画素に対応する対応位置を前記参照フレームごとに定める対応位置同定ステップと、
前記対応位置の近傍の画素と前記対応位置の画素とを含む参照画素の画素値と、前記対象画素の画素値とから、前記参照画素に対する重み係数を前記参照画素に含まれる画素ごとに、前記対応位置の近傍内の画素を近似する際の近似誤差を最小化する規範に基づいて、前記参照フレームごとに算出する重み算出ステップと、
前記参照画素に含まれる画素ごとに画素値と前記画素に対する前記重み係数とを乗算し、乗算結果の和を前記対象画素の近似値として前記参照フレームごとに算出する近似値算出ステップと、
前記対象画素の画素値と前記参照フレームそれぞれの前記近似値とを用いて、前記対象画素の画素値を更新する画素値更新ステップと、
をコンピュータに実行させるためのプログラム。
An acquisition step for acquiring a target frame and a plurality of reference frames included in the video data, and
A corresponding position identification step in which a corresponding position corresponding to a target pixel in the target frame is determined for each reference frame, and
Wherein the pixel values of reference pixels and the pixels in the vicinity of the corresponding position and a said corresponding position pixel, and a pixel value of the target pixel for each pixel contained a weighting factor for the reference pixel to the reference pixels, the A weight calculation step calculated for each reference frame based on a norm for minimizing the approximation error when approximating pixels in the vicinity of the corresponding position, and
Wherein multiplying the weight coefficient for said pixel as the pixel value for each pixel included in the reference pixels, and the approximate value calculating step of calculating for each of the reference frame the sum of the multiplication results as an approximation of the target pixel,
A pixel value update step for updating the pixel value of the target pixel using the pixel value of the target pixel and the approximate value of each of the reference frames, and
A program that lets your computer run.
JP2017117081A 2017-06-14 2017-06-14 Image generator, image generation method and program Active JP6763826B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017117081A JP6763826B2 (en) 2017-06-14 2017-06-14 Image generator, image generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017117081A JP6763826B2 (en) 2017-06-14 2017-06-14 Image generator, image generation method and program

Publications (2)

Publication Number Publication Date
JP2019004293A JP2019004293A (en) 2019-01-10
JP6763826B2 true JP6763826B2 (en) 2020-09-30

Family

ID=65004980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017117081A Active JP6763826B2 (en) 2017-06-14 2017-06-14 Image generator, image generation method and program

Country Status (1)

Country Link
JP (1) JP6763826B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5102174B2 (en) * 2008-10-22 2012-12-19 日本電信電話株式会社 FRAME RATE CONVERSION METHOD, FRAME RATE CONVERSION DEVICE, FRAME RATE CONVERSION PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
JP5927051B2 (en) * 2012-06-07 2016-05-25 オリンパス株式会社 Image processing apparatus, image processing method, and program
JP2016048810A (en) * 2013-01-24 2016-04-07 パナソニック株式会社 Frame rate conversion device and frame rate conversion method
JP6008125B2 (en) * 2013-02-22 2016-10-19 三菱電機株式会社 Noise reduction device and noise reduction method

Also Published As

Publication number Publication date
JP2019004293A (en) 2019-01-10

Similar Documents

Publication Publication Date Title
US10404917B2 (en) One-pass video stabilization
US9055217B2 (en) Image compositing apparatus, image compositing method and program recording device
KR101830804B1 (en) Digital image stabilization method with adaptive filtering
US9898803B2 (en) Image processing apparatus, image processing method, and recording medium storing image processing program
US10621711B2 (en) Image processing device and image processing method for synthesizing plurality of images
CN110047091B (en) Image stabilization method based on camera track estimation and feature block matching
JPWO2014069103A1 (en) Image processing device
JP6339358B2 (en) Digital video processing apparatus and representative motion prediction method for video
JP6763826B2 (en) Image generator, image generation method and program
EP2136548B1 (en) Image processing apparatus, image processing method, and program
JP2010250611A (en) Image processor, image processing method and recording medium
JP6595442B2 (en) Video filtering method, video filtering device, and computer program
JP6836495B2 (en) Image generator, image generation method and image generation program
JP6680633B2 (en) Video filtering method, video filtering device, and video filtering program
JP5660300B2 (en) Image processing device
JP6792541B2 (en) Image generator, image generation method and image generation program
JP6378496B2 (en) Image processing apparatus, control method, and recording medium
JP7009252B2 (en) Image processing equipment, image processing methods and programs
JP2015148965A (en) Image processing apparatus, imaging apparatus, and image processing method
US9591220B2 (en) Selection apparatus, selection method, and storage medium
WO2015159778A1 (en) Image processing device, image processing method and image processing program
US20220366609A1 (en) Decoding apparatus, encoding apparatus, decoding method, encoding method, and program
KR101589727B1 (en) Apparatus for frame rate up conversion in video recorded on moving object
KR101589725B1 (en) Method for inter-frame image interpolation in video recorded on moving object
JP4881812B2 (en) Flicker correction apparatus and flicker correction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200910

R150 Certificate of patent or registration of utility model

Ref document number: 6763826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150