JP2013247522A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP2013247522A
JP2013247522A JP2012120120A JP2012120120A JP2013247522A JP 2013247522 A JP2013247522 A JP 2013247522A JP 2012120120 A JP2012120120 A JP 2012120120A JP 2012120120 A JP2012120120 A JP 2012120120A JP 2013247522 A JP2013247522 A JP 2013247522A
Authority
JP
Japan
Prior art keywords
frame
corresponding point
information
image
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012120120A
Other languages
Japanese (ja)
Inventor
Masaki Tsuchida
雅基 土田
Tadayoshi Kimura
忠良 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012120120A priority Critical patent/JP2013247522A/en
Publication of JP2013247522A publication Critical patent/JP2013247522A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of more properly retrieving a corresponding point between parallax frames.SOLUTION: An image processing device for performing resolution increase processing of a moving image using multi-frame information including information on an adjacent frame on a time axis and a parallax frame for stereoscopic vision, comprises: a plurality of frame memories storing a plurality of frames; a first corresponding point retrieval unit for retrieving a corresponding point from the adjacent frame by using the adjacent frame on the time axis among the multi-frame information; a second corresponding point retrieval unit for retrieving a corresponding point from the parallax frame for stereoscopic vision by using a left-eye frame and a right-eye frame as the parallax frame for stereoscopic vision among the multi-frame information; and an interpolation image generation unit for generating an interpolation pixel by obtaining corresponding point information from the two corresponding point retrieval units.

Description

本発明の実施形態は、画像処理装置及び画像処理方法に関する。   Embodiments described herein relate generally to an image processing apparatus and an image processing method.

通常、複数フレーム情報を用いた動画像の高解像度化処理は、複数の隣接フレームを用いてブロックマッチング手法などにより対応点を算出し、その対応点情報から補間画素を生成して高解像度化処理を行う。   Normally, the resolution enhancement processing of moving images using multiple frame information is performed by calculating corresponding points using a block matching method using multiple adjacent frames and generating interpolation pixels from the corresponding point information to increase the resolution processing. I do.

また、3D用の左目用と右目用の視差フレーム間で高解像度化処理を行うことも同様な方法で試みられている。即ち、視差のある静止画には左目用と右目用の視差フレーム間を用いた高解像度化処理の効果がある。   In addition, a similar method has been attempted to perform resolution enhancement processing between 3D left-eye and right-eye parallax frames. That is, a still image with parallax has an effect of high resolution processing using a parallax frame for left eye and right eye.

例えば特許文献1は、複数台のカメラを用いて共通視野内の画像を各カメラのフレーム間で位置合わせ処理や再構成処理により高解像度化処理を行うというものである。つまり、同じカメラで撮像された時間方向に関する対象物の移動方向と移動距離を参照せずに高解像化処理を行う方法である。これは、視差フレーム間の高解像度化処理の例である。   For example, Patent Document 1 uses a plurality of cameras to perform high resolution processing by aligning and reconstructing images in a common visual field between frames of each camera. In other words, this is a method of performing high resolution processing without referring to the moving direction and moving distance of the object in the time direction imaged by the same camera. This is an example of high resolution processing between parallax frames.

しかしながら、視差フレーム間で対応点を算出しようとする場合、立体の表示方法によっては、対応する画素がブロックマッチング手法などの探索範囲を大きく超えてしまい、対応する画素を算出できないという問題があった。   However, when trying to calculate corresponding points between parallax frames, depending on the stereoscopic display method, there is a problem that the corresponding pixels greatly exceed the search range such as the block matching method and the corresponding pixels cannot be calculated. .

そこで、視差フレーム間で対応点をより適正に探索できる技術への要望がある。   Therefore, there is a demand for a technique that can more appropriately search for corresponding points between parallax frames.

特開2011−180750号公報JP 2011-180750 A

本発明の実施の形態は、視差フレーム間で対応点をより適正に探索できる技術を提供することを目的とする。   An object of the embodiment of the present invention is to provide a technique capable of more appropriately searching for corresponding points between parallax frames.

上記課題を解決するために、実施形態によれば画像処理装置は、時間軸上の隣接フレームと立体視用の視差フレームとの情報を含む複数フレーム情報を用いた動画像の高解像度化処理を行う画像処理装置であって、複数のフレームを保管する複数のフレームメモリと、前記複数フレーム情報のうち時間軸上の隣接フレームを用い、この隣接フレームから対応点を探索する第1の対応点探索部と、前記複数フレーム情報のうち立体視用の視差フレームである左目用と右目用のフレームを用い、この立体視用のフレームから対応点を探索する第2の対応点探索部と、前記2つの対応点探索部から対応点情報を取得して、補間画素を生成する補間画像生成部とから構成されている。   In order to solve the above-described problem, according to the embodiment, an image processing apparatus performs a resolution enhancement process of a moving image using multiple frame information including information on adjacent frames on a time axis and stereoscopic parallax frames. A first corresponding point search that uses a plurality of frame memories that store a plurality of frames and an adjacent frame on the time axis among the plurality of frame information, and searches for corresponding points from the adjacent frames. A second corresponding point search unit that uses the left-eye and right-eye frames, which are stereoscopic parallax frames among the plurality of pieces of frame information, to search corresponding points from the stereoscopic frames, and 2 It is composed of an interpolation image generation unit that acquires corresponding point information from two corresponding point search units and generates an interpolation pixel.

この発明の一実施形態に関わる動画像のフレームを説明するために示す図。The figure shown in order to demonstrate the frame of the moving image concerning one Embodiment of this invention. 同実施形態の複数のフレーム情報を用いた高解像度化処理を示す図。The figure which shows the high resolution process using the some frame information of the embodiment. 同実施形態の画像補間生成を説明するために示す図。The figure shown in order to demonstrate the image interpolation production | generation of the embodiment. 同実施形態の構成図高解像度化処理装置の例を示すブロック構成図。Configuration diagram of the same embodiment Block configuration diagram showing an example of a high resolution processing apparatus. 同実施形態に用いられる対応点探索部の構成図。The block diagram of the corresponding point search part used for the embodiment. 同実施形態のブロックマッチング手法を示す図。The figure which shows the block matching method of the embodiment. 同実施形態に用いられるフレーム内の5×5画素ブロックを説明するために示す図。The figure shown in order to demonstrate the 5x5 pixel block in the flame | frame used for the embodiment. 同実施形態に用いられる視差画像を含む動画像のフレームを説明するために示す図。The figure shown in order to demonstrate the flame | frame of the moving image containing the parallax image used for the embodiment. 実施例の要部の構成図。The block diagram of the principal part of an Example. 視差画像対応探索部の実施例を説明するために示す図。The figure shown in order to demonstrate the Example of a parallax image corresponding | compatible search part. 視差画像の説明図。Explanatory drawing of a parallax image. 視差画像対応探索部の処理のフローチャート。The flowchart of the process of the parallax image corresponding | compatible search part.

以下、実施形態を図1乃至図12を参照して説明する。   Hereinafter, embodiments will be described with reference to FIGS.

まず以下では、基本となる高解像度化処理の手法について簡単に説明する。図1は、一実施形態に関わる動画像のフレームを説明するために示す図である。また図2は、実施形態の複数のフレーム情報を用いた高解像度化処理を示す図である。また図3は、実施形態の画像補間生成を説明するために示す図である。   First, in the following, a basic high resolution processing method will be briefly described. FIG. 1 is a diagram for explaining a frame of a moving image according to an embodiment. FIG. 2 is a diagram illustrating a resolution enhancement process using a plurality of pieces of frame information according to the embodiment. FIG. 3 is a diagram for explaining image interpolation generation according to the embodiment.

まず図1に、移動する物体が時間順に連続するN−1番目、N番目、N+1番目といったフレームで表現される様子を示す。このように連続するフレームで表現される動画像において、複数のフレーム情報を用いて入力画像よりも高解像度な画像を生成する仕組みを図2に示す。いま、N−1番目、N番目、N+1番目の各フレーム内に、実線で示す交点に画素が並んでいるとすると、N番目フレームの点線で示す交点に補間画素を生成し、縦横それぞれ2倍の画素数を持つ画像に変換する場合を述べる。補間画素を推測する際に、N番目フレーム中の画素(●で示す)のみを使用したのでは情報が不足しているため高解像度化することはできない。そこで、図3に示すように、N番目フレームの前後フレームから対応する画素情報として、N−1番目から▲で示す画素情報、N+1番目からは◆で示す画素情報を持ってくることで、より正確に補間画素(○で示す)を推測することができるため高解像度化が可能となる。なお、□で表した点については後述する。   First, FIG. 1 shows how a moving object is represented by frames such as N−1th, Nth, and N + 1th consecutively in time order. FIG. 2 shows a mechanism for generating an image having a higher resolution than an input image using a plurality of pieces of frame information in a moving image expressed by continuous frames. Now, assuming that pixels are arranged at intersections indicated by solid lines in the (N−1) th, Nth, and N + 1th frames, interpolation pixels are generated at the intersections indicated by dotted lines in the Nth frame, and doubled vertically and horizontally, respectively. A case of converting to an image having the number of pixels will be described. When estimating the interpolation pixel, if only the pixel (indicated by ●) in the Nth frame is used, the information cannot be obtained and the resolution cannot be increased. Therefore, as shown in FIG. 3, pixel information indicated by ▲ from the (N−1) th to the pixel information indicated by ▲ and pixel information indicated by ♦ from the (N + 1) th as the corresponding pixel information from the frame before and after the Nth frame. Since the interpolation pixel (indicated by ◯) can be accurately estimated, the resolution can be increased. The points indicated by □ will be described later.

次に、図4に高解像度化処理装置の基本例となる構成図を示す。液晶表示などのパネル45を出力機器とし、従来からの2D画像を扱うのには充分な構成である。   Next, FIG. 4 shows a configuration diagram as a basic example of the high resolution processing apparatus. A panel 45 such as a liquid crystal display is used as an output device, and the configuration is sufficient for handling a conventional 2D image.

入力信号はフレームメモリ101と、対応点探索部103に入力される。フレームメモリ101から出力された1フレーム遅延信号は、別のフレームメモリ102と、対応点探索部103に入力される。このとき、補間画像を生成する対象となる前記N番目フレームとして前記1フレーム遅延信号が、補間画像生成部104に入力される。フレームメモリ102から出力された2フレーム遅延信号は、対応点探索部103に入力される。対応点探索部103に入力された、前記入力信号と、1フレーム遅延信号と、2フレーム遅延信号から、対応点探索部103は対応点情報を算出してこの対応点情報が補間画像生成部104に入力され、例えば、加重平均法などを用いて補間画像生成部104は補間画素を生成し画像を出力する。ここで、図2に示したように、N−1番目フレームの情報をN番目フレームに持ってくるには、N−1番目フレーム内の各画素がN番目フレームのどこの座標に対応するかを算出する必要がある。   The input signal is input to the frame memory 101 and the corresponding point search unit 103. The 1-frame delay signal output from the frame memory 101 is input to another frame memory 102 and the corresponding point search unit 103. At this time, the 1-frame delayed signal is input to the interpolated image generation unit 104 as the Nth frame that is the target for generating the interpolated image. The 2-frame delay signal output from the frame memory 102 is input to the corresponding point search unit 103. From the input signal, the 1-frame delay signal, and the 2-frame delay signal input to the corresponding point search unit 103, the corresponding point search unit 103 calculates corresponding point information, and the corresponding point information is converted into the interpolated image generation unit 104. The interpolation image generation unit 104 generates an interpolation pixel and outputs an image using, for example, a weighted average method. Here, as shown in FIG. 2, in order to bring the information of the (N-1) th frame to the Nth frame, to which coordinate in the Nth frame each pixel in the (N-1) th frame corresponds. Need to be calculated.

そこで、算出方法として、ブロックマッチング手法を用いた対応点探索部103の構成図を図5に示す。対応点探索部103には、対象信号(N番目)として1フレーム遅延信号が、参照信号(N+1番目、N−1番目)として入力信号、及び2フレーム遅延信号が入力される。入力された対象信号と参照信号は、ブロックマッチング部105a、105bに入力され、整数精度の対応点を算出した後、小数精度位置合わせ部106a、106bに入力され、N番目とN−1番目から求めた対応点情報及び、N番目とN+1番目から求めた対応点情報が出力される。   Therefore, FIG. 5 shows a configuration diagram of the corresponding point search unit 103 using a block matching method as a calculation method. The corresponding point search unit 103 receives a 1-frame delayed signal as a target signal (Nth), an input signal as a reference signal (N + 1th, N−1th), and a 2-frame delayed signal. The input target signal and reference signal are input to the block matching units 105a and 105b, and after calculating corresponding points of integer precision, they are input to the decimal precision alignment units 106a and 106b. The obtained corresponding point information and the corresponding point information obtained from the Nth and (N + 1) th are output.

ここで、ブロックマッチング手法による対応点探索の様子を図6に示す。いま、N番目フレーム内のある画素(注目画素)がN+1番目フレームのどの座標に位置するかを調べるとする。注目画素を中心とする画素ブロック(ここでは、5×5画素を例とする)と相関の高い画素ブロックを、N+1番目フレーム内から探し出すという処理を行う。   Here, the state of the corresponding point search by the block matching method is shown in FIG. Now, it is assumed that a certain pixel (target pixel) in the Nth frame is located at which coordinate of the (N + 1) th frame. A process of searching for a pixel block having a high correlation with a pixel block centering on the target pixel (here, 5 × 5 pixels as an example) from the N + 1th frame is performed.

画素ブロックの相関を評価する関数には、差分の絶対値の総和(SAD)や、差分の二乗の総和(SSD)がよく使用される。図7のようにN番目フレーム内の画素ブロックとN+1番目フレーム内の画素ブロックがあるとすると、SADとSSDはそれぞれ以下の式(1)と(2)で表される。ただし、AijとBijはそれぞれ輝度値を示す。   As a function for evaluating the correlation between pixel blocks, the sum of absolute values of differences (SAD) and the sum of squares of differences (SSD) are often used. If there are a pixel block in the Nth frame and a pixel block in the N + 1th frame as shown in FIG. 7, SAD and SSD are expressed by the following equations (1) and (2), respectively. However, Aij and Bij each indicate a luminance value.

Figure 2013247522
Figure 2013247522
図6のようにN+1番目フレーム中を順次走査していき、画素ブロックのSADが最も小さくなる位置が、整数精度で求めた対応点ということになる。ブロックマッチングの後、小数精度の位置合わせを行う。小数精度の位置合わせには、SADの値からフィッティング関数を使用して求める方法などが広く使われる。
Figure 2013247522
Figure 2013247522
As shown in FIG. 6, the position where the SAD of the pixel block is the smallest in the N + 1-th frame is the corresponding point obtained with integer precision. After block matching, decimal precision alignment is performed. For alignment with decimal precision, a method of using a fitting function from the SAD value is widely used.

以上のような処理が、基本となる複数フレーム情報を用いた動画像の高解像度化処理であるが、上述したように、時間軸方向の隣接フレーム間を使用する場合、静止画では高解像度化できないことから、シャッタ式、裸眼式などで表示される視差画像で3D表示する静止画ついても高解像度化することは出来ない。   The above processing is the processing for increasing the resolution of a moving image using basic multi-frame information. However, as described above, when using a frame between adjacent frames in the time axis direction, the resolution is increased for a still image. For this reason, it is impossible to increase the resolution of a still image that is displayed in 3D with a parallax image displayed by a shutter type, a naked eye type, or the like.

一方で、3D表示する視差画像に特化した高解像度化処理は既知であるが、視差画像を用いる場合は、視差フレーム間で対応点を算出しようとする場合、立体の表示方法によっては、対応する画素がブロックマッチング手法などの探索範囲を大きく超えてしまい、対応する画素を算出できない。さらには、視差のない画像や、時間軸方向で変化する動画も高解像度化できない。   On the other hand, high resolution processing specialized for parallax images to be displayed in 3D is already known. However, when using parallax images, it may be necessary to calculate corresponding points between parallax frames. The pixel to be greatly exceeds the search range such as the block matching method, and the corresponding pixel cannot be calculated. Furthermore, it is not possible to increase the resolution of images without parallax or moving images that change in the time axis direction.

つまり、隣接フレーム間を用いる場合、視差画像を含むような静止画には高解像度化処理の効果はなく、一方、視差フレーム間を用いる場合、最適な対応点探索が出来ない、時間軸方向で変化する動画には効果が無いという問題があった。   In other words, when using between adjacent frames, there is no effect of high resolution processing on a still image including a parallax image. On the other hand, when using between parallax frames, an optimal corresponding point search cannot be performed in the time axis direction. There was a problem that the moving video had no effect.

そこで、隣接フレーム間から算出される対応点情報と、視差フレーム間と、左目用と右目用の対象となる画素毎の距離(視差情報)から探索の開始位置を求め、ブロックマッチング手法などにより算出される対応点情報を用いる事で、より精度の高い高解像度化処理を行う方法を説明する。   Therefore, the search start position is obtained from the corresponding point information calculated between adjacent frames, the distance between the parallax frames, and the distance (parallax information) for each pixel that is the target for the left eye and the right eye, and is calculated by a block matching method or the like. A method for performing higher resolution processing with higher accuracy by using the corresponding point information will be described.

以下では、本実施形態の画像処理装置の構成図と実施例について説明する。図8に移動する物体が連続する視差画像を含むフレームで表現される様子を、図9に本提案の第一の実施例の構成図を示す。   Hereinafter, a configuration diagram and an example of the image processing apparatus according to the present embodiment will be described. FIG. 9 is a configuration diagram of the first embodiment of the present proposal, and FIG. 9 shows how a moving object is represented by a frame including continuous parallax images.

図9に示すように、左目用(L画像)と右目用(R画像)で別々に画像処理装置100の構成を配置しているが、L画像、R画像共に、動作などは同一である。また、図示したように、画像処理装置を別々に配置せず、入力されるL画像とR画像を時分割に切り替えながら一つの画像処理装置の構成を配置して使用することも可能である。   As shown in FIG. 9, the configuration of the image processing apparatus 100 is arranged separately for the left eye (L image) and the right eye (R image), but the operation and the like are the same for both the L image and the R image. Further, as shown in the figure, it is also possible to arrange and use the configuration of one image processing device while switching the input L image and R image to time division without arranging the image processing devices separately.

以下では、L画像側を例に挙げて説明する(R画像側も同様である)。入力信号(L)はフレームメモリ101と、対応点探索部103に入力される。フレームメモリ101から出力された1フレーム遅延信号(L)は、別のフレームメモリ102と、対応点探索部103に入力される。このとき、補間画素を生成する対象となるN番目フレームとして1フレーム遅延信号(L)が、補間画素生成部104に入力される。フレームメモリ102から出力された2フレーム遅延信号(L)は、対応点探索部103に入力される。対応点探索部103に入力された、前記入力信号(L)と、1フレーム遅延信号(L)と、2フレーム遅延信号(L)から、対応点情報を算出して補間画像生成部104に入力され、例えば、加重平均法などを用いて補間画素を生成し画像を出力する。ここまでの対応点探索部103、及び補間画素生成部104の処理方法などは、先に説明したものと同様であるので省略する。   Hereinafter, the L image side will be described as an example (the same applies to the R image side). The input signal (L) is input to the frame memory 101 and the corresponding point search unit 103. The 1-frame delay signal (L) output from the frame memory 101 is input to another frame memory 102 and the corresponding point search unit 103. At this time, the 1-frame delay signal (L) is input to the interpolation pixel generation unit 104 as the Nth frame for which the interpolation pixel is generated. The 2-frame delay signal (L) output from the frame memory 102 is input to the corresponding point search unit 103. Corresponding point information is calculated from the input signal (L), 1 frame delay signal (L), and 2 frame delay signal (L) input to the corresponding point search unit 103 and input to the interpolated image generation unit 104. For example, an interpolation pixel is generated using a weighted average method or the like, and an image is output. The processing methods of the corresponding point search unit 103 and the interpolation pixel generation unit 104 so far are the same as those described above, and will be omitted.

また、1フレーム遅延信号(L)と、R側の1フレーム遅延信号(R)と、LとR画像データから得られる視差情報が、視差画像対応点探索部105に入力される。入力された視差情報から、視差画像対応点探索部105は探索の開始位置を求め、ブロックマッチング手法などにより算出した対応点情報(図3のF相当)を補間画素生成部104に出力する。補間画素生成部104では、隣接フレーム間から得られた対応点情報と、視差フレーム間から得られた対応点情報が入力され、それぞれの対応点情報を考慮して、例えば、対応点位置及び輝度などの対応点情報から加重平均法などを用いて補間画素を生成し画像を出力する。   Also, the 1-frame delay signal (L), the R-side 1-frame delay signal (R), and the parallax information obtained from the L and R image data are input to the parallax image corresponding point search unit 105. From the input parallax information, the parallax image corresponding point search unit 105 obtains a search start position, and outputs corresponding point information (corresponding to F in FIG. 3) calculated by a block matching method or the like to the interpolation pixel generation unit 104. In the interpolation pixel generation unit 104, corresponding point information obtained between adjacent frames and corresponding point information obtained between parallax frames are input, and for example, corresponding point position and luminance are considered in consideration of each corresponding point information. Interpolated pixels are generated from the corresponding point information using a weighted average method or the like, and an image is output.

次に、視差画像対応点探索部105の実施例を図10に示す。L画像(対象フレーム)とR画像(参照フレーム)の1フレーム遅延信号と視差情報が、ブロックマッチング106に入力された後、小数精度の位置合わせ部107に入力される。ここで、入力される視差情報は、L画像とR画像の対応する画素の視差量(画素距離)である。   Next, an example of the parallax image corresponding point search unit 105 is shown in FIG. A one-frame delay signal and disparity information of the L image (target frame) and the R image (reference frame) are input to the block matching 106 and then input to the decimal precision alignment unit 107. Here, the input parallax information is the parallax amount (pixel distance) of the corresponding pixels of the L image and the R image.

ここで、図12で視差量Sを立体画像の静止画を用いて説明する。図12(a)は、四角い箱202が表示パネル上に存在する、つまり2D表示状態の時を示している。L画像フレーム203とR画像フレーム204を重ねて表示したものが205であるが、図示しているようにL画像とR画像が重なっている。一方、図12(b)は、四角い箱202が表示パネルとユーザの間に存在する、つまり、3D表示状態の時を示している。L画像フレーム206とR画像フレーム207を重ねて表示したものが208であるが、図示しているようにL画像とR画像がある距離Sの間隔でずれている。   Here, the parallax amount S will be described with reference to a still image of a stereoscopic image in FIG. FIG. 12A shows a case where the square box 202 exists on the display panel, that is, in the 2D display state. The L image frame 203 and the R image frame 204 are displayed in an overlapped manner 205, but the L image and the R image overlap as shown in the figure. On the other hand, FIG. 12B shows a case where the square box 202 exists between the display panel and the user, that is, in the 3D display state. The L image frame 206 and the R image frame 207 displayed in an overlapping manner is 208, but the L image and the R image are shifted by a certain distance S as shown in the figure.

このズレ量が視差量Sである。この視差量Sの間隔によりどの位置で物体が見えるかが決まる。また、視差量Sは、入力された視差画像から算出する場合もあれば、既に情報として入力される場合も考えられる。さらには、2D画像から3D画像を生成するシステムを有しているような映像表示装置では、自ら視差量Sを生成する場合もある。したがって、ここでは、視差情報である視差量Sについては、特に生成方法などを特定しない。   This shift amount is the parallax amount S. The position where the object can be seen is determined by the interval of the parallax amount S. Further, the parallax amount S may be calculated from the input parallax image, or may be already input as information. Furthermore, in a video display device having a system that generates a 3D image from a 2D image, the amount of parallax S may be generated by itself. Therefore, here, a generation method or the like is not specified for the parallax amount S that is parallax information.

通常、視差フレーム間で探索を行うと、前述したように対応する点が、視差量だけ離れるため、例えば、5×5サイズの範囲で検索すると、立体表示の程度によっては、探索範囲外となり、対応点がないと判断してしまい、高解像度化処理を行う事が出来なかった。そこで、視差情報である視差量Sを用いることで、高解像度化処理を行うことを可能とする。但し、視差量Sは、画素毎に正確な値である場合もあれば、大まかな値である場合も考えられる。   Normally, when searching between parallax frames, the corresponding points are separated by the amount of parallax as described above.For example, when searching in a 5 × 5 size range, depending on the degree of stereoscopic display, it is outside the search range, It was judged that there was no corresponding point, and it was not possible to perform high resolution processing. Thus, by using the parallax amount S that is parallax information, it is possible to perform a resolution enhancement process. However, the parallax amount S may be an accurate value for each pixel, or may be a rough value.

そこで、L画像を対象フレーム、R画像を参照フレームとして図12を参照して説明する。L画像フレームとR画像フレームの視差情報から、視差画像対応点探索部105は対応点の近傍を推測できる。つまり、入力された視差情報の値からブロックマッチング部106で探索開始位置を決定する。この探索開始位置からブロックマッチング手法によってブロックマッチング部106は整数精度で対応点を算出し(ステップS121)、SADの値からフィッティング関数を使用して小数精度位置合わせ部107は小数精度の位置合わせを行い(ステップS122)、視差画像対応点探索部105は対応点情報として出力する(ステップS123)。これにより、通常、ブロックマッチング手法では探索範囲を大きく逸脱して算出できない場合でも、視差情報から対応点近傍を推測できるため、ブロックマッチングでも的確に探索できる。   Therefore, description will be made with reference to FIG. 12 using the L image as a target frame and the R image as a reference frame. From the parallax information of the L image frame and the R image frame, the parallax image corresponding point search unit 105 can estimate the vicinity of the corresponding point. That is, the search start position is determined by the block matching unit 106 from the input parallax information value. From this search start position, the block matching unit 106 calculates the corresponding points with integer precision by the block matching method (step S121), and the decimal precision positioning unit 107 uses the fitting function from the SAD value to perform the decimal precision positioning. (Step S122), the parallax image corresponding point search unit 105 outputs the corresponding point information (Step S123). As a result, even when the block matching method cannot be calculated by greatly deviating from the search range, the vicinity of the corresponding point can be estimated from the disparity information, and therefore the block matching can be accurately searched.


通常、複数フレーム情報を用いた動画像の高解像度化処理は、複数の隣接フレームを用いてブロックマッチング手法などにより対応点を算出し、その対応点情報から補間画素を生成して高解像度化処理を行う。また、3D用の左目用と右目用の視差フレーム間で高解像度化処理を行うことも同様な方法で試みられている。

Normally, the resolution enhancement processing of moving images using multiple frame information is performed by calculating corresponding points using a block matching method using multiple adjacent frames and generating interpolation pixels from the corresponding point information to increase the resolution processing. I do. In addition, a similar method has been attempted to perform resolution enhancement processing between 3D left-eye and right-eye parallax frames.

時間軸方向の隣接フレームを使用する場合は、静止画などで高解像度化できないことから、シャッタ式、裸眼式などで表示されるような視差画像で3D表示する静止画についても高解像度化することが出来なかった。また、3D表示する視差フレームを使用する場合は、視差フレーム間で対応点を算出しようとする場合、立体の表示方法によっては、対応する画素がブロックマッチング手法などの探索範囲を大きく超えてしまい、対応する画素を算出できない。さらには、時間軸方向に変化する動画でも高解像度化できなかった。   When using adjacent frames in the time axis direction, it is not possible to increase the resolution of still images or the like. Therefore, it is also necessary to increase the resolution of still images that are displayed in 3D with a parallax image that is displayed using a shutter type or a naked eye type. I couldn't. Also, when using parallax frames for 3D display, when trying to calculate corresponding points between parallax frames, depending on the stereoscopic display method, the corresponding pixels greatly exceed the search range such as the block matching method, The corresponding pixel cannot be calculated. Furthermore, even a moving image that changes in the time axis direction could not be improved in resolution.

つまり、動画では隣接フレーム間を用いた高解像化処理の効果はあるが、静止画では効果は無い。一方、視差のある静止画には左目用と右目用の視差フレーム間を用いた高解像化処理の効果はあるが、視差のない画像や、時間軸方向で変化する動画には効果が無いという問題があった。   In other words, a moving image has an effect of high resolution processing using adjacent frames, but a still image has no effect. On the other hand, a still image with parallax has an effect of high resolution processing using a parallax frame for left eye and right eye, but has no effect on an image without parallax or a moving image changing in the time axis direction. There was a problem.

そこで、隣接フレーム間から算出される対応点情報と、左目用と右目用の対象となる視差フレーム間の対象となる画素毎の距離(視差情報)から探索の開始位置を求め、ブロックマッチング手法などにより算出される対応点情報を用いる事で、より精度の高い高解像度化処理を行う方法を可能にした。つまり、隣接フレーム間の対応点情報と、視差フレーム間の対応点情報を基に高解像度化処理を行うため、従来より精度の高い処理が出来る。   Therefore, the search start position is obtained from the corresponding point information calculated between adjacent frames and the distance (disparity information) for each target pixel between the left-eye and right-eye target parallax frames. By using the corresponding point information calculated by the above, it is possible to perform a high-resolution processing with higher accuracy. That is, since the resolution enhancement processing is performed based on the corresponding point information between adjacent frames and the corresponding point information between parallax frames, processing with higher accuracy than before can be performed.

<実施形態のポイントの補足>
以上説明した実施例によれば次のような特徴を有することができる。
<Supplementary point of embodiment>
The embodiment described above can have the following characteristics.

(1)複数フレーム情報を用いた動画像の高解像度化処理において、前記複数フレーム情報には、時間軸上の隣接フレーム、及び、立体視用の左目用と右目用のフレームを用い、複数のフレームデータを保管する複数のフレームメモリと、前記隣接フレームから対応点を探索する対応点探索部と、前記立体視用のフレームから対応点を探索する視差画像対応点探索部と、前記2つの対応点探索部から対応点情報を取得して、補間画素を生成する補間画像生成部から構成されていることを特徴とする画像処理装置。 (1) In the resolution enhancement processing of a moving image using a plurality of frame information, the plurality of frame information includes an adjacent frame on the time axis and a stereoscopic left-eye frame and a right-eye frame. A plurality of frame memories for storing frame data; a corresponding point search unit for searching for a corresponding point from the adjacent frame; a parallax image corresponding point searching unit for searching for a corresponding point from the stereoscopic frame; and the two correspondences An image processing apparatus comprising: an interpolation image generation unit that acquires corresponding point information from a point search unit and generates an interpolation pixel.

(2)前記隣接フレームから対応点を探索する対応点探索部と、前記立体視用フレームから対応点を探索する視差画像対応点探索部は、それぞれ、ブロックマッチング部と、少数精度位置合わせ部を有し、前記視差画像対応点探索部には、視差フレーム間の視差情報を用いる事を特徴とする(1)記載の画像処理装置。 (2) A corresponding point search unit that searches for a corresponding point from the adjacent frame and a parallax image corresponding point search unit that searches for a corresponding point from the stereoscopic frame include a block matching unit and a minority precision alignment unit, respectively. And the parallax image corresponding point searching unit uses parallax information between parallax frames.

(3)前記視差画像対応点探索部において、参照となるフレームの対応点を視差フレーム間の視差情報から探索開始位置を決定し、前期開始位置から対象となるフレームと前記参照となるフレームを用いて対応点情報を算出することを特徴とする(1)、(2)記載の画像処理装置。 (3) In the parallax image corresponding point search unit, the search start position of the corresponding point of the reference frame is determined from the parallax information between the parallax frames, and the target frame and the reference frame are used from the previous period start position. And corresponding point information is calculated. (1) The image processing apparatus according to (2).

なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。   In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary, it can implement in various modifications.

また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる構成要素を適宜組み合わせても良いものである。   Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements according to different embodiments may be appropriately combined.

45…パネル、101…フレームメモリ、102…フレームメモリ、103…対応点探索部、104…補間画像生成部、105…ブロックマッチング部、106…小数精度位置合わせ部。   45... Panel 101 101 Frame memory 102 Frame memory 103 Corresponding point search unit 104 Interpolated image generation unit 105 Block matching unit 106 Decimal precision alignment unit

Claims (5)

時間軸上の隣接フレームと立体視用の視差フレームとの情報を含む複数フレーム情報を用いた動画像の高解像度化処理を行う画像処理装置において、
複数のフレームを保管する複数のフレームメモリと、
前記複数フレーム情報のうち時間軸上の隣接フレームを用い、この隣接フレームから対応点を探索する第1の対応点探索部と、
前記複数フレーム情報のうち立体視用の視差フレームである左目用と右目用のフレームを用い、この立体視用のフレームから対応点を探索する第2の対応点探索部と、
前記2つの対応点探索部から対応点情報を取得して、補間画素を生成する補間画像生成部とから
構成されている画像処理装置。
In an image processing apparatus that performs resolution enhancement processing of a moving image using multiple frame information including information on adjacent frames on a time axis and a parallax frame for stereoscopic viewing,
A plurality of frame memories for storing a plurality of frames;
A first corresponding point search unit for searching for a corresponding point from the adjacent frame using an adjacent frame on the time axis among the plurality of frame information;
A second corresponding point search unit that searches for a corresponding point from the stereoscopic vision frame using a left-eye frame and a right-eye frame that are parallax frames for stereoscopic vision among the plurality of pieces of frame information;
An image processing apparatus including an interpolation image generation unit that acquires corresponding point information from the two corresponding point search units and generates an interpolation pixel.
前記2つの対応点探索部は、それぞれ、ブロックマッチング部と、少数精度位置合わせ部を有し、前記第2の対応点探索部には、前記視差フレーム間の視差情報を用いる請求項1に記載の画像処理装置。   The two corresponding point search units each include a block matching unit and a minority precision alignment unit, and the second corresponding point search unit uses disparity information between the parallax frames. Image processing apparatus. 前記第2の対応点探索部において、前記視差フレーム間の視差情報から参照となるフレームの対応点の探索開始位置を決定し、この開始位置から対象となるフレームと前記参照となるフレームを用いて対応点情報を算出することを特徴とする請求項1または、請求項2記載の画像処理装置。   The second corresponding point search unit determines a search start position of the corresponding point of the reference frame from the disparity information between the parallax frames, and uses the target frame and the reference frame from the start position. The image processing apparatus according to claim 1, wherein the corresponding point information is calculated. 前記補間画像生成部で生成された補間画像を表示するパネルを更に備えたことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a panel that displays the interpolation image generated by the interpolation image generation unit. 複数のフレームを保管する複数のフレームメモリを備え時間軸上の隣接フレームと立体視用の視差フレームとの情報を含む複数フレーム情報を用いた動画像の高解像度化処理を行う画像処理装置における画像処理方法であって、
前記複数フレーム情報のうち時間軸上の隣接フレームを用い、この隣接フレームから対応点を探索する第1の対応点探索工程と、
前記複数フレーム情報のうち立体視用の視差フレームである左目用と右目用のフレームを用い、この立体視用のフレームから対応点を探索する第2の対応点探索工程と、
前記2つの対応点探索工程から対応点情報を取得して、補間画素を生成する補間画像生成工程とを含む画像処理方法。
An image in an image processing apparatus having a plurality of frame memories for storing a plurality of frames and performing high resolution processing of a moving image using a plurality of pieces of frame information including information of adjacent frames on a time axis and stereoscopic parallax frames A processing method,
A first corresponding point search step of searching for a corresponding point from the adjacent frame using an adjacent frame on the time axis among the plurality of frame information;
A second corresponding point search step of searching for a corresponding point from the stereoscopic frame using a left-eye frame and a right-eye frame that are stereoscopic parallax frames among the plurality of frame information;
An image processing method including an interpolation image generation step of acquiring corresponding point information from the two corresponding point search steps and generating an interpolation pixel.
JP2012120120A 2012-05-25 2012-05-25 Image processing apparatus and method Pending JP2013247522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012120120A JP2013247522A (en) 2012-05-25 2012-05-25 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012120120A JP2013247522A (en) 2012-05-25 2012-05-25 Image processing apparatus and method

Publications (1)

Publication Number Publication Date
JP2013247522A true JP2013247522A (en) 2013-12-09

Family

ID=49846986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012120120A Pending JP2013247522A (en) 2012-05-25 2012-05-25 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP2013247522A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113347421A (en) * 2021-06-02 2021-09-03 黑芝麻智能科技(上海)有限公司 Video encoding and decoding method, device and computer equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113347421A (en) * 2021-06-02 2021-09-03 黑芝麻智能科技(上海)有限公司 Video encoding and decoding method, device and computer equipment

Similar Documents

Publication Publication Date Title
JP6016061B2 (en) Image generation apparatus, image display apparatus, image generation method, and image generation program
TWI488470B (en) Dimensional image processing device and stereo image processing method
US20110298898A1 (en) Three dimensional image generating system and method accomodating multi-view imaging
US9154765B2 (en) Image processing device and method, and stereoscopic image display device
JP2006332985A (en) Stereoscopic image format decision device
US9154762B2 (en) Stereoscopic image system utilizing pixel shifting and interpolation
JP4748251B2 (en) Video conversion method and video conversion apparatus
JP5852093B2 (en) Video processing apparatus, video processing method, and program
US8718331B2 (en) Image detecting apparatus and method thereof
US20140347350A1 (en) Image Processing Method and Image Processing System for Generating 3D Images
TWI491244B (en) Method and apparatus for adjusting 3d depth of an object, and method and apparatus for detecting 3d depth of an object
JP2011155431A (en) Frame rate conversion device, and video display device
JPWO2014147957A1 (en) Image processing method and image processing apparatus
JP2013247522A (en) Image processing apparatus and method
KR20110025083A (en) Apparatus and method for displaying 3d image in 3d image system
JP4892105B1 (en) Video processing device, video processing method, and video display device
CN105491277B (en) Image processing method and electronic equipment
JPH07296195A (en) Device and method for image processing
JP5871113B2 (en) Stereo image generation apparatus, stereo image generation method, and stereo image generation program
JP2012150614A (en) Free viewpoint image generation device
JP5343159B1 (en) Image processing apparatus, image processing method, and image processing program
JP5323222B2 (en) Image processing apparatus, image processing method, and image processing program
JP5689693B2 (en) Drawing processor
Liu et al. Deinterlacing of depth-image-based three-dimensional video for a depth-image-based rendering system
WO2013159568A1 (en) Method and device for generating stereoscopic video pair

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140614

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150218