JP4677755B2 - Image filter circuit and interpolation processing method - Google Patents

Image filter circuit and interpolation processing method Download PDF

Info

Publication number
JP4677755B2
JP4677755B2 JP2004294243A JP2004294243A JP4677755B2 JP 4677755 B2 JP4677755 B2 JP 4677755B2 JP 2004294243 A JP2004294243 A JP 2004294243A JP 2004294243 A JP2004294243 A JP 2004294243A JP 4677755 B2 JP4677755 B2 JP 4677755B2
Authority
JP
Japan
Prior art keywords
data
image data
cutout
image
format
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004294243A
Other languages
Japanese (ja)
Other versions
JP2006109173A (en
Inventor
直之 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004294243A priority Critical patent/JP4677755B2/en
Publication of JP2006109173A publication Critical patent/JP2006109173A/en
Application granted granted Critical
Publication of JP4677755B2 publication Critical patent/JP4677755B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像データから補間画像データを生成する画像フィルタ回路に関し、詳しくは、4:2:2フォーマットの画像データから高画質の画像となるように補間画像データを生成する画像フィルタ回路及び補間処理方法に関する。   The present invention relates to an image filter circuit that generates interpolated image data from image data, and more particularly, to an image filter circuit that generates interpolated image data from an image data in 4: 2: 2 format so that a high-quality image is obtained, and the interpolation It relates to the processing method.

VTRに替わり急速に普及しているDVD(Digital Versatile Disk)パッケージに記録されたコンテンツや、地上波デジタル放送にて放送される番組は、MPEG−2(Moving Picture Expert Group-2)方式にて高能率符号化されている。MPEG−2は、通常レベルの解像度であるSD(Standard Definition)映像信号はもちろん、高解像レベルのHD(High Definition)映像信号にも対応しており、例えば、HDTVに対応したテレビジョン受像機を用いれば、ユーザは、高解像度での映像を楽しむことができる。   Content recorded on DVD (Digital Versatile Disk) packages, which are rapidly becoming popular instead of VTR, and programs broadcast on terrestrial digital broadcasting are high in MPEG-2 (Moving Picture Expert Group-2) format. It is efficiency encoded. MPEG-2 supports not only standard definition (SD) video signals, but also high definition HD (High Definition) video signals. For example, a television receiver compatible with HDTV. The user can enjoy high-resolution video.

従来のテレビジョン受像機は、送信される映像信号が、4:3のアスペクト比となる映像フォーマットであったことからディスプレイ形状も4:3であるものが主流となっていた。ところで、今後、徐々に日本国内、全国で放送されることになる地上波デジタル放送においては、アスペクト比が16:9のHD映像信号、SD映像信号が供給されることもあり、ディスプレイ形状が4:3と、16:9のアスペクト比に対応していないテレビジョン受像機でこのような映像信号を表示させるには、受信した映像信号の映像フォーマットを16:9から4:3に変換する必要がある。   Conventional television receivers have a display format of 4: 3 because video signals to be transmitted have a video format with an aspect ratio of 4: 3. By the way, in the terrestrial digital broadcasting that will be broadcast gradually in Japan and nationwide in the future, an HD video signal and an SD video signal with an aspect ratio of 16: 9 may be supplied, and the display shape is 4 : In order to display such a video signal on a television receiver that does not support the aspect ratio of 3: 3 and 16: 9, it is necessary to convert the video format of the received video signal from 16: 9 to 4: 3. There is.

アスペクト比を変換する手法は、いくつか考えられているが、代表的な変換手法としてレターボックス方式と、パンスキャン方式とがある。以下に、レターボックス方式と、パンスキャン方式について具体例を用いて簡単に説明をする。   Several methods for converting the aspect ratio have been considered, but there are a letterbox method and a pan scan method as typical conversion methods. Hereinafter, the letterbox method and the pan scan method will be briefly described using specific examples.

まず、図21(a)に示すようなアスペクト比が16:9である画像があったとする。今、この画像を水平方向に3/4縮小し、両端にサイドパネルと呼ばれる黒帯を付加した図21(b)に示すようなスクイーズ画像がDVDパッケージに記録されているとする。このDVDパッケージを再生し、アスペクト比が4:3のディスプレイに表示させると、縦長の画像となってしまう。そこで、レターボックス方式又はパンスキャン方式にて、アスペクト比変換を実行する。   First, assume that there is an image having an aspect ratio of 16: 9 as shown in FIG. Now, it is assumed that the squeeze image as shown in FIG. 21B is recorded on the DVD package by reducing the image by 3/4 in the horizontal direction and adding black bands called side panels at both ends. When this DVD package is played back and displayed on a display with an aspect ratio of 4: 3, a vertically long image is obtained. Therefore, the aspect ratio conversion is executed by the letterbox method or the pan scan method.

レターボックス方式でアスペクト比変換を行う場合、図21(b)に示したスクイーズ画像は、垂直方向に3/4縮小され、上下に黒帯が付加された図21(c)に示すような縮小された画像となる。この縮小された画像は、上下に黒帯部分が設けられるもののアスペクト比が4:3のディスプレイに表示させることができる。   When the aspect ratio conversion is performed by the letterbox method, the squeeze image shown in FIG. 21B is reduced by 3/4 in the vertical direction and reduced as shown in FIG. The resulting image. This reduced image can be displayed on a display having an aspect ratio of 4: 3 although black bands are provided at the top and bottom.

パンスキャン方式でアスペクト比変換を行う場合、まず、図21(b)に示したスクイーズ画像は、水平方向に4/3拡大され、図21(a)に示した16:9の画像に変換されディスプレイに表示される。その際に、ディスプレイの表示部分からはみ出してしまう左右の画像をカットすることで、図21(d)に示すようなアスペクト比が4:3の画像に変換する。   When performing aspect ratio conversion by the pan scan method, first, the squeeze image shown in FIG. 21B is enlarged by 4/3 in the horizontal direction and converted into the 16: 9 image shown in FIG. It appears on the display. At that time, the left and right images that protrude from the display portion of the display are cut to convert the image into an image having an aspect ratio of 4: 3 as shown in FIG.

パンスキャン方式は、MPEGデータの中に画像データに対する上述したカット操作に相当する、“切り出し”に関するデータが記述されている場合に実行可能となる。“切り出し”に関するデータは、FCVO(Frame Center Vertical Offset)データ、FCHO(Frame Center Horizontal Offset)データとして規定されている。具体的には、図22(a)に示すスクイーズ画像を水平方向に4/3拡大された画像を、このFCVOデータ、FCHOデータに基づいて、図22(b)、(c)、(d)、(e)、(f)に示すように水平、垂直方向に所定幅だけスライドさせた後、左右の画像がカットされる。このような画像の切り出しを繰り返すことで、元々は、アスペクト比が16:9の画像を、連続した動きのあるアスペクト比が4:3の映像としてディスプレイ上に表示させることができる。   The pan scan method can be executed when data relating to “cutout” corresponding to the above-described cut operation on image data is described in MPEG data. Data relating to “cutout” is defined as FCVO (Frame Center Vertical Offset) data and FCHO (Frame Center Horizontal Offset) data. Specifically, an image obtained by enlarging the squeeze image shown in FIG. 22A by 4/3 in the horizontal direction is obtained based on the FCVO data and FCHO data, as shown in FIGS. 22B, 22C, and 22D. , (E), (f), the left and right images are cut after sliding by a predetermined width in the horizontal and vertical directions. By repeating such image cutting, an image having an aspect ratio of 16: 9 can be originally displayed on a display as an image having an aspect ratio of 4: 3 with continuous motion.

ところでMPEG−2では、輝度信号(Y)・色差信号(Cr、Cb)フォーマットとして、4:2:0、4:2:2、4:4:4の3つのフォーマットを使用することができる。中でも、4:2:2フォーマットは、国際電気通信連合(ITU)の無線通信セクタ(ITU−R)においてITU−R勧告601として規定されており、スタジオ内などの業務用として用いられることが多く、4:2:0フォーマットに較べて高画質なフォーマットとなっている。   By the way, in MPEG-2, three formats of 4: 2: 0, 4: 2: 2, and 4: 4: 4 can be used as the luminance signal (Y) / chrominance signal (Cr, Cb) format. In particular, the 4: 2: 2 format is defined as ITU-R Recommendation 601 in the International Telecommunications Union (ITU) radio communication sector (ITU-R) and is often used for business purposes in studios and the like. The format is higher in quality than the 4: 2: 0 format.

ところで、上述した、アスペクト比変換において用いられるパンスキャン方式、レターボックス方式に関する技術として、パンスキャン方式によるモードやレターボックス方式によるモードに表示モードが変更された場合であっても、副映像である字幕を主映像に適切に合成させるといった技術が開示されている(特許文献1参照。)。   By the way, as a technique related to the pan scan method and letter box method used in the aspect ratio conversion described above, even if the display mode is changed to the pan scan mode or the letter box mode, it is a sub-picture. A technique for appropriately synthesizing subtitles with a main video is disclosed (see Patent Document 1).

また、4:2:0フォーマットから4:2:2フォーマットへフォーマット変換する画像フィルタ回路の回路構成の最適化を図るといった技術が開示されている(特許文献2参照。)。   Further, a technique for optimizing the circuit configuration of an image filter circuit that performs format conversion from the 4: 2: 0 format to the 4: 2: 2 format is disclosed (see Patent Document 2).

特許第3345414号公報Japanese Patent No. 3345414 特開平11−27563号公報JP-A-11-27563

パンスキャン方式、レターボックス方式といったアスペクト比変換は、画像データを一旦メモリに格納し、メモリから読み出す際に所望のアスペクト比となるように切り出す位置、つまりメモリからどの画像データを読み出すのかを指定したり、輝度データや、色差データに対して所望の補間処理を施したりすることで実現している。   Aspect ratio conversion such as the pan scan method and letterbox method specifies the image data to be read from the memory, that is, the position at which the image data is temporarily stored in the memory and then read out from the memory to obtain the desired aspect ratio. Or by performing desired interpolation processing on luminance data or color difference data.

4:2:2フォーマットの画像データにおいて、アスペクト比変換を実行する場合、上述した切り出しに関するMPEGの規格として適用されているデータであるFCVOデータ、FCHOデータが4:2:2フォーマットの特性に厳密に対応しておらず、メモリに格納された画像データから適切な読み出しが行われないといった問題あった。これにより、切り出された、つまりメモリから読み出された画像データを用いて、補間処理を施した場合、適切な補間画像が生成されず、特に、FCVOデータ、FCHOデータを用いてパンスキャン方式にてアスペクト比変換をする場合など、パンスキャンされる映像が滑らかに動画表示されないといった問題がある。   When aspect ratio conversion is performed on image data in 4: 2: 2 format, FCVO data and FCHO data, which are data applied as the MPEG standard related to clipping described above, strictly conform to the characteristics of 4: 2: 2 format. The image data stored in the memory is not properly read out. As a result, when interpolation processing is performed using image data that has been cut out, that is, read from the memory, an appropriate interpolation image is not generated, and in particular, the pan scan method using FCVO data and FCHO data. For example, when aspect ratio conversion is performed, the pan-scanned video is not displayed smoothly.

そこで、本発明は、このような問題を解決するために案出されたものであり、任意に指定される切り出し領域に関わらず適切に画像データを切り出すことで、良好な画質の画像を形成する補間画像データを生成する画像フィルタ回路及び補間処理方法を提供することを目的とする。   Therefore, the present invention has been devised to solve such a problem, and forms an image with a good image quality by appropriately cutting out image data regardless of an arbitrarily designated clipping region. An object of the present invention is to provide an image filter circuit and an interpolation processing method for generating interpolation image data.

上述の目的を達成するために、本発明は、4:2:2フォーマットの画像データにおいて、メモリに格納された上記画像データから指定されたサイズの画像データを切り出し、切り出した上記画像データの隣り合う画像データ間の補間画像データを生成することで補間処理をする画像フィルタ回路であって、4:2:2フォーマットの画像データから指定されたサイズの画像データを切り出す際、切り出し端において、4:2:2フォーマットの最小構成単位を保持したまま切り出す偶数切り出しをするのか、4:2:2フォーマットの最小構成単位を無視して切り出す奇数切り出しをするのかを検出する検出手段と、上記検出手段によって偶数切り出しが検出された場合、上記指定されたサイズの画像データを上記メモリから読み出し、上記検出手段によって奇数切り出しが検出された場合、上記切り出し端において、上記4:2:2フォーマットの最小構成単位となるように、上記指定されたサイズ以上の画像データをメモリから読み出す読み出し手段と、上記読み出し手段によって、上記メモリから読み出された上記画像データから補間演算処理をすることで、上記画像データ間の補間画像データを生成する補間演算処理手段とを備え、パンスキャン方式のアスペクト比変換を実行する際に、上記検出手段によって奇数切り出しが検出された場合、上記読み出し手段は、水平方向の切り出し端において、上記画像データを構成する輝度データ、色差データを上記指定されたサイズよりも1ピクセル分だけ余分に読み出し、上記補間演算処理手段は、1次元上に並んだ4点の画像データから、隣り合う画像データ間の補間画像データを生成することを特徴とする。 In order to achieve the above-described object, the present invention cuts out image data of a specified size from the image data stored in the memory in 4: 2: 2 format image data, and adjoins the cut-out image data. An image filter circuit that performs interpolation processing by generating interpolated image data between matching image data, and when cutting out image data of a specified size from image data in 4: 2: 2 format, Detection means for detecting whether to perform even-number cutout while cutting out the minimum configuration unit of 2: 2 format, or odd-number cutout of cutting out the minimum configuration unit of 4: 2: 2 format, and the detection means If even-numbered clipping is detected by the above, the image data of the specified size is read from the memory and A reading means for reading out image data having a size greater than or equal to the specified size so as to be a minimum configuration unit of the 4: 2: 2 format at the cutout end when odd cutout is detected by the writing detection means; Interpolation calculation processing means for generating interpolation image data between the image data by performing interpolation calculation processing from the image data read from the memory by the reading means, and an aspect ratio conversion of a pan scan method When the odd number cutout is detected by the detection means, the reading means sets the luminance data and color difference data constituting the image data to be 1 smaller than the specified size at the cutout edge in the horizontal direction. An extra pixel is read out, and the above interpolation calculation processing means is a four-dimensional image arranged in one dimension. From the data, and generates an interpolated image data between adjacent image data.

また、上述の目的を達成するために、本発明は、4:2:2フォーマットの画像データにおいて、メモリに格納された上記画像データから指定されたサイズの画像データを切り出し、切り出した上記画像データの隣り合う画像データ間の補間画像データを生成することで補間処理をする画像フィルタ回路の補間処理方法であって、4:2:2フォーマットの画像データから指定されたサイズの画像データを切り出す際、切り出し端において、4:2:2フォーマットの最小構成単位を保持したまま切り出す偶数切り出しをするのか、4:2:2フォーマットの最小構成単位を無視して切り出す奇数切り出しをするのかを検出する検出工程と、上記検出工程によって偶数切り出しが検出された場合、上記指定されたサイズの画像データを上記メモリから読み出し、上記検出工程によって奇数切り出しが検出された場合、上記切り出し端において、上記4:2:2フォーマットの最小構成単位となるように、上記指定されたサイズ以上の画像データをメモリから読み出す読み出し工程と、上記読み出し工程によって、上記メモリから読み出された上記画像データから補間演算処理をすることで、上記画像データ間の補間画像データを生成する補間演算処理工程とを有し、パンスキャン方式のアスペクト比変換を実行する際に、上記検出工程で奇数切り出しが検出された場合、上記読み出し工程では、水平方向の切り出し端において、上記画像データを構成する輝度データ、色差データを上記指定されたサイズよりも1ピクセル分だけ余分に読み出し、上記補間演算処理工程で1次元上に並んだ4点の画像データから、隣り合う画像データ間の補間画像データを生成することを特徴とする。 In order to achieve the above-mentioned object, the present invention cuts out image data of a specified size from the image data stored in the memory in image data of 4: 2: 2 format, and cuts out the image data. An interpolation processing method of an image filter circuit that performs interpolation processing by generating interpolated image data between adjacent image data, when cutting out image data of a specified size from image data in 4: 2: 2 format Detecting whether to perform even-number cut out while keeping the minimum configuration unit of 4: 2: 2 format at the cut-out edge or odd-number cut out of ignoring the minimum configuration unit of 4: 2: 2 format When even-numbered clipping is detected by the process and the detection process, the image data of the designated size is When an odd number cut out is detected by the detection process and read out from the memory, image data of the specified size or larger is read out from the memory so as to be the minimum configuration unit of the 4: 2: 2 format at the cut end. A panning scan process comprising: a reading step; and an interpolation calculation processing step for generating interpolation image data between the image data by performing interpolation calculation processing from the image data read from the memory by the reading step. When odd-numbered clipping is detected in the detection step when performing the aspect ratio conversion of the method, the luminance data and color difference data constituting the image data are specified in the horizontal clipping edge in the reading step in the reading step. One extra pixel is read out from the selected size, and the above-mentioned interpolation calculation processing step makes it one-dimensional. From the image data of four points I, and generating an interpolated image data between adjacent image data.

本発明は、4:2:2フォーマットの画像データから指定されたサイズの画像データを切り出す際、切り出し端において、4:2:2フォーマットの最小構成単位を保持したまま切り出す偶数切り出しをするのか、4:2:2フォーマットの最小構成単位を無視して切り出す奇数切り出しをするのかを検出する。そして、奇数切り出しが検出された場合、切り出し端において、4:2:2フォーマットの最小構成単位となるように、指定されたサイズ以上の画像データをメモリから読み出し、読み出した画像データを用いて補間演算処理をすることで、画像データ間の補間画像データを生成する。   In the present invention, when image data of a specified size is extracted from image data in 4: 2: 2 format, whether to perform even-numbered extraction at the extraction end while retaining the minimum structural unit of 4: 2: 2 format, It is detected whether odd-numbered clipping is performed by ignoring the minimum structural unit of the 4: 2: 2 format. When odd cutout is detected, image data of a specified size or larger is read from the memory so that it becomes the minimum configuration unit of 4: 2: 2 format at the cutout end, and interpolation is performed using the read image data. By performing arithmetic processing, interpolated image data between the image data is generated.

これにより、画像データの切り出しがどのように指定されたとしても、4:2:2フォーマットを崩すことなく補間画像データを生成することができるため、特に画像端部において良好な画質となる画像を形成することを可能とする。   This allows interpolation image data to be generated without damaging the 4: 2: 2 format no matter how the image data cutout is specified, so that images with good image quality can be obtained particularly at the edge of the image. Make it possible to form.

これをパンスキャン方式に適用した場合、従来までは、生成される画質の劣化を抑制するために、奇数切り出しが指定された場合であっても必ず偶数切り出しとなり、例えば、2 ピクセル単位で水平方向に移動するような動画像が形成されていたが、本発明では、パンスキャン方式のアスペクト比変換を実行する際に、検出手段によって奇数切り出しが検出された場合、水平方向の切り出し端において、上記画像データを構成する輝度データ、色差データを上記指定されたサイズよりも1ピクセル分だけ余分に読み出し、1次元上に並んだ4点の画像データから、隣り合う画像データ間の補間画像データを生成することにより、奇数切り出しにおいても良好な画質で、1ピクセル単位で水平方向に移動するような画像間の繋がりも非常に滑らかなパンスキャン方式でアスペクト比変換された動画像を形成することができるWhen this is applied to the pan scan method, until now, in order to suppress degradation of the generated image quality, even when odd cutout is specified, even cutout is always performed. For example, horizontal cutout is performed in units of 2 pixels. In the present invention, when odd-numbered clipping is detected by the detection means when performing pan-scan aspect ratio conversion, the above-described moving image is moved to the horizontal clipping edge. Reads luminance data and color difference data composing the image data by one pixel more than the specified size, and generates interpolated image data between adjacent image data from four points of image data arranged in one dimension. As a result, even when odd-numbered images are cut out, the connection between images that move in the horizontal direction in units of one pixel is very smooth. It is possible to form a moving image whose aspect ratio is converted by the kana pan scan method.

以下、本発明を実施するための最良の形態について、図面を参照して詳細に説明をする。なお、本発明は、以下の例に限定されるものではなく、本発明の要旨を逸脱しない範囲で、任意に変更可能であることはいうまでもない。   Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to the following examples, It cannot be overemphasized that it can change arbitrarily in the range which does not deviate from the summary of this invention.

{映像信号処理装置の構成}
図1を用いて、本発明を実施するための最良の形態として示す映像信号処理装置100について説明をする。映像信号処理装置100は、例えば、地上波デジタル放送として放送され、アンテナ200を介して受信されたMPEG−2(Moving Picture Expert Group-2)方式で高効率符号化された映像信号や、DVD(Digital Versatile Disk)再生装置220にて再生された、DVD(Digital Versatile Disk)パッケージにMPEG−2方式で高効率符号化された映像信号を、ディスプレイ210で出力表示可能な信号形態に変換する。
{Configuration of video signal processing apparatus}
A video signal processing apparatus 100 shown as the best mode for carrying out the present invention will be described with reference to FIG. The video signal processing apparatus 100 is, for example, a video signal that is broadcast as terrestrial digital broadcasting and is received through an antenna 200 and is encoded with high efficiency by the MPEG-2 (Moving Picture Expert Group-2) system, or a DVD ( A video signal reproduced by a digital versatile disk (DVD) reproducing device 220 and encoded with high efficiency in the MPEG-2 format on a DVD (digital versatile disk) package is converted into a signal form that can be output and displayed on the display 210.

映像信号処理装置100は、ストリームデータ処理部101と、メモリ102と、画質改善処理部103と、OSD(On Screen Display)104と、CPU105と、出力ビデオデータ処理部108とを備えている。   The video signal processing apparatus 100 includes a stream data processing unit 101, a memory 102, an image quality improvement processing unit 103, an OSD (On Screen Display) 104, a CPU 105, and an output video data processing unit 108.

ストリームデータ処理部101、メモリ102、画質改善処理部103、OSD104は、レジスタバス106を介してCPU105と接続されている。ストリームデータ処理部101、画質改善処理部103は、レジスタバス106を介して、CPU105との間でレジスタ情報を相互にやり取りする。   The stream data processing unit 101, the memory 102, the image quality improvement processing unit 103, and the OSD 104 are connected to the CPU 105 via the register bus 106. The stream data processing unit 101 and the image quality improvement processing unit 103 exchange register information with the CPU 105 via the register bus 106.

また、ストリームデータ処理部101、画質改善処理部103、OSD104、メモリ102は、メモリバス107を介して接続されており、上述したレジスタバス106を介してCPU105から供給されるレジスタ情報に基づいて、画像データを送信し、各機能部における処理を実行させる。   The stream data processing unit 101, the image quality improvement processing unit 103, the OSD 104, and the memory 102 are connected via the memory bus 107, and based on the register information supplied from the CPU 105 via the register bus 106 described above. Image data is transmitted, and processing in each functional unit is executed.

ストリームデータ処理部101は、上述したように受信又は再生されたMPEG2方式で高効率符号化された画像データに対して、トランスポートストリーム(TS:Transport Stream)方式或いはプログラムストリーム(PS:Program Stream)方式に応じた各種ストリーム処理を実行する。   The stream data processing unit 101 applies a transport stream (TS) method or a program stream (PS: Program Stream) to image data that has been received or reproduced as described above and is encoded with high efficiency in the MPEG2 method. Various stream processes according to the system are executed.

メモリ102は、ストリームデータ処理部101によって各種ストリーム処理が施され、メモリバス107を介して供給される画像データを一時的に格納する。画質改善処理部103は、メモリ102に格納された画像データに対して、伝送過程などで劣化した画像データの画質を改善するための処理を実行する。   The memory 102 is subjected to various stream processes by the stream data processing unit 101 and temporarily stores image data supplied via the memory bus 107. The image quality improvement processing unit 103 executes processing for improving the image quality of image data deteriorated in a transmission process or the like on the image data stored in the memory 102.

OSD104は、画面表示用のグラフィックッス、字幕情報、緊急情報等の生成を行い、メモリ102に格納されている画像データに重ねたり、部分的に表示したりする等の処理を実行する。また、OSD104は、画像データに対して拡大変換処理、縮小変換処理を実行する。なお、OSD104については、後で詳細に説明をする。   The OSD 104 generates graphics for screen display, subtitle information, emergency information, and the like, and executes processing such as overlaying or partially displaying the image data stored in the memory 102. In addition, the OSD 104 executes enlargement conversion processing and reduction conversion processing on the image data. The OSD 104 will be described in detail later.

CPU105は、当該映像信号処理装置100の動作を統括的に制御する制御部である。出力ビデオデータ処理部108は、OSD104から供給された画像データに対して、ディスプレイ210と接続された接続インターフェース(アナログ形式又はDVIなどのデジタル方式)に応じた信号形式に変換し、ディスプレイ210に送信する。   The CPU 105 is a control unit that comprehensively controls the operation of the video signal processing apparatus 100. The output video data processing unit 108 converts the image data supplied from the OSD 104 into a signal format corresponding to a connection interface (analog format or digital method such as DVI) connected to the display 210, and transmits it to the display 210. To do.

このような、映像信号処理装置100は、LSI(Large Scale Integration)としてワンチップ化されている。   Such a video signal processing apparatus 100 is made into one chip as LSI (Large Scale Integration).

図1に示した映像信号処理装置100が備えるOSD104は、図2に示すように、拡大変換ブロック10、上述したような画像データに重ねる文字情報を生成する文字情報生成部15などを備えている。   The OSD 104 included in the video signal processing apparatus 100 illustrated in FIG. 1 includes an enlargement conversion block 10, a character information generation unit 15 that generates character information to be superimposed on image data as described above, and the like, as illustrated in FIG. .

OSD104が備える拡大変換ブロック10は、所謂アップフォーマットコンバータでありSD(Standard Definition)フォーマットの画像データ、例えば、480iのサイズの画像データを、HD(High Definition)フォーマットの画像データ、例えば1080iのサイズの画像データに拡大処理をしたり、インターレース方式の画像データをプログレッシブ方式の画像データに拡大処理したりする。   The enlargement conversion block 10 included in the OSD 104 is a so-called up-format converter, which is SD (Standard Definition) format image data, eg, 480i size image data, HD (High Definition) format image data, eg, 1080i size. The image data is enlarged or the interlace image data is enlarged to the progressive image data.

図2に示すように、拡大変換ブロック10は、メモリインターフェース11と、垂直方向拡大処理部12と、水平方向拡大処理部13とを備えている。   As shown in FIG. 2, the enlargement conversion block 10 includes a memory interface 11, a vertical direction enlargement processing unit 12, and a horizontal direction enlargement processing unit 13.

メモリインターフェース11は、CPU105の制御に応じて、拡大変換ブロック10にて実行する拡大変換処理の対象となる画像データをメモリ102から読み出す際のタイミングを調整する。   The memory interface 11 adjusts the timing when image data to be subjected to the enlargement conversion process executed by the enlargement conversion block 10 is read from the memory 102 according to the control of the CPU 105.

メモリインターフェース11によって調整されたタイミングに応じて、メモリ102から読み出された映像信号は、垂直方向拡大処理部12、水平方向拡大処理部13にて、それぞれ垂直方向への拡大処理、水平方向への拡大処理が実行されることになる。拡大変換ブロック10によって拡大処理された映像信号は、文字情報生成部15によって生成された文字情報などが付加されて、上述したように出力ビデオデータ処理部108へ供給される。   The video signal read from the memory 102 in accordance with the timing adjusted by the memory interface 11 is expanded in the vertical direction and horizontally in the vertical expansion processing unit 12 and horizontal expansion processing unit 13, respectively. The enlargement process is executed. The video signal enlarged by the enlargement conversion block 10 is added with character information generated by the character information generation unit 15 and supplied to the output video data processing unit 108 as described above.

続いて、図2に示す拡大変換ブロック10が備えるレジスタについて説明をする。図2では図示していないが、拡大変換ブロック10は、メモリ102から読み出した画像データを拡大処理する際に必要となる所望の情報を格納するレジスタが用意されている。なお、拡大処理における切り出しに関するデータは、MEPGデータにあらかじめエンコードされたFCVOデータ、FCHOデータから算出されることになる。   Next, the registers included in the expansion conversion block 10 illustrated in FIG. 2 will be described. Although not shown in FIG. 2, the enlargement conversion block 10 is provided with a register for storing desired information necessary for enlarging the image data read from the memory 102. Note that the data related to clipping in the enlargement process is calculated from FCVO data and FCHO data encoded in advance in MPEG data.

例えば、図3(a)に示すように、メモリ102のメモリ領域102a1、メモリ領域102a2、メモリ領域103a3に、それぞれ画像データ20、21、22などが格納されているとする。ここで、メモリ領域102a2に格納されている画像データ21から、拡大処理の基になるソース画像データ21cを切り出し、拡大処理する場合を考える。   For example, as shown in FIG. 3A, it is assumed that image data 20, 21, 22 and the like are stored in the memory area 102a1, the memory area 102a2, and the memory area 103a3 of the memory 102, respectively. Here, consider a case where the source image data 21c that is the basis of the enlargement process is cut out from the image data 21 stored in the memory area 102a2, and the enlargement process is performed.

まず、拡大処理をするには、画像データ21からソース画像データ21cを切り出す必要がある。切り出しに必要な情報は、図3(a)に示す水平方向の切り出し位置を特定する水平方向切り出し位置情報hp、垂直方向の切り出し位置を特定する垂直方向切り出し位置情報vp、水平方向の切り出し幅を特定する水平方向切り出し幅情報hw、垂直方向の切り出し幅を特定する垂直方向切り出し幅情報vwである。   First, in order to perform the enlargement process, it is necessary to cut out the source image data 21 c from the image data 21. The information necessary for the cutout includes horizontal cutout position information hp for specifying a horizontal cutout position shown in FIG. 3A, vertical cutout position information vp for specifying a vertical cutout position, and a horizontal cutout width. The horizontal cutout width information hw to be specified and the vertical cutout width information vw to specify the cutout width in the vertical direction.

この水平方向切り出し位置情報hp、垂直方向切り出し位置情報vp、水平方向切り出し幅情報hw、垂直方向切り出し幅情報vwは、それぞれ、図3(b)に模式的に示す拡大処理ブロック10が備えるレジスタ110の各レジスタ111、112、113、114に格納される。   The horizontal cutout position information hp, the vertical cutout position information vp, the horizontal cutout width information hw, and the vertical cutout width information vw are respectively registered in the register 110 included in the enlargement processing block 10 schematically shown in FIG. Are stored in the respective registers 111, 112, 113, 114.

画像データ21からソース画像データ21cが切り出されると、次は、拡大処理が実行される。拡大処理に必要な情報は、図4(a)に示す水平方向の拡大処理後の表示開始位置を特定する水平方向表示開始位置情報hds、垂直方向の拡大処理後の表示開始位置を特定する垂直方向表示開始位置情報vds、水平方向の拡大処理後の表示幅を特定する水平方向表示幅情報hdw、垂直方向の拡大処理後の表示幅を特定する垂直方向表示幅情報vdwである。   When the source image data 21c is cut out from the image data 21, the enlargement process is executed next. Information necessary for the enlargement process includes horizontal display start position information hds for specifying the display start position after the horizontal enlargement process shown in FIG. 4A, and vertical for specifying the display start position after the vertical enlargement process. The direction display start position information vds, the horizontal direction display width information hdw for specifying the display width after the horizontal enlargement process, and the vertical direction display width information vdw for specifying the display width after the vertical enlargement process.

この水平方向表示開始位置情報hds、垂直方向表示開始位置情報vds、水平方向表示幅情報hdw、垂直方向表示幅情報vdwは、それぞれ、図4(b)に模式的に示す拡大処理ブロック10が備えるレジスタ110の各レジスタ115、116、117、118に格納される。   This horizontal direction display start position information hds, vertical direction display start position information vds, horizontal direction display width information hdw, and vertical direction display width information vdw are respectively provided in the enlargement processing block 10 schematically shown in FIG. 4B. It is stored in each register 115, 116, 117, 118 of the register 110.

また、レジスタ110のレジスタ119には、水平方向切り出し幅情報hw、水平方向表示幅情報hdwから求めた水平方向の拡大率である水平方向拡大率(h Delta)が格納される。また、レジスタ40には、垂直方向切り出し幅情報vw、垂直方向表示幅情報vdwから求めた垂直方向の拡大率である垂直方向拡大率(v Delta)が格納される。この水平方向拡大率、垂直方向拡大率は、それぞれ後述する拡大処理に伴う補間演算処理に用いられる。   Further, the register 119 of the register 110 stores a horizontal enlargement ratio (h Delta) that is a horizontal enlargement ratio obtained from the horizontal cutout width information hw and the horizontal display width information hdw. Further, the register 40 stores a vertical enlargement ratio (v Delta) that is an enlargement ratio in the vertical direction obtained from the vertical cutout width information vw and the vertical display width information vdw. The horizontal direction enlargement factor and the vertical direction enlargement factor are respectively used for interpolation calculation processing accompanying enlargement processing described later.

さらに、レジスタ110のレジスタ121、122には、それぞれ後述する拡大処理に伴う補間演算処理に用いられる水平方向の初期オフセット値、垂直方向のオフセット値が格納される。   Furthermore, the registers 121 and 122 of the register 110 store an initial offset value in the horizontal direction and an offset value in the vertical direction, respectively, which are used in an interpolation calculation process associated with an enlargement process described later.

{拡大変換処理の具体的な説明}
続いて、映像信号処理装置100が備える拡大変換ブロック10の拡大変換処理の動作について具体的に説明をする。なお、上述したように拡大変換ブロック10は、垂直方向拡大処理部12と、水平方向拡大処理部13とを備えているため、垂直方向、水平方向の拡大処理をそれぞれ独立して実行することができるが、この拡大処理動作は、どちらも全く同様の処理動作となるため、水平方向拡大処理部13における説明をすることで、水平方向拡大処理、垂直方向拡大処理の説明とする。
{Specific description of enlargement conversion processing}
Subsequently, the operation of the enlargement conversion process of the enlargement conversion block 10 included in the video signal processing apparatus 100 will be specifically described. Since the enlargement conversion block 10 includes the vertical direction enlargement processing unit 12 and the horizontal direction enlargement processing unit 13 as described above, the enlargement processing in the vertical direction and the horizontal direction can be executed independently of each other. However, since both the enlargement processing operations are exactly the same processing operations, the horizontal enlargement processing unit 13 will be described to explain the horizontal enlargement processing and the vertical enlargement processing.

本発明の実施の形態として示す映像信号処理装置100が備える拡大変換ブロック10においては、MPEG−2方式にて高効率符号化された画像データ、特に、4:2:2フォーマットの画像データを拡大処理した際の問題点を大幅に改善することができる。   In the enlargement conversion block 10 included in the video signal processing apparatus 100 shown as an embodiment of the present invention, image data that has been encoded with high efficiency by the MPEG-2 system, particularly image data in 4: 2: 2 format is enlarged. Problems in processing can be greatly improved.

上述したように、拡大処理においては、まず、メモリ102に格納された画像データから所望の領域のソース画像データを切り出し、所望の拡大率となるように拡大処理をすることになる。拡大処理をするには、当然のことながらソース画像データよりも多くの画像データが必要となる。つまり、ソース画像データのみでは、画像データとしての情報が足りないことになる。そこで、切り出したソース画像データを用いて補間演算処理を実行することで、足りない映像情報を補うことになる。   As described above, in the enlargement process, first, source image data of a desired region is cut out from the image data stored in the memory 102, and the enlargement process is performed so as to obtain a desired enlargement ratio. In order to perform the enlargement process, naturally, more image data than the source image data is required. That is, only the source image data is insufficient for information as image data. Therefore, by executing the interpolation calculation process using the cut-out source image data, the missing video information is compensated.

なお、補間演算処理は、現在まで様々な演算手法が考案されており、後で詳細に説明をするが、本発明を実施するための最良の形態として示す映像信号処理装置100においては、4点補間回路を用いて補間演算処理をする。   Various calculation methods have been devised up to now for the interpolation calculation processing, and will be described in detail later. However, in the video signal processing apparatus 100 shown as the best mode for carrying out the present invention, there are four points. Interpolation calculation processing is performed using an interpolation circuit.

ここで、改めて、MPEG−2方式にて高効率符号化された4:2:2フォーマットの画像データを拡大処理する際の問題点について説明をする。   Here, a problem when the 4: 2: 2 format image data encoded with high efficiency by the MPEG-2 system is enlarged will be described.

まず、4:2:2フォーマットについて説明をする。一般に人間の視覚特性は、輝度信号と比較して、色差信号に対して感度が低いため、色差信号について間引いた信号を用い、符号化情報量を低減させることができる。4:2:2フォーマットは、水平方向の色差信号を輝度信号の1/2のサイズとするようなフォーマットである。具体的には、4:2:2フォーマットは、各走査線の輝度信号2サンプルに対して、色差信号1サンプルが配置されることになる。   First, the 4: 2: 2 format will be described. In general, since human visual characteristics are less sensitive to color difference signals than luminance signals, the amount of encoded information can be reduced using signals that are thinned out for color difference signals. The 4: 2: 2 format is a format in which the color difference signal in the horizontal direction is half the size of the luminance signal. Specifically, in the 4: 2: 2 format, one color difference signal sample is arranged for two luminance signal samples of each scanning line.

したがって、4:2:2フォーマットの画像データのデータ形式は、図5に示すように、2つの輝度データYと、色差データCb、Crとからなる輝度・色差データ30を最小構成単位としている。輝度・色差データ30は、輝度データY、色差データCbを含む輝度・色差データ30aと、輝度データY、色差データCrを含む輝度・色差データ30bで構成されている。輝度は、人間の視覚特性において感度が高いため、表示される画像の1画素(ピクセル)毎に与えられる必要がある。したがって、輝度・色差データ30a、30bは、それぞれ1画素分のデータを表していることになる。   Therefore, as shown in FIG. 5, the data format of the 4: 2: 2 format image data has luminance / color difference data 30 including two luminance data Y and color difference data Cb and Cr as a minimum structural unit. The luminance / color difference data 30 includes luminance / color difference data 30a including luminance data Y and color difference data Cb, and luminance / color difference data 30b including luminance data Y and color difference data Cr. Since the luminance is high in human visual characteristics, the luminance needs to be given for each pixel of the displayed image. Accordingly, the luminance / color difference data 30a and 30b each represent data for one pixel.

図5に示すように色差データCb、Crは、それぞれ2画素毎に与えられるため、輝度・色差データ30a、30bにおいて、色差データCr、Cbが互いに不足していることになる。そこで、一方の輝度・色差データ30aは、輝度・色差データ30bに含まれる色差データCrを共用して用いることになる。他方の輝度・色差データ30bは、輝度・色差データ30aに含まれる色差データCbを共用して用いることになる。   As shown in FIG. 5, since the color difference data Cb and Cr are provided for every two pixels, the luminance / color difference data 30a and 30b are deficient in the color difference data Cr and Cb. Therefore, one luminance / color difference data 30a is shared with the color difference data Cr included in the luminance / color difference data 30b. The other luminance / color difference data 30b is used in common with the color difference data Cb included in the luminance / color difference data 30a.

なお、以下の説明において、図5に示す輝度・色差データ30を構成する輝度データY、色差データCb、Crは、それぞれ8ビットの情報量を有することにする。つまり、輝度・色差データ30は、8×4=32ビット(8バイト)の情報量となる。   In the following description, it is assumed that the luminance data Y and the color difference data Cb and Cr constituting the luminance / color difference data 30 shown in FIG. 5 each have an 8-bit information amount. That is, the luminance / color difference data 30 has an information amount of 8 × 4 = 32 bits (8 bytes).

このような、輝度・色差データ30を、4:2:2フォーマット形式の画像データの最小構成単位とすることを前提にして、メモリ102に格納された画像データを切り出す際の動作について説明をする。なお、説明は、メモリ102に記憶された画像データの水平方向1ラインのみについて考えることにする。また、説明のため、扱う画像データの情報量も実際の画像データよりも大幅に削減させて考えることにする。   The operation when the image data stored in the memory 102 is cut out will be described on the assumption that the luminance / color difference data 30 is the minimum unit of image data in the 4: 2: 2 format. . In the description, only one horizontal line of image data stored in the memory 102 will be considered. For the sake of explanation, the amount of information of image data to be handled is considered to be significantly reduced from the actual image data.

まず、図6に示すように、128ビット(16バイト)を1ワードとするような構成単位のメモリ領域102ha、102hb、102hcからなる水平方向メモリ領域102hに画像データの水平方向1ライン分の画像データが格納されているとする。図6に示すように、メモリ領域102ha、102hb、102hcには、上述した2画素分の画像データである輝度・色差データ30が、それぞれ4個ずつ、つまり8画素分ずつ格納されることになる。   First, as shown in FIG. 6, an image for one horizontal line of image data is stored in a horizontal memory area 102h composed of memory areas 102ha, 102hb, and 102hc having a unit of construction in which 128 bits (16 bytes) are one word. Assume that data is stored. As shown in FIG. 6, in the memory areas 102ha, 102hb, and 102hc, four pieces of luminance / color difference data 30 that are the image data for the two pixels described above are stored, that is, eight pixels each. .

メモリ領域102ha、102hb、102hcにおいて、輝度・色差データ30が格納される画素データ単位の領域を画素データ格納領域G1〜G24と呼ぶことにする。また、メモリ102の各メモリ領域102ha、102hb、102hcに格納された輝度・色差データ30を、順番にパケット40〜4012と呼ぶことにする。 In the memory areas 102ha, 102hb, and 102hc, pixel data unit areas in which the luminance / color difference data 30 are stored are referred to as pixel data storage areas G1 to G24. The luminance / color difference data 30 stored in the memory areas 102ha, 102hb, and 102hc of the memory 102 will be referred to as packets 40 1 to 40 12 in order.

このようなメモリ102の構成、4:2:2フォーマットの輝度・色差データ30の構成などを踏まえ、パンスキャン方式のアスペクト比変換を実行するという仮定の基に、水平方向メモリ領域102hに格納されているパケット40〜4012から、所望の輝度・色差データ30を切り出す際の問題点を具体的に検証する。 Based on such a configuration of the memory 102, a configuration of luminance / color difference data 30 in 4: 2: 2 format, and the like, it is stored in the horizontal memory area 102h on the assumption that the aspect ratio conversion of the pan scan method is executed. The problem in extracting the desired luminance / color difference data 30 from the existing packets 40 1 to 40 12 is specifically verified.

まず、パンスキャン方式のアスペクト比変換を実行するにあたり、水平方向切り出し位置情報hp、水平方向切り出し幅情報hwによって、図6に示すように、メモリ領域102haの画素データ格納領域G7、G8、メモリ領域102hbの画素データ格納領域G9〜G16、メモリ領域102hcの画素データ格納領域G17、G18が指定され、パケット40〜40の輝度・色差データ30(12画素)が切り出されたとする。 First, when executing the aspect ratio conversion of the pan scan method, as shown in FIG. 6, the pixel data storage areas G7 and G8 in the memory area 102ha, the memory area, as shown in FIG. pixel data storage area G9~G16 of 102Hb, pixel data storage area of the memory area 102hc G17, G18 is designated, the luminance and color difference data 30 of the packet 40 4-40 9 (12 pixels) is cut out.

この場合、切り出される輝度・色差データ30は、パケット単位で切り出されており、それぞれのパケット内では、各画素の色差データCr、Cbを相互に共有することで正しく補間がなされることになる。このように、パケット単位、つまり4:2:2フォーマット形式の画像データの最小構成単位で輝度・色差データ30を切り出す場合を“偶数切り出し”と呼ぶことにする。   In this case, the cut out luminance / color difference data 30 is cut out in units of packets, and in each packet, the color difference data Cr and Cb of each pixel are shared with each other so that correct interpolation is performed. In this manner, the case where the luminance / color difference data 30 is cut out in units of packets, that is, the minimum configuration unit of image data in the 4: 2: 2 format, is referred to as “even cut-out”.

続いて、パンスキャン方式のアスペクト比変換を実行するには、図6に示すような切り出しを実行した後、切り出す水平方向メモリ領域102hの位置を変更することになるが、切り出す位置によって、表示される映像に違和感がでず、滑らかな動きとなるように切り出されることが望ましい。   Subsequently, in order to execute the aspect ratio conversion of the pan scan method, the position of the horizontal memory area 102h to be cut out is changed after the cut out as shown in FIG. 6 is performed. It is desirable to cut out the video so that the video does not feel strange and moves smoothly.

例えば、図6で示した切り出しによって表示される映像から、右方向に滑らかに移動した映像となるように切り出すには、図6における水平方向切り出し位置情報hp、水平方向切り出し幅情報hwから1画素分だけ右方向にシフトされた、図7に示すような水平方向切り出し位置情報hp、水平方向切り出し幅情報hwによってメモリ領域102hが指定されることが推定される。   For example, in order to cut out from the video displayed by the cutout shown in FIG. 6 so as to become a video smoothly moved to the right, one pixel is obtained from the horizontal cutout position information hp and the horizontal cutout width information hw in FIG. It is estimated that the memory area 102h is designated by the horizontal cutout position information hp and the horizontal cutout width information hw as shown in FIG.

図7に示すように、切り出された両端部においては、上述した“偶数切り出し”の場合と異なり、パケット単位で輝度・色差データ30が切り出されず、パケット40では、一つの輝度データYと、色差データCbのみ、パケット4010では、一つの輝度データYと、色差データCrのみが切り出されることになる。このように、パケット単位で輝度・色差データ30が切り出されない場合、つまり4:2:2フォーマット形式の画像データの最小構成単位が無視されて切り出される場合を“奇数切り出し”と呼ぶことにする。 As shown in FIG. 7, in the cut-out end portions, unlike the case of the above-described "even cut" is not cut out the luminance and color difference data 30 in a packet unit, the packet 40 4, with one of the luminance data Y, only the color difference data Cb, the packet 40 10, and one of the luminance data Y, so that only the color difference data Cr is cut out. As described above, the case where the luminance / color difference data 30 is not cut out in units of packets, that is, the case where the minimum structural unit of image data in 4: 2: 2 format is ignored and cut out is referred to as “odd cutout”. .

“奇数切り出し”においては、図7に示す左端部を例に挙げると、画素データ格納領域G7に格納されているパケット40の輝度データY、色差データCbが無視されることになる。この輝度データY、色差データCbは、拡大処理において、つまりパンスキャン方式の切り出し処理の後に実行される拡大処理において、補間画像データを生成する際に必要となるデータである。また、ディスプレイ210に供給するRGB信号を生成する場合にも、パケット40の色差データが必要であるため、画素データ格納領域G7に格納されたパケット40の輝度データY、色差データCbが無視されるということは、最終的にパンスキャン方式でアスペクト比変換された映像の画質に劣化が生じてしまう可能性が非常に高くなる。 In "odd cutout", taking as an example the left end portion shown in FIG. 7, so that the luminance data Y of the packet 40 4 stored in the pixel data storage area G7, the chrominance data Cb is ignored. The luminance data Y and the color difference data Cb are data necessary for generating the interpolated image data in the enlargement process, that is, in the enlargement process executed after the pan-scan clipping process. Also, when generating the RGB signal supplied to the display 210 also, since it is necessary to color difference data of the packet 40 4, luminance data Y of the packet 40 4 stored in the pixel data storage area G7, the chrominance data Cb is ignore This means that there is a very high possibility that the image quality of the image finally converted in the aspect ratio by the pan scan method will deteriorate.

切り出しに関するデータである水平方向切り出し位置情報hp、水平方向切り出し幅情報hwなどを算出する際に用いるFCHOデータ、垂直方向切り出し位置情報vp、垂直方向切り出し幅情報vwなどを算出する際に用いるFCVOデータは、画像中心からのオフセット量が指定されているのみであるため、上述したような“偶数切り出し”、“奇数切り出し”といった概念をデータ中に含んでいない。   FCVO data used when calculating FCHO data, vertical cutout position information vp, vertical cutout width information vw, etc. used when calculating horizontal cutout position information hp, horizontal cutout width information hw, etc., which are data relating to cutout Since only the offset amount from the center of the image is designated, the concepts such as “even cutout” and “odd cutout” as described above are not included in the data.

例えば、従来までの映像処理装置においては、“奇数切り出し”による映像の画質劣化を防ぐため、“奇数切り出し”となるようなFCHOデータ、FCVOデータがMPEGデータにエンコードされていても、常に“偶数切り出し”とするような設定となっていた。したがって、パンスキャン方式のような映像のシフトを伴うエフェクトなどを実行する場合には、滑らかに動画像表示できていないといった問題があった。   For example, in a conventional video processing apparatus, even if FCHO data and FCVO data that become “odd segmentation” are encoded into MPEG data in order to prevent image quality degradation due to “odd segmentation”, “even number segmentation” is always performed. The setting was “Cut out”. Therefore, there is a problem in that a moving image cannot be displayed smoothly when an effect accompanied by a video shift such as the pan scan method is executed.

そこで、本発明を実施するための最良の形態として示す映像信号処理装置100では、図7に示すような“奇数切り出し”となるようなFCHOデータ、FCVOデータがMPEGデータにエンコードされていても、水平方向拡大処理部13において、図8に示すように、両端における必要なデータである、画素データ格納領域G7の輝度データY、色差データCb、画素データ格納領域G20の輝度データY、色差データCrを取り出して、補間画像データ生成に用いたり、RGB信号生成時に用いたりすることで、誤った補間処理が実行されないようにする。   Therefore, in the video signal processing apparatus 100 shown as the best mode for carrying out the present invention, even if FCHO data and FCVO data that result in “odd segmentation” as shown in FIG. 7 are encoded into MPEG data, In the horizontal direction enlargement processing unit 13, as shown in FIG. 8, luminance data Y and color difference data Cb in the pixel data storage area G7, luminance data Y in the pixel data storage area G20, and color difference data Cr are necessary data at both ends. Are used for generating interpolated image data or used for generating RGB signals so that erroneous interpolation processing is not executed.

{水平方向拡大処理部13の具体的な構成}
続いて、上述したような、“偶数切り出し”及び“水平切り出し”を実行する水平方向拡大処理部13の構成について図9を用いて説明をする。図9に示すように、水平方向拡大処理部13は、タイミング信号生成ブロック50と、フィルタ回路60とを備えている。水平方向拡大処理部13は、タイミング信号生成ブロック50で生成される各種タイミング信号に応じて、メモリ102に格納された画像データを読み出し、フィルタ回路60で拡大処理を実行する。
{Specific configuration of horizontal enlargement processing unit 13}
Next, the configuration of the horizontal enlargement processing unit 13 that executes “even cutout” and “horizontal cutout” as described above will be described with reference to FIG. As shown in FIG. 9, the horizontal direction enlargement processing unit 13 includes a timing signal generation block 50 and a filter circuit 60. The horizontal enlargement processing unit 13 reads out image data stored in the memory 102 in accordance with various timing signals generated by the timing signal generation block 50, and executes enlargement processing by the filter circuit 60.

水平方向拡大処理部13のフィルタ回路60は、拡大処理に伴い、以下に示すような4点補間演算処理を実行することになる。4点補間演算処理は、公知の技術であり、例えば、特開平4−317170号公報(4点補間回路)に詳細に記載されているため、本発明を実施するための最良の形態においては、その概略のみの記載とする。   The filter circuit 60 of the horizontal direction enlargement processing unit 13 executes a four-point interpolation calculation process as described below in accordance with the enlargement process. The four-point interpolation calculation process is a known technique, and is described in detail, for example, in Japanese Unexamined Patent Publication No. 4-317170 (four-point interpolation circuit). Therefore, in the best mode for carrying out the present invention, Only the outline is described.

4点補間演算処理は、図10に示すようなフィルタ関数であるCubic関数に補間前データ(Sourceデータ)を4点分入力することで、補間データ(Destinationデータ)を求める演算手法である。Cubic関数から補間データを求めるには、4点分の補間前データの他に、図4で示したレジスタ110のレジスタ119、レジスタ121に格納された水平方向拡大率(h Delta)、水平方向初期オフセット値も必要となる。   The four-point interpolation calculation process is a calculation method for obtaining interpolation data (Destination data) by inputting four points of pre-interpolation data (Source data) into a Cubic function that is a filter function as shown in FIG. In order to obtain the interpolation data from the Cubic function, in addition to the pre-interpolation data for four points, the horizontal magnification rate (h Delta) stored in the register 119 and the register 121 of the register 110 shown in FIG. An offset value is also required.

図10に示すように、水平方向初期オフセット値、水平方向拡大率は、それぞれ初期オフセット値off、拡大率delとしている。図10に示すフェイズphaは、この初期オフセットoffと、拡大率delの累積加算値とによって算出される値である。図10では、一例として、補間前データである入力データA、B、C、Dによって、補間データである出力データOA、OBが生成されている様子を示してある。続く、出力データOCは、入力データB、C、D、Eによって生成されることになる。   As shown in FIG. 10, the horizontal direction initial offset value and the horizontal direction enlargement ratio are the initial offset value off and the enlargement ratio del, respectively. The phase pha shown in FIG. 10 is a value calculated by the initial offset off and the cumulative addition value of the enlargement ratio del. FIG. 10 shows, as an example, a state in which output data OA and OB that are interpolation data are generated from input data A, B, C, and D that are pre-interpolation data. The subsequent output data OC is generated by the input data B, C, D, and E.

4点補間演算処理において、補間演算に用いられる4点のデータのうち、図10に示す入力データBがCubic関数の中心となる。また、上述した水平方向初期オフセット値つまり、初期オフセット値offは、出力開始位置のデータ、図10における、出力データOAにのみ影響することになる。   In the four-point interpolation calculation process, the input data B shown in FIG. 10 is the center of the Cubic function among the four points of data used for the interpolation calculation. Further, the above-described horizontal initial offset value, that is, the initial offset value off affects only the output start position data, that is, the output data OA in FIG.

再び図9に戻り、水平方向拡大処理部13の構成について説明をする。図9に示すように、タイミング信号生成ブロック50は、フェイズ計算ブロック51と、初期化タイミング信号生成ブロック52と、マスク信号生成ブロック53とを備えている。   Returning to FIG. 9 again, the configuration of the horizontal enlargement processing unit 13 will be described. As shown in FIG. 9, the timing signal generation block 50 includes a phase calculation block 51, an initialization timing signal generation block 52, and a mask signal generation block 53.

フェイズ計算ブロック51は、レジスタ119、121から、それぞれ読み出された拡大率del、初期オフセット値off、初期化タイミング信号生成ブロック52から供給される累積計算開始信号rspからフェイズphaを生成する。算出されたフェイズphaは、図2に示したメモリインターフェースブロック11、フィルタ回路60に供給される。メモリインターフェースブロック11に供給されたフェイズphaは、メモリ102に格納された画像データを読み出す際のタイミング信号となる。また、フィルタ回路60に供給されるフェイズphaは、データバッファ61、補間関数ブロック62のそれぞれに供給される。   The phase calculation block 51 generates a phase pha from the enlargement ratio del, the initial offset value off, and the cumulative calculation start signal rsp supplied from the initialization timing signal generation block 52, which are read from the registers 119 and 121, respectively. The calculated phase pha is supplied to the memory interface block 11 and the filter circuit 60 shown in FIG. The phase pha supplied to the memory interface block 11 serves as a timing signal when reading the image data stored in the memory 102. The phase pha supplied to the filter circuit 60 is supplied to each of the data buffer 61 and the interpolation function block 62.

初期化タイミング信号生成ブロック52は、レジスタ115、111から、それぞれ読み出した水平方向表示開始位置情報hds、水平方向切り出し位置情報hpの最下位ビットlsb(least significant bit)から、フェイズ計算ブロック51に供給する累積計算開始信号rspを生成する。この累積計算開始信号rspは、上述した“偶数切り出し”、“奇数切り出し”に応じて、それぞれ異なった信号となる。   The initialization timing signal generation block 52 supplies the phase calculation block 51 with the least significant bit lsb (least significant bit) of the horizontal display start position information hds and the horizontal cutout position information hp read from the registers 115 and 111, respectively. The cumulative calculation start signal rsp is generated. The cumulative calculation start signal rsp is a different signal depending on the above-described “even cut-out” and “odd cut-out”.

マスク信号生成ブロック53は、レジスタ115、111から、それぞれ読み出した水平方向表示開始位置情報hds、水平方向切り出し位置情報hpの最下位ビットlsb(least significant bit)、さらに、レジスタ113から読み出した水平方向切り出し幅情報hdwからマスク信号mskを生成する。   The mask signal generation block 53 includes the horizontal display start position information hds read from the registers 115 and 111, the least significant bit lsb (least significant bit) of the horizontal cutout position information hp, and the horizontal direction read from the register 113. A mask signal msk is generated from the cutout width information hdw.

フィルタ回路60は、データバッファ61と、補間関数ブロック62と、ディレイ調整ブロック63とを備えている。   The filter circuit 60 includes a data buffer 61, an interpolation function block 62, and a delay adjustment block 63.

データバッファ61は、補間関数ブロック62にて実行される補間演算処理に用いられる入力データである輝度・色差データ30を入力しバッファリングする。データバッファ61は、マスク信号生成ブロック53から供給されたマスク信号mskで、フェイズ計算ブロック51から供給されたフェイズphaの最上位ビットmsb(most significant bit)をマスクすることで生成されるタイミング信号に基づいて、入力データをバッファリングする。このとき、データバッファ61には、レジスタ113、117から読み出された水平方向切り出し幅情報hw、水平方向表示幅情報hdwが供給される。   The data buffer 61 receives and buffers the luminance / color difference data 30 which is input data used for the interpolation calculation processing executed in the interpolation function block 62. The data buffer 61 uses the mask signal msk supplied from the mask signal generation block 53 as a timing signal generated by masking the most significant bit (msb) of the phase pha supplied from the phase calculation block 51. Based on this, the input data is buffered. At this time, the horizontal cutout width information hw and the horizontal display width information hdw read from the registers 113 and 117 are supplied to the data buffer 61.

補間関数ブロック62は、データバッファ61にバファリングされた輝度・色差データ30を、フェイズ計算ブロック51から供給されるフェイズphaを用いて、フィルタリングして、上述したcubic関数に基づいた演算処理により補間データipoを生成する。   The interpolation function block 62 filters the luminance / color difference data 30 buffered in the data buffer 61 by using the phase pha supplied from the phase calculation block 51, and interpolates by the arithmetic processing based on the above-described cubic function. Data ipo is generated.

ディレイ調整ブロック63は、補間関数ブロック62から供給された補間データipoの“偶数切り出し”、“奇数切り出し”に応じて生ずるレイテンシーを統一し、水平方向に拡大された出力画像データpdと、有効領域を示す信号とを出力する。このとき、ディレイ調整ブロック63には、レジスタ117から読み出された水平方向表示幅情報hdwが供給される。   The delay adjustment block 63 unifies the latency generated according to the “even cutout” and “odd cutout” of the interpolation data ipo supplied from the interpolation function block 62, and the output image data pd expanded in the horizontal direction and the effective area Is output. At this time, the horizontal display width information hdw read from the register 117 is supplied to the delay adjustment block 63.

{バッファリング動作}
続いて、上述したような構成の水平拡大処理部13において実行される水平拡大処理におけるデータバッファ61のバッファリング動作を“偶数切り出し”、“奇数切り出し”毎に説明する。まず、図11、12に示すタイミングチャートを用いて、データバッファ61に入力する入力データのうち輝度データYに着目し、“偶数切り出し”、“奇数切り出し”における動作について説明をする。なお、図11、12に示すタイミングチャートは、一例として、8ピクセルの画像から、16ピクセルの画像へと2倍に拡大する場合について示している。なお、フェイズ計算ブロック50に供給される初期オフセットoffを“0”とし、拡大率delを“0.5”としている。
{Buffering operation}
Subsequently, the buffering operation of the data buffer 61 in the horizontal enlargement process executed in the horizontal enlargement processing unit 13 having the above-described configuration will be described for each of “even cutout” and “odd cutout”. First, using the timing charts shown in FIGS. 11 and 12, focusing on the luminance data Y of the input data input to the data buffer 61, operations in “even cutout” and “odd cutout” will be described. Note that the timing charts shown in FIGS. 11 and 12 show, as an example, a case where the image is enlarged twice from an 8-pixel image to a 16-pixel image. Note that the initial offset off supplied to the phase calculation block 50 is “0”, and the enlargement rate del is “0.5”.

図11(a)〜(i)は、“偶数切り出し”を実行する際のタイミングチャートであり、それぞれ以下に説明するような信号を示している。   FIGS. 11A to 11I are timing charts when “even cut-out” is executed, and show signals as described below, respectively.

図11において、(a)は、水平拡大処理部13に供給される動作クロック信号、(b)は、拡大後の有効画像領域を示すマスク信号、(c)は、有効データの開始を示すフラグ信号、(d)は、あらかじめ拡大タイミングを加味した状態でメモリ102から読み出された輝度データY、(e)は、拡大前の有効画像領域を示すマスク信号、(f)は、メモリインターフェースブロック11へ供給したメモリ102から輝度データYを読み出す際のタイミング信号兼データバッファ61にバッファリングする際のタイミング信号、(g)は、データバッファ61にバッファリングされた輝度データY、(h)は、フェイズ計算ブロック51で生成されるフェイズpha、(i)は、(b)に示した拡大後の有効画像領域を示すマスク信号を3クロックディレイさせた信号であり、拡大処理された画像データの出力タイミングを示している。   11, (a) is an operation clock signal supplied to the horizontal enlargement processing unit 13, (b) is a mask signal indicating the effective image area after enlargement, and (c) is a flag indicating the start of effective data. (D) is luminance data Y read out from the memory 102 in advance with the enlargement timing taken into account, (e) is a mask signal indicating an effective image area before enlargement, and (f) is a memory interface block. 11 is a timing signal for reading out the luminance data Y from the memory 102 supplied to the data buffer 61, and (g) is the luminance data Y buffered in the data buffer 61, and (h) The phase pha generated in the phase calculation block 51, (i) is a mask signal indicating the effective image area after enlargement shown in (b). A signal obtained by locking the delay shows the output timing of image data expansion processing.

また、図11(g)における(gA)、(gB)、(gC)、(gD)は、それぞれ図10を用いて説明した4点補間演算処理で入力されるデータA、B、C、Dを示している。   In addition, (gA), (gB), (gC), and (gD) in FIG. 11 (g) are data A, B, C, and D input in the four-point interpolation calculation process described with reference to FIG. Is shown.

図11において、最も重要な信号は、図11(f)で示したタイミング信号であり、“偶数切り出し”の特徴を表している。このようなタイミング信号を生成してメモリ102からの輝度データYの読み出し、データバッファ61へバッファリングをすることで、“偶数切り出し”が実行されることになる。   In FIG. 11, the most important signal is the timing signal shown in FIG. 11F, which represents the feature of “even cut-out”. By generating such a timing signal, reading the luminance data Y from the memory 102, and buffering it in the data buffer 61, "even segmentation" is executed.

図11(gB)は、データBに相当するため、上述したように、4点補間演算処理をする際のCubic関数の中心となる。したがって、最初の輝度データY0がデータバッファ61のフリップフロップを経由して、データBとなった時点で補間計算が開始される(ステップS1)。このとき、図11(gA)に示すように、データAに相当するデータがデータバッファ61に供給されていないため、データBと同じ輝度データY0が用いられることになる。したがって、ステップS1において補間関数ブロック62に4点補間演算を実行するために供給される輝度データを、データA、B、C、Dの順に示すと(Y0、Y0、Y1、Y2)のようになる。   Since FIG. 11 (gB) corresponds to the data B, as described above, it becomes the center of the Cubic function when performing the four-point interpolation calculation process. Therefore, the interpolation calculation is started when the first luminance data Y0 becomes data B via the flip-flop of the data buffer 61 (step S1). At this time, as shown in FIG. 11 (gA), since the data corresponding to the data A is not supplied to the data buffer 61, the same luminance data Y0 as the data B is used. Accordingly, when the luminance data supplied to the interpolation function block 62 for executing the four-point interpolation calculation in step S1 is shown in the order of data A, B, C, D, (Y0, Y0, Y1, Y2) Become.

逆説的になるが、図11(f)に示すタイミング信号は、このような輝度データの供給により補間演算ブロック62における演算が実行されるよう、ステップS1を開始するまでの初期化期間として、3クロック分のイニシャル(initial)信号を有している。このイニシャル信号の後の図11(f)に示されるタイミング信号は、ここでは、2倍の拡大率の逆数として示されるデルタ0.5を累積加算した際の、2回に1回ごとに発生するキャリーを示している。   Paradoxically, the timing signal shown in FIG. 11 (f) is 3 as an initialization period until the start of step S1 so that the calculation in the interpolation calculation block 62 is executed by the supply of such luminance data. It has an initial signal for the clock. The timing signal shown in FIG. 11 (f) after this initial signal is generated once every two times when cumulatively adding delta 0.5 shown as the reciprocal of the double magnification rate. Shows carry.

このように、図11(f)に示すタイミング信号に応じて、データバッファ61にバッファリングされ(ステップS1〜ステップS7)、補間関数ブロック62にて補間演算処理が実行され、さらに、図11(gB)に示すように、データBとして8個目の輝度データである輝度データY7が供給され、バッファリングされ(ステップS8)、補間演算が実行されることで、1水平方向ラインの補間演算処理が終了することになる。   As described above, the data buffer 61 is buffered in accordance with the timing signal shown in FIG. 11 (f) (steps S1 to S7), and the interpolation calculation process is executed in the interpolation function block 62. Further, FIG. As shown in gB), luminance data Y7, which is the eighth luminance data, is supplied as data B, buffered (step S8), and an interpolation calculation is executed, whereby an interpolation calculation process for one horizontal line is performed. Will end.

このときデータC、Dに相当するデータがデータバッファ61に供給されていないため、データBと同じ輝度データY7がどちらにも用いられることになる。したがって、ステップS8においてデータバファ61に4点補間演算を実行するために供給される輝度データは、データA、B、C、Dの順に示すと(Y6、Y7、Y7、Y7)のようになる。   At this time, since data corresponding to the data C and D is not supplied to the data buffer 61, the same luminance data Y7 as the data B is used for both. Accordingly, the luminance data supplied to the data buffer 61 for executing the four-point interpolation calculation in step S8 is represented as (Y6, Y7, Y7, Y7) in the order of data A, B, C, D. .

以上が、“偶数切り出し”のバッファリング動作であり、このようにデータバッファ61にバッファリングされることにより、補間関数ブロック62で生成される補間演算処理された輝度データは、4:2:2フォーマットを崩すことがないため、非常に良好な画像を形成することができる。   The above is the “even cut-out” buffering operation, and the luminance data subjected to the interpolation calculation processing generated by the interpolation function block 62 by being buffered in the data buffer 61 in this way is 4: 2: 2. Since the format is not lost, a very good image can be formed.

図12(a)〜(i)は、“奇数切り出し”を実行する際のタイミングチャートであり、それぞれ以下に説明するような信号を示している。なお、説明のため、この“奇数切り出し”では、上述した図11を用いて示した“偶数切り出し”の後に、右水平方向に1ピクセル分移動させた画像を切り出すことを目的とする場合を例として挙げている。すなわち、上述した“偶数切り出し”では、輝度データY0〜Y7を切り出して、拡大補間処理を実行するが、この“奇数切り出し”では、輝度データY1〜Y8を切り出して拡大補間処理を実行する。   FIGS. 12A to 12I are timing charts when “odd segmentation” is executed, and show signals as described below, respectively. For the sake of explanation, this “odd segmentation” is an example in which the purpose is to segment an image moved by one pixel in the right horizontal direction after the “even segmentation” shown in FIG. 11 described above. It is listed as. That is, in the above-described “even cutout”, the luminance data Y0 to Y7 are cut out and the enlargement interpolation process is executed. In this “odd cutout”, the luminance data Y1 to Y8 is cut out and the enlargement interpolation process is executed.

図12において、(a)は、水平拡大処理部13に供給される動作クロック信号、(b)は、拡大後の有効画像領域を示すマスク信号、(c)は、有効データの開始を示すフラグ信号、(d)は、あらかじめ拡大タイミングを加味した状態でメモリ102から読み出された輝度データY、(e)は、拡大前の有効画像領域を示すマスク信号、(f)は、メモリインターフェースブロック11へ供給したメモリ102から輝度データYを読み出す際のタイミング信号兼データバッファ61にバッファリングする際のタイミング信号、(g)は、データバッファ61にバッファリングされた輝度データY、(h)は、フェイズ計算ブロック51で生成されるフェイズpha、(i)は、(b)に示した拡大後の有効画像領域を示すマスク信号を4クロックディレイさせた信号であり、拡大処理された画像データの出力タイミングを示している。   12, (a) is an operation clock signal supplied to the horizontal enlargement processing unit 13, (b) is a mask signal indicating an effective image area after enlargement, and (c) is a flag indicating the start of effective data. (D) is luminance data Y read out from the memory 102 in advance with the enlargement timing taken into account, (e) is a mask signal indicating an effective image area before enlargement, and (f) is a memory interface block. 11 is a timing signal for reading out the luminance data Y from the memory 102 supplied to the data buffer 61, and (g) is the luminance data Y buffered in the data buffer 61, and (h) The phase pha generated by the phase calculation block 51, (i) is a mask signal indicating the effective image area after enlargement shown in (b). A signal obtained by locking the delay shows the output timing of image data expansion processing.

また、図12(g)における(gA)、(gB)、(gC)、(gD)は、それぞれ図10を用いて説明した4点補間演算処理で入力されるデータA、B、C、Dを示している。   In addition, (gA), (gB), (gC), and (gD) in FIG. 12 (g) are data A, B, C, and D input in the four-point interpolation calculation process described with reference to FIG. Is shown.

図12(e)は、上述した“偶数切り出し”における、図11(e)に相当するが、拡大前の有効画像領域を8ピクセルではなく10ピクセルとし、輝度データY1〜Y8の前後をそれぞれ1ピクセル分余分に確保している。これが、図5〜図8を用いて説明した4:2:2フォーマットを“奇数切り出し”する際の弊害を除去するための操作である。   FIG. 12E corresponds to FIG. 11E in the above-described “even segmentation”, but the effective image area before enlargement is 10 pixels instead of 8 pixels, and 1 before and after the luminance data Y1 to Y8. An extra pixel is reserved. This is an operation for removing the adverse effects of “odd segmentation” of the 4: 2: 2 format described with reference to FIGS.

図12(e)に示すマスク信号と同様に、重要な信号は、図12(f)で示したタイミング信号であり、“奇数切り出し”の特徴を表している。このようなタイミング信号を生成してメモリ102からの輝度データYの読み出し、データバッファ61へのバッファリングを実行することで、“奇数切り出し”が実行されることになる。   Similar to the mask signal shown in FIG. 12 (e), the important signal is the timing signal shown in FIG. 12 (f), and represents the feature of “odd segmentation”. By generating such a timing signal, reading out the luminance data Y from the memory 102, and buffering the data buffer 61, "odd segmentation" is executed.

図12(gB)は、データBに相当するため、上述したように、4点補間演算処理をする際のCubic関数の中心となる。“奇数切り出し”において、輝度データY0、Y9は、Cubic関数の中心であるデータBとして用いられることはなく、あくまで補間要素として使用されることになる。   Since FIG. 12 (gB) corresponds to data B, as described above, it becomes the center of the Cubic function when performing the four-point interpolation calculation process. In “odd segmentation”, the luminance data Y0 and Y9 are not used as the data B which is the center of the Cubic function, but are used as interpolation elements.

例えば、従来の技術においては、マスク信号によって、輝度データY1〜Y8のみが有効画像領域として指定され、データバッファ61にバッファリングされることになる。したがって、最初の4点補間演算を実行するためにデータバッファ61に供給される輝度データは、データAに供給される輝度データをデータBと重複させるため、データA、B、C、Dの順に示すと(Y1、Y1、Y2、Y3)のようになる。   For example, in the conventional technique, only the luminance data Y1 to Y8 are designated as effective image areas by the mask signal and buffered in the data buffer 61. Accordingly, the luminance data supplied to the data buffer 61 for executing the first four-point interpolation calculation overlaps the data B with the luminance data supplied to the data A, so that the data A, B, C, and D are in this order. As shown, (Y1, Y1, Y2, Y3) is obtained.

一方、本発明の実施の形態として示す水平拡大処理部13では、最初の輝度データY0をデータバッファ61のフリップフロップを経由してデータBとせずに、そのままスルーして、データAとする。そして、次の輝度データY1がデータバッファ61のフリップフロップを経由して、データBとなった時点で補間計算が開始される(ステップS11)。このときデータAに相当するデータは、補間要素として確保された輝度データY0が用いられる。   On the other hand, in the horizontal enlargement processing unit 13 shown as an embodiment of the present invention, the first luminance data Y0 is passed through the flip-flop of the data buffer 61 as data B instead of data B and is used as data A. Then, the interpolation calculation is started when the next luminance data Y1 becomes data B via the flip-flop of the data buffer 61 (step S11). At this time, as data corresponding to data A, luminance data Y0 secured as an interpolation element is used.

したがって、ステップS11において補間関数ブロック62に4点補間演算を実行するために供給される輝度データは、データA、B、C、Dの順に示すと(Y0、Y1、Y2、Y3)のようになる。   Accordingly, the luminance data supplied to the interpolation function block 62 for executing the four-point interpolation calculation in step S11 is represented as (Y0, Y1, Y2, Y3) in the order of data A, B, C, D. Become.

逆説的になるが、図12(f)に示すタイミング信号は、このような輝度データの供給により補間演算ブロック62における演算が実行されるよう、ステップS11を開始するまでの初期化期間として、4クロック分のイニシャル(initial)信号を有している。このイニシャル信号の後の図12(f)に示されるタイミング信号は、ここでは、2倍の拡大率の逆数として示されるデルタ0.5を累積加算した際の、2回に1回ごとに発生するキャリーを示している。   Paradoxically, the timing signal shown in FIG. 12F is 4 as an initialization period until the start of step S11 so that the calculation in the interpolation calculation block 62 is executed by the supply of such luminance data. It has an initial signal for the clock. The timing signal shown in FIG. 12 (f) after this initial signal is generated once every two times when cumulatively adding delta 0.5 shown as the reciprocal of the double magnification rate. Shows carry.

このようにタイミング図12(f)に示すタイミング信号に応じて、データバッファ61にバッファリングされ(ステップS1〜ステップS7)、補間関数ブロック62にて補間演算処理が実行され、さらに図11(gB)に示すように、データBとして8個目の輝度データである輝度データY8が供給され、バッファリングされ(ステップS18)、補間演算が実行されることで、1水平方向ラインの補間演算処理が終了することになる。   In this way, the buffering is performed in the data buffer 61 in accordance with the timing signal shown in FIG. 12 (f) (steps S1 to S7), and the interpolation calculation process is executed in the interpolation function block 62. Further, FIG. ), The luminance data Y8, which is the eighth luminance data, is supplied as data B, buffered (step S18), and the interpolation calculation is executed, so that the interpolation calculation processing for one horizontal line is performed. Will end.

このときデータC、Dに相当するデータが、データバッファ61に供給されていないため、輝度データY0と同様に補間要素として確保された輝度データY9が用いられることになる。したがって、ステップS18において、データバッファ61に、4点補間演算を実行するために供給される輝度データY9は、データA、B、C、Dの順に示すと(Y7、Y8、Y9、Y9)のようになる。   At this time, since data corresponding to the data C and D is not supplied to the data buffer 61, the luminance data Y9 secured as an interpolation element is used similarly to the luminance data Y0. Therefore, in step S18, the luminance data Y9 supplied to the data buffer 61 for executing the four-point interpolation calculation is represented by the order of data A, B, C, D (Y7, Y8, Y9, Y9). It becomes like this.

以上が、“奇数切り出し”のバッファリング動作であり、このようにデータバッファ61にバッファリングされることにより、補間関数ブロック62で生成される補間演算処理された輝度データは、4:2:2フォーマットを崩すことがないため、非常に良好な画像を形成することができる。   The above is the “odd segmentation” buffering operation, and the luminance data subjected to the interpolation calculation process generated by the interpolation function block 62 by being buffered in the data buffer 61 in this way is 4: 2: 2. Since the format is not lost, a very good image can be formed.

以上の結果をまとめると、図13に示すようになる。図13(a)に示すような4:2:2フォーマットの画像データを構成する輝度データY0、Y1、Y2・ ・ ・ ・Y9、Y10、Y11に対して、まず、始めに図13(b)に示す輝度データY0〜Y7までを指定したとする(偶数切り出し)。   The above results are summarized as shown in FIG. First, with respect to luminance data Y0, Y1, Y2,..., Y9, Y10, and Y11 constituting image data in 4: 2: 2 format as shown in FIG. Are designated (even segmentation).

次に、図13(c)に示すように、1ピクセルだけ水平右方向にシフトした輝度データY1〜Y8が指定されたとする(奇数切り出し)。このとき、データバッファ61にバッファリングさせる輝度データは、図13(d)に示すように輝度データY0〜Y9となる。この輝度データY0、Y9は、4:2:2フォーマットを維持するための補間要素として用いられる。   Next, as shown in FIG. 13C, it is assumed that the luminance data Y1 to Y8 shifted in the horizontal right direction by one pixel are designated (odd segmentation). At this time, the luminance data buffered in the data buffer 61 is luminance data Y0 to Y9 as shown in FIG. The luminance data Y0 and Y9 are used as interpolation elements for maintaining the 4: 2: 2 format.

そして、図13(e)に示すように、さらに1ピクセルだけ水平右方向にシフトした輝度データY2〜Y9が指定されたとする(偶数切り出し)。   Then, as shown in FIG. 13E, it is assumed that the luminance data Y2 to Y9 shifted further by one pixel in the horizontal right direction are specified (even cut-out).

このようにして、“偶数切り出し”、“奇数切り出し”によって切り出された画像データから補間画像データを生成し、連続表示させた映像は、“偶数切り出し”ではもちろんのこと、“奇数切り出し”においても4:2:2フォーマットが崩されることがないため、非常に滑らかで高画質な映像となる。したがって、パンスキャン方式のアスペクト比変換を実行した場合には、従来までは、滑らかさに欠けていた動画像を、非常に滑らかな動画像に改善することができる。   In this way, the interpolated image data is generated from the image data cut out by “even cutout” and “odd cutout”, and the continuously displayed video is not only “even cutout” but also “odd cutout”. Since the 4: 2: 2 format is not destroyed, the video is very smooth and high quality. Therefore, when pan-scan aspect ratio conversion is executed, a moving image that has been lacking in smoothness can be improved to a very smooth moving image.

続いて、図14、15に示すタイミングチャートを用いて、データバッファ61に入力する入力データのうち色差データCr、Cbに着目し、“偶数切り出し”、“奇数切り出し”における動作について説明をする。なお、図14、15に示すタイミングチャートは、一例として、8ピクセルの画像から、16ピクセルの画像へと2倍に拡大する場合について示している。なお、フェイズ計算ブロック50に供給される初期オフセットoffを“0”とし、拡大率delを“0.5”としている。   Next, using the timing charts shown in FIGS. 14 and 15, focusing on the color difference data Cr and Cb among the input data input to the data buffer 61, operations in “even cutout” and “odd cutout” will be described. Note that the timing charts shown in FIGS. 14 and 15 show, as an example, a case where the image is enlarged twice from an 8-pixel image to a 16-pixel image. Note that the initial offset off supplied to the phase calculation block 50 is “0”, and the enlargement rate del is “0.5”.

図14(a)〜(i)は、“偶数切り出し”を実行する際のタイミングチャートであり、それぞれ以下に説明するような信号を示している。   FIGS. 14A to 14I are timing charts for executing “even cut-out”, and show signals as described below, respectively.

図14において、(a)は、水平拡大処理部13に供給される動作クロック信号、(b)は、拡大後の有効画像領域を示すマスク信号、(c)は、有効データの開始を示すフラグ信号、(d)は、あらかじめ拡大タイミングを加味した状態でメモリ102から読み出された輝度データY、(e)は、拡大前の有効画像領域を示すマスク信号、(f)は、メモリインターフェースブロック11へ供給したメモリ102から色差データCb、Crを読み出す際のタイミング信号兼データバッファ61にバッファリングする際のタイミング信号、(g)は、データバッファ61にバッファリングされた輝度データY、(h)は、フェイズ計算ブロック51で生成されるフェイズpha、(i)は、(b)に示した拡大後の有効画像領域を示すマスク信号を6クロックディレイさせた信号であり、拡大処理された画像データの出力タイミングを示している。   14, (a) is an operation clock signal supplied to the horizontal enlargement processing unit 13, (b) is a mask signal indicating an effective image area after enlargement, and (c) is a flag indicating the start of effective data. (D) is luminance data Y read out from the memory 102 in advance with the enlargement timing taken into account, (e) is a mask signal indicating an effective image area before enlargement, and (f) is a memory interface block. 11 is a timing signal used when buffering the color difference data Cb and Cr from the memory 102 supplied to the data buffer 61, and (g) indicates luminance data Y and (h) buffered in the data buffer 61. ) Is the phase pha generated by the phase calculation block 51, and (i) is a mask indicating the enlarged effective image area shown in (b). A is a signal obtained by 6 clock delay, it shows the output timing of the image data enlarged processed items.

また、図14(g)における(gA)、(gB)、(gC)、(gD)は、それぞれ図10を用いて説明した4点補間演算処理で入力されるデータA、B、C、Dを示している。   Also, (gA), (gB), (gC), and (gD) in FIG. 14 (g) are data A, B, C, and D input in the four-point interpolation calculation process described with reference to FIG. Is shown.

図14において、最も重要な信号は、図14(f)で示したタイミング信号であり、“偶数切り出し”の特徴を表している。このようなタイミング信号を生成してメモリ102からの色差データCb、Crの読み出し、データバッファ61へのバッファリングを実行することで、“偶数切り出し”が実行されることになる。   In FIG. 14, the most important signal is the timing signal shown in FIG. 14 (f), which represents the feature of “even segmentation”. By generating such a timing signal, reading out the color difference data Cb and Cr from the memory 102, and buffering to the data buffer 61, "even segmentation" is executed.

図14(gB)は、データBに相当するため、上述したように、4点補間演算処理をする際のCubic関数の中心となる。したがって、最初の色差データCb0、Cr0がデータバッファ61のフリップフロップを経由して、データBとなった時点で補間計算が開始される(ステップS31)。このとき、図14(gA)に示すように、データAに相当するデータがデータバッファ61に供給されていないため、データBと同じ色差データCb0、Cr0が用いられることになる。したがって、ステップS31において補間関数ブロック62に4点補間演算を実行するために供給される輝度データを、データA、B、C、Dの順に示すと(Cb0:Cr0、Cb0:Cr0、Cb2:Cr2、Cb4:Cr4)のようになる。   Since FIG. 14 (gB) corresponds to the data B, as described above, it becomes the center of the Cubic function when performing the four-point interpolation calculation process. Accordingly, the interpolation calculation is started when the first color difference data Cb0 and Cr0 become data B via the flip-flop of the data buffer 61 (step S31). At this time, as shown in FIG. 14 (gA), since the data corresponding to the data A is not supplied to the data buffer 61, the same color difference data Cb0 and Cr0 as the data B are used. Therefore, when the luminance data supplied to execute the four-point interpolation calculation to the interpolation function block 62 in step S31 is shown in the order of data A, B, C, and D (Cb0: Cr0, Cb0: Cr0, Cb2: Cr2). , Cb4: Cr4).

逆説的になるが、図14(f)に示すタイミング信号は、このような輝度データの供給により補間演算ブロック62における演算が実行されるよう、ステップS31を開始するまで初期化の期間として、6クロック分のイニシャル(initial)信号を有している。このイニシャル信号の後の図14(f)に示されるタイミング信号は、ここでは、2倍の拡大率の逆数として示されるデルタ0.5を累積加算した際の、2回に1回ごとに発生するキャリーを示している。   Paradoxically, the timing signal shown in FIG. 14F is an initialization period of 6 until the start of step S31 so that the calculation in the interpolation calculation block 62 is executed by the supply of such luminance data. It has an initial signal for the clock. The timing signal shown in FIG. 14 (f) after this initial signal is generated once every two times when cumulatively adding delta 0.5 shown as the reciprocal of the double magnification rate. Shows carry.

このように、図14(f)に示すタイミング信号に応じて、データバッファ61にバッファリングされ(ステップS31〜ステップS37)、補間関数ブロック62にて補間演算処理が実行され、さらに、図14(gB)に示すように、データBとして8個目の輝度データである色差データCb6、Cr6が供給され、バッファリングされ(ステップS38)、補間演算が実行されることで、1水平方向ラインの補間演算処理が終了することになる。   As described above, the data buffer 61 is buffered in accordance with the timing signal shown in FIG. 14 (f) (steps S31 to S37), and the interpolation calculation process is executed in the interpolation function block 62. Further, FIG. As shown in gB), the color difference data Cb6 and Cr6, which are the eighth luminance data, are supplied as the data B, buffered (step S38), and the interpolation operation is executed, thereby interpolating one horizontal direction line. The calculation process ends.

このときデータC、Dに相当するデータがデータバッファ61に供給されていないため、データBと同じ色差データCb6、Cr6がどちらにも用いられることになる。したがって、ステップS38において、データバファ61に4点補間演算を実行するために供給される輝度データは、データA、B、C、Dの順に示すと(Cb4:Cr4、Cb6:Cr6、Cb6:Cr6、Cb6:Cr6)のようになる。   At this time, since data corresponding to the data C and D is not supplied to the data buffer 61, the same color difference data Cb6 and Cr6 as the data B are used for both. Accordingly, in step S38, the luminance data supplied to the data buffer 61 for executing the four-point interpolation calculation is represented in the order of data A, B, C, D (Cb4: Cr4, Cb6: Cr6, Cb6: Cr6). , Cb6: Cr6).

以上が、“偶数切り出し”のバッファリング動作であり、このようにデータバッファ61にバッファリングされることにより、補間関数ブロック62で生成される補間演算処理された輝度データは、4:2:2フォーマットを崩すことがないため、非常に良好な画像を形成することができる。   The above is the “even cut-out” buffering operation, and the luminance data subjected to the interpolation calculation processing generated by the interpolation function block 62 by being buffered in the data buffer 61 in this way is 4: 2: 2. Since the format is not lost, a very good image can be formed.

図15(a)〜(i)は、“奇数切り出し”を実行する際のタイミングチャートであり、それぞれ以下に説明するような信号を示している。なお、説明のため、この“奇数切り出し”では、上述した図14を用いて示した“偶数切り出し”の後に、右水平方向に1ピクセル分移動させた画像を切り出すことを目的とする場合を例として挙げている。すなわち、上述した“偶数切り出し”では、色差データCb0、Cr0〜Cb6、Cr6を切り出して、拡大補間処理を実行するが、この“奇数切り出し”では、色差データCr0、Cb2〜Cr6、Cb8を切り出して拡大補間処理を実行する。   FIGS. 15A to 15I are timing charts when “odd segmentation” is performed, and show signals as described below, respectively. For the sake of explanation, this “odd segmentation” is an example in which the purpose is to segment an image moved by one pixel in the right horizontal direction after “even segmentation” shown in FIG. 14 described above. It is listed as. That is, in the above-described “even cutout”, the color difference data Cb0, Cr0 to Cb6, Cr6 are cut out and the enlargement interpolation process is executed. In this “odd cutout”, the color difference data Cr0, Cb2 to Cr6, Cb8 are cut out. Execute the enlargement interpolation process.

図15において、(a)は、水平拡大処理部13に供給される動作クロック信号、(b)は、拡大後の有効画像領域を示すマスク信号、(c)は、有効データの開始を示すフラグ信号、(d)は、あらかじめ拡大タイミングを加味した状態でメモリ102から読み出された色差データCb、Cr、(e)は、拡大前の有効画像領域を示すマスク信号、(f)は、メモリインターフェースブロック11へ供給したメモリ102から色差データCb、Crを読み出す際のタイミング信号兼データバッファ61にバッファリングする際のタイミング信号、(g)は、データバッファ61にバッファリングされた色差データCb、Cr、(h)は、フェイズ計算ブロック51で生成されるフェイズpha、(i)は、(b)に示した拡大後の有効画像領域を示すマスク信号を4クロックディレイさせた信号であり、拡大処理された画像データの出力タイミングを示している。   15, (a) is an operation clock signal supplied to the horizontal enlargement processing unit 13, (b) is a mask signal indicating the effective image area after enlargement, and (c) is a flag indicating the start of effective data. The signal, (d) is the color difference data Cb, Cr, (e) read from the memory 102 in advance with the enlargement timing taken into consideration, the mask signal indicating the effective image area before enlargement, and (f) the memory The timing signal for buffering the color difference data Cb and Cr from the memory 102 supplied to the interface block 11 and the timing signal for buffering in the data buffer 61, (g) is the color difference data Cb buffered in the data buffer 61, Cr, (h) is the phase pha generated by the phase calculation block 51, and (i) is the enlarged effective image shown in (b). A signal 4 is the clock delayed mask signal indicating a range, it shows the output timing of the image data enlarged processed.

また、図15(g)における(gA)、(gB)、(gC)、(gD)は、それぞれ図10を用いて説明した4点補間演算処理で入力されるデータA、B、C、Dを示している。   Also, (gA), (gB), (gC), and (gD) in FIG. 15 (g) are data A, B, C, and D input in the four-point interpolation calculation process described with reference to FIG. Is shown.

図15(e)は、上述した“偶数切り出し”における、図14(e)に相当するが、拡大前の有効画像領域を8ピクセルではなく10ピクセルとし、色差データCr0、Cb2〜Cr6、Cb8の前後をそれぞれ1ピクセル分余分に確保している。これが、図5〜図8を用いて説明した4:2:2フォーマットを“奇数切り出し”する際の弊害を除去するための操作である。   FIG. 15 (e) corresponds to FIG. 14 (e) in the above-mentioned “even segmentation”, but the effective image area before enlargement is 10 pixels instead of 8 pixels, and the color difference data Cr0, Cb2 to Cr6, Cb8 An extra 1 pixel is secured for each of the front and rear. This is an operation for removing the adverse effects of “odd segmentation” of the 4: 2: 2 format described with reference to FIGS.

図15(e)に示すマスク信号と同様に、重要な信号は、図15(f)で示したタイミング信号であり、“奇数切り出し”の特徴を表している。このようなタイミング信号を生成してメモリ102からの色差データCb、Crの読み出し、データバッファ61へのバッファリングを実行することで、“奇数切り出し”が実行されることになる。   Similar to the mask signal shown in FIG. 15 (e), the important signal is the timing signal shown in FIG. 15 (f), which represents the feature of “odd-number clipping”. By generating such timing signals and reading out the color difference data Cb and Cr from the memory 102 and buffering them in the data buffer 61, “odd segmentation” is executed.

図15(gB)は、データBに相当するため、上述したように、4点補間演算処理をする際のCubic関数の中心となる。   Since FIG. 15 (gB) corresponds to data B, as described above, it becomes the center of the Cubic function when performing the four-point interpolation calculation process.

例えば、従来の技術においては、マスク信号によって、色差データCr0、Cb2〜Cr6、Cb8のみが有効画像領域として指定され、データバッファ61にバッファリングされることになる。したがって、最初の4点補間演算を実行するためにデータバッファ61に供給される輝度データは、データAに供給される輝度データをデータBと重複させるため、データA、B、C、Dの順に示すと(Cr0:Cb2、Cr0:Cb2、Cr2:Cb4、Cr4:Cb6)のようになる。   For example, in the conventional technique, only the color difference data Cr0, Cb2 to Cr6, and Cb8 are designated as effective image areas by the mask signal and buffered in the data buffer 61. Accordingly, the luminance data supplied to the data buffer 61 for executing the first four-point interpolation calculation overlaps the data B with the luminance data supplied to the data A, so that the data A, B, C, and D are in this order. As shown, (Cr0: Cb2, Cr0: Cb2, Cr2: Cb4, Cr4: Cb6) are obtained.

一方、本発明の実施の形態として示す水平拡大処理部13では、“偶数切り出し”と同様に、最初の色差データCb0、Cr0がデータバッファ61のフリップフロップを経由して、データBとなった時点で補間計算が開始される(ステップS41)。このときデータAに相当するデータがデータバッファ61に供給されていないため、データBと同じ色差データCb0、Cr0が用いられることになる。   On the other hand, in the horizontal enlargement processing unit 13 shown as the embodiment of the present invention, when the first color difference data Cb0 and Cr0 become data B via the flip-flop of the data buffer 61, as in “even cutout”. The interpolation calculation is started (step S41). At this time, since the data corresponding to the data A is not supplied to the data buffer 61, the same color difference data Cb0 and Cr0 as the data B are used.

したがって、ステップS41において補間関数ブロック62に4点補間演算を実行するために供給される輝度データは、データA、B、C、Dの順に示すと(Cb0:Cr0、Cb0:Cr0、Cb2:Cr2、Cb4:Cr4)のようになる。   Therefore, the luminance data supplied to the interpolation function block 62 for executing the four-point interpolation calculation in step S41 is shown in the order of data A, B, C, D (Cb0: Cr0, Cb0: Cr0, Cb2: Cr2). , Cb4: Cr4).

しかしながら、色差データの“奇数切り出し”では、フェイズの累積加算が、“偶数切り出し”と異なっている。“偶数切り出し”においては、フェイズを0、0.5、・ ・ ・と用いることになるが、“奇数切り出し”においては、右にシフトさせ、最初の4点による補間演算においてフェイズを0.5とし、次の4点による補間演算においてフェイズを0としている。したがって、最後の4点による補間演算では、フェイズを0としている。つまり、色差データの場合は、輝度データの場合と異なり、“偶数切り出し”、“奇数切り出し”の違いによってタイミング信号のイニシャル信号のクロック数に違いはなく、どちらも6クロック分有していることになる。   However, in “odd cutout” of color difference data, the cumulative addition of phases is different from “even cutout”. In “even cutout”, the phase is used as 0, 0.5,..., But in “odd cutout”, the phase is shifted to the right and the phase is set to 0.5 in the first four interpolation operations. And the phase is set to 0 in the following four interpolation operations. Therefore, the phase is set to 0 in the last four interpolation operations. In other words, in the case of color difference data, unlike the case of luminance data, there is no difference in the number of clocks of the initial signal of the timing signal due to the difference between “even cutout” and “odd cutout”, and both have 6 clocks. become.

このようにタイミング図15(f)に示すタイミング信号に応じて、データバッファ61にバッファリングされ(ステップS41〜ステップS47)、補間関数ブロック62にて補間演算処理が実行され、さらに図15(gB)に示すように、データBとして8個目の色差データである色差データCb8、Cr8が供給され、バッファリングされ(ステップS48)、補間演算が実行されることで、1水平方向ラインの補間演算処理が終了することになる。   In this way, the buffering is performed in the data buffer 61 in accordance with the timing signal shown in FIG. 15 (f) (steps S41 to S47), and the interpolation calculation process is executed in the interpolation function block 62. Further, FIG. ), As the data B, the color difference data Cb8 and Cr8 which are the eighth color difference data are supplied, buffered (step S48), and the interpolation calculation is executed, whereby the interpolation calculation of one horizontal line is performed. The process ends.

このときデータC、Dに相当するデータが、データバッファ61に供給されていないため、色差データCb8、Cr8が用いられることになる。したがって、ステップS48において、データバッファ61に、4点補間演算を実行するために供給される色差データは、データA、B、C、Dの順に示すと(Cb6:Cr6、Cb8:Cr8、Cb8:Cr8、Cb8:Cr8)のようになる。   At this time, since the data corresponding to the data C and D is not supplied to the data buffer 61, the color difference data Cb8 and Cr8 are used. Accordingly, in step S48, the color difference data supplied to the data buffer 61 for executing the four-point interpolation calculation is represented in the order of data A, B, C, D (Cb6: Cr6, Cb8: Cr8, Cb8: Cr8, Cb8: Cr8).

以上が、“奇数切り出し”のバッファリング動作であり、このようにバッファリングされることにより、補間関数ブロック62で生成される補間演算処理された色差データは、4:2:2フォーマットを崩すことがないため、非常に良好な画像を形成することができる。   The above is the buffering operation of “odd segmentation”. By such buffering, the color difference data subjected to the interpolation calculation processing generated by the interpolation function block 62 breaks the 4: 2: 2 format. Therefore, a very good image can be formed.

以上の結果をまとめると、図16に示すようになる。図16(a)に示すような4:2:2フォーマットの画像データを構成する色差データCb0、Cr0、Cb2、Cb2、Cb4、Cr4、Cb6、Cr6、Cb8、Cr8、Cb10、Cr10に対して、まず、始めに図16(b)に示す色差データCb0〜Cr6までを指定したとする(偶数切り出し)。   The above results are summarized as shown in FIG. For the color difference data Cb0, Cr0, Cb2, Cb2, Cb4, Cr4, Cb6, Cr6, Cb8, Cr8, Cb10, and Cr10 constituting the image data in the 4: 2: 2 format as shown in FIG. First, it is assumed that the color difference data Cb0 to Cr6 shown in FIG.

次に、図16(c)に示すように、1ピクセルだけ水平右方向にシフトした色差データCr0〜Cb8が指定されたとする(奇数切り出し)。このとき、データバッファ61にバッファリングさせる輝度データは、図16(d)に示すように色差データCb0〜Cr8となる。この色差データCb0、Cr8は、4:2:2フォーマットを維持するための補間要素として用いられる。   Next, as shown in FIG. 16C, it is assumed that the color difference data Cr0 to Cb8 shifted by one pixel in the horizontal right direction is specified (odd cutout). At this time, the luminance data to be buffered in the data buffer 61 is the color difference data Cb0 to Cr8 as shown in FIG. The color difference data Cb0 and Cr8 are used as interpolation elements for maintaining the 4: 2: 2 format.

そして、図16(e)に示すように、さらに1ピクセルだけ水平右方向にシフトした色差データCb2〜Cr8が指定されたとする(偶数切り出し)。   Then, as shown in FIG. 16 (e), it is assumed that the color difference data Cb2 to Cr8 shifted further by one pixel in the horizontal right direction are specified (even segmentation).

このようにして、“偶数切り出し”、“奇数切り出し”によって拡大処理された画像データから補間画像データを生成し、連続表示させた映像は、“偶数切り出し”ではもちろんのこと、“奇数切り出し”においても4:2:2フォーマットが崩されることがないため、非常に滑らかで高画質な映像となる。したがって、パンスキャン方式のアスペクト比変換を実行した場合には、従来までは、滑らかさに欠けていた動画像を、非常に滑らかな動画像に改善することができる。   In this way, the interpolated image data is generated from the image data enlarged by “even cutout” and “odd cutout”, and the continuously displayed video is not only “even cutout” but also “odd cutout”. Since the 4: 2: 2 format is not destroyed, the video is very smooth and high quality. Therefore, when pan-scan aspect ratio conversion is executed, a moving image that has been lacking in smoothness can be improved to a very smooth moving image.

{タイミング信号生成ブロック50、フィルタ回路60の実装例}
以下に、図9に示した水平拡大処理部13の実装例を示す。図9に示したように水平拡大処理部13は、タイミング信号生成ブロック50と、フィルタ回路60とを備えている。
{Example of mounting timing signal generation block 50 and filter circuit 60}
Hereinafter, an implementation example of the horizontal enlargement processing unit 13 illustrated in FIG. 9 will be described. As shown in FIG. 9, the horizontal enlargement processing unit 13 includes a timing signal generation block 50 and a filter circuit 60.

例えば、輝度データYに対しては、図17に示すようなタイミング信号生成ブロック50y、図18に示すようなフィルタ回路60yを実装することができる。   For example, for the luminance data Y, a timing signal generation block 50y as shown in FIG. 17 and a filter circuit 60y as shown in FIG. 18 can be mounted.

図17に示すように、タイミング信号生成ブロック50yは、入力された拡大率del、初期オフセットoffをセレクタSEL1によって切り換えながら累積計算を実行しフェイズphaを生成する。セレクタSEL1は、セレクタSEL3からの出力によって切り換えを行う。   As shown in FIG. 17, the timing signal generation block 50y generates a phase pha by executing accumulation calculation while switching the input enlargement rate del and initial offset off by the selector SEL1. The selector SEL1 performs switching according to the output from the selector SEL3.

図11(f)、図12(f)に示したタイミング信号のイニシャル(initial)信号は、有効画像領域の始まりにつけてある開始フラグ信号FSをディレイさせたものであり、“偶数切り出し”、“奇数切り出し”に応じたセレクタSEL2の切り換えによって、それぞれに対応したイニシャル信号が生成されることになる。このイニシャル信号は、論理回路LOG1に供給される。論理回路LOG1は、同じく供給されたフェイズphaのMSB(Most Significant Bit)、すなわち上述したキャリーと、供給されたイニシャル信号との論理和を取ることで、図11(f)、図12(f)として示したタイミング信号TSを生成する。   The initial signal of the timing signal shown in FIGS. 11 (f) and 12 (f) is obtained by delaying the start flag signal FS attached to the beginning of the effective image area. By switching the selector SEL2 in accordance with “odd cutout”, corresponding initial signals are generated. This initial signal is supplied to the logic circuit LOG1. Similarly, the logic circuit LOG1 takes the logical sum of the MSB (Most Significant Bit) of the phase pha supplied, that is, the carry described above and the supplied initial signal, so that FIG. 11 (f) and FIG. 12 (f). Is generated as shown in FIG.

また、ディレイされた開始フラグ信号FSは、セレクタSEL3に供給され、その出力がSEL1の切り換えに作用する。セレクタSEL2、SEL3は、水平方向切り出し位置情報hpのlsbに応じて切り換えられる。   Further, the delayed start flag signal FS is supplied to the selector SEL3, and its output acts on switching of SEL1. The selectors SEL2 and SEL3 are switched according to lsb of the horizontal cutout position information hp.

タイミング信号生成ブロック50yは、図11(e)、図12(e)に示した、拡大前の有効画像領域を示すマスク信号である拡大前有効画像領域バリッド信号BVSを生成する。   The timing signal generation block 50y generates a pre-enlargement effective image area valid signal BVS that is a mask signal indicating an effective image area before enlargement, as shown in FIGS. 11 (e) and 12 (e).

水平方向切り出し位置情報hpのlsbで切り換えられるセレクタSEL4は、水平方向切り出し幅情報hwと、水平方向切り出し幅情報hwを2ピクセル分拡張させた信号とのいずれかを出力する。そして、比較器CMP1による、SEL4の出力値と、タイミング信号TSで回るマスク信号生成カウンタCNT1のカウント値との比較結果が拡大前有効画像領域バリッド信号BVSになる。   The selector SEL4 switched by lsb of the horizontal cutout position information hp outputs either the horizontal cutout width information hw or a signal obtained by extending the horizontal cutout width information hw by 2 pixels. Then, the comparison result between the output value of SEL4 by the comparator CMP1 and the count value of the mask signal generation counter CNT1 rotated by the timing signal TS becomes the pre-enlargement effective image region valid signal BVS.

また、図18に示すように、フィルタ回路60yは、入力データである輝度データYを、シフトレジスタREG1を介して、補間フィルタブロックCFB1に供給し、拡大補間処理を実行させる。フィルタ回路60yは、補間フィルタブロックCFB1で拡大補間処理された輝度データYを、水平方向切り出し位置情報hpのlsbによって動作するセレクタSEL5によって、セレクトし出力データとして出力する。   As shown in FIG. 18, the filter circuit 60y supplies luminance data Y, which is input data, to the interpolation filter block CFB1 via the shift register REG1, and executes an enlargement interpolation process. The filter circuit 60y selects the luminance data Y that has been subjected to the expansion interpolation processing in the interpolation filter block CFB1 by the selector SEL5 that operates according to lsb of the horizontal cutout position information hp, and outputs the selected data as output data.

シフトレジスタREG1によるバッファリング処理は、拡大前リクエストバリッド信号RVSと、拡大前リクエスト信号RSとの論理回路LOG2による論理積に応じて実行される。また、バッファリングの初期化は、拡大後有効画像領域バリッド信号AVSの立ち上がりをトリガーにして実行される。この拡大後有効画像領域バリッド信号AVSは、システムレイテンシを考慮されることで、図11(i)、図12(i)に示された拡大後の有効画像領域を示すマスク信号として出力される。   The buffering process by the shift register REG1 is executed according to the logical product of the pre-enlargement request valid signal RVS and the pre-enlargement request signal RS by the logic circuit LOG2. The initialization of the buffering is executed with the rising edge of the post-enlargement effective image area valid signal AVS as a trigger. The enlarged effective image area valid signal AVS is output as a mask signal indicating the enlarged effective image area shown in FIGS. 11 (i) and 12 (i) by considering the system latency.

また、色差データCb、Crに対しては、図19に示すようなタイミング信号生成ブロック50c、図20に示すようなフィルタ回路60cを実装することができる。   Further, a timing signal generation block 50c as shown in FIG. 19 and a filter circuit 60c as shown in FIG. 20 can be mounted on the color difference data Cb and Cr.

図19に示すように、タイミング信号生成ブロック50cは、入力された拡大率del、初期オフセットoffをセレクタSEL11によって切り換えながら累積計算を実行しフェイズphaを生成する。   As shown in FIG. 19, the timing signal generation block 50 c generates a phase pha by performing accumulation calculation while switching the input enlargement rate del and initial offset off by the selector SEL11.

図14(f)、図15(f)に示したタイミング信号のイニシャル(initial)信号は、有効画像領域の始まりにつけてある開始フラグ信号FSをディレイさせたものであり、論理回路LOG11に供給される。論理回路LOG11は、同じく供給されたフェイズphaのMSB(Most Significant Bit)、すなわち上述したキャリーと、供給されたイニシャル信号との論理和を取ることで、図14(f)、図15(f)として示したタイミング信号TSを生成する。   The initial signal of the timing signal shown in FIGS. 14 (f) and 15 (f) is obtained by delaying the start flag signal FS attached to the beginning of the effective image area, and is supplied to the logic circuit LOG11. The Similarly, the logic circuit LOG11 takes the logical sum of the MSB (Most Significant Bit) of the phase pha supplied, that is, the carry described above and the supplied initial signal, so that FIG. 14 (f) and FIG. 15 (f). Is generated as shown in FIG.

タイミング信号生成ブロック50cは、図14(e)、図15(e)に示した、拡大前の有効画像領域を示すマスク信号である拡大前有効画像領域バリッド信号BVSを生成する。   The timing signal generation block 50c generates a pre-enlargement effective image area valid signal BVS, which is a mask signal indicating an effective image area before enlargement, as shown in FIGS. 14 (e) and 15 (e).

水平方向切り出し位置情報hpのlsbで切り換えられるセレクタSEL12は、水平方向切り出し幅情報hwと、水平方向切り出し幅情報hwを2ピクセル分拡張させた信号とのいずれかを出力する。そして、比較器CMP11による、セレクタSEL12の出力値と、タイミング信号TSで回るマスク信号生成カウンタCNT11のカウント値との比較結果が拡大前有効画像領域バリッド信号BVSになる。   The selector SEL12 switched by lsb of the horizontal cutout position information hp outputs either the horizontal cutout width information hw or a signal obtained by extending the horizontal cutout width information hw by 2 pixels. Then, the comparison result between the output value of the selector SEL12 and the count value of the mask signal generation counter CNT11 rotated by the timing signal TS by the comparator CMP11 becomes the effective image area valid signal BVS before enlargement.

また、図20に示すように、フィルタ回路60cは、入力データである色差データCb、Crを、シフトレジスタREG11を介して、補間フィルタブロックCFB11に供給し、拡大補間処理を実行させる。   Further, as shown in FIG. 20, the filter circuit 60c supplies the color difference data Cb and Cr, which are input data, to the interpolation filter block CFB11 via the shift register REG11, and executes the enlargement interpolation process.

シフトレジスタREG11によるバッファリング処理は、拡大前リクエストバリッド信号RVSと、拡大前リクエスト信号RSとの論理回路LOG12による論理積に応じて実行される。また、バッファリングの初期化は、拡大後有効画像領域バリッド信号AVSの立ち上がりをトリガーにして実行される。この拡大後有効画像領域バリッド信号AVSは、システムレイテンシを考慮されることで、図14(i)、図15(i)に示された拡大後の有効画像領域を示すマスク信号として出力される。   The buffering process by the shift register REG11 is executed according to the logical product of the pre-enlargement request valid signal RVS and the pre-enlargement request signal RS by the logic circuit LOG12. The initialization of the buffering is executed with the rising edge of the post-enlargement effective image area valid signal AVS as a trigger. The enlarged effective image area valid signal AVS is output as a mask signal indicating the enlarged effective image area shown in FIGS. 14 (i) and 15 (i) by considering the system latency.

なお、上述した水平拡大処理部13の実装例は、一例であって本発明を限定するものではなく、本発明の要旨を逸脱しない範囲内であれば、どのような実装形式であってもよい。   The mounting example of the horizontal enlargement processing unit 13 described above is an example and does not limit the present invention, and any mounting format may be used as long as it does not depart from the gist of the present invention. .

本発明を実施するための最良の形態として示す映像信号処理装置の構成について説明するための図である。It is a figure for demonstrating the structure of the video signal processing apparatus shown as the best form for implementing this invention. 同映像信号処理装置が備えるOSD(On Screen Display)の構成について説明するための図である。It is a figure for demonstrating the structure of OSD (On Screen Display) with which the video signal processing apparatus is provided. 切り出しに必要となる情報について説明するための図である。It is a figure for demonstrating the information required for extraction. 切り出しに必要となる情報について説明するための図である。It is a figure for demonstrating the information required for extraction. 4:2:2フォーマットの最小構成単位となる輝度・色差データについて説明するための図である。It is a figure for demonstrating the brightness | luminance and color difference data used as the minimum structural unit of 4: 2: 2 format. 従来の“偶数切り出し”について説明するための図である。It is a figure for demonstrating the conventional "even cut-out". 従来の“奇数切り出し”について説明するための図である。It is a figure for demonstrating the conventional "odd cutout". 本発明の“奇数切り出し”について説明するための図である。It is a figure for demonstrating the "odd cutout" of this invention. OSDが備える水平方向拡大処理部の構成について説明するための図である。It is a figure for demonstrating the structure of the horizontal direction expansion process part with which OSD is provided. 4点補間演算処理について説明するための図である。It is a figure for demonstrating 4 point | piece interpolation calculation processing. “偶数切り出し”を実行した際に、輝度データをバッファリングする動作について説明するためのタイミングチャートである。12 is a timing chart for explaining an operation of buffering luminance data when “even cut-out” is executed. “奇数切り出し”を実行した際に、輝度データをバッファリングする動作について説明するためのタイミングチャートである。12 is a timing chart for explaining an operation of buffering luminance data when “odd segmentation” is executed. “偶数切り出し”、“奇数切り出し”を連続して実行した際に取得される輝度データについて説明するためのタイミングチャートである。10 is a timing chart for explaining luminance data acquired when “even cutout” and “odd cutout” are successively executed. “偶数切り出し”を実行した際に、色差データをバッファリングする動作について説明するための図である。It is a figure for demonstrating the operation | movement which buffers color difference data, when "even cut-out" is performed. “奇数切り出し”を実行した際に、色差データをバッファリングする動作について説明するための図である。It is a figure for demonstrating the operation | movement which buffers color difference data when performing "odd cutout". “偶数切り出し”、“奇数切り出し”を連続して実行した際に取得される色差データについて説明するためのタイミングチャートである。10 is a timing chart for explaining color difference data acquired when “even cutout” and “odd cutout” are successively executed. 輝度データに関する処理を実行するタイミング信号生成ブロックの実装例を示した図である。It is the figure which showed the example of mounting of the timing signal generation block which performs the process regarding luminance data. 輝度データに関する処理を実行するフィルタ回路の実装例を示した図である。It is the figure which showed the example of mounting of the filter circuit which performs the process regarding luminance data. 色差データに関する処理を実行するタイミング信号生成ブロックの実装例を示した図である。It is the figure which showed the example of mounting of the timing signal generation block which performs the process regarding color difference data. 色差データに関する処理を実行するフィルタ回路の実装例を示した図である。It is the figure which showed the example of mounting of the filter circuit which performs the process regarding color difference data. パンスキャン方式、レターボックス方式のアスペクト比変換について説明するための図である。It is a figure for demonstrating the aspect-ratio conversion of a pan scan system and a letterbox system. パンスキャン方式のアスペクト比変換の具体例を示した図である。It is the figure which showed the specific example of the aspect-ratio conversion of a pan scan system.

符号の説明Explanation of symbols

11 メモリインターフェース、12 垂直方向拡大処理部、13 水平方向拡大処理部、30 輝度・色差データ、50 タイミング信号生成ブロック、51 フェイズ計算ブロック、52 初期化タイミング信号生成ブロック、53 マスク信号生成ブロック、60 フィルタ回路、61 データバッファ、62 補間関数ブロック、63 ディレイ調整ブロック、100 映像信号処理装置、101 ストリームデータ処理部、102 メモリ、103 画質改善処理部、104 OSD(On Screen Display)、105 CPU(Central Processing Unit)   11 Memory Interface, 12 Vertical Enlargement Processing Unit, 13 Horizontal Enlargement Processing Unit, 30 Luminance / Color Difference Data, 50 Timing Signal Generation Block, 51 Phase Calculation Block, 52 Initialization Timing Signal Generation Block, 53 Mask Signal Generation Block, 60 Filter circuit, 61 data buffer, 62 interpolation function block, 63 delay adjustment block, 100 video signal processing device, 101 stream data processing unit, 102 memory, 103 image quality improvement processing unit, 104 OSD (On Screen Display), 105 CPU (Central Processing Unit)

Claims (2)

4:2:2フォーマットの画像データにおいて、メモリに格納された上記画像データから指定されたサイズの画像データを切り出し、切り出した上記画像データの隣り合う画像データ間の補間画像データを生成することで補間処理をする画像フィルタ回路であって、
4:2:2フォーマットの画像データから指定されたサイズの画像データを切り出す際、切り出し端において、4:2:2フォーマットの最小構成単位を保持したまま切り出す偶数切り出しをするのか、4:2:2フォーマットの最小構成単位を無視して切り出す奇数切り出しをするのかを検出する検出手段と、
上記検出手段によって偶数切り出しが検出された場合、上記指定されたサイズの画像データを上記メモリから読み出し、上記検出手段によって奇数切り出しが検出された場合、上記切り出し端において、上記4:2:2フォーマットの最小構成単位となるように、上記指定されたサイズ以上の画像データをメモリから読み出す読み出し手段と、
上記読み出し手段によって、上記メモリから読み出された上記画像データから補間演算処理をすることで、上記画像データ間の補間画像データを生成する補間演算処理手段とを備え、
パンスキャン方式のアスペクト比変換を実行する際に、上記検出手段によって奇数切り出しが検出された場合、上記読み出し手段は、水平方向の切り出し端において、上記画像データを構成する輝度データ、色差データを上記指定されたサイズよりも1ピクセル分だけ余分に読み出し、上記補間演算処理手段は、1次元上に並んだ4点の画像データから、隣り合う画像データ間の補間画像データを生成すること
を特徴とする画像フィルタ回路。
By extracting image data of a specified size from the image data stored in the memory in 4: 2: 2 format image data, and generating interpolated image data between adjacent image data of the extracted image data. An image filter circuit for performing interpolation processing,
When cutting out image data of a specified size from image data in 4: 2: 2 format, whether to cut out evenly while retaining the minimum configuration unit in 4: 2: 2 format at the cutout end? Detecting means for detecting whether or not to perform odd-number cutout by ignoring the minimum structural unit of two formats;
When even cutout is detected by the detecting means, the image data of the specified size is read from the memory, and when odd cutout is detected by the detecting means, the 4: 2: 2 format is used at the cutout end. Reading means for reading out the image data of the specified size or more from the memory so as to be the minimum constitutional unit,
By the reading means, by interpolation processing from the image data read out from said memory, and an interpolation processing means for generating an interpolated image data between the image data,
When odd-number clipping is detected by the detecting means when performing pan-scan aspect ratio conversion, the reading means converts the luminance data and color difference data constituting the image data at the cutting edge in the horizontal direction. An extra 1 pixel is read out from the specified size, and the interpolation processing means generates interpolated image data between adjacent image data from four points of image data arranged in one dimension. Image filter circuit.
4:2:2フォーマットの画像データにおいて、メモリに格納された上記画像データから指定されたサイズの画像データを切り出し、切り出した上記画像データの隣り合う画像データ間の補間画像データを生成することで補間処理をする画像フィルタ回路の補間処理方法であって、
4:2:2フォーマットの画像データから指定されたサイズの画像データを切り出す際、切り出し端において、4:2:2フォーマットの最小構成単位を保持したまま切り出す偶数切り出しをするのか、4:2:2フォーマットの最小構成単位を無視して切り出す奇数切り出しをするのかを検出する検出工程と、
上記検出工程によって偶数切り出しが検出された場合、上記指定されたサイズの画像データを上記メモリから読み出し、上記検出工程によって奇数切り出しが検出された場合、上記切り出し端において、上記4:2:2フォーマットの最小構成単位となるように、上記指定されたサイズ以上の画像データをメモリから読み出す読み出し工程と、
上記読み出し工程によって、上記メモリから読み出された上記画像データから補間演算処理をすることで、上記画像データ間の補間画像データを生成する補間演算処理工程とを有し、
パンスキャン方式のアスペクト比変換を実行する際に、上記検出工程で奇数切り出しが検出された場合、上記読み出し工程では、水平方向の切り出し端において、上記画像データを構成する輝度データ、色差データを上記指定されたサイズよりも1ピクセル分だけ余分に読み出し、上記補間演算処理工程で1次元上に並んだ4点の画像データから、隣り合う画像データ間の補間画像データを生成すること
を特徴とする補間処理方法。
By extracting image data of a specified size from the image data stored in the memory in 4: 2: 2 format image data, and generating interpolated image data between adjacent image data of the extracted image data. An interpolation processing method of an image filter circuit that performs interpolation processing,
When cutting out image data of a specified size from image data in 4: 2: 2 format, whether to cut out evenly while retaining the minimum configuration unit in 4: 2: 2 format at the cutout end? A detection step of detecting whether or not to perform odd-number cutout by ignoring the minimum structural unit of two formats;
When even cutout is detected by the detection step, the image data of the specified size is read from the memory, and when odd cutout is detected by the detection step, the 4: 2: 2 format is used at the cutout end. A reading step of reading out image data of the specified size or more from the memory so as to be a minimum structural unit of
By the reading step, by the interpolation arithmetic processing from the image data read out from said memory, and an interpolation operation processing step of generating an interpolated image data between the image data,
When odd-numbered clipping is detected in the detection step when performing pan-scan aspect ratio conversion, the luminance data and color-difference data constituting the image data are converted to the above-described luminance data and color difference data in the horizontal clipping edge in the reading step. It reads out an extra pixel by one pixel from the specified size, and generates interpolated image data between adjacent image data from the four points of image data arranged one-dimensionally in the interpolation calculation process step. Interpolation method.
JP2004294243A 2004-10-06 2004-10-06 Image filter circuit and interpolation processing method Expired - Fee Related JP4677755B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004294243A JP4677755B2 (en) 2004-10-06 2004-10-06 Image filter circuit and interpolation processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004294243A JP4677755B2 (en) 2004-10-06 2004-10-06 Image filter circuit and interpolation processing method

Publications (2)

Publication Number Publication Date
JP2006109173A JP2006109173A (en) 2006-04-20
JP4677755B2 true JP4677755B2 (en) 2011-04-27

Family

ID=36378360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004294243A Expired - Fee Related JP4677755B2 (en) 2004-10-06 2004-10-06 Image filter circuit and interpolation processing method

Country Status (1)

Country Link
JP (1) JP4677755B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5096247B2 (en) * 2008-07-08 2012-12-12 ルネサスエレクトロニクス株式会社 Image processing apparatus and method
JP2011217361A (en) 2010-03-18 2011-10-27 Panasonic Corp Device and method of reproducing stereoscopic image and integrated circuit

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050056A (en) * 1998-07-31 2000-02-18 Matsushita Electric Ind Co Ltd Picture transmitting method and picture transmitting device realizing the same
JP2002135595A (en) * 2000-10-19 2002-05-10 Dainippon Printing Co Ltd Image decompression apparatus
JP2002320135A (en) * 2001-04-20 2002-10-31 Sanyo Electric Co Ltd Digital zoom device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0856288A (en) * 1994-08-11 1996-02-27 Matsushita Electric Ind Co Ltd 4:2:2 component decoding device
JPH10191392A (en) * 1996-10-29 1998-07-21 Sony Corp Image signal processor
JPH10262221A (en) * 1997-03-19 1998-09-29 Sony Corp Image signal processing unit
JPH1127563A (en) * 1997-07-01 1999-01-29 Oki Electric Ind Co Ltd Image filter circuit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050056A (en) * 1998-07-31 2000-02-18 Matsushita Electric Ind Co Ltd Picture transmitting method and picture transmitting device realizing the same
JP2002135595A (en) * 2000-10-19 2002-05-10 Dainippon Printing Co Ltd Image decompression apparatus
JP2002320135A (en) * 2001-04-20 2002-10-31 Sanyo Electric Co Ltd Digital zoom device

Also Published As

Publication number Publication date
JP2006109173A (en) 2006-04-20

Similar Documents

Publication Publication Date Title
JP5582429B2 (en) Decoder and method
US8284322B2 (en) Shared memory multi video channel display apparatus and methods
US20070242160A1 (en) Shared memory multi video channel display apparatus and methods
US8736757B2 (en) Shared memory multi video channel display apparatus and methods
JP2003338991A (en) Image display device and its method
JP4677755B2 (en) Image filter circuit and interpolation processing method
JP5112528B2 (en) Video display device and video processing method
KR100943902B1 (en) Ordinary image processing apparatus for digital TV monitor
JP2006154498A (en) Format conversion device, format conversion method, image display device using format conversion device, and image display method therefor
JP3959425B2 (en) Receiving device and display device
JP2002125172A (en) Video signal magnification reduction circuit and television receiver using it
JPH06326937A (en) Picture signal converter
JP2015039049A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees