WO2002089491A1 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
WO2002089491A1
WO2002089491A1 PCT/JP2002/004074 JP0204074W WO02089491A1 WO 2002089491 A1 WO2002089491 A1 WO 2002089491A1 JP 0204074 W JP0204074 W JP 0204074W WO 02089491 A1 WO02089491 A1 WO 02089491A1
Authority
WO
WIPO (PCT)
Prior art keywords
dct
field
block
image processing
frame
Prior art date
Application number
PCT/JP2002/004074
Other languages
French (fr)
Japanese (ja)
Inventor
Haruo Togashi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of WO2002089491A1 publication Critical patent/WO2002089491A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode

Definitions

  • the present invention relates to an image processing device and an image processing method, and more particularly to an image processing device and an image processing method for performing image compression processing.
  • Digital video coding systems have been internationally standardized by MPEG (Moving Pictures Experts Group) of IS0 / IEC and H.262 of ITU_T, and with the development of multimedia communications in recent years, Further higher quality is required.
  • MPEG Motion Picture Experts Group
  • DCT Discrete Cosine Transform
  • Switching between the frame DCT mode and the field DCT mode is determined based on a picture in macroblock units.
  • a conventional DCT mode determination method first, the correlation between each pixel in a field and the correlation between each pixel in a frame are calculated. Then, these are simply compared, and if the field correlation is stronger than the frame correlation, the field DCT is selected. If the frame correlation is stronger than the field correlation, the frame DCT is selected.
  • the conventional DCT mode determination technology as described above, when dubbing the VTR or cascading the encoder and decoder, it differs from the previous DCT mode due to distortion during encoding. There was a problem that the DCT mode might be determined and image quality deteriorated.
  • VTR Video Tape Recorder
  • a macroblock that had been coded by performing frame DCT was repeatedly dubbed, but was subject to distortion due to encoding / decoding. May be added, and the mode may be switched to the field DCT mode.
  • the present invention has been made in view of such a point, and an object of the present invention is to provide an image processing apparatus and an image processing method that prevent inversion of the DCT mode for the same block and reduce image quality deterioration. .
  • the present invention detects, in an image processing apparatus that compresses and codes an image signal, correlation information in which one of a frame correlation and a field correlation is weighted for a block of the image signal.
  • An image comprising: correlation information detecting means; and coding means for performing intra-frame coding or intra-field coding on a block of an image signal according to the correlation information detected by the correlation information detecting means. It is a processing device.
  • the present invention also provides an image processing method for compressing and encoding an image signal, comprising: a step of detecting correlation information in which one of a frame correlation and a field correlation is weighted with respect to a block of the image signal; An encoding step of performing intra-frame encoding or intra-field encoding on a block of the image signal in accordance with the correlation information detected in the detecting step.
  • the present invention detects correlation information in which one of the frame correlation and the field correlation is weighted for a block of an image signal, and detects the correlation information according to the detected correlation information.
  • Intra-frame coding or intra-field coding is performed, so that even if the frame correlation and the field correlation of the image signal are close to each other, the intra-frame coding or the intra-field coding for the block is performed. Can be performed adaptively.
  • FIG. 1 is a principle diagram of the image processing apparatus of the present invention
  • FIG. 2 is a diagram showing a macro block
  • FIG. 3 is a diagram for explaining frame correlation information Var1
  • FIG. 5 is a diagram for explaining the field correlation information Var 2
  • FIG. 5 is a diagram showing a determination formula in a graph
  • FIG. 6 is a diagram showing a flowchart of an image processing method of the present invention
  • FIG. Figures A and 7B show the structure of a digital VTR
  • Figure 8 shows the structure of an MPEG encoder
  • Figure 9 shows an overview of packing
  • Figure 10 shows the structure of packing. It is a figure showing an outline.
  • BEST MODE FOR CARRYING OUT THE INVENTION FIG. 1 is a principle diagram of the image processing apparatus of the present invention.
  • the image processing apparatus 10 performs image compression processing using orthogonal transform coding on the input image.
  • orthogonal transform coding for example, DCT (Discrete Cosine Transform) can be applied.
  • DCT Discrete Cosine Transform
  • the orthogonal transform coding will be described assuming that it is DCT.
  • the frame DCT unit 11 performs frame DCT on the block of the image signal based on the determination result of the coding determination unit 13.
  • Field DCT section 12 performs field DCT on the block of the image signal based on the determination result of coding determination section 13.
  • the coding determination unit 13 weights at least one of the frame correlation information indicating the frame correlation of the block or the field correlation information indicating the field correlation so that the determination result is constant for the same block. Then, whether to perform frame DCT or field DCT coding is adaptively determined and controlled.
  • the frame DCT is selected in the first encoding for the block bL of the image G.
  • the field DCT is selected for the block b L of the image G a which is conventionally encoded N times due to the distortion due to dubbing and the like.
  • the DCT mode is inverted and different coding is performed on the same block bL, the image quality of the image Ga is degraded.
  • the image G is thereafter dubbed N times, and the image Gb to which distortion due to dubbing is added is also performed.
  • the encoding determination unit 13 always outputs the block bL without inverting the DCT mode.
  • the first executed frame DCT is selected. As a result, it is possible to suppress the occurrence of image quality degradation of the image Gb.
  • the adaptive switching between the frame DCT and the field DCT for a block is performed by using a vertically adjacent pixel considered to be highly correlated with the vertical component of the DCT coefficient. Calculates the sum of squares of the difference between blocks in the frame and field, and weights the calculated value to determine whether to execute the DCT mode of frame DCT or field DCT. Decide adaptively.
  • Varl in equation (1) indicates the sum of squares of the difference values between vertically adjacent pixels in the frame
  • Var2 in equation (2) indicates the sum of squares between vertically adjacent pixels in the field.
  • V a r1 is the frame correlation information in this embodiment
  • V a r 2 is the field correlation information.
  • u means the horizontal direction
  • v means the vertical direction
  • X [a] [b] indicates the value of the pixel located at the vertical coordinate value a
  • the horizontal coordinate value b. I have.
  • the values of the correlation information V ar 1 and V ar 2 are small when the correlation is strong, and large when the correlation is weak.
  • FIG. 2 is a diagram showing a macroblock.
  • One macroblock is 1 It consists of 6 lines x 16 pixels.
  • u is set in the horizontal direction and V is set in the vertical direction, and the pixel values of the coordinates in the macroblock are represented by X [a] [b].
  • the top left pixel value of the macroblock is X [0] [0]
  • the top right pixel value is X [0] [15]
  • the bottom left pixel value is X [15] [0]
  • right The pixel value at the bottom can be expressed as X [15] [15].
  • FIG. 3 is a diagram for explaining the frame correlation information V a r1.
  • FIG. 4 is a diagram for explaining the field correlation information V ar 2.
  • the DCT mode is determined by weighting Var 1 and Var 2 calculated in this way.
  • the weighted judgment formula is the following formula (3). Note that a, b, c, and d are constants. a XV ar 1 + b> c XV ar 2 + d (3)
  • Equation (3) the macroblock to be encoded is recognized as a macroblock with strong field correlation and strong motion, and the field DCT is selected. If Equation (3) is not satisfied, the macroblock to be encoded is recognized as a macroblock with strong frame correlation and little movement, and the frame DCT is selected.
  • the DCT mode is determined by comparing the weighted mutual correlation information, instead of simply comparing the correlation for the frame and the field.
  • the values of the constants a, b, c, and d in Equation (3) may be fixedly determined or may be variably set according to the input image.
  • FIG. 5 is a diagram in a case where a determination formula is shown in a graph.
  • the vertical axis shows Var 1 and the horizontal axis shows Var 2.
  • V arl V ar 2 is determined in the DCT mode determination.
  • a DCT mode inversion occurs, and a field DCT different from the coding initially applied to the same block is selected at this time.
  • the block group BL near V ar 1 V ar 2 satisfies V ar 1 ⁇ AXV ar 2 + B for the decision formula.
  • a block that exists in a direction that satisfies the condition and has a remarkable motion is positioned in a direction that satisfies Var1> AXVar2 + B with respect to the determination formula.
  • a field DCT is selected for a block having a remarkable motion
  • a frame DCT is set for a block existing in a direction satisfying V ar 1 ⁇ AX V ar 2 + B with respect to the determination formula of this embodiment.
  • FIG. 6 is a diagram showing a flowchart of the image processing method of this embodiment.
  • At least one of the frame correlation information V arl and the field correlation information V a2 of the block is weighted so that the determination result is constant for the same block of the image signal.
  • step S2 Based on the decision formula of the above-mentioned formula (3), the decision control is adaptively performed as to which of the frame DCT and the field DCT is to be coded. If equation (3) is satisfied, go to step S3; otherwise, go to step S4.
  • FIG. 7A and 7B show an example of the configuration of a digital VTR 100 to which this embodiment is applied.
  • the digital VTR 100 is capable of directly recording a digital video signal compression-encoded by the MPEG system on a recording medium.
  • the signals input from the outside to this recording system are two types of serial digital input and output signals, a serial data interface (SDI) signal and a serial data transfer interface (SDTI) signal.
  • SDI serial data interface
  • SDTI serial data transfer interface
  • SDI is an interface specified by SMPTE for transmitting (4: 2: 2) component video signals, digital audio signals, and additional data.
  • the SDTI is an interface for transmitting an MPEG elementary stream (hereinafter referred to as MPEG ES), which is a stream in which a digital video signal is compression-encoded by the MPEG method.
  • MPEG ES MPEG elementary stream
  • SDT I—CP (Content Package) format uses MPEG ES Access unit and is packed into packets in frame units.
  • SDT I-CP uses a sufficient transmission bandwidth (27 MHz or 36 MHz at clock rate, 270 Mbps or 360 Mbps at stream bit rate), and bursts in one frame period. It is possible to send the ES in a way.
  • the SDI signal transmitted by the SDI is input to the SDI input unit 101.
  • the SDI input section 101 converts the supplied SDI signal from a serial signal to a parallel signal and outputs the signal, extracts the input synchronization signal that is the phase reference of the input included in the SDI signal, and outputs the timing signal. Output to TG102.
  • the SDI input unit 101 separates a video signal and an audio signal from the converted parallel signal.
  • the separated video input signal and audio input signal are output to the MPEG encoder 103 and the delay circuit 104, respectively.
  • the timing generator TG102 extracts a reference synchronization signal from the input external reference signal REF.
  • the timing generator TG synchronizes the reference synchronizing signal and the input synchronizing signal supplied from the SDI input section 101 with a predetermined designated reference signal, and generates a signal necessary for this digital VTR 100. Generates a timing signal and supplies it to each block as a timing pulse.
  • the MPEG encoder 103 is a component including the functions of the image processing device 10 or the image processing method according to the present embodiment.
  • the MPEG encoder 103 converts the input image signal, that is, the video input signal, into coefficient data by DCT conversion, quantizes the coefficient data, and then performs variable length coding.
  • the variable length coded (VLC) data output from the MPEG encoder 103 is an elementary stream conforming to MPEG2. (ES). This output is supplied to one input terminal of a recording-side multi-format comparator (hereinafter, referred to as recording-side MFC) 106.
  • recording-side MFC recording-side multi-format comparator
  • the delay circuit 104 functions as a delay line for adjusting the input audio input signal to the processing delay of the video signal in the MPEG encoder 103 without any compression. It is.
  • the audio signal delayed by the delay circuit 104 is output to the ECC encoder 107. This is because the audio signal appears as an uncompressed signal in the digital VTR 100 according to this embodiment.
  • the SDTI signal transmitted and supplied from the outside by the SDTI is input to the SDTI input section 105.
  • the SDT I signal is synchronously detected by the input section 105 of the 30-piece. Then, it is temporarily stored in the buffer, and the elementary stream is extracted. The extracted elementary stream is supplied to the other input terminal of the MFC 106 on the recording side.
  • the synchronization signal obtained by the synchronization detection is supplied to the above-described timing generator TG 102 (not shown).
  • the SDTI receiving section 108 further extracts a digital audio signal from the input SDTI signal.
  • the extracted digital audio signal is supplied to the ECC encoder 107.
  • the digital VTR 100 can directly input MPEGES independently of the baseband video signal input from the SDI input section 101.
  • the recording-side MFC circuit 106 has a stream comparator and a selector, and selects one of the MPEGES supplied from the SDI input unit 101 and the SDTI input unit 105. Selected and selected MP EG
  • the DCT coefficients of the ES are grouped for each frequency component through a plurality of DCT blocks constituting one macroblock, and the grouped frequency components are sorted in order from the low frequency component.
  • the stream in which the MPEG ES coefficients are rearranged is hereinafter referred to as a “conversion elementary stream”. By rearranging MPEGES in this way, as many DC coefficients and low-order AC coefficients as possible during search playback are picked up, contributing to the improvement of the quality of search images.
  • the converted elementary stream is supplied to the ECC encoder 107.
  • the ECC encoder 107 is connected to a large-capacity main memory (not shown), and has a packing and shuffling unit, an outer code encoder for audio, an outer code encoder for video, an inner code encoder, a shuffling unit for audio, and Built-in video shuffling unit. Further, the ECC encoder 109 includes a circuit for adding an ID in sync block units and a circuit for adding a synchronization signal.
  • a product code is used as an error correction code for a video signal and an audio signal.
  • the product code encodes the outer code in the vertical direction of a two-dimensional array of video signals or audio signals, encodes the inner code in the horizontal direction, and double encodes the data symbol. is there.
  • a Reed-Solomon code can be used as the outer code and the inner code.
  • the conversion element stream output from the MFC circuit 106 is supplied to the ECC encoder 107, and the audio signal output from the SDTI input section 105 and the delay circuit 104 is supplied to the ECC encoder 107. . EC.
  • the encoder 107 performs shuffling and error correction coding on the supplied conversion elementary stream and audio signal, adds an ID and a synchronization signal for each sync block, and records the data. Output as overnight.
  • the recording data output from the ECC encoder 107 is converted into a recording RF signal by an equalizer EQ 108 including a recording amplifier.
  • the recording RF signal is supplied to a rotating drum 109 provided with a rotating head in a predetermined manner, and is recorded on a magnetic tape 110.
  • the rotating drum 109 is actually provided with a plurality of magnetic heads having different azimuths of heads forming adjacent tracks.
  • the recording data may be subjected to scramble processing as needed. Further, digital modulation may be performed at the time of recording, and further, a partial response class 4 and Viterbi code may be used.
  • the equalizer 108 includes both a recording-side configuration and a reproduction-side configuration.
  • a reproduction signal reproduced by the rotating drum 109 from the magnetic tape 110 is supplied to a reproduction-side configuration of an equalizer 108 including a reproduction amplifier and the like.
  • equalizer 108 equalization and waveform shaping are performed on the reproduced signal. Also, demodulation of digital modulation, Viterbi decoding, etc. are performed as needed.
  • the output of the equalizer 108 is supplied to the ECC decoder 111.
  • the ECC decoder 111 performs processing reverse to that of the ECC encoder 107 described above, and includes a large-capacity main memory, an inner code decoder, a deshuffling unit for audio and video, and an outer code decoder. . Further, the ECC decoder 111 includes a deshuffling and depacking unit and a data interpolation unit for video. Similarly, it includes an audio AUX separation unit and a data interpolation unit for audio.
  • the ECC decoder 1 1 1 performs synchronization detection on the playback data, 'Detect the synchronization signal added to the beginning of the lock. Cut out the lock.
  • the reproduced data is subjected to error correction of the inner code for each sync block, and thereafter, ID interpolation processing is performed on the sync block.
  • the playback data with the interpolated ID is separated into video data and audio 5 data.
  • Video data and audio data are each subjected to deshuffling processing, and the order of the data shuffled during recording is restored.
  • Each of the deshuffled data is subjected to outer code error correction.
  • an error flag is set for data having an error that exceeds the error correction capability and cannot be corrected.
  • a signal ERR indicating the data including the error is output.
  • the error-corrected reproduction audio data is supplied to the SDTI output unit 115, and is also supplied to the SDDI output unit 116 after being given a predetermined delay by the delay circuit 114.
  • the delay circuit 114 will be described later.
  • the error-corrected video data is supplied to the playback-side MFC circuit 112 as a playback conversion element stream.
  • the signal 0 ERR described above is also supplied to the reproduction-side MFC circuit 112. Playback side MFC 1 1
  • Numeral 2 performs a process reverse to that of the recording-side MFC 106 described above, and includes a stream converter.
  • the reverse process is performed with the stream converter on the recording side. That is, the DCT coefficients arranged for each frequency component across the DCT blocks are rearranged for every DCT 5 block.
  • the reproduced signal is converted into an elementary stream compliant with MPEG2.
  • ECC When the signal ERR is supplied from the data 111, the corresponding data is replaced with a signal completely compliant with MPEG2 and output.
  • the MPEGES output from the reproduction side MFC circuit 112 is supplied to the MPEG decoder 113 and the SDTI output unit 115.
  • the MPEG decoder 113 decodes the supplied MPEGES and restores the original uncompressed video signal. That is, the MPEG decoder 113 performs an inverse quantization process and an inverse DCT process on the supplied MPEGES.
  • the decoded video signal is supplied to the SDI output unit 116.
  • the 301 output unit 116 is supplied with the audio data separated from the video data by the ECC decoder 111 via the delay 114.
  • the supplied video data and audio data are mapped into an SDI format and converted into an SDI signal having an SDI format data structure. This SDI signal is output to the outside.
  • audio data separated from video data by the ECC decoder 111 is supplied to the SDTI output unit 115 as described above.
  • the SDT I output section 115 the supplied video data and audio data as elementary streams are mapped to the SDT I format, and the SDT I format has an SDT format data structure.
  • the SDTI signal converted to the DTI signal is output to the outside.
  • the system controller 117 (abbreviated as system controller 117 in FIGS. 7A and 7B) is composed of, for example, a microcomputer and communicates with each block by a signal SY-IO. Thus, the entire operation of the digital VTR 100 is controlled.
  • the Servo 118 communicates with the System Controller 117 by the signal SY-SV, while the signal SV__I ⁇ controls the running and rotation of the magnetic tape 110.
  • the drive control of the transfer drum 109 is performed.
  • FIG. 8 schematically shows an example of the configuration of the MPEG encoder 103 in the digital VTR 100 shown in FIG.
  • the MPEG encoder 103 is roughly composed of a blocking circuit 300, a delay circuit 301, and a DCT mode determination circuit 302,0. It has a chopping circuit 303, a quantization circuit 304, and a variable length coding (VLC) circuit 305.
  • VLC variable length coding
  • the digital video signal supplied to the MPEG encoder 103 is divided by a blocking circuit 300 into 16-line ⁇ 16-pixel block (macroblock) units and output.
  • the data output from the blocking circuit 300 in block units is given a predetermined delay by the delay circuit 301, supplied to the DCT circuit 303, and supplied to the DCT mode determination circuit 302.
  • the DCT mode determination circuit 302 determines whether to perform the field DCT or the frame DCT on the blocked digital video signal by the determination control according to the above-described embodiment. The result of the determination is output from the DCT mode determination circuit 302 as a mode determination signal and supplied to the DCT circuit 303.
  • the DCT circuit 303 performs a DCT operation on the data in block units output from the delay circuit 301 based on the DCT mode determined by the DCT mode determination circuit 302 to generate a DCT coefficient. .
  • the generated DCT coefficient is supplied to the quantization circuit 304.
  • a DCT operation is performed in units of a DCT block composed of 8 lines and 8 pixels.
  • a magnetic tape is generally used as a recording medium for recording a video signal.
  • Video signal recording on magnetic tape is performed by a magnetic head (rotating head) provided on a rotating drum, forming a helical track that is inclined with respect to the tape running method. Also, during playback, the rotating head accurately traces the helical tracks formed during recording.
  • the running speed of the tape higher than the speed at the time of recording during reproduction, it is possible to perform reproduction such as double speed, triple speed, or search.
  • the trace angle of the rotary head on the tape is different from the tilt angle of the helical track. This makes it impossible to trace all the signals recorded on the helical track. That is, at the time of high-speed reproduction, reproduction is performed by scanning a part of each helical track.
  • Packing refers to applying different length streams to a fixed frame. That is, the streams created by the MPEG encoders 113 are variable-length coded, and therefore have different lengths for each macroblock. Therefore, data is recorded by performing a packing operation of applying the different streams to a fixed frame.
  • FIG. 9 and FIG. 10 are diagrams showing an outline of packing. Here, an example in which 8 macro blocks are applied to a fixed frame is shown. Number each macro block from # 1 to # 8.
  • the lengths of the eight macroblocks are different from each other due to the variable length coding.
  • the fixed frame is 1 Macro block # 1, data # 3, data # 6 are longer than macro block # 1, macro block # 2, data # 5, data # 7, and data # 8 Are short.
  • the length of macro block # 4 is equal to one sync block.
  • the macroblock is poured into a fixed-length frame of one sync block length, and the entire data generated in one frame period is fixed-length. Therefore, a macro block longer than one sync block is divided at a position corresponding to the sync block length. Of the divided macroblocks, the portion that protrudes from the sync block length is stuffed into the extra area in order from the beginning, that is, after the macroblock whose length is less than the sync block length.
  • each macroblock is packed into a fixed frame of the sync block length.
  • the DCT mode is fixed to either the field DCT or the frame DCT for encoding.
  • the frame DCT is fixed, a large amount of streams will be allocated to a rapidly moving image with strong temporal correlation because there is little spatial correlation, and the length will greatly exceed the sync block length.
  • the coding efficiency is inferior to that of the fixed frame DCT for an image having a strong spatial correlation which is common in general images. For this reason, image quality is deteriorated not only during high-speed reproduction and high-speed reverse reproduction, but also during normal reproduction.
  • the above-described determination control is performed so that the determination result is constant for the same block (so that the DCT mode is not inverted even when dubbing or cascading the encoder and the decoder is performed).
  • the DCT mode is adaptively selected based on. This makes it possible to reduce the number of data pieces that extend beyond the sink block length, thereby improving the image quality not only during normal playback but also during high-speed playback and high-speed reverse playback.
  • the image processing apparatus weights at least one of the frame correlation information and the field correlation information of a block so that the determination result is constant for the same block. Therefore, a configuration is adopted in which whether frame DCT or field DCT is to be encoded is adaptively determined and controlled. As a result, the inversion of the DCT mode for the same block can be prevented, and the deterioration of the image quality can be reduced.
  • the image processing method performs weighting on at least one of the frame correlation information and the field correlation information of a block so that the determination result is constant for the same block.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

Inversion of the DCT mode for the same block is prevented, and the degradation of the quality of image is reduced. A frame DCT unit carries out frame-DCT of a block of an image signal. A field DCT unit carries out field-DCT of the block of the image signal. An encoding determining unit gives a weight to at least either block frame correlation information or block field correlation information so that the result of determination of the same block may be the same and adaptively determines which encoding of the frame DCT and field DCT is to be done.

Description

明 細 書  Specification
画像処理装置および画像処理方法 技術分野  Image processing apparatus and image processing method
本発明は画像処理装置および画像処理方法に関し、 特に画像圧縮処 理を行う画像処理装置および画像処理方法に関する。 背景技術  The present invention relates to an image processing device and an image processing method, and more particularly to an image processing device and an image processing method for performing image compression processing. Background art
ディジタル動画像符号化方式は、 I S 0/ I E Cの MP EG (Movin g Pictures Experts Group)や I TU_ Tの H. 262等で国際的に 標準化されており、 近年のマルチメディア通信の発達に伴い、 さらな る高品質化が求められている。  Digital video coding systems have been internationally standardized by MPEG (Moving Pictures Experts Group) of IS0 / IEC and H.262 of ITU_T, and with the development of multimedia communications in recent years, Further higher quality is required.
画像符号化方式では、 ディジタル画像を周波数成分に変換して画像 圧縮を行う D C T (Discrete Cosine Transform)が広く用いられてい る。 また、 1画面の画素構成は、 第 1フィールドと第 2フィールドの 各々独立したフィ一ルド構造と、 2つのフィールドを合成したフレー ム構造とがあり、 このようなフィ一ルド構造、 フレーム構造それぞれ を D C Tの符号化対象とした場合を、 フィールド DC T、 フレーム D In image coding, DCT (Discrete Cosine Transform), which converts a digital image into frequency components and compresses the image, is widely used. The pixel configuration of one screen has a field structure that is independent of the first field and the second field, and a frame structure that combines the two fields. Field DCT, frame D
CTと呼ぶ。 Called CT.
フレーム D CTモ一ドとフィールド D CTモードとの切り替えは、 マクロブロック単位による絵柄で判断して切り替えている。 従来の D CTモードの判定方法としては、 まず、 フィールド内の各画素の相関 と、 フレーム内の各画素の相関とを計算する。 そして、 これらを単純 に比較して、 フレーム相関よりもフィールド相関の方が強ければ、 フ ィ一ルド DC Tを選択し、 フィールド相関よりもフレーム相関の方が 強ければ、 フレーム DCTを選択する。 しかし、 上記で説明したような、 従来の DCTモードの判定技術で は、 VTRのダビングやエンコーダとデコーダのカスケ一ド接続を行 うと、 符号化時の歪みにより、 前回の DC Tモードとは異なる DC T モードが判定されてしまう場合があり、 画質劣化が生じてしまうとい つた問題があった。 Switching between the frame DCT mode and the field DCT mode is determined based on a picture in macroblock units. As a conventional DCT mode determination method, first, the correlation between each pixel in a field and the correlation between each pixel in a frame are calculated. Then, these are simply compared, and if the field correlation is stronger than the frame correlation, the field DCT is selected. If the frame correlation is stronger than the field correlation, the frame DCT is selected. However, with the conventional DCT mode determination technology as described above, when dubbing the VTR or cascading the encoder and decoder, it differs from the previous DCT mode due to distortion during encoding. There was a problem that the DCT mode might be determined and image quality deteriorated.
VTR (Video Tape Recorder)を考えた場合、 最初のエンコード/ デコード時には、 例えば、 フレーム DCTを行って符号化していたマ クロブロックが、 何回もダビングを繰り返す内に、 エンコード/デコ ―ドによる歪みが加わって、 フィ一ルド D CTのモードに切り替わつ てしまう場合がある。  Considering a VTR (Video Tape Recorder), for the first encoding / decoding, for example, a macroblock that had been coded by performing frame DCT, was repeatedly dubbed, but was subject to distortion due to encoding / decoding. May be added, and the mode may be switched to the field DCT mode.
すなわち、 同一マクロブロックに対して、 前回ではフレーム DCT で符号化され、 次にはフィ一ルド D C Tで符号化されたりするという ように、 DCTモードが反転してしまうと、 画質劣化が生じてしまう ことになる。 発明の開示  In other words, if the same macroblock is coded in the frame DCT the previous time and then coded in the field DCT, the image quality will deteriorate if the DCT mode is reversed. Will be. Disclosure of the invention
本発明はこのような点に鑑みてなされたものであり、 同一プロック に対する D CTモードの反転を防止し、 画質劣化の低減を図った画像 処理装置および画像処理方法を提供することを目的とする。 - 本発明は、 上述した課題を解決するために、 画像信号を圧縮符号化 する画像処理装置において、 画像信号のブロックに対してフレーム相 関およびフィールド相関の一方に重み付けをした相関情報を検出する 相関情報検出手段と、 相関情報検出手段により検出された相関情報に 応じて画像信号のプロックに対してフレーム内符号化またはフィール ド内符号化を行う符号化手段とを有することを特徴とする画像処理装 置である。 また、 本発明は、 画像信号を圧縮符号化する画像処理方法において 、 画像信号のプロックに対してフレーム相関およびフィールド相関の 一方に重み付けをした相関情報を検出する相関情報検出のステップと 、 相関情報検出のステップにより検出された相関情報に応じて画像信 号のブロックに対してフレーム内符号化またはフィールド内符号化を 行う符号化のステップとを有することを特徴とする画像処理方法であ る。 The present invention has been made in view of such a point, and an object of the present invention is to provide an image processing apparatus and an image processing method that prevent inversion of the DCT mode for the same block and reduce image quality deterioration. . -In order to solve the above-described problem, the present invention detects, in an image processing apparatus that compresses and codes an image signal, correlation information in which one of a frame correlation and a field correlation is weighted for a block of the image signal. An image comprising: correlation information detecting means; and coding means for performing intra-frame coding or intra-field coding on a block of an image signal according to the correlation information detected by the correlation information detecting means. It is a processing device. The present invention also provides an image processing method for compressing and encoding an image signal, comprising: a step of detecting correlation information in which one of a frame correlation and a field correlation is weighted with respect to a block of the image signal; An encoding step of performing intra-frame encoding or intra-field encoding on a block of the image signal in accordance with the correlation information detected in the detecting step.
上述したように、 この発明は、 画像信号のブロックに対してフレ一 ム相関およびフィールド相関の一方に重み付けをした相関情報を検出 し、 検出された相関情報に応じて上記画像信号のブロックに対してフ レーム内符号化またはフィールド内符号化を行うようにしているため 、 画像信号のフレーム相関とフィールド相関とが近接していても、 そ のプロックに対するフレーム内符号化あるいはフィ一ルド内符号化を 適応的に行うことができる。 図面の簡単な説明  As described above, the present invention detects correlation information in which one of the frame correlation and the field correlation is weighted for a block of an image signal, and detects the correlation information according to the detected correlation information. Intra-frame coding or intra-field coding is performed, so that even if the frame correlation and the field correlation of the image signal are close to each other, the intra-frame coding or the intra-field coding for the block is performed. Can be performed adaptively. BRIEF DESCRIPTION OF THE FIGURES
第 1図は、 本発明の画像処理装置の原理図、 第 2図は、 マクロプロ ックを示す図、 第 3図は、 フレーム相関情報 V a r 1を説明するため の図、 第 4図は、 フィールド相関情報 V a r 2を説明するための図、 第 5図は、 判定式をグラフで示した場合の図、 第 6図は、 本発明の画 像処理方法のフローチャートを示す図、 第 7図 Aおよび第 7図 Bは、 ディジタル V T Rの構成を示す図、 第 8図は、 M P E Gエンコーダの 構成を示す図、 第 9図は、 パッキングの概要を示す図、 第 1 0図は、 パッキングの概要を示す図である。 発明を実施するための最良の形態 以下、 本発明の実施の形態を図面を参照して説明する。 第 1図は本 発明の画像処理装置の原理図である。 画像処理装置 1 0は、 入力画像 に対して、 直交変換符号化を用いた画像圧縮処理を行う。 FIG. 1 is a principle diagram of the image processing apparatus of the present invention, FIG. 2 is a diagram showing a macro block, FIG. 3 is a diagram for explaining frame correlation information Var1, and FIG. FIG. 5 is a diagram for explaining the field correlation information Var 2, FIG. 5 is a diagram showing a determination formula in a graph, FIG. 6 is a diagram showing a flowchart of an image processing method of the present invention, FIG. Figures A and 7B show the structure of a digital VTR, Figure 8 shows the structure of an MPEG encoder, Figure 9 shows an overview of packing, and Figure 10 shows the structure of packing. It is a figure showing an outline. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a principle diagram of the image processing apparatus of the present invention. The image processing apparatus 10 performs image compression processing using orthogonal transform coding on the input image.
直交変換符号化としては、 例えば D CT (Discrete Cosine Transfo rm)を適用することができる。 以下、 直交変換符号化を D CTである ものとして説明する。  As the orthogonal transform coding, for example, DCT (Discrete Cosine Transform) can be applied. Hereinafter, the orthogonal transform coding will be described assuming that it is DCT.
フレーム DCT部 1 1は、 画像信号のブロックに対して、 符号化判 定部 1 3の判定結果にもとづいて、 フレーム DCTを行う。 フィール ド DCT部 1 2は、 符号化判定部 1 3の判定結果にもとづいて、 画像 信号のブロックに対して、 フィールド DCTを行う。  The frame DCT unit 11 performs frame DCT on the block of the image signal based on the determination result of the coding determination unit 13. Field DCT section 12 performs field DCT on the block of the image signal based on the determination result of coding determination section 13.
符号化判定部 1 3は、 同一ブロックに対して、 判定結果が一定にな るように、 ブロックのフレーム相関を示すフレーム相関情報またはフ ィ一ルド相関を示すフィールド相関情報の少なくとも一方に重み付け を行って、 フレーム DC Tまたはフィールド DC Tのいずれの符号化 を行うかを適応的に判定制御する。  The coding determination unit 13 weights at least one of the frame correlation information indicating the frame correlation of the block or the field correlation information indicating the field correlation so that the determination result is constant for the same block. Then, whether to perform frame DCT or field DCT coding is adaptively determined and controlled.
ここで、 画像 Gのブロック b Lに対し、 1回目の符号化ではフレ一 ム D CTが選択されたとする。 この画像 Gを N回ダビングやェンコ一 ド /デコードを繰り返した場合、 ダビングなどによる歪みが加わつて 、 従来では N回目に符号化される画像 G aのブロック b Lに、 フィー ルド DCTが選択されてしまう可能性がある。 このように同一ブロッ ク b Lに対して、 D CTモードが反転して異なる符号化が実行される と、 画像 G aの画質が劣化してしまう。  Here, it is assumed that the frame DCT is selected in the first encoding for the block bL of the image G. When dubbing or encoding / decoding of this image G is repeated N times, the field DCT is selected for the block b L of the image G a which is conventionally encoded N times due to the distortion due to dubbing and the like. Could be If the DCT mode is inverted and different coding is performed on the same block bL, the image quality of the image Ga is degraded.
一方、 この実施の形態では、 一度、 画像 Gのブロック bLにフレー ム D CTが実行された場合には、 その後に画像 Gを N回ダビングして 、 ダビングによる歪みが加わる画像 Gbに対しても、 符号化判定部 1 3により、 D CTモードが反転することなく、 常にブロック bLには 最初に実行したフレーム D CTが選択される。 これにより、 画像 Gb の画質劣化の発生を抑制することができる。 On the other hand, in this embodiment, once the frame DCT is performed on the block bL of the image G, the image G is thereafter dubbed N times, and the image Gb to which distortion due to dubbing is added is also performed. The encoding determination unit 13 always outputs the block bL without inverting the DCT mode. The first executed frame DCT is selected. As a result, it is possible to suppress the occurrence of image quality degradation of the image Gb.
次にこの実施の形態の符号化判定部 1 3の具体的な動作について詳 しく説明する。 符号化判定部 1 3に対し、 ブロック (マクロブロック ) に対するフレーム D CTとフィールド DC Tとの適応的な切り替え としては、 DC T係数の垂直方向成分と相関の高いと思われる垂直方 向隣接画素間の差分値のブロック内自乗和を、 フレームとフィールド それぞれに対して算出し、 この算出値にさらに重み付けを行って、 フ レーム D C Tまたはフィールド D CTのいずれの D C Tモ一ドを実行 するかを適応的に決定する。  Next, a specific operation of the encoding determination unit 13 of this embodiment will be described in detail. For the coding determination unit 13, the adaptive switching between the frame DCT and the field DCT for a block (macroblock) is performed by using a vertically adjacent pixel considered to be highly correlated with the vertical component of the DCT coefficient. Calculates the sum of squares of the difference between blocks in the frame and field, and weights the calculated value to determine whether to execute the DCT mode of frame DCT or field DCT. Decide adaptively.
算出式は、 以下の式 (1) 、 (2) である。 式 (1) の Va r lは 、 フレーム内で垂直方向に隣接した画素間差分値の自乗和を示してお り、 式 (2) の Va r 2は、 フィールド内で垂直方向に隣接した画素 間差分値の自乗和を示している。 なお、 V a r 1がこの実施の形態で いうフレーム相関情報であり、 Va r 2がフィールド相関情報である  The calculation formulas are the following formulas (1) and (2). Varl in equation (1) indicates the sum of squares of the difference values between vertically adjacent pixels in the frame, and Var2 in equation (2) indicates the sum of squares between vertically adjacent pixels in the field. The sum of squares of the difference values is shown. V a r1 is the frame correlation information in this embodiment, and V a r 2 is the field correlation information.
Varl =∑(u=0,15)(v=0, 6){(X[2v] [u] -X[2vll] [u] ) 2+ ( [2v+l] [u] -X[2v+2] [ u])2} · · · ( 1) Varl = ∑ (u = 0 , 15)(v = 0 , 6) ((X [2v] [u] -X [2vll] [u]) 2 + ([2v + l] [u] -X [ 2v + 2] [u]) 2 } · · · (1)
Var2=∑ (u=0, 15) ∑ (v=o, 6){(X[2 ] [u]-X[2v+2] [u])2+(X[2vH] [u]-X[2v+3] [ u])2} · · · (2) Var2 = ∑ (u = 0 , 15 ) ∑ (v = o, 6) {(X [2] [u] -X [2v + 2] [u]) 2 + (X [2vH] [u] -X [2v + 3] [u]) 2 } · · · (2)
ここで、 uは水平方向、 vは垂直方向を意味し、 また、 X[a] [b]は 、 垂直方向の座標値 a、 水平方向の座標値 =bに位置する画素の値 を示している。 また、 これら相関情報 V a r 1および V a r 2は、 相 関が強い方が値が小さく、 相関が弱い方が値が大きくなる。  Here, u means the horizontal direction, v means the vertical direction, and X [a] [b] indicates the value of the pixel located at the vertical coordinate value a, the horizontal coordinate value = b. I have. The values of the correlation information V ar 1 and V ar 2 are small when the correlation is strong, and large when the correlation is weak.
次に式 (1) 、 (2) が示す内容について図を用いて説明する。 第 2図はマクロブロックを示す図である。 1つのマクロブロックは、 1 6ライン X 1 6画素で構成される。 そして、 水平方向に u、 垂直方向 に Vを設定し、 マクロブロック内の座標の画素値を X[a] [b]で表す。 したがって、 例えば、 マクロブロックの左上端の画素値は X[0] [0]、 右上端の画素値は X[0] [15]、 左下端の画素値は X[15] [0]、 右下端の画 素値は X[15] [15]と表せる。 Next, the contents shown by equations (1) and (2) will be described with reference to the drawings. FIG. 2 is a diagram showing a macroblock. One macroblock is 1 It consists of 6 lines x 16 pixels. Then, u is set in the horizontal direction and V is set in the vertical direction, and the pixel values of the coordinates in the macroblock are represented by X [a] [b]. So, for example, the top left pixel value of the macroblock is X [0] [0], the top right pixel value is X [0] [15], and the bottom left pixel value is X [15] [0], right The pixel value at the bottom can be expressed as X [15] [15].
第 3図はフレーム相関情報 V a r 1を説明するための図である。 式 ( 1) に対し、 u= 0、 v = 0の場合を考えると、 X[2v] [u]=X[0] [0] 、 [2v+1] [u]=X[l] CO], X[2v+2] [u]=X[2] [0]である。 したがって、 u = 0、 v= 0の場合の V a r 1は、 トップフィールドの第 1ラインの 画素値 X[0] [0]及びボトムフィールドの第 1ラインの画素値 X[l] [0]の 差分値 h 1の自乗と、 ボトムフィールドの第 1ラインの画素値 X[l] [0 ]とトップフィールドの第 2ラインの画素値 X [2] [0]の差分値 h 2の自 乗との和となる。 以降同様にして計算していく (u= 0〜 1 5、 v = 0〜 6の範囲で求めていく) 。  FIG. 3 is a diagram for explaining the frame correlation information V a r1. For equation (1), if u = 0 and v = 0, then X [2v] [u] = X [0] [0], [2v + 1] [u] = X [l] CO ], X [2v + 2] [u] = X [2] [0]. Therefore, when u = 0 and v = 0, Var 1 is the pixel value X [0] [0] of the first line of the top field and the pixel value X [l] [0] of the first line of the bottom field. And the square of the difference h2 between the pixel value X [l] [0] of the first line in the bottom field and the pixel value X [2] [0] of the second line in the top field And the sum of Thereafter, calculation is performed in the same manner (obtained in the range of u = 0 to 15 and v = 0 to 6).
第 4図はフィールド相関情報 V a r 2を説明するための図である。 式 (2) に対し、 u = 0、 v= 0の場合を考えると、 X[2v] [u]=X[0] [ 0]、 X[2v+2] [u]-X[2] [0], X[2v+1] [u]=X[l] [0] X[2v+3] [u]=X[3] [0] である。 したがって、 u= 0、 v= 0の場合の V a r 2は、 トップフ ィ一ルドの第 1ラインの画素値 X[0] [0]及びトップフィールドの第 2 ラインの画素値 X[2] [0]の差分値 H 1の自乗と、 ボトムフィールドの 第 1ラインの画素値 X[l] [0]とボトムフィールドの第 2ラインの画素 ΙίΧ [3] [0]の差分値 H2の自乗との和となる。 以降同様にして計算し ていく (ιι = 0〜 1 5、 v= 0〜6の範囲で求めていく) 。  FIG. 4 is a diagram for explaining the field correlation information V ar 2. For equation (2), if u = 0 and v = 0, X [2v] [u] = X [0] [0], X [2v + 2] [u] -X [2] [0], X [2v + 1] [u] = X [l] [0] X [2v + 3] [u] = X [3] [0]. Therefore, Var 2 when u = 0 and v = 0 is the pixel value X [0] [0] on the first line of the top field and the pixel value X [2] [0] on the second line of the top field. 0] and the square of the difference value H2 between the pixel value X [l] [0] of the first line of the bottom field and the pixel of the second line of the bottom field ΙίΧ [3] [0] Is the sum of Thereafter, the calculation is performed in the same way (calculated in the range of lι = 0 to 15, v = 0 to 6).
そして、 このように算出した V a r 1、 V a r 2に重み付けを行つ て、 DCTモードを判定する。 重み付けを行った判定式は、 以下の式 (3) である。 なお、 a、 b、 c、 dは定数である。 a X V a r 1 + b> c X V a r 2 + d · · · (3) Then, the DCT mode is determined by weighting Var 1 and Var 2 calculated in this way. The weighted judgment formula is the following formula (3). Note that a, b, c, and d are constants. a XV ar 1 + b> c XV ar 2 + d (3)
ここで、 式 (3) を満たす場合には、 符号化対象のマクロブロック は、 フィールド相関が強く、 動きの激しいマクロブロックであると認 識して、 フィールド D CTを選択する。 また、 式 (3) を満たさない 場合には、 符号化対象のマクロブロックは、 フレーム相関が強く、 動 きの少ないマクロプロックであると認識して、 フレーム D CTを選択 する。  Here, if Equation (3) is satisfied, the macroblock to be encoded is recognized as a macroblock with strong field correlation and strong motion, and the field DCT is selected. If Equation (3) is not satisfied, the macroblock to be encoded is recognized as a macroblock with strong frame correlation and little movement, and the frame DCT is selected.
このように、 この実施の形態では、 フレーム及びフィールドに対す る相関を単純に比較するのではなく、 重み付けを行った互いの相関情 報を比較することで、 D CTモードを判定している。 なお、 式 (3) の定数 a、 b、 c、 dの値は、 固定的に決めてもよいし、 入力画像に 応じて可変的に設定してもよい。  As described above, in this embodiment, the DCT mode is determined by comparing the weighted mutual correlation information, instead of simply comparing the correlation for the frame and the field. Note that the values of the constants a, b, c, and d in Equation (3) may be fixedly determined or may be variably set according to the input image.
第 5図は判定式をグラフで示した場合の図である。 縦軸に V a r 1 、 横軸に V a r 2をとる。 この実施の形態の判定式を、 V a r l =A X V a r 2 + Bとした場合、 図の位置に示される。 ただし、 A= c Z a、 B = (d - b) Zaとする。 また、 A> 1、 且つ、 B>0である また、 図から V a r 1 =V a r 2を境にして、 V a r l =V a r 2 の上方 (V a r l>Va r 2) へ行けば行くほど動きの激しいブロッ クが存在し、 下方 (Va r 1く V a r 2) に行けば行くほど動きの少 ないブロックが存在する。 また、 一般には、 V a r l =V a r 2の近 傍に、 画像信号の多くのブロックが分布する (ブロック群 Bしとする ここで、 この V a r l =Va r 2を D CTモ一ドの判定に用いた場 合を考える。 V a r 1 =V a r 2にもとづいて D CTモードを判定す ると、 ダビングやエンコーダとデコーダのカスケ一ド接続などにおい て、 同一ブロックに対する DC Tモードの反転が生じて、 画質劣化す る可能性が高い。 FIG. 5 is a diagram in a case where a determination formula is shown in a graph. The vertical axis shows Var 1 and the horizontal axis shows Var 2. When V arl = AXV ar 2 + B is used as the determination formula in this embodiment, the result is shown in the figure. Here, A = cZa and B = (d-b) Za. Also, A> 1 and B> 0. From the figure, go to the point above V arl = V ar 2 (V ar l> V a r 2) with V ar 1 = V ar 2 as the boundary There are blocks that move more rapidly, and blocks that move further down (Var 1 and Var 2). In general, many blocks of the image signal are distributed in the vicinity of V arl = V ar 2 (referred to as a block group B, where V arl = V ar 2 is determined in the DCT mode determination). When the DCT mode is determined based on V ar 1 = V ar 2, it can be used for dubbing, cascade connection between encoder and decoder, etc. Therefore, there is a high possibility that the DCT mode is inverted for the same block and the image quality is degraded.
例えば、 最初に V a r 1 =V a r 2に対して V a r 1 <V a r 2を 満たす方向に位置していたブロック bL 1に対して、 1回目の符号化 では、 フレーム DC Tが選択されることになる。 ところが、 複数回ダ ビングを繰り返した場合、 ダビングによる歪みが加わることで、 プロ ック b L 1の位置が V a r l =Va r 2に対して V a r 1 >V a r 2 の方向に位置してしまう可能性がある。  For example, frame DCT is selected in the first encoding for block bL 1 that was initially positioned in a direction that satisfies Var 1 <V ar 2 for Var 1 = V ar 2 Will be. However, when dubbing is repeated several times, the distortion of dubbing causes the position of the block b L1 to be in the direction of Var1> Var2 with respect to Var1 = Var2. May be lost.
すると、 DCTモードの反転が生じ、 同一ブロックに対して、 最初 に施した符号化とは異なるフィールド D C Tが、 このときには選択さ れてしまう。 このように、 V a r 1 = V a r 2にもとづいて判定する と、 ダビングゃエンコーダおよびデコーダの力スケ一ド接続に対し、 D CTモードの反転が生じやすい。  Then, a DCT mode inversion occurs, and a field DCT different from the coding initially applied to the same block is selected at this time. As described above, when the determination is made based on V a r 1 = V a r 2, the inversion of the DCT mode is likely to occur with respect to the power scale connection between the dubbing encoder and the decoder.
一方、 図のような位置に設定したこの実施の形態の判定式では、 V a r 1 =V a r 2近傍にあったブロック群 BLは、 判定式に対して V a r 1 <AXV a r 2 + Bを満たす方向に存在し、 動きが顕著なプロ ックは判定式に対して V a r 1 >AX V a r 2 + Bを満たす方向に位 置することになる。  On the other hand, in the decision formula of this embodiment set at the position as shown in the figure, the block group BL near V ar 1 = V ar 2 satisfies V ar 1 <AXV ar 2 + B for the decision formula. A block that exists in a direction that satisfies the condition and has a remarkable motion is positioned in a direction that satisfies Var1> AXVar2 + B with respect to the determination formula.
したがって、 動きが顕著なブロックには、 フィールド DCTが選択 され、 この実施の形態の判定式に対して V a r 1 <AX V a r 2 +B を満たす方向に存在するブロックには、 フレーム DC Tが選択される ことになる。 このように、 この実施の形態では、 ブロックが密集して いない箇所に境界線 (V a r 1 =AX V a r 2 +B) を設けて D CT モ一ドの判定を行うために、 ダビングやエンコーダとデコーダのカス ケ一ド接続において符号化歪みが加えられたとしても、 ブロックが境 界線を飛び越える可能性が少なくなる。 これにより、 同一ブロックに 対する D CTモードの反転を防止することができ、 画質劣化の低減を 図ることが可能になる。 Therefore, a field DCT is selected for a block having a remarkable motion, and a frame DCT is set for a block existing in a direction satisfying V ar 1 <AX V ar 2 + B with respect to the determination formula of this embodiment. Will be selected. As described above, in this embodiment, a dubbing or encoder is used in order to determine the DCT mode by providing a boundary (V ar 1 = AX Var 2 + B) in a place where blocks are not densely packed. Even if coding distortion is added in the cascade connection between the block and the decoder, the possibility that the block jumps over the boundary line is reduced. This allows the same block Inverting the DCT mode can be prevented, and image quality degradation can be reduced.
ここで、 実際には V a r 1 = V a r 2近傍のブロックは、 ほとんど 動きのないブロックとみなしてよい。 このため、 ほとんど動きのない ブロックからなるブロック群 B Lを V a r 1 = V a r 2で境界付けて 、 ブロック群 BLの中のブロックに対してフィールド DCT /フレー ム D CTを判定するよりも、 この実施の形態のようにブロック群 BL を動きのないブロックの集まりとする境界線 (この実施の形態の判定 式) を設けて、 ブロック群 BLにはフレーム DCTを選択するとした 方が、 ダビングやカスケード接続に対して、 画質劣化の発生頻度を低 下させることが可能になる。  Here, the block near V a r 1 = V a r 2 may be regarded as a block having almost no motion. Therefore, rather than determining a block group BL composed of blocks having almost no motion by V ar 1 = V ar 2 and determining the field DCT / frame DCT for the blocks in the block group BL, As in the embodiment, it is better to provide a boundary line (the decision formula of this embodiment) in which the block group BL is a group of blocks that do not move and select the frame DCT for the block group BL. It is possible to reduce the frequency of image quality degradation for connection.
なお、 ブロック群 BLは、 実験的に求められるものである。  Note that the block group BL is obtained experimentally.
次にこの実施の形態の画像処理方法をフロ一チャートを用いて説明 する。 第 6図はこの実施の形態の画像処理方法のフローチャートを示 す図である。  Next, an image processing method according to this embodiment will be described with reference to a flowchart. FIG. 6 is a diagram showing a flowchart of the image processing method of this embodiment.
〔S 1〕 画像信号の同一ブロックに対して、 判定結果が一定になるよ うに、 ブロックのフレーム相関情報 V a r 1またはフィールド相関情 報 V a r 2の少なくとも一方に重み付けを行う。  [S1] At least one of the frame correlation information V arl and the field correlation information V a2 of the block is weighted so that the determination result is constant for the same block of the image signal.
〔S 2〕 上述した式 (3) の判定式にもとづいて、 フレーム DCTま たはフィ一ルド D CTのいずれの符号化を行うかを適応的に判定制御 する。 式 (3) を満たす場合にはステップ S 3へ、 式 (3) を満たさ ない場合にはステップ S 4へ行く。  [S2] Based on the decision formula of the above-mentioned formula (3), the decision control is adaptively performed as to which of the frame DCT and the field DCT is to be coded. If equation (3) is satisfied, go to step S3; otherwise, go to step S4.
〔S 3〕 ブロックに対して、 フィールド DCTの符号化を行う。 [S3] The field DCT is encoded for the block.
CS 4〕 ブロックに対して、 フレームド DC Tの符号化を行う。 なお、 上述では、 判定式 V a r l =AXV a r 2 +Bを、 ブロック 群 B Lに対して V a r 1>V a r 2を満たす方向に設定したが、 これ はこの例に限定されない。 すなわち、 0<A<1、 且つ、 Bく 0とし て、 判定式 V a r 1 =AX V a r 2 + Bを、 第 5図に点線で例示され るように、 ブロック群 BLに対して V a r 1く V a r 2を満たす方向 に設定することもできる。 CS 4] Encode framed DCT for the block. In the above description, the judgment formula V arl = AXV ar 2 + B is set in a direction that satisfies V ar 1> V ar 2 for the block group BL. Is not limited to this example. That is, assuming that 0 <A <1, and B <0, the determination formula V ar 1 = AX V ar 2 + B is applied to the block group BL as illustrated by the dotted line in FIG. It can also be set to a direction that satisfies Var2.
ここで、 フィールド DC Tよりフレーム DC Tの方が空間的な相関 が強いため、 圧縮効率がより高い。 そのため、 一般的には、 第 5図に 実線で示される、 A>1、 且つ、 B>0である判定式の方が、 圧縮効 率を高めることができ、 より好ましい。  Here, since the frame DCT has a stronger spatial correlation than the field DCT, the compression efficiency is higher. Therefore, in general, a decision formula with A> 1 and B> 0 shown by a solid line in FIG. 5 can increase the compression efficiency and is more preferable.
第 7図 Aおよび第 7図 Bは、 この実施の形態が適用されたディジタ ル VTR 1 0 0の一例の構成を示す。 このディジタル VTR 1 00は 、 MP E G方式により圧縮符号化されたディジタルビデオ信号を記録 媒体に直接的に記録することができるようにしたものである。  7A and 7B show an example of the configuration of a digital VTR 100 to which this embodiment is applied. The digital VTR 100 is capable of directly recording a digital video signal compression-encoded by the MPEG system on a recording medium.
先ず、 このディジタル VTR 1 00における記録系の構成および処 理動作について説明する。 この記録系に外部より入力される信号は、 SD I (Serial Data Interface)信号および S D T I (Serial Data Tr ansport Inter face)信号の 2種類のシリアルディジ夕ルイン夕一フエ イス信号および制御信号である外部基準信号 REFである。  First, the configuration and processing operation of the recording system in the digital VTR 100 will be described. The signals input from the outside to this recording system are two types of serial digital input and output signals, a serial data interface (SDI) signal and a serial data transfer interface (SDTI) signal. Reference signal REF.
なお、 SD Iは、 (4 : 2 : 2) コンポーネントビデオ信号とディ ジタルォ一ディォ信号と付加的データとを伝送するために、 S MP T Eによって規定されたインターフェイスである。 また、 SDT Iは、 ディジタルビデオ信号が MP E G方式で圧縮符号化されたストリ一ム である MPEGエレメン夕リストリーム (以下、 MPEG E Sと称 する) が伝送されるィン夕一フェイスである。 E Sは、 4 : 2 : 2 © コンボーネントであり、 また、 上述したように、 全て I ピクチャのス トリ一ムであり、 1 GOP= 1ピクチャの関係を有する。 SDT I— C P (Content Package)のフォーマットでは、 MPEG ESがァク セスユニットへ分離され、 また、 フレーム単位のパケットにパッキン グされている。 SDT I—CPでは、 十分な伝送帯域 (クロックレ一 トで 2 7 MHzまたは 36 MHz, ストリームビットレートで 27 0M b psまたは 3 6 0 M bps) を使用しており、 1フレーム期間で、 バース 卜的に E Sを送ることが可能である。 SDI is an interface specified by SMPTE for transmitting (4: 2: 2) component video signals, digital audio signals, and additional data. The SDTI is an interface for transmitting an MPEG elementary stream (hereinafter referred to as MPEG ES), which is a stream in which a digital video signal is compression-encoded by the MPEG method. The ES is a 4: 2: 2 © component, and, as described above, is a stream of all I pictures, and has a relationship of 1 GOP = 1 picture. SDT I—CP (Content Package) format uses MPEG ES Access unit and is packed into packets in frame units. SDT I-CP uses a sufficient transmission bandwidth (27 MHz or 36 MHz at clock rate, 270 Mbps or 360 Mbps at stream bit rate), and bursts in one frame period. It is possible to send the ES in a way.
S D Iにより伝送される S D I信号は、 S D I入力部 1 0 1に入力 される。 SD I入力部 1 0 1では、 供給された SD I信号をシリアル 信号からパラレル信号に変換して出力すると共に、 SD I信号に含ま れる入力の位相基準である入力同期信号を抽出し、 タイミングジエネ レー夕 TG 1 02に出力する。  The SDI signal transmitted by the SDI is input to the SDI input unit 101. The SDI input section 101 converts the supplied SDI signal from a serial signal to a parallel signal and outputs the signal, extracts the input synchronization signal that is the phase reference of the input included in the SDI signal, and outputs the timing signal. Output to TG102.
また、 SD I入力部 1 0 1は、 変換したパラレル信号からビデオ信 号とオーディオ信号とを分離する。 分離されたビデオ入力信号とォー ディォ入力信号は、 それぞれ MP EGエンコーダ 1 0 3とディレイ回 路 1 04に出力される。  Also, the SDI input unit 101 separates a video signal and an audio signal from the converted parallel signal. The separated video input signal and audio input signal are output to the MPEG encoder 103 and the delay circuit 104, respectively.
タイミングジェネレータ TG 1 02は、 入力された外部基準信号 R E Fから基準同期信号を抽出する。 タイミングジェネレータ TGでは 、 この基準同期信号と SD I入力部 1 0 1から供給された入力同期信 号とのうち、 所定に指定された基準信号に同期して、 このディジタル VTR 1 0 0で必要なタイミング信号を生成し、 タイミングパルスと して各プロックに供給する。  The timing generator TG102 extracts a reference synchronization signal from the input external reference signal REF. The timing generator TG synchronizes the reference synchronizing signal and the input synchronizing signal supplied from the SDI input section 101 with a predetermined designated reference signal, and generates a signal necessary for this digital VTR 100. Generates a timing signal and supplies it to each block as a timing pulse.
MP EGエンコーダ 1 0 3は、 この実施の形態による画像処理装置 1 0または画像処理方法の機能を含む構成部である。 MP EGェンコ ーダ 1 0 3は、 入力された画像信号すなわちビデオ入力信号を、 DC T変換して係数データに変換し、 係数データを量子化した後、 可変長 符号化する。 MPEGエンコーダ 1 0 3から出力される可変長符号化 (VL C) データは、 MP E G 2に準拠したエレメンタリストリ一ム (E S) である。 この出力は、 記録側のマルチフォーマットコンパ一 夕 (以下、 記録側 MFCと称する) 1 06の一方の入力端に供給され る。 The MPEG encoder 103 is a component including the functions of the image processing device 10 or the image processing method according to the present embodiment. The MPEG encoder 103 converts the input image signal, that is, the video input signal, into coefficient data by DCT conversion, quantizes the coefficient data, and then performs variable length coding. The variable length coded (VLC) data output from the MPEG encoder 103 is an elementary stream conforming to MPEG2. (ES). This output is supplied to one input terminal of a recording-side multi-format comparator (hereinafter, referred to as recording-side MFC) 106.
ディレイ回路 1 04は、 入力されたォ一ディォ入力信号を、 非圧縮 デ一夕のままで、 MP E Gエンコーダ 1 0 3でのビデオ信号に対する 処理のディレイに合わせるためのディレイラインの働きをするもので ある。 このディレイ回路 1 04で所定に遅延されたオーディオ信号は 、 E C Cエンコーダ 1 07に出力される。 これは、 この実施の形態に よるディジタル VTR 1 0 0において、 オーディオ信号が非圧縮信号 として极われるためである。  The delay circuit 104 functions as a delay line for adjusting the input audio input signal to the processing delay of the video signal in the MPEG encoder 103 without any compression. It is. The audio signal delayed by the delay circuit 104 is output to the ECC encoder 107. This is because the audio signal appears as an uncompressed signal in the digital VTR 100 according to this embodiment.
外部から SDT Iにより伝送され供給された S DT I信号は、 SD T I入力部 1 0 5に入力される。 SDT I信号は、 30丁 1入カ部1 0 5で同期検出される。 そして、 バッファに一旦溜め込まれ、 エレメ ンタリス卜リームが抜き出される。 抜き出されたエレメンタリストリ ームは、 記録側 MF C 1 06の他方の入力端に供給される。 同期検出 されて得られた同期信号は、 上述したタイミングジエネレ一夕 TG 1 0 2に供給される (図示しない) 。  The SDTI signal transmitted and supplied from the outside by the SDTI is input to the SDTI input section 105. The SDT I signal is synchronously detected by the input section 105 of the 30-piece. Then, it is temporarily stored in the buffer, and the elementary stream is extracted. The extracted elementary stream is supplied to the other input terminal of the MFC 106 on the recording side. The synchronization signal obtained by the synchronization detection is supplied to the above-described timing generator TG 102 (not shown).
なお、 SDT I受信部 1 08では、 さらに、 入力された SDT I信 号からディジタルオーディォ信号を抽出する。 抽出されたディジ夕ル オーディオ信号は、 E C Cエンコーダ 1 07に供給される。  The SDTI receiving section 108 further extracts a digital audio signal from the input SDTI signal. The extracted digital audio signal is supplied to the ECC encoder 107.
このように、 このこの実施の形態によるディジタル VTR 1 00は 、 S D I入力部 1 0 1から入力されるベースバンドのビデオ信号と独 立して、 MP EG E Sを直接的に入力することができる。  Thus, the digital VTR 100 according to the present embodiment can directly input MPEGES independently of the baseband video signal input from the SDI input section 101.
記録側 MF C回路 1 06は、 ストリ一ムコンパ一夕とセレクタとを 有し、 SD I入力部 1 0 1および SDT I入力部 1 0 5から供給され た MP EG E Sのうち、 何れかが選択され、 選択された MP EG E Sの DC T係数を、 1マクロブロックを構成する複数の DC Tプロ ックを通して周波数成分毎にまとめ、 まとめた周波数成分を低周波数 成分から順に並び替える。 MPEG E Sの係数が並べ替えられたス トリ一ムを、 以下、 変換エレメンタリストリームと称する。 このよう に MP EG E Sを再配置することにより、 サーチ再生時にもなるベ く多くの D C係数と低次の AC係数を拾い、 サーチ画の品位向上に貢 献している。 変換エレメンタリストリームは、 ECCエンコーダ 1 0 7に供給される。 The recording-side MFC circuit 106 has a stream comparator and a selector, and selects one of the MPEGES supplied from the SDI input unit 101 and the SDTI input unit 105. Selected and selected MP EG The DCT coefficients of the ES are grouped for each frequency component through a plurality of DCT blocks constituting one macroblock, and the grouped frequency components are sorted in order from the low frequency component. The stream in which the MPEG ES coefficients are rearranged is hereinafter referred to as a “conversion elementary stream”. By rearranging MPEGES in this way, as many DC coefficients and low-order AC coefficients as possible during search playback are picked up, contributing to the improvement of the quality of search images. The converted elementary stream is supplied to the ECC encoder 107.
E C Cエンコーダ 1 07は、 大容量のメインメモリが接続され (図 示しない) 、 パッキングおよびシャフリング部、 オーディオ用外符号 エンコーダ、 ビデオ用外符号エンコーダ、 内符号エンコーダ、 オーデ ィォ用シャフリング部およびビデオ用シャフリング部などを内蔵する 。 また、 E C Cエンコーダ 1 0 9は、 シンクブロック単位で I Dを付 加する回路や、 同期信号を付加する回路を含む。 なお、 実施の第 1の 形態では、 ビデオ信号およびオーディオ信号に対するエラー訂正符号 としては、 積符号が使用される。 積符号は、 ビデオ信号またはオーデ ィォ信号の 2次元配列の縦方向に外符号の符号化を行い、 その横方向 に内符号の符号化を行い、 データシンポルを 2重に符号化するもので ある。 外符号および内符号としては、 リードソロモンコード(Reed-So lomon code) を使用できる。  The ECC encoder 107 is connected to a large-capacity main memory (not shown), and has a packing and shuffling unit, an outer code encoder for audio, an outer code encoder for video, an inner code encoder, a shuffling unit for audio, and Built-in video shuffling unit. Further, the ECC encoder 109 includes a circuit for adding an ID in sync block units and a circuit for adding a synchronization signal. In the first embodiment, a product code is used as an error correction code for a video signal and an audio signal. The product code encodes the outer code in the vertical direction of a two-dimensional array of video signals or audio signals, encodes the inner code in the horizontal direction, and double encodes the data symbol. is there. As the outer code and the inner code, a Reed-Solomon code can be used.
ECCエンコーダ 1 07には、 MF C回路 1 06から出力された変 換エレメン夕リストリームが供給されると共に、 SDT I入力部 1 0 5およびディレイ回路 1 04から出力されたオーディオ信号が供給さ れる。 E C。エンコーダ 1 07では、 供給された変換エレメンタリス トリーム及びオーディォ信号に対してシャフリング及びエラ一訂正符 号化を施し、 シンクブロック毎に I Dおよび同期信号を付加し記録デ 一夕として出力する。 The conversion element stream output from the MFC circuit 106 is supplied to the ECC encoder 107, and the audio signal output from the SDTI input section 105 and the delay circuit 104 is supplied to the ECC encoder 107. . EC. The encoder 107 performs shuffling and error correction coding on the supplied conversion elementary stream and audio signal, adds an ID and a synchronization signal for each sync block, and records the data. Output as overnight.
ECCエンコーダ 1 0 7から出力された記録データは、 記録アンプ を含むイコライザ EQ 1 08で記録 RF信号に変換される。 記録 RF 信号は、 回転ヘッドが所定に設けられた回転ドラム 1 0 9に供給され 、 磁気テープ 1 1 0上に記録される。 回転ドラム 1 09には、 実際に は、 隣接するトラックを形成するへッドのアジマスが互いに異なる複 数の磁気へッドが取り付けられている。  The recording data output from the ECC encoder 107 is converted into a recording RF signal by an equalizer EQ 108 including a recording amplifier. The recording RF signal is supplied to a rotating drum 109 provided with a rotating head in a predetermined manner, and is recorded on a magnetic tape 110. The rotating drum 109 is actually provided with a plurality of magnetic heads having different azimuths of heads forming adjacent tracks.
記録データに対して必要に応じてスクランブル処理を行っても良い 。 また、 記録時にディジタル変調を行っても良く、 さらに、 パ一シャ ル · レスポンスクラス 4とビタビ符号を使用しても良い。 なお、 ィコ ライザ 1 0 8は、 記録側の構成と再生側の構成とを共に含む。  The recording data may be subjected to scramble processing as needed. Further, digital modulation may be performed at the time of recording, and further, a partial response class 4 and Viterbi code may be used. The equalizer 108 includes both a recording-side configuration and a reproduction-side configuration.
次に、 このディジタル VTR 1 00における再生系の構成および処 理動作について説明する。 再生時には、 磁気テープ 1 1 0から回転ド ラム 1 0 9で再生された再生信号が再生アンプなどを含むイコライザ 1 0 8の再生側の構成に供給される。 イコライザ 1 08では、 再生信 号に対して、 等化や波形整形などがなされる。 また、 ディジタル変調 の復調、 ビタビ復号等が必要に応じてなされる。 イコライザ 1 08の 出力は、 E C Cデコーダ 1 1 1に供給される。  Next, the configuration and processing operation of the reproduction system in the digital VTR 100 will be described. At the time of reproduction, a reproduction signal reproduced by the rotating drum 109 from the magnetic tape 110 is supplied to a reproduction-side configuration of an equalizer 108 including a reproduction amplifier and the like. In the equalizer 108, equalization and waveform shaping are performed on the reproduced signal. Also, demodulation of digital modulation, Viterbi decoding, etc. are performed as needed. The output of the equalizer 108 is supplied to the ECC decoder 111.
E C Cデコーダ 1 1 1は、 上述した E C Cエンコーダ 1 07と逆の 処理を行うもので、 大容量のメインメモリと、 内符号デコーダ、 ォー ディォ用およびビデオ用それぞれのデシャフリング部ならびに外符号 デコーダを含む。 さらに、 ECCデコーダ 1 1 1は、 ビデオ用として 、 デシャフリングおよびデパッキング部、 データ補間部を含む。 同様 に、 オーディオ用として、 オーディオ AUX分離部とデータ補間部を 含む。  The ECC decoder 111 performs processing reverse to that of the ECC encoder 107 described above, and includes a large-capacity main memory, an inner code decoder, a deshuffling unit for audio and video, and an outer code decoder. . Further, the ECC decoder 111 includes a deshuffling and depacking unit and a data interpolation unit for video. Similarly, it includes an audio AUX separation unit and a data interpolation unit for audio.
ECCデコーダ 1 1 1では、 再生データに対して同期検出を行い、 'ロックの先頭に付加されている同期信号を検出 ロックを切り出す。 再生データは、 シンクブロック毎の内符号のエラ 一訂正がなされ、 その後、 シンクブロックに対して I D補間処理がな される。 I Dが補間された再生データは、 ビデオデータとオーディオ 5 データとに分離される。 ビデオデータおよびオーディオデ一夕は、 そ れぞれデシャフリング処理され、 記録時にシャフリングされたデータ 順が元に戻される。 デシャフリングされたデータは、 それぞれ外符号 のエラー訂正が行われる。 The ECC decoder 1 1 1 performs synchronization detection on the playback data, 'Detect the synchronization signal added to the beginning of the lock. Cut out the lock. The reproduced data is subjected to error correction of the inner code for each sync block, and thereafter, ID interpolation processing is performed on the sync block. The playback data with the interpolated ID is separated into video data and audio 5 data. Video data and audio data are each subjected to deshuffling processing, and the order of the data shuffled during recording is restored. Each of the deshuffled data is subjected to outer code error correction.
ECCデコーダ 1 1 1において、 エラ一訂正能力を超え、 訂正でき0 ないエラ一があるデータに関しては、 エラ一フラグがセットされる。  In the ECC decoder 111, an error flag is set for data having an error that exceeds the error correction capability and cannot be corrected.
ここで、 ビデオデ一夕のエラーに関しては、 エラーを含むデータを指 し示す信号 ERRが出力される。  Here, regarding the error in the video data, a signal ERR indicating the data including the error is output.
エラー訂正された再生オーディォデ一夕は、 S DT I出力部 1 1 5 に供給されると共に、 ディレイ回路 1 14で所定の遅延を与えられて ' S D I出力部 1 1 6に供給される。 ディレイ回路 1 14は、 後述する The error-corrected reproduction audio data is supplied to the SDTI output unit 115, and is also supplied to the SDDI output unit 116 after being given a predetermined delay by the delay circuit 114. The delay circuit 114 will be described later.
MP EGデコーダ 1 1 2でのビデオデータの処理による遅延を吸収す るために設けられる。 It is provided to absorb a delay due to processing of video data in the MPEG decoder 112.
一方、 エラー訂正されたビデオデータは、 再生変換エレメン夕リス トリームとして再生側 MF C回路 1 1 2に供給される。 上述した信号0 ERRも、 再生側 MF C回路 1 1 2に供給される。 再生側 MFC 1 1 On the other hand, the error-corrected video data is supplied to the playback-side MFC circuit 112 as a playback conversion element stream. The signal 0 ERR described above is also supplied to the reproduction-side MFC circuit 112. Playback side MFC 1 1
2は、 上述した記録側 MF C 1 06と逆の処理を行うものであって、 ストリームコンバータを含む。 ストリームコンバータでは、 記録側の' ストリームコンバータと逆の処理がなされる。 すなわち、 DCTブロ ックに跨がって周波数成分毎に並べられていた D CT係数を、 D CT 5 ブロック毎に並び替える。 これにより、 再生信号が MP E G 2に準拠 したエレメンタリストリームに変換される。 このとさ、 ECCデコー ダ 1 1 1から信号 ERRが供給された場合は、 対応するデータを MP EG 2に完全に準拠する信号に置き換えて出力する。 Numeral 2 performs a process reverse to that of the recording-side MFC 106 described above, and includes a stream converter. In the stream converter, the reverse process is performed with the stream converter on the recording side. That is, the DCT coefficients arranged for each frequency component across the DCT blocks are rearranged for every DCT 5 block. As a result, the reproduced signal is converted into an elementary stream compliant with MPEG2. With this, ECC When the signal ERR is supplied from the data 111, the corresponding data is replaced with a signal completely compliant with MPEG2 and output.
再生側 MF C回路 1 1 2から出力された MP E G E Sは、 MPE Gデコーダ 1 1 3および S DT I出力部 1 1 5に供給される。 MP E Gデコーダ 1 1 3は、 供給された MP E G E Sを復号し、 非圧縮の 元のビデオ信号に戻す。 すなわち、 MP EGデコーダ 1 1 3は、 供給 された MP EG E Sに対して逆量子化処理と、 逆 DCT処理とを施 す。 復号されたビデオ信号は、 SD I出力部 1 16に供給される。 上述したように、 301出カ部1 1 6には、 EC Cデコーダ 1 1 1 でビデオデータと分離されたオーディオデータがディレイ 1 14を介 して供給されている。 301出カ部1 1 6では、 供給されたビデオデ 一夕とオーディォデータとを、 S D Iのフォーマツトにマッピングし 、 S D Iフォ一マツトのデータ構造を有する S D I信号へ変換される 。 この S D I信号が外部に出力される。  The MPEGES output from the reproduction side MFC circuit 112 is supplied to the MPEG decoder 113 and the SDTI output unit 115. The MPEG decoder 113 decodes the supplied MPEGES and restores the original uncompressed video signal. That is, the MPEG decoder 113 performs an inverse quantization process and an inverse DCT process on the supplied MPEGES. The decoded video signal is supplied to the SDI output unit 116. As described above, the 301 output unit 116 is supplied with the audio data separated from the video data by the ECC decoder 111 via the delay 114. In the 301 output unit 116, the supplied video data and audio data are mapped into an SDI format and converted into an SDI signal having an SDI format data structure. This SDI signal is output to the outside.
一方、 S D T I出力部 1 1 5には、 上述したように、 ECCデコ一 ダ 1 1 1でビデオデータと分離されたオーディオデータが供給されて いる。 SDT I出力部 1 1 5では、 供給された、 エレメンタリストリ —ムとしてのビデオデータと、 オーディオデータとを SDT Iのフォ —マツトにマツビングし、 S DT Iフォーマツトのデータ構造を有す る S DT I信号へ変換されるこの S DT I信号が外部に出力される。 なお、 システムコン.トローラ 1 1 7 (第 7図 Aおよび第 7図 B中で は、 シスコン 1 1 7と略記) は、 例えばマイクロコンピュータからな り、 信号 SY—I Oにより各ブロックと通信を行うことにより、 この ディジタル VTR 1 0 0の全体の動作を制御する。 サーポ 1 1 8は、 信号 S Y— S Vによりシステムコントローラ 1 1 7と互いに通信を行 いながら、 信号 SV__I〇により、 磁気テープ 1 1 0の走行制御や回 転ドラム 1 0 9の駆動制御などを行う。 On the other hand, audio data separated from video data by the ECC decoder 111 is supplied to the SDTI output unit 115 as described above. In the SDT I output section 115, the supplied video data and audio data as elementary streams are mapped to the SDT I format, and the SDT I format has an SDT format data structure. The SDTI signal converted to the DTI signal is output to the outside. The system controller 117 (abbreviated as system controller 117 in FIGS. 7A and 7B) is composed of, for example, a microcomputer and communicates with each block by a signal SY-IO. Thus, the entire operation of the digital VTR 100 is controlled. The Servo 118 communicates with the System Controller 117 by the signal SY-SV, while the signal SV__I〇 controls the running and rotation of the magnetic tape 110. The drive control of the transfer drum 109 is performed.
第 8図は、 第 7図のディジタル VTR 1 00における MP E Gェン コ一ダ 1 0 3の一例の構成を概略的に示す。 MP EGエンコーダ 1 0 3は、 概略的には、 ブロック化回路 30 0、 ディレイ回路 30 1、 D C Tモード判定回路 302、 0。丁回路303、 量子化回路 3 04お よび可変長符号化 (VLC) 回路 30 5とを有する。  FIG. 8 schematically shows an example of the configuration of the MPEG encoder 103 in the digital VTR 100 shown in FIG. The MPEG encoder 103 is roughly composed of a blocking circuit 300, a delay circuit 301, and a DCT mode determination circuit 302,0. It has a chopping circuit 303, a quantization circuit 304, and a variable length coding (VLC) circuit 305.
MP EGエンコーダ 1 0 3に供給されたディジタルビデオ信号は、 ブロック化回路 300で、 1 6ライン X 1 6画素のブロック (マクロ ブロック) 単位に分割されて出力される。 ブロック化回路 300から ブロック単位で出力されたデータは、 ディレイ回路 3 0 1で所定の遅 延を与えられ、 D CT回路 30 3に供給されると共に、 DCTモード 判定回路 3 02に供給される。 DCTモード判定回路 302は、 上述 したこの実施の形態による判定制御により、 ブロック化されたデイジ タルビデオ信号に対してフィールド D C Tを行うか、 フレーム D C T を行うかを判定する。 判定結果は、 モード判定信号として DCTモー ド判定回路 3 02から出力され、 D CT回路 303に供給される。  The digital video signal supplied to the MPEG encoder 103 is divided by a blocking circuit 300 into 16-line × 16-pixel block (macroblock) units and output. The data output from the blocking circuit 300 in block units is given a predetermined delay by the delay circuit 301, supplied to the DCT circuit 303, and supplied to the DCT mode determination circuit 302. The DCT mode determination circuit 302 determines whether to perform the field DCT or the frame DCT on the blocked digital video signal by the determination control according to the above-described embodiment. The result of the determination is output from the DCT mode determination circuit 302 as a mode determination signal and supplied to the DCT circuit 303.
DCT回路 30 3では、 DCTモード判定回路 302によって判定 された DC Tモードに基づき、 ディレイ回路 3 0 1から出力されたブ ロック単位のデータに対して DC T演算を行い、 DCT係数を生成す る。 生成された DC T係数は、 量子化回路 304に供給される。 DC T回路 3 0 3では、 8ラインズ 8画素からなる DC Tブロック単位で D CT演算が行われる。  The DCT circuit 303 performs a DCT operation on the data in block units output from the delay circuit 301 based on the DCT mode determined by the DCT mode determination circuit 302 to generate a DCT coefficient. . The generated DCT coefficient is supplied to the quantization circuit 304. In the DCT circuit 303, a DCT operation is performed in units of a DCT block composed of 8 lines and 8 pixels.
DCT回路 3 03から出力された DC T係数は、 量子化回路 3 04 で量子化される。 量子化回路 304の出力は、 VLC回路 30 5に供 給され、 可変長符号化され、 MPEG ESとされ出力される。 次にディジタル VTR 1 00で高速再生及び高速逆再生 (シャトル モード) を行った場合を例にしてこの実施の形態の利点について以降 説明する。 ビデオ信号を記録する記録媒体としては、 磁気テープが一 般に用いられている。 磁気テープへのビデオ信号記録は、 回転するド ラム上に設けられた磁気ヘッド (回転ヘッド) によって、 テープの走 行方法に対して斜めに傾斜した、 ヘリカルトラックが形成されること によってなされる。 また、 再生時には、 回転ヘッドによって、 記録時 に形成されたヘリカルトラックが正確にトレースされる。 The DCT coefficient output from the DCT circuit 303 is quantized by the quantization circuit 304. The output of the quantization circuit 304 is supplied to a VLC circuit 305, subjected to variable-length coding, converted into MPEG ES, and output. Next, high-speed playback and high-speed reverse playback (shuttle Mode), the advantages of this embodiment will be described below. A magnetic tape is generally used as a recording medium for recording a video signal. Video signal recording on magnetic tape is performed by a magnetic head (rotating head) provided on a rotating drum, forming a helical track that is inclined with respect to the tape running method. Also, during playback, the rotating head accurately traces the helical tracks formed during recording.
一方、 再生時に、 テープの走行速度を記録時の速度よりも高速にす ることで、 例えば 2倍速、 3倍速、 あるいはサーチなどの再生を行う ことができる。 この場合、 回転ヘッドのテープ上でのトレース角がへ リカルトラックの傾き角度とは異なってくる。 そのため、 ヘリカルト ラックに記録された信号のすべてをトレースすることができなくなる 。 すなわち、 高速再生時には、 各ヘリカルトラックの一部を走査する ような再生が行われる。  On the other hand, by making the running speed of the tape higher than the speed at the time of recording during reproduction, it is possible to perform reproduction such as double speed, triple speed, or search. In this case, the trace angle of the rotary head on the tape is different from the tilt angle of the helical track. This makes it impossible to trace all the signals recorded on the helical track. That is, at the time of high-speed reproduction, reproduction is performed by scanning a part of each helical track.
M P E G— V T Rを対象にしたディジタルV T R 1 0 0では、 この ような高速再生やシャッフリングを考慮して、 デー夕をパッキングし て記録する。 パッキングとは、 異なる長さのストリームを固定枠に当 てはめることをいう。 すなわち、 M P E Gエンコーダ 1 1 3により作 成されるストリームは、 可変長符号化されているためマクロブロック 毎の長さが異なっている。 したがって、 この異なるストリームを固定 枠に当てはめるパッキング操作を行つてデータを記録する。  In the digital VTR 100 for MPEG-VTR, data is packed and recorded in consideration of such high-speed reproduction and shuffling. Packing refers to applying different length streams to a fixed frame. That is, the streams created by the MPEG encoders 113 are variable-length coded, and therefore have different lengths for each macroblock. Therefore, data is recorded by performing a packing operation of applying the different streams to a fixed frame.
第 9図、 第 1 0図はパッキングの概要を示す図である。 ここでは、 8マクロブロックを固定枠に当てはめる例を示す。 また、 それぞれの マクロブロックに # 1〜 # 8の番号を付ける。  FIG. 9 and FIG. 10 are diagrams showing an outline of packing. Here, an example in which 8 macro blocks are applied to a fixed frame is shown. Number each macro block from # 1 to # 8.
可変長符号化によって、 第 9図に示されるように、 8マクロブロッ クは、 互いに長さが異なっている。 この例では、 固定枠である 1 クブロックの長さと比較して、 マクロブロック # 1のデータ、 # 3の データ、 # 6のデータがそれぞれ長く、 マクロブロック # 2のデータ 、 # 5のデータ、 # 7のデータ及び # 8のデータがそれぞれ短い。 ま たマクロブロック # 4のデ一夕は、 1シンクブロックと等しい長さで ある。 As shown in FIG. 9, the lengths of the eight macroblocks are different from each other due to the variable length coding. In this example, the fixed frame is 1 Macro block # 1, data # 3, data # 6 are longer than macro block # 1, macro block # 2, data # 5, data # 7, and data # 8 Are short. The length of macro block # 4 is equal to one sync block.
パッキング処理によって、 マクロブロックが 1シンクブロック長の 固定長枠に流し込まれ、 1フレーム期間で発生したデータ全体が固定 長化される。 したがって、 1シンクブロックと比較して長いマクロブ ロックは、 シンクブロック長に対応する位置で分割される。 分割され たマクロブロックのうち、 シンクブロック長からはみ出た部分は、 先 頭から順に余った領域に、 すなわち、 長さがシンクブロック長に満た ないマクロブロックの後ろに、 詰め込まれる。  By the packing process, the macroblock is poured into a fixed-length frame of one sync block length, and the entire data generated in one frame period is fixed-length. Therefore, a macro block longer than one sync block is divided at a position corresponding to the sync block length. Of the divided macroblocks, the portion that protrudes from the sync block length is stuffed into the extra area in order from the beginning, that is, after the macroblock whose length is less than the sync block length.
第 1 0図では、 マクロブロック # 1のシンクブロック長からはみ出 た部分が、 まず、 マクロブロック # 2の後ろに詰め込まれ、 そこがシ ンクブロックの長さに達すると、 マクロブロック # 5の後ろに詰め込 まれる。  In Fig. 10, the part that protrudes from the sync block length of macro block # 1 is packed first after macro block # 2, and when it reaches the length of sync block, it follows macro block # 5. Stuffed into.
次にマクロブロック # 3のシンクブロック長からはみ出た部分が、 マクロブロック # 7の後ろに詰め込まれる。 さらに、 マクロブロック # 6のシンクブロック長からはみ出た部分が、 マクロブロック # 7の 後ろに詰め込まれ、 さらに、 はみ出た部分がマクロブロック # 8の後 ろに詰め込まれる。 こうして、 各マクロブロックがシンクブロック長 の固定枠に対してパッキングされる。  Next, the portion of macro block # 3 that exceeds the sync block length is packed after macro block # 7. In addition, the portion that protrudes from the sync block length of macro block # 6 is stuffed after macro block # 7, and the protruding portion is stuffed after macro block # 8. Thus, each macroblock is packed into a fixed frame of the sync block length.
また、 先に説明した高速再生は、 ヘリカルトラックに記録された信 号のすべてをトレースすることができない。 このため、 パッキングさ れずに、 シンクブロック長からはみ出たデータは、 再生することがで きない (第 9図、 1 0では、 シンクブロック長からはみ出たデータは 、 すべてパッキングされて再生可能な例を示している) 。 In addition, the high-speed reproduction described above cannot trace all the signals recorded on the helical track. For this reason, data that is out of the sync block length without packing cannot be reproduced. (In Fig. 9, 10 the data that exceeds the sync block length cannot be reproduced. , All packed and reproducible examples are shown).
一方、 D C Tモ一ドをフィールド D C Tまたはフレーム D C Tのい ずれかに固定して符号化した場合について考える。 例えば、 フレーム D C T固定にすると、 時間的相関の強い動きの激しい画に対し、 空間 的相関が少ないため、 多くのストリームが割り当てられ、 その長さは シンクブロック長を大きく超えてしまう。  On the other hand, consider a case in which the DCT mode is fixed to either the field DCT or the frame DCT for encoding. For example, if the frame DCT is fixed, a large amount of streams will be allocated to a rapidly moving image with strong temporal correlation because there is little spatial correlation, and the length will greatly exceed the sync block length.
すると、 シンクブロック長からはみ出るデータが多く存在すること になり、 パッキングによって固定長枠に入りきらない多くのデータ部 分が切り捨てられてしまうことになる。 また、 シンクブロック長から はみ出たデータには、 多くの A C係数が含まれている。 したがって、 高速再生及び高速逆再生を行って、 この部分が削除されると、 画質劣 化が発生してしまう。  As a result, there is a lot of data that exceeds the sync block length, and many data parts that cannot fit in the fixed-length frame are truncated due to packing. In addition, data that exceeds the sync block length contains many AC coefficients. Therefore, if high-speed reproduction and high-speed reverse reproduction are performed and this portion is deleted, the image quality deteriorates.
また、 フィールド D C T固定では、 一般の画像に多い空間的相関の 強い画に対し、 符号化効率がフレーム D C T固定より劣る。 このため 、 高速再生及び高速逆再生だけでなく、 通常の再生時においても画質 劣化が生じてしまう。  Also, in the fixed field DCT, the coding efficiency is inferior to that of the fixed frame DCT for an image having a strong spatial correlation which is common in general images. For this reason, image quality is deteriorated not only during high-speed reproduction and high-speed reverse reproduction, but also during normal reproduction.
さらに、 ダビングやエンコーダとデコーダのカスケ一ド接続等によ り、 同一ブロックに対し、 D C Tモードが反転してしまう場合に対し ても、 例えば、 本来フィールド D C Tを対象とするブロックに、 フレ —ム D C Tが実行されてしまうと、 シンクブロック長からはみ出るデ 一夕数が多く出現してしまい、 高速再生及び高速逆再生時において画 質劣化が目立ってしまう。  Furthermore, even when the DCT mode is inverted for the same block due to dubbing or cascading connection between the encoder and the decoder, for example, a frame that is originally intended for field DCT can be used. If the DCT is executed, a large number of data appearing outside the sync block length will appear, and image degradation will be conspicuous during high-speed playback and high-speed reverse playback.
このように、 D C Tモードをフィールド D C Tまたはフレーム D C Tのいずれかに固定した場合や、 ダビングやエンコーダとデコーダの カスケ一ド接続等により同一プロックに対して D C Tモードが反転し てしまう場合では、 パッキング時に、 シンクブロック長からはみ出る デー夕数が増加してしまう。 In this way, when the DCT mode is fixed to either the field DCT or the frame DCT, or when the DCT mode is inverted for the same block due to dubbing or cascading the encoder and decoder, the Out of sync block length The number of days and evenings will increase.
一方、 この実施の形態では、 同一ブロックに対して判定結果が一定 になるように (ダビングやエンコーダとデコーダのカスケ一ド接続を 行っても、 D C Tモードが反転しないように) 、 上述した判定制御に もとづいて適応的に D C Tモードを選択している。 これにより、 シン クブロック長からはみ出るデータ数を低減させることができるので、 通常再生時だけでなく、 高速再生、 高速逆再生に対しても、 画質の向 上を図ることが可能になる。  On the other hand, in this embodiment, the above-described determination control is performed so that the determination result is constant for the same block (so that the DCT mode is not inverted even when dubbing or cascading the encoder and the decoder is performed). The DCT mode is adaptively selected based on. This makes it possible to reduce the number of data pieces that extend beyond the sink block length, thereby improving the image quality not only during normal playback but also during high-speed playback and high-speed reverse playback.
なお、 上記の説明では、 フレーム、 フィールドそれぞれに対して、 D C T演算を行う場合の適応切り替えについて説明したが、 D C T以 外の直交変換や、 その他の高能率符号化アルゴリズムを用いて、 フレ ーム、 フィールドそれぞれに対して切り替える符号化装置に対しても 、 この実施の形態の符号化判定制御を適用することが可能である。 以上説明したように、 この実施の形態の画像処理装置は、 同一プロ ックに対して、 判定結果が一定になるように、 ブロックのフレーム相 関情報またはフィールド相関情報の少なくとも一方に重み付けを行つ て、 フレーム D C Tまたはフィールド D C Tのいずれの符号化を行う かを適応的に判定制御する構成とした。 これにより、 同一ブロックに 対する D C Tモードの反転を防止することができ、 画質劣化の低減を 図ることが可能になる。  In the above description, adaptive switching in the case of performing DCT computation on each of the frame and the field has been described. However, the orthogonal transform other than DCT and other high-efficiency coding algorithms are used to perform frame switching. It is also possible to apply the encoding determination control of this embodiment to an encoding device that switches for each field. As described above, the image processing apparatus according to the present embodiment weights at least one of the frame correlation information and the field correlation information of a block so that the determination result is constant for the same block. Therefore, a configuration is adopted in which whether frame DCT or field DCT is to be encoded is adaptively determined and controlled. As a result, the inversion of the DCT mode for the same block can be prevented, and the deterioration of the image quality can be reduced.
また、 この実施の形態の画像処理方法は、 同一ブロックに対して、 判定結果が一定になるように、 ブロックのフレーム相関情報またはフ ィ一ルド相関情報の少なくとも一方に重み付けを行って、 フレーム D C Tまたはフィールド D C Tのいずれの符号化を行うかを適応的に判 定制御することとした。 これにより、 同一ブロックに対する D C Tモ 一ドの反転を防止することができ、 画質劣化の低減を図ることが可能 になる。 Further, the image processing method according to this embodiment performs weighting on at least one of the frame correlation information and the field correlation information of a block so that the determination result is constant for the same block. Alternatively, it was decided to adaptively judge and control which field DCT coding should be performed. As a result, it is possible to prevent the DCT mode from being inverted for the same block, and to reduce image quality degradation. become.

Claims

請 求 の 範 囲 The scope of the claims
1. 画像信号を圧縮符号化する画像処理装置において、  1. In an image processing device that compresses and encodes an image signal,
画像信号のブロックに対してフレ一ム相関およびフィールド相関の 一方に重み付けをした相関情報を検出する相関情報検出手段と、 上記相関情報検出手段により検出された上記相関情報に応じて上記 画像信号のブロックに対してフレーム内符号化またはフィールド内符 号化を行う符号化手段と  Correlation information detecting means for detecting correlation information in which one of frame correlation and field correlation is weighted with respect to the block of the image signal; and detecting the image signal according to the correlation information detected by the correlation information detecting means. Encoding means for performing intra-frame or intra-field encoding on the block;
を有することを特徴とする画像処理装置。 An image processing apparatus comprising:
2. 請求の範囲 1に記載の画像処理装置において、  2. In the image processing apparatus according to claim 1,
フレーム内の隣接画素間差分値に基づく上記フレーム相関を V a r 1とし、 フィールド内の隣接画素間差分値に基づく上記フィールド相 関を Va r 2とし、 A> 1且つ B> 0とした場合に、  When the above-mentioned frame correlation based on the difference value between adjacent pixels in the frame is Var1, the above-mentioned field correlation based on the difference value between adjacent pixels in the field is Var2, and A> 1 and B> 0. ,
上記符号化手段は、  The encoding means,
V a r 1 >AX V a r 2 + B  V a r 1> AX V a r 2 + B
のときに上記画像信号のブロックに上記フィールド内符号化を行うよ うにしたことを特徴とする画像処理装置。 An image processing apparatus, wherein the intra-field encoding is performed on the image signal block at the time of (i).
3. 請求の範囲 1に記載の画像処理装置において、  3. In the image processing apparatus according to claim 1,
フレーム内の隣接画素間差分値に基づく上記フレーム相関を V a r 1とし、 フィールド内の隣接画素間差分値に基づく上記フィールド相 関を Va r 2とし、 1〉 A> 0且つ Bく 0とした場合に、  The above-mentioned frame correlation based on the difference value between adjacent pixels in the frame is set to Var1, the above-mentioned field correlation based on the difference value between adjacent pixels in the field is set to Var2, and 1> A> 0 and B <0 In case,
上記符号化手段は、  The encoding means,
V a r 1 >AX V a r 2 + B  V a r 1> AX V a r 2 + B
のときに上記画像信号のプロックに上記フィ一ルド内符号化を行うよ うにしたことを特徴とする画像処理装置。 An image processing apparatus, wherein the intra-field encoding is performed on a block of the image signal at the time of (i).
4. 請求の範囲 1に記載の画像処理装置において、 4. The image processing apparatus according to claim 1,
上記符号化は、 直交変換符号化であることを特徴とする画像処理装 The image processing apparatus is characterized in that the coding is orthogonal transform coding.
5. 請求の範囲 4に記載の画像処理装置において、 上記直交変換符号 化は、 D CTであることを特徴とする画像処理装置。 5. The image processing device according to claim 4, wherein the orthogonal transform coding is a DCT.
6. 画像信号を圧縮符号化する画像処理方法において、  6. In an image processing method for compressing and encoding an image signal,
画像信号のブロックに対してフレーム相関およびフィ一ルド相関の 一方に重み付けをした相関情報を検出する相関情報検出のステップと 上記相関情報検出のステップにより検出された上記相関情報に応じ て上記画像信号のプロックに対してフレーム内符号化またはフィ一ル ド内符号化を行う符号化のステップと  A step of detecting correlation information in which one of frame correlation and field correlation is weighted with respect to a block of the image signal, and the image signal according to the correlation information detected in the step of detecting correlation information. Encoding steps to perform intra-frame encoding or intra-field encoding for
を有することを特徴とする画像処理方法。 An image processing method comprising:
7. 請求の範囲 6に記載の画像処理方法において、  7. The image processing method according to claim 6, wherein
フレーム内の隣接画素間差分値に基づく上記フレーム相関を V a r 1とし、 フィールド内の隣接画素間差分値に基づく上記フィールド相 関を V a r 2とし、 A> 1且つ B〉 0とした場合に、  When the above-mentioned frame correlation based on the difference value between adjacent pixels in the frame is Var1, the above-mentioned field correlation based on the difference value between adjacent pixels in the field is Var2, and A> 1 and B> 0. ,
上記符号化のステップは、  The encoding step includes:
V a r 1 >AX V a r 2 + B V a r 1> AX V a r 2 + B
のときに上記画像信号のプロックに上記フィールド内符号化を行うよ うにしたことを特徴とする画像処理方法。 An image processing method, wherein the intra-field encoding is performed on the block of the image signal at the time of (i).
8. 請求の範囲 6に記載の画像処理方法において、  8. The image processing method according to claim 6, wherein
フレーム内の隣接画素間差分値に基づく上記フレーム相関を V a r 1とし、 フィールド内の隣接画素間差分値に基づく上記フィールド相 関を V a r 2とし、 1>A>0且つ Bく 0とした場合に、  The above-mentioned frame correlation based on the difference value between adjacent pixels in the frame is V ar 1, and the above-described field correlation based on the difference value between adjacent pixels in the field is V ar 2, where 1> A> 0 and B <0 In case,
上記符号化のステップは、  The encoding step includes:
V a r 1 >AX V a r 2 +B V a r 1> AX V a r 2 + B
のときに上記画像信号のブロックに上記フィールド内符号化を行うよ うにしたことを特徴とする画像処理装置。 In this case, the intra-field encoding is performed on the image signal block. An image processing device, characterized in that:
9. 請求の範囲 6に記載の画像処理方法において、  9. In the image processing method according to claim 6,
上記符号化は、 直交変換符号化であることを特徴とする画像処理方 法。  An image processing method, wherein the encoding is orthogonal transform encoding.
I 1 0. 請求の範囲 9に記載の画像処理方法において、 上記直交変換符 号化は、 DCTであることを特徴とする画像処理方法。  I 10. The image processing method according to claim 9, wherein the orthogonal transform coding is DCT.
PCT/JP2002/004074 2001-04-25 2002-04-24 Image processing device and image processing method WO2002089491A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001-127264 2001-04-25
JP2001127264A JP2005051276A (en) 2001-04-25 2001-04-25 Image processing apparatus

Publications (1)

Publication Number Publication Date
WO2002089491A1 true WO2002089491A1 (en) 2002-11-07

Family

ID=18976159

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/004074 WO2002089491A1 (en) 2001-04-25 2002-04-24 Image processing device and image processing method

Country Status (2)

Country Link
JP (1) JP2005051276A (en)
WO (1) WO2002089491A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04369192A (en) * 1991-06-17 1992-12-21 Matsushita Electric Ind Co Ltd Picture coding method and device
JPH0595545A (en) * 1991-07-30 1993-04-16 Sony Corp High efficiency coder-decoder for picture signal
JPH06268993A (en) * 1993-03-15 1994-09-22 Mitsubishi Electric Corp Interlaced scanning moving image encoding device
JPH06343171A (en) * 1993-03-31 1994-12-13 Sony Corp Method and device for encoding picture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04369192A (en) * 1991-06-17 1992-12-21 Matsushita Electric Ind Co Ltd Picture coding method and device
JPH0595545A (en) * 1991-07-30 1993-04-16 Sony Corp High efficiency coder-decoder for picture signal
JPH06268993A (en) * 1993-03-15 1994-09-22 Mitsubishi Electric Corp Interlaced scanning moving image encoding device
JPH06343171A (en) * 1993-03-31 1994-12-13 Sony Corp Method and device for encoding picture

Also Published As

Publication number Publication date
JP2005051276A (en) 2005-02-24

Similar Documents

Publication Publication Date Title
US6516034B2 (en) Stream processing apparatus and method
US5933567A (en) Method and apparatus for controlling the position of the heads of a digital video tape recorder during trick play operation and for recording digital data on a tape
US5576902A (en) Method and apparatus directed to processing trick play video data to compensate for intentionally omitted data
US5377051A (en) Digital video recorder compatible receiver with trick play image enhancement
US5729649A (en) Methods and apparatus for recording data on a digital storage medium in a manner that facilitates the reading back of data during trick play operation
JP4010066B2 (en) Image data recording apparatus and recording method, and image data recording / reproducing apparatus and recording / reproducing method
US20060239636A1 (en) Recording apparatus, recording method, reproducing apparatus, and reproducing method
US20030009722A1 (en) Stream processing apparatus
US7286715B2 (en) Quantization apparatus, quantization method, quantization program, and recording medium
US6643729B2 (en) Data processing apparatus and data recording apparatus
KR100796885B1 (en) Signal processor
US20020071491A1 (en) Signal processor
WO2001041436A1 (en) Recording apparatus and method, and reproducing apparatus and method
US20040131116A1 (en) Image processing apparatus, image processing method, image processing program, and recording medium
US7127156B1 (en) Recording apparatus and method
WO2002089491A1 (en) Image processing device and image processing method
JP3167590B2 (en) Digital recording and playback device
JP3572659B2 (en) Digital video signal recording device, reproducing device, recording / reproducing device, and recording medium
JP4038949B2 (en) Playback apparatus and method
US7260315B2 (en) Signal processing apparatus
JP2000134110A (en) Data transmitter and transmission method
JP2001169243A (en) Recorder and recording method, and reproducing device and reproducing method
JP2000312341A (en) Data transmitter, method therefor, recorder and recording and reproducing device
JP2000123485A (en) Recording device and method
JP2000293435A (en) Device and method for reproducing data

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

NENP Non-entry into the national phase

Ref country code: JP