WO2010089956A1 - 映像処理装置及び映像表示装置 - Google Patents

映像処理装置及び映像表示装置 Download PDF

Info

Publication number
WO2010089956A1
WO2010089956A1 PCT/JP2010/000259 JP2010000259W WO2010089956A1 WO 2010089956 A1 WO2010089956 A1 WO 2010089956A1 JP 2010000259 W JP2010000259 W JP 2010000259W WO 2010089956 A1 WO2010089956 A1 WO 2010089956A1
Authority
WO
WIPO (PCT)
Prior art keywords
subfield
light emission
emission data
image
pixel
Prior art date
Application number
PCT/JP2010/000259
Other languages
English (en)
French (fr)
Inventor
木内真也
森光広
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP10738300.2A priority Critical patent/EP2387022A4/en
Priority to US13/146,118 priority patent/US20110279468A1/en
Publication of WO2010089956A1 publication Critical patent/WO2010089956A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • G09G3/2022Display of intermediate tones by time modulation using two or more time intervals using sub-frames
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/28Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels
    • G09G3/2803Display of gradations
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/28Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels
    • G09G3/288Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels using AC panels
    • G09G3/291Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels using AC panels controlling the gas discharge to control a cell condition, e.g. by means of specific pulse shapes
    • G09G3/294Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels using AC panels controlling the gas discharge to control a cell condition, e.g. by means of specific pulse shapes for lighting or sustain discharge
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/0132Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the field or frame frequency of the incoming video signal being multiplied by a positive integer, e.g. for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0266Reduction of sub-frame artefacts
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/16Determination of a pixel data signal depending on the signal applied in the previous frame
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/18Use of a frame buffer in a display terminal, inclusive of the display panel

Definitions

  • the present invention relates to a video processing apparatus that divides one field or one frame into a plurality of subfields and processes an input image to perform gradation display by combining a light emitting subfield that emits light and a non-light emitting subfield that does not emit light.
  • the present invention relates to a video display device using the device.
  • the plasma display device has the advantage that it can be made thin and have a large screen, and the AC type plasma display panel used in such a plasma display device is formed by arranging a plurality of scan electrodes and sustain electrodes.
  • a discharge plate is formed in a matrix by combining a front plate made of a glass substrate and a back plate with a plurality of data electrodes arranged so that scan electrodes, sustain electrodes, and data electrodes are orthogonal to each other, and any discharge cell is selected.
  • An image is displayed by emitting plasma.
  • one field is divided into a plurality of screens having different luminance weights (hereinafter referred to as subfields (SF)) in the time direction, and light emission of discharge cells in each subfield.
  • SF luminance weights
  • one field image that is, one frame image is displayed by controlling non-light emission.
  • Patent Document 1 discloses a motion in which a pixel in one field is a start point and a pixel in another field is an end point among a plurality of fields included in a moving image.
  • An image display device is disclosed that detects a vector, converts a moving image into light emission data of a subfield, and reconstructs the light emission data of the subfield by processing using a motion vector.
  • a motion vector whose end point is a pixel to be reconstructed in another field is selected from among the motion vectors, and a position vector is calculated by multiplying the motion vector by a predetermined function.
  • the moving image is converted into the light emission data of each subfield, and the light emission data of each subfield is rearranged according to the motion vector.
  • the rearrangement method will be specifically described below.
  • FIG. 12 is a schematic diagram showing an example of the transition state of the display screen.
  • FIG. 13 shows the light emission of each subfield before rearranging the light emission data of each subfield when the display screen shown in FIG. 12 is displayed.
  • FIG. 14 is a schematic diagram for explaining data.
  • FIG. 14 is a schematic diagram for explaining light emission data of each subfield after rearrangement of light emission data of each subfield when the display screen shown in FIG. 12 is displayed.
  • an N-2 frame image D1, an N-1 frame image D2, and an N frame image D3 are sequentially displayed as continuous frame images, and a full screen black (for example, luminance level 0) state is displayed as a background.
  • a full screen black for example, luminance level 0
  • a moving object OJ that is displayed and has a white circle for example, luminance level 255 as the foreground moves from the left to the right of the display screen.
  • the conventional image display device converts a moving image into light emission data of each subfield, and as shown in FIG. 13, the light emission data of each subfield of each pixel for each frame is as follows. Created.
  • the pixel P-10 when displaying the N-2 frame image D1, assuming that one field is composed of five subfields SF1 to SF5, first, in the N-2 frame, the pixel P-10 corresponding to the moving object OJ.
  • the light emission data of all the subfields SF1 to SF5 are in a light emission state (hatched subfield in the figure), and the light emission data of the subfields SF1 to SF5 of other pixels are in a non-light emission state (not shown).
  • the light emission data of all the subfields SF1 to SF5 of the pixel P-5 corresponding to the moving object OJ is in the light emission state.
  • the light emission data of the subfields SF1 to SF5 of other pixels is in a non-light emission state.
  • the light emission data of all the subfields SF1 to SF5 of the pixel P-0 corresponding to the moving body OJ becomes the light emission state, and so on.
  • the light emission data of the subfields SF1 to SF5 of the pixels in this pixel is in a non-light emission state.
  • the conventional image display apparatus rearranges the light emission data of each subfield according to the motion vector, and after rearranging each subfield of each pixel for each frame, as shown in FIG. Is generated as follows.
  • the first subfield SF1 of the pixel P-5 is detected in the N-1 frame.
  • the light emission data (light emission state) is moved to the left by 4 pixels, and the light emission data of the first subfield SF1 of the pixel P-9 is changed from the non-light emission state to the light emission state (hatched subfield in the figure).
  • the light emission data of the first subfield SF1 of the pixel P-5 is changed from the light emission state to the non-light emission state (broken line white subfield in the figure).
  • the light emission data (light emission state) of the second subfield SF2 of the pixel P-5 is moved leftward by three pixels, and the light emission data of the second subfield SF2 of the pixel P-8 is emitted from the non-light emission state.
  • the light emission data of the second subfield SF2 of the pixel P-5 is changed from the light emission state to the non-light emission state.
  • the light emission data (light emission state) of the third subfield SF3 of the pixel P-5 is moved to the left by two pixels, and the light emission data of the third subfield SF3 of the pixel P-7 is emitted from the non-light emission state.
  • the light emission data of the third subfield SF3 of the pixel P-5 is changed from the light emission state to the non-light emission state.
  • the light emission data (light emission state) of the fourth subfield SF4 of the pixel P-5 is moved to the left by one pixel, and the light emission data of the fourth subfield SF4 of the pixel P-6 emits light from the non-light emission state.
  • the light emission data of the fourth subfield SF4 of the pixel P-5 is changed from the light emission state to the non-light emission state. Further, the light emission data of the fifth subfield SF5 of the pixel P-5 is not changed.
  • the emission data of the first to fourth subfields SF1 to SF4 of the pixel P-0 is detected.
  • (Light emission state) is moved to the left by 4 to 1 pixel
  • the light emission data of the first subfield SF1 of the pixel P-4 is changed from the non-light emission state to the light emission state
  • the second subfield of the pixel P-3 The light emission data of SF2 is changed from the non-light emission state to the light emission state
  • the light emission data of the third subfield SF3 of the pixel P-2 is changed from the nonlight emission state to the light emission state
  • the fourth subfield SF4 of the pixel P-1 is changed.
  • the light emission data is changed from the non-light-emitting state to the light-emitting state, the light emission data of the first to fourth subfields SF1 to SF4 of the pixel P-0 is changed from the light-emitting state to the non-light-emitting state, Emission data of the field SF5 is not changed.
  • the subfield of the pixel located spatially forward based on the motion vector is distributed to the pixels behind the pixel.
  • subfields are distributed from pixels that should not be distributed. The problem of the conventional subfield rearrangement process will be described in detail below.
  • FIG. 15 is a diagram showing an example of a display screen showing a background image passing behind the foreground image
  • FIG. 16 is a diagram illustrating each subfield in the boundary portion between the foreground image and the background image shown in FIG.
  • FIG. 17 is a schematic diagram illustrating an example of light emission data of each subfield before the light emission data is rearranged
  • FIG. 17 is a schematic diagram illustrating an example of light emission data of each subfield after the light emission data of each subfield is rearranged
  • FIG. 18 is a diagram showing a boundary portion between the foreground image and the background image on the display screen shown in FIG. 15 after the light emission data of each subfield is rearranged.
  • the car C1 as the background image passes behind the tree T1 as the foreground image.
  • the tree T1 is stationary and the car C1 is moving rightward.
  • the boundary portion K1 between the foreground image and the background image is shown in FIG.
  • pixels P-0 to P-8 are pixels constituting the tree T1
  • pixels P-9 to P-17 are pixels constituting the car C1.
  • subfields belonging to the same pixel are represented by the same hatching.
  • the car C1 in the N frame has moved 5 pixels from the N-1 frame. Accordingly, the light emission data in the pixel P-14 in the N-1 frame has moved to the pixel P-9 in the N frame.
  • the above conventional image display device rearranges the light emission data of each subfield according to the motion vector, and as shown in FIG. 17, the light emission after rearrangement of each subfield of each pixel in N frames.
  • Data is created as follows:
  • the motion vectors of the pixels P-8 to P-4 are 0, the light emission data of the first to fifth subfields SF1 to SF5 of the pixels P-8 to P-4 are not moved to the left. Therefore, the emission data of the first to fifth subfields SF1 to SF5 of the pixel P-9, the emission data of the first to fourth subfields SF1 to SF4 of the pixel P-10, and the first to third of the pixel P-11.
  • the light emission data of the light emission data of the subfields SF1 to SF3, the light emission data of the first to second subfields SF1 to SF2 of the pixel P-12, and the light emission data of the first subfield SF1 of the pixel P-13 are not rearranged. It will be.
  • the field is light emission data of a subfield corresponding to the pixels constituting the tree T1.
  • the light emission data of the subfield of the tree T1 is rearranged in the subfield in the region R1.
  • the pixels P-9 to P-13 belong to the car C1
  • the light emission data of the first to fifth subfields SF1 to SF5 of the pixels P-8 to P-4 belonging to the tree T1 are rearranged.
  • moving image blur and moving image pseudo contour occur at the boundary portion between the car C1 and the tree T1, and the image quality deteriorates.
  • FIG. 19 is a diagram showing an example of a display screen showing a state in which the foreground image passes in front of the background image
  • FIG. 20 shows each subfield in the overlapping portion of the foreground image and the background image shown in FIG.
  • FIG. 21 is a schematic diagram illustrating an example of light emission data of each subfield before rearrangement of light emission data
  • FIG. 21 is a schematic diagram illustrating an example of light emission data of each subfield after rearrangement of the light emission data of each subfield.
  • FIG. 22 is a diagram showing an overlapping portion of the foreground image and the background image on the display screen shown in FIG. 19 after rearranging the light emission data of each subfield.
  • the ball B1 that is the foreground image passes in front of the tree T2 that is the background image.
  • the tree T2 is stationary and the ball B1 is moving rightward.
  • the overlapping part of the foreground image and the background image is shown in FIG.
  • the ball B1 in the N frame has moved 7 pixels from the N-1 frame. Accordingly, the light emission data in the pixels P-14 to P-16 in the N-1 frame has moved to the pixels P-7 to P-9 in the N frame.
  • subfields belonging to the same pixel are represented by the same hatching.
  • the above conventional image display device rearranges the light emission data of each subfield according to the motion vector, and as shown in FIG. 21, the light emission after the rearrangement of each subfield of each pixel in the N frame.
  • Data is created as follows:
  • the emission data of the first to fifth subfields SF1 to SF5 of the pixels P-7 to P-9 are moved leftward by 5 to 1 pixel, and the sixth subfield of the pixels P-7 to P-9 is moved.
  • the light emission data of SF6 is not changed.
  • the values of the motion vectors of the pixels P-10 to P-14 are 0, the third to fifth subfields SF3 to SF5 of the pixel P-10 and the second to fourth subfields of the pixel P-11 are used.
  • the first to third subfields SF1 to SF3 of the pixel P-12, the first to second subfields SF1 to SF2 of the pixel P-13, and the first subfield SF1 of the pixel P-14 are respectively It is not known whether the light emission data corresponding to the background image is rearranged or the light emission data corresponding to the foreground image is rearranged.
  • the subfield in the region R2 indicated by the rectangle in FIG. 21 indicates a case where the light emission data corresponding to the background image is rearranged.
  • the brightness of the ball B1 decreases, and the ball B1 and the tree T2 Moving image blur and moving image pseudo contour occur in the overlapping portion of the image quality, and the image quality deteriorates.
  • An object of the present invention is to provide a video processing device and a video display device that can more reliably suppress moving image blur and moving image pseudo contour.
  • An image processing apparatus divides one field or one frame into a plurality of subfields, and combines the light emitting subfield that emits light and the non-light emitting subfield that does not emit light to perform gradation display. And a motion detection unit that detects a motion vector using a subfield conversion unit that converts the input image into light emission data of each subfield and at least two or more input images that are temporally mixed.
  • the light detection data of the subfield corresponding to the pixel at the position spatially moved backward by the amount corresponding to the pixel corresponding to the motion vector detected by the vector detection unit and the motion vector detection unit Each subfield converted by the subfield conversion unit by changing to the emission data of The emission data spatially repositioned, and a re-generation unit for generating a relocation emission data of each sub-field of the current frame using the sub-fields of at least two frames.
  • an input image is converted into light emission data of each subfield, and a motion vector is detected using at least two or more input images that are temporally changed. Then, by changing the light emission data of the subfield corresponding to the pixel at the position spatially moved backward by the pixel corresponding to the motion vector to the light emission data of the subfield of the pixel before the movement, each subfield Are rearranged spatially, and rearranged light emission data for each subfield of the current frame is generated using subfields of at least two frames.
  • the rearranged light emission data of each subfield of the current frame is generated using the subfields of at least two frames.
  • the light emission data of the subfield of the frame can be used, and moving image blur and moving image pseudo contour generated near the boundary between the foreground image and the background image can be more reliably suppressed.
  • FIG. 17 is a schematic diagram showing an example of rearranged light emission data after rearranging the N frame subfields shown in FIG. 16 by the first subfield regeneration unit in the present embodiment.
  • FIG. 17 is a schematic diagram showing an example of rearranged light emission data after rearranging the subfields of the N ⁇ 1 frame shown in FIG. 16 by the second subfield regeneration unit in the present embodiment.
  • It is a schematic diagram which shows an example of rearranged light emission data after combining the subfield of N frame and the subfield of N ⁇ 1 frame in the present embodiment.
  • FIG. 16 is a diagram showing a boundary portion between a foreground image and a background image on the display screen shown in FIG. 15 after rearranging the light emission data of each subfield in the present embodiment.
  • FIG. 21 is a schematic diagram illustrating an example of light emission data of each subfield after rearranging the subfields illustrated in FIG. 20 in the present embodiment.
  • FIG. 20 is a diagram showing a boundary portion between a foreground image and a background image on the display screen shown in FIG. 19 after rearranging the light emission data of each subfield in the present embodiment. It is a figure which shows an example of the display screen showing a mode that the 1st image and 2nd image which move to the direction which mutually opposes enter the back of each other in the center vicinity of a screen.
  • FIG. 10 is a schematic diagram illustrating an example of light emission data of each subfield before rearranging light emission data of each subfield at a boundary portion between the first image and the second image illustrated in FIG. 9. It is a schematic diagram which shows an example of the light emission data of each subfield after rearranging the light emission data of each subfield by the rearrangement method of this Embodiment. It is a schematic diagram which shows an example of the transition state of a display screen. It is a schematic diagram for demonstrating the light emission data of each subfield before rearranging the light emission data of each subfield when displaying the display screen shown in FIG. It is a schematic diagram for demonstrating the light emission data of each subfield after rearranging the light emission data of each subfield when displaying the display screen shown in FIG.
  • FIG. 16 is a schematic diagram illustrating an example of light emission data of each subfield before rearrangement of light emission data of each subfield at a boundary portion between the foreground image and the background image illustrated in FIG. 15. It is a schematic diagram which shows an example of the light emission data of each subfield after rearranging the light emission data of each subfield.
  • FIG. 16 is a diagram illustrating a boundary portion between a foreground image and a background image on the display screen illustrated in FIG. 15 after rearrangement of light emission data of each subfield.
  • FIG. 20 is a schematic diagram illustrating an example of light emission data of each subfield before rearrangement of light emission data of each subfield in a portion where the foreground image and the background image illustrated in FIG. 19 overlap. It is a schematic diagram which shows an example of the light emission data of each subfield after rearranging the light emission data of each subfield. It is a figure which shows the duplication part of the foreground image and background image in the display screen shown in FIG. 19 after rearranging the light emission data of each subfield.
  • a plasma display device will be described as an example of an image display device.
  • the image display device to which the present invention is applied is not particularly limited to this example, and one field or one frame includes a plurality of subfields. Any other video display device can be applied in the same manner as long as it performs gradation display by dividing the image into two.
  • the description “subfield” includes the meaning “subfield period”, and the description “subfield emission” also includes the meaning “pixel emission in the subfield period”.
  • the light emission period of the subfield means a sustain period in which light is emitted by sustain discharge so that the viewer can visually recognize, and includes an initialization period and a writing period in which the viewer does not emit light that can be visually recognized.
  • the non-light emission period immediately before the subfield means a period in which the viewer does not emit light that is visible, and includes an initialization period, a writing period, and a maintenance period in which the viewer does not emit light that is visible. Including.
  • FIG. 1 is a block diagram showing a configuration of a video display device according to an embodiment of the present invention.
  • 1 includes an input unit 1, a subfield conversion unit 2, a motion vector detection unit 3, an image data storage unit 4, a motion vector storage unit 5, a subfield regeneration unit 6, and an image display unit 7. .
  • the subfield conversion unit 2, the motion vector detection unit 3, the image data storage unit 4, the motion vector storage unit 5 and the subfield regeneration unit 6 divide one field or one frame into a plurality of subfields to emit light.
  • a video processing apparatus is configured to process an input image in order to perform gradation display by combining a light emitting subfield and a non-light emitting subfield.
  • the input unit 1 includes, for example, a tuner for TV broadcasting, an image input terminal, a network connection terminal, and the like, and moving image data is input to the input unit 1.
  • the input unit 1 performs a known conversion process or the like on the input moving image data, and outputs the converted frame image data to the subfield conversion unit 2 and the motion vector detection unit 3.
  • the subfield conversion unit 2 sequentially converts one frame image data, that is, one field of image data, into light emission data of each subfield, and outputs the converted data to the image data storage unit 4 and the subfield regeneration unit 6.
  • the image data converted into the light emission data of each subfield is also referred to as subfield data.
  • a gradation expression method of a video display device that expresses gradation using subfields will be described.
  • One field is composed of K subfields, each subfield is given a predetermined weight corresponding to the luminance, and the light emission period is set so that the luminance of each subfield changes according to this weighting.
  • the weights of the first to seventh subfields are 1, 2, 4, 8, 16, 32, 64, respectively.
  • the motion vector detection unit 3 receives two temporally continuous frame image data, for example, N-1 frame image data and N frame image data, and the motion vector detection unit 3 receives between these frames. By detecting the amount of motion, a motion vector for each pixel of N frames is detected and output to the motion vector storage unit 5 and the subfield regeneration unit 6.
  • this motion vector detection method a known motion vector detection method is used. For example, a detection method by matching processing for each block is used.
  • the image data storage unit 4 stores the image data of at least one frame before converted into the light emission data of each subfield by the subfield conversion unit 2.
  • the motion vector storage unit 5 stores a motion vector for each pixel of at least one frame before image data detected by the motion vector detection unit 3.
  • the subfield regeneration unit 6 converts the emission data of the subfield corresponding to the pixel at the position spatially moved backward by the number of pixels corresponding to the motion vector detected by the motion vector detection unit 3 to the pixel before movement.
  • the subfield light conversion data converted by the subfield conversion unit 2 is spatially rearranged, and each subfield of the current frame is relocated using at least two subfields. Field rearranged emission data is generated.
  • the subfield regeneration unit 6 uses the emission data of the corresponding subfield of the pixel located two-dimensionally backward in the plane specified by the direction of the motion vector, as the subfield of the pixel before the movement. Change to the field emission data.
  • the subfield regeneration unit 6 uses the light emission data of the subfield of the previous image data stored in the image data storage unit 4 as the light emission data of the subfield that has not been rearranged.
  • the subfield regeneration unit 6 includes a first subfield regeneration unit 61, an overlap detection unit 62, a depth information creation unit 63, a second subfield regeneration unit 64, and a synthesis unit 65.
  • the first subfield regeneration unit 61 follows the subfield arrangement order of each pixel in the current frame so that the temporally preceding subfield moves greatly.
  • the light emission data of the subfield corresponding to the pixel at the position spatially moved backward by the pixel corresponding to the motion vector is changed to the light emission data of the subfield of the pixel before the movement.
  • the overlap detector 62 detects an overlap between the foreground image and the background image.
  • the depth information creation unit 63 creates depth information indicating whether the foreground image or the background image is for each pixel in which the foreground image and the background image overlap.
  • the depth information creation unit 63 creates depth information based on the magnitudes of motion vectors of at least two frames.
  • the first subfield regeneration unit 61 generates rearranged light emission data for each subfield based on the depth information created by the depth information creation unit 63.
  • the overlap detection unit 62 detects an overlap
  • the first sub-field regeneration unit 61 for the pixels constituting the foreground image, only the pixel corresponding to the motion vector detected by the motion vector detection unit 3.
  • the light emission data of the subfield corresponding to the pixel at the position moved spatially rearward is changed to the light emission data of the subfield of the pixel before the movement.
  • the light emission centroid value is a value (0 to 1) obtained by normalizing the light emission position of each subfield in one frame, and the movement amount D [pixel] of each subfield is V [pixel / frame], the light emission.
  • the center of gravity value is G
  • D V ⁇ G
  • the amount of movement of each subfield corresponding to the motion vector can be calculated using the light emission center of gravity value of each subfield.
  • FIG. 2 is a schematic diagram for explaining an example of the light emission centroid value of each subfield.
  • the motion vector MV between the N-1 frame and the N frame is 25 (pixel / frame) in the x direction (horizontal direction of the display screen), and 0 (pixel / frame) in the y direction (vertical direction of the display screen).
  • D V ⁇ G
  • the movement amounts (x, y) [pixels] of the first to fifth subfields SF1 to SF5 are (20, 0) and (18, 0), respectively. , (14,0), (8,0), (0,0). These values are not the numerical values on the horizontal axis in FIG. 2, but the number of pixels from the emission centroid value SG5 of the fifth subfield SF5 to the emission centroid values SG1 to SG5 of the first to fifth subfields SF1 to SF5. is there.
  • the second sub-field regeneration unit 64 reads out the sub-field data of the previous frame stored in the image data storage unit 4 and each of the image data of the previous frame stored in the motion vector storage unit 5. Reads the motion vector of the pixel, inverts the direction of the motion vector of each pixel of the subfield data one frame before, normalizes the light emission centroid value normalized to a value of 0 to 1 to a value of 1 to 0, and moves Change the light emission data of the subfield corresponding to the pixel at the position spatially moved backward by the pixel corresponding to the vector to the light emission data of the subfield of the pixel before the movement, and rearranged light emission data of each subfield Is generated.
  • the light emission center-of-gravity value is a value (0 to 1) obtained by normalizing the light emission position of each subfield in one frame, and is used when calculating the movement amount of each subfield. That is, the movement amount of each subfield is calculated by multiplying the light emission centroid value by the motion vector value. Normally, the light emission centroid value is normalized to a value of 0 to 1, but by normalizing to a value of 1 to 0, the light emission data of each subfield is arranged upside down.
  • the synthesizer 65 synthesizes the rearranged light emission data generated by the first subfield regenerator 61 and the rearranged light emission data generated by the second subfield regenerator 64.
  • the image display unit 7 includes a plasma display panel, a panel drive circuit, and the like. Based on the rearranged light emission data generated by the subfield regeneration unit 6, the image display unit 7 turns on / off each subfield of each pixel of the plasma display panel. Control and display moving images.
  • moving image data is input to the input unit 1, the input unit 1 performs a predetermined conversion process on the input moving image data, and the converted frame image data is converted into a subfield conversion unit 2 and a motion vector detection unit. Output to 3.
  • the subfield conversion unit 2 sequentially converts the frame image data into light emission data of the first to sixth subfields SF1 to SF6 for each pixel, and outputs them to the subfield regeneration unit 6 and the image data storage unit 4. .
  • FIG. 15 it is assumed that moving image data in which a car C1 as a background image passes behind a tree T1 as a foreground image is input to the input unit 1.
  • the pixels near the boundary between the tree T1 and the car C1 are converted into light emission data of the first to sixth subfields SF1 to SF6 as shown in FIG.
  • the subfield conversion unit 2 sets the first to sixth subfields SF1 to SF6 of the pixels P-0 to P-8 to the light emission state corresponding to the tree T1, and the pixels P-9 to Light emission data is generated in which the first to sixth subfields SF1 to SF6 of P-17 are set to the light emission state corresponding to the car C1. Therefore, when the rearrangement of the subfield is not performed, an image by the subfield shown in FIG. 16 is displayed on the display screen.
  • the image data storage unit 4 stores the subfield data converted by the subfield conversion unit 2. Note that the image data storage unit 4 stores the subfield data of the current frame (N frames) and the subfield data of the previous frame (N ⁇ 1 frame).
  • the motion vector detection unit 3 detects a motion vector for each pixel between two temporally continuous frame image data, The data is output to the subfield regeneration unit 6 and the motion vector storage unit 5.
  • the motion vector storage unit 5 stores a motion vector for each pixel of the frame image data detected by the motion vector detection unit 3.
  • the motion vector storage unit 5 stores the motion vector for each pixel of the frame image data of the current frame (N frame) and the motion vector for each pixel of the frame image data of the previous frame (N ⁇ 1 frame).
  • the first subfield regeneration unit 61 responds to the motion vector so that the temporally preceding subfield moves greatly according to the arrangement order of the first to sixth subfields SF1 to SF6 of the N frame.
  • the light emission data of the subfield corresponding to the pixel at the position moved spatially backward by the number of pixels to be changed is changed to the light emission data of the subfield of the pixel before the movement.
  • the first subfield regenerating unit 61 spatially rearranges the light emission data of each subfield converted by the subfield conversion unit 2, and generates rearranged light emission data of each subfield.
  • the overlap detection unit 62 detects the overlap between the foreground image and the background image for each subfield. Specifically, the overlap detection unit 62 counts the number of times the light emission data for each subfield is written when the first subfield regeneration unit 61 rearranges the light emission data for each subfield, Is zero, the subfield is detected as an unset portion where no light emission data is set, and when the number of times of writing is two or more, the subfield is detected as an overlap portion between the foreground image and the background image. .
  • the overlap detection unit 62 detects the rearranged light emission generated by the first subfield regeneration unit 61 when the non-set portion where the light emission data is not rearranged and the overlapped portion where the foreground image and the background image overlap are not detected. Data is output to the image display unit 7.
  • FIG. 3 is a schematic diagram showing an example of rearranged light emission data after rearranging the N frame subfields shown in FIG. 16 by the first subfield regeneration unit in the present embodiment.
  • the rearranged light emission data SF_a shown in FIG. 3 is the same as the rearranged light emission data shown in FIG.
  • pixels P-0 to P-8 are included in the still image, and the value of the motion vector is 0. For this reason, since the light emission data is not written in the subfield in the region R1 of the rearranged light emission data SF_a, the light emission data is not set.
  • the second subfield regeneration unit 64 stores the N ⁇ 1 frame subfield data stored in the image data storage unit 4. And the motion vector of each pixel of the N ⁇ 1 frame image data stored in the motion vector storage unit 5 is read.
  • the second subfield regeneration unit 64 inverts the direction of the motion vector of each pixel of the frame image data of the N ⁇ 1 frame and is normalized by 0 to 1 of the subfield data of the N ⁇ 1 frame.
  • the emission centroid value of each subfield is normalized by 1 to 0.
  • the light emission data moves in the opposite direction to the rearranged light emission data SF_a shown in FIG.
  • the subfield that temporally precedes according to the arrangement order of the first to sixth subfields SF1 to SF6 The light emission data of each subfield moves so that the light emission moves small. As a result, the light emission data of each subfield is inverted upside down.
  • the second subfield regeneration unit 64 arranges the first to sixth subfields SF1 to SF6 of the N ⁇ 1 frame in which the motion vector is inverted and the emission centroid value is normalized by 1 to 0.
  • the emission data of the subfield corresponding to the pixel at the position spatially moved backward by the pixel corresponding to the motion vector is converted to the pixel before the movement so that the temporally preceding subfield moves small. Change to the emission data of the subfield.
  • FIG. 4 is a schematic diagram showing an example of rearranged light emission data after rearranging the subfields of the N-1 frame shown in FIG. 16 in the present embodiment by the second subfield regeneration unit.
  • the second subfield regeneration unit 64 rearranges the light emission data of each subfield according to the motion vector, and after the rearrangement of each subfield of each pixel in the N ⁇ 1 frame, as shown in FIG.
  • the rearranged light emission data SF_b is created as follows.
  • the light emission data of the second to sixth subfields SF2 to SF6 of the pixel P-16 are changed to the light emission data of the second to sixth subfields SF2 to SF6 of the pixels P-15 to P-11.
  • the light emission data of the -16 first subfield SF1 is not changed.
  • the light emission data of the second to sixth subfields SF2 to SF6 of the pixel P-15 are changed to the light emission data of the second to sixth subfields SF2 to SF6 of the pixels P-14 to P-10, and the pixel P
  • the light emission data of the first subfield SF1 of ⁇ 15 is not changed.
  • the light emission data of the second to sixth subfields SF2 to SF6 of the pixel P-14 are changed to the light emission data of the second to sixth subfields SF2 to SF6 of the pixels P-13 to P-9, and the pixel P
  • the light emission data of the first subfield SF1 of -14 is not changed.
  • the light emission data of the second to sixth subfields SF2 to SF6 of the pixel P-13 are changed to the light emission data of the second to sixth subfields SF2 to SF6 of the pixels P-12 to P-8, and the pixel P
  • the light emission data of the first subfield SF1 of ⁇ 13 is not changed.
  • the light emission data of the second to sixth subfields SF2 to SF6 of the pixel P-12 are changed to the light emission data of the second to sixth subfields SF2 to SF6 of the pixels P-11 to P-7, and the pixel P The light emission data of the first subfield SF1 of -12 is not changed.
  • the light emission data of the second to sixth subfields SF2 to SF6 of the pixel P-11 are changed to the light emission data of the second to sixth subfields SF2 to SF6 of the pixels P-10 to P-6, and the pixel P The light emission data of the first subfield SF1 of -11 is not changed.
  • the light emission data of the second to sixth subfields SF2 to SF6 of the pixel P-10 are changed to the light emission data of the second to sixth subfields SF2 to SF6 of the pixels P-9 to P-5, and the pixel P
  • the light emission data of the first subfield SF1 of ⁇ 10 is not changed.
  • the light emission data of the second to sixth subfields SF2 to SF6 of the pixel P-9 are changed to the light emission data of the second to sixth subfields SF2 to SF6 of the pixels P-8 to P-4, and the pixel P
  • the light emission data of the first subfield SF1 of ⁇ 9 is not changed.
  • the second subfield regeneration unit 64 spatially regenerates the light emission data of each subfield of the N ⁇ 1 frame in which the motion vector is inverted and the light emission centroid value is normalized by 1 to 0.
  • the rearranged light emission data SF_b of each subfield is generated.
  • the combining unit 65 includes the N-frame rearranged light emission data SF_a created by the first subfield regeneration unit 61 and the rearranged light emission data SF_b created by the second subfield regeneration unit 64. Is synthesized. Specifically, the combining unit 65 sets the light emission data of the subfield of the rearranged light emission data SF_b corresponding to the unset portion in the subfield of the unset portion of the rearranged light emission data SF_a detected by the overlap detection unit 62. To do. The light emission data of the subfield in the region R1 of the rearranged light emission data SF_b is set as the light emission data of the subfield in the region R1 of the unset portion of the rearrangement light emission data SF_a.
  • FIG. 5 is a schematic diagram showing an example of rearranged light emission data after combining the N frame subfield and the N ⁇ 1 frame subfield in the present embodiment.
  • the light emission data of the subfields SF1 to SF2 and the light emission data of the first subfield SF1 of the pixel P-13 are the data of the pixel P-9 in the rearranged light emission data SF_b created by the second subfield regeneration unit 64.
  • the light emission data of the first to fifth subfields SF1 to SF5 and the light emission data of the first to fourth subfields SF1 to SF4 of the pixel P-10 are set to the emission data of SF1.
  • the light emission data of the subfield belonging to the car C1 is rearranged in the subfield in the region R1 indicated by the triangle in FIG.
  • the boundary between the car C1 and the tree T1 becomes clear, moving image blur and moving image pseudo contour are suppressed, and the image quality is improved.
  • the overlap detection unit 62 detects an overlap portion between a foreground image and a background image in which light emission data is written twice or more in one subfield.
  • the light emission data of the background image and the light emission data of the foreground image in the portion where the background image and the foreground image overlap are emitted in one subfield. Therefore, it is possible to detect whether or not the foreground image and the background image overlap by counting the number of times the light emission data is written for each subfield.
  • the depth information creation unit 63 when an overlap portion is detected by the overlap detection unit 62, the depth information creation unit 63 generates depth information indicating whether the foreground image or the background image for each pixel where the foreground image and the background image overlap. calculate. Specifically, the depth information creation unit 63 compares the motion vector values of the same pixel of two or more frames, and if the motion vector value changes, the pixel is assumed to be a foreground image, and the motion vector value If is not changed, depth information is created assuming that the pixel is a background image. For example, the depth information creation unit 63 compares the vector values of the same pixels in the N frame and the N ⁇ 1 frame.
  • the first subfield regeneration unit 61 uses the depth information created by the depth information creation unit 63 to identify the emission data of each subfield of the overlapped portion.
  • the emission data is changed to the subfield emission data of the pixels constituting the image.
  • FIG. 7 is a schematic diagram illustrating an example of light emission data of each subfield after the subfields illustrated in FIG. 20 are rearranged in the present embodiment
  • FIG. 8 is a diagram illustrating light emission of each subfield in the present embodiment
  • FIG. 20 is a diagram illustrating a boundary portion between a foreground image and a background image on the display screen illustrated in FIG. 19 after data is rearranged.
  • the first subfield regeneration unit 61 rearranges the light emission data of each subfield according to the motion vector, and after the rearrangement of each subfield of each pixel in the N frame, as shown in FIG. Is generated as follows.
  • the first subfield regenerating unit 61 follows the arrangement order of the first to sixth subfields SF1 to SF6 by the amount corresponding to the motion vector so that the temporally preceding subfield moves greatly.
  • the light emission data of the subfield corresponding to the pixel at the position moved spatially rearward is changed to the light emission data of the subfield of the pixel before the movement.
  • the overlap detection unit 62 counts the number of times of writing the light emission data in each subfield.
  • SF1 to SF3, the second to fourth subfields SF2 to SF4 of the pixel P-11, and the third to fifth subfields SF3 to SF5 of the pixel P-10 are written twice, so the overlap detection unit 62 detects these subfields as overlapping portions of the foreground image and the background image.
  • the depth information creation unit 63 compares the motion vector values of the same pixel in the N frame and the N ⁇ 1 frame before rearrangement, and when the motion vector value changes, the pixel is detected in the foreground image. If the value of the motion vector has not changed, depth information is created assuming that the pixel is a background image. For example, in the N frame image shown in FIG. 20, pixels P-0 to P-6 are background images, pixels P-7 to P-9 are foreground images, and pixels P-10 to P-17 are background images. It is.
  • the first subfield regeneration unit 61 refers to the depth information associated with the subfield pixel before the movement of the subfield detected as an overlapping portion by the overlap detection unit 62, and the depth information is the foreground. If it is information representing an image, the light emission data of the subfield is changed to light emission data of the subfield of the pixel before movement, and if the depth information is information representing a background image, the light emission data of the subfield is changed. It is not changed to the light emission data of the subfield of the pixel.
  • the light emission data of the first subfield SF1 of the pixel P-14 is changed to the light emission data of the first subfield SF1 of the pixel P-9, and the first and second light emission data of the pixel P-13 are changed.
  • the light emission data of the second subfield SF1 and SF2 is changed to the light emission data of the first subfield SF1 of the pixel P-8 and the second subfield SF2 of the pixel P-9, and the first to third light emission data of the pixel P-12 are changed.
  • the light emission data of the subfields SF1 to SF3 is changed to the light emission data of the first subfield SF1 of the pixel P-7, the second subfield SF2 of the pixel P-8, and the third subfield SF3 of the pixel P-9.
  • the light emission data of the second to fourth subfields SF2 to SF4 of P-11 are the second subfield SF2 of the pixel P-7 and the third subfield SF3 of the pixel P-8.
  • the emission data of the fourth subfield SF4 of the pixel P-9, and the emission data of the third to fifth subfields SF3 to SF5 of the pixel P-10 are the third subfield SF3 of the pixel P-7, the pixel The emission data is changed to the fourth subfield SF4 of P-8 and the fifth subfield SF5 of the pixel P-9.
  • the emission data of the subfield of the foreground image is preferentially moved in the overlapping portion of the foreground image and the background image. That is, the light emission data corresponding to the foreground image is rearranged in the subfield of the region R2 indicated by the rectangle in FIG.
  • the brightness of the ball B1 is improved, and the ball B1 and the tree T2 Moving image blur and moving image pseudo contour are suppressed in the overlapping portion, and the image quality is improved.
  • the depth information creation unit 63 creates depth information for each pixel that indicates whether the image is a foreground image or a background image based on the magnitude of a motion vector of at least two frames.
  • the present invention is not particularly limited to this. That is, if the input image input to the input unit 1 includes depth information indicating whether it is a foreground image or a background image, it is not necessary to create depth information. In this case, depth information is extracted from the input image input to the input unit 1.
  • the depth information creation unit 63 may detect an object from the input video signal and obtain depth information according to the movement of the object. Further, the depth information creation unit 63 may perform character detection, and when a character is detected, the depth information creation unit 63 may create depth information using the character as a foreground image.
  • FIG. 9 is a diagram showing an example of a display screen showing a state in which the first image and the second image moving in directions opposite to each other enter the back of each other near the center of the screen.
  • FIG. 11 is a schematic diagram showing an example of the light emission data of each subfield before rearranging the light emission data of each subfield at the boundary portion between the first image and the second image shown in FIG. It is a schematic diagram which shows an example of the light emission data of each subfield after rearranging the light emission data of each subfield by the rearrangement method of the form.
  • the first image I1 moving in the right direction and the second image I2 moving in the left direction enter behind each other near the center of the screen. 9 to 11, the value of the motion vector of each pixel of the first image I1 is “ ⁇ 6”, and the value of the motion vector of each pixel of the second image I2 is “6”.
  • the first image I1 is composed of pixels P-9 to P-19
  • the second image I2 is composed of pixels P-0 to P-8. Consists of.
  • the first image I1 and the second image shown in FIG. 10 When the light emission data of the subfields of the N-2 frame, the N-1 frame, and the N frame shown in FIG. 10 are rearranged by the conventional rearrangement method, the first image I1 and the second image shown in FIG. The light emission data of the subfields in the triangular areas R3 to R8 near the boundary with I2 is not rearranged, and is not set.
  • rearranged light emission data is generated based on the subfield data one frame before. That is, in the subfields of the regions R3 and R4 of the N-2 frame, rearranged light emission data is generated using the subfield data of the N-3 frame (not shown), and the subfields of the regions R5 and R6 of the N-1 frame are generated. In the field, rearranged light emission data is generated using subfield data of N-2 frames, and in the subfields of regions R7 and R8 of N frames, rearranged light emission data is generated using subfield data of N-1 frames. Generated.
  • the boundary between the first image I1 and the second image I2 becomes clear, and the moving image blur that occurs when rearrangement processing is performed at the boundary portion where the directions of the motion vectors are discontinuous. And moving image pseudo contour can be more reliably suppressed.
  • the image data storage unit 4 stores the N-1 frame image data converted by the subfield conversion unit 2, but the present invention is not particularly limited to this, and the image data The storage unit 4 may store the N-1 frame image data output from the input unit 1 and before being converted into subfield data.
  • the subfield conversion unit 2 reads the N-1 frame image data from the image data storage unit 4, and reads the read N-1 frame.
  • the image data is sequentially converted into light emission data of each subfield and output to the subfield regeneration unit 6.
  • An image processing apparatus divides one field or one frame into a plurality of subfields, and combines the light emitting subfield that emits light and the non-light emitting subfield that does not emit light to perform gradation display. And a motion detection unit that detects a motion vector using a subfield conversion unit that converts the input image into light emission data of each subfield and at least two or more input images that are temporally mixed.
  • the light detection data of the subfield corresponding to the pixel at the position spatially moved backward by the amount corresponding to the pixel corresponding to the motion vector detected by the vector detection unit and the motion vector detection unit Each subfield converted by the subfield conversion unit by changing to the emission data of The emission data spatially repositioned, and a re-generation unit for generating a relocation emission data of each sub-field of the current frame using the sub-fields of at least two frames.
  • an input image is converted into light emission data of each subfield, and a motion vector is detected using at least two or more input images that are temporally changed. Then, by changing the light emission data of the subfield corresponding to the pixel at the position spatially moved backward by the pixel corresponding to the motion vector to the light emission data of the subfield of the pixel before the movement, each subfield Are rearranged spatially, and rearranged light emission data for each subfield of the current frame is generated using subfields of at least two frames.
  • the light emission data is rearranged because the rearranged light emission data of each subfield of the current frame is generated using the subfields of at least two frames.
  • the emission data of the subfields of the other frames can be used for the subfield of the current frame that was not performed, and the moving image blur and the moving image pseudo contour generated near the boundary between the foreground image and the background image are more reliably suppressed. be able to.
  • the video processing apparatus may further include a storage unit that stores the image data of the previous frame converted by the subfield conversion unit, and the regenerating unit converts the emission data of the subfield that has not been rearranged into light emission data. It is preferable to use the light emission data of the subfield one frame before stored in the storage unit.
  • the image data of the previous frame is stored in the storage unit, and the emission data of the subfield of the image data of the previous frame stored in the storage unit is added to the emission data of the subfield that has not been rearranged. Therefore, the emission data of the subfield of the image data of the previous frame can be used for the subfield of the current frame in which the emission data is not rearranged, and is generated near the boundary between the foreground image and the background image. Moving image blur and moving image pseudo contour can be more reliably suppressed.
  • the video processing apparatus may further include a depth information creating unit that creates depth information indicating which of the foreground image and the background image for each pixel in which the foreground image and the background image overlap each other, Preferably, the generation unit generates rearranged light emission data of each subfield based on the depth information created by the depth information creation unit.
  • depth information indicating whether the foreground image and the background image are created is generated for each pixel where the foreground image and the background image overlap.
  • the depth information creation unit creates the depth information based on a motion vector of at least two frames. According to this configuration, depth information can be created based on a motion vector of at least two frames.
  • the regeneration unit configures the foreground image specified by the depth information created by the depth information creation unit when the foreground image and the background image overlap each other.
  • the emission data of the subfield corresponding to the pixel at the position spatially moved backward by the amount of the pixel corresponding to the motion vector detected by the motion vector detection unit is stored in the subfield of the pixel before the movement. It is preferable to change to light emission data.
  • the pixels constituting the foreground image specified by the depth information are spatially moved backward by the amount corresponding to the pixel corresponding to the motion vector. Since the light emission data of the subfield corresponding to the pixel is changed to the light emission data of the subfield of the pixel before movement, the viewer's line-of-sight direction moves smoothly according to the movement of the foreground image, and the foreground image and It is possible to suppress moving image blur and moving image pseudo contour that occur in the overlapping portion with the background image.
  • a video display device includes a video processing device according to any of the above, and a display unit that displays video using corrected rearranged light emission data output from the video processing device. Is provided.
  • the light emission data may not be rearranged near the boundary between the foreground image and the background image, but the rearranged light emission data of each subfield of the current frame is generated using subfields of at least two frames.
  • the subfield of the current frame in which the light emission data has not been rearranged can use the light emission data of the subfield of another frame, and the motion blur and motion picture pseudo contour that occurs near the boundary between the foreground image and the background image can be used. It can suppress more reliably.
  • one field or one frame is divided into a plurality of subfields, and a light emitting subfield that emits light and a non-light emitting that does not emit light It is useful as a video processing apparatus for processing an input image in order to perform gradation display by combining subfields.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Plasma & Fusion (AREA)
  • Power Engineering (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Control Of Gas Discharge Display Tubes (AREA)

Abstract

 動画ボヤケや動画擬似輪郭をより確実に抑制することができる映像処理装置及び映像表示装置を提供する。 映像処理装置は、入力画像を各サブフィールドの発光データに変換するサブフィールド変換部(2)と、時間的に前後する少なくとも2つ以上の入力画像を用いて動きベクトルを検出する動きベクトル検出部(3)と、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更することにより、各サブフィールドの発光データを空間的に再配置し、少なくとも2フレームのサブフィールドを用いて現在のフレームの各サブフィールドの再配置発光データを生成するサブフィールド再生成部(6)とを備える。

Description

映像処理装置及び映像表示装置
 本発明は、1フィールド又は1フレームを複数のサブフィールドに分割し、発光する発光サブフィールド及び発光しない非発光サブフィールドを組み合わせて階調表示を行うために入力画像を処理する映像処理装置及び該装置を用いた映像表示装置に関するものである。
 プラズマディスプレイ装置は、薄型化及び大画面化が可能であるという利点を有し、このようなプラズマディスプレイ装置に用いられるAC型プラズマディスプレイパネルとしては、走査電極及び維持電極を複数配列して形成したガラス基板からなる前面板と、データ電極を複数配列した背面板とを、走査電極及び維持電極とデータ電極とが直交するように組み合わせてマトリックス状に放電セルを形成し、任意の放電セルを選択してプラズマ発光させることにより、映像が表示される。
 上記のように映像を表示させる際、1つのフィールドを輝度の重みの異なる複数の画面(以下、これらをサブフィールド(SF)と呼ぶ)に時間方向に分割し、各サブフィールドにおける放電セルの発光又は非発光を制御することにより、1フィールドの画像すなわち1フレーム画像を表示する。
 上記のサブフィールド分割を用いた映像表示装置では、動画像を表示するときに、動画擬似輪郭と呼ばれる階調の乱れや動画ボヤケが発生し、表示品位を損ねるという問題がある。この動画擬似輪郭の発生を低減するために、例えば、特許文献1には、動画像に含まれる複数のフィールドのうち一のフィールドの画素を始点とし他の一のフィールドの画素を終点とする動きベクトルを検出するとともに、動画像をサブフィールドの発光データに変換し、動きベクトルを用いた処理によりサブフィールドの発光データを再構成する画像表示装置が開示されている。
 この従来の画像表示装置では、動きベクトルのうち他の一のフィールドの再構成対象画素を終点とする動きベクトルを選択し、これに所定の関数を乗じて位置ベクトルを算出し、再構成対象画素の一のサブフィールドの発光データを位置ベクトルが示す画素のサブフィールドの発光データを用いて再構成することにより、動画ボヤケや動画擬似輪郭の発生を抑制している。
 上記のように、従来の画像表示装置では、動画像を各サブフィールドの発光データに変換し、動きベクトルに応じて各サブフィールドの発光データを再配置しており、この各サブフィールドの発光データの再配置方法について、以下に具体的に説明する。
 図12は、表示画面の遷移状態の一例を示す模式図であり、図13は、図12に示す表示画面を表示するときの各サブフィールドの発光データを再配置する前の各サブフィールドの発光データを説明するための模式図であり、図14は、図12に示す表示画面を表示するときの各サブフィールドの発光データを再配置した後の各サブフィールドの発光データを説明するための模式図である。
 図12に示すように、連続するフレーム画像として、N-2フレーム画像D1、N-1フレーム画像D2、Nフレーム画像D3が順に表示され、背景として全画面黒(例えば、輝度レベル0)状態が表示されるとともに、前景として白丸(例えば、輝度レベル255)の移動体OJが表示画面の左から右へ移動する場合を例に考える。
 まず、上記の従来の画像表示装置は、動画像を各サブフィールドの発光データに変換し、図13に示すように、各フレームに対して各画素の各サブフィールドの発光データが以下のように作成される。
 ここで、N-2フレーム画像D1を表示する場合、1フィールドが5個のサブフィールドSF1~SF5から構成されるとすると、まず、N-2フレームにおいて、移動体OJに対応する画素P-10のすべてのサブフィールドSF1~SF5の発光データが発光状態(図中のハッチングされたサブフィールド)になり、他の画素のサブフィールドSF1~SF5の発光データが非発光状態(図示省略)になる。次に、N-1フレームにおいて、移動体OJが5画素分だけ水平に移動した場合、移動体OJに対応する画素P-5のすべてのサブフィールドSF1~SF5の発光データが発光状態になり、他の画素のサブフィールドSF1~SF5の発光データが非発光状態になる。次に、Nフレームにおいて、移動体OJがさらに5画素分だけ水平に移動した場合、移動体OJに対応する画素P-0のすべてのサブフィールドSF1~SF5の発光データが発光状態になり、他の画素のサブフィールドSF1~SF5の発光データが非発光状態になる。
 次に、上記の従来の画像表示装置は、動きベクトルに応じて各サブフィールドの発光データを再配置し、図14に示すように、各フレームに対して各画素の各サブフィールドの再配置後の発光データが以下のように作成される。
 まず、N-2フレームとN-1フレームとから動きベクトルV1として、5画素分の水平方向の移動量が検出された場合、N-1フレームにおいて、画素P-5の第1サブフィールドSF1の発光データ(発光状態)は、4画素分だけ左方向へ移動され、画素P-9の第1サブフィールドSF1の発光データが非発光状態から発光状態(図中のハッチングされたサブフィールド)に変更され、画素P-5の第1サブフィールドSF1の発光データが発光状態から非発光状態(図中の破線白抜きのサブフィールド)に変更される。
 また、画素P-5の第2サブフィールドSF2の発光データ(発光状態)は、3画素分だけ左方向へ移動され、画素P-8の第2サブフィールドSF2の発光データが非発光状態から発光状態に変更され、画素P-5の第2サブフィールドSF2の発光データが発光状態から非発光状態に変更される。
 また、画素P-5の第3サブフィールドSF3の発光データ(発光状態)は、2画素分だけ左方向へ移動され、画素P-7の第3サブフィールドSF3の発光データが非発光状態から発光状態に変更され、画素P-5の第3サブフィールドSF3の発光データが発光状態から非発光状態に変更される。
 また、画素P-5の第4サブフィールドSF4の発光データ(発光状態)は、1画素分だけ左方向へ移動され、画素P-6の第4サブフィールドSF4の発光データが非発光状態から発光状態に変更され、画素P-5の第4サブフィールドSF4の発光データが発光状態から非発光状態に変更される。また、画素P-5の第5サブフィールドSF5の発光データは、変更されない。
 同様に、N-1フレームとNフレームとから動きベクトルV2として、5画素分の水平方向の移動量が検出された場合、画素P-0の第1~第4サブフィールドSF1~SF4の発光データ(発光状態)が4~1画素分だけ左方向へ移動され、画素P-4の第1サブフィールドSF1の発光データが非発光状態から発光状態に変更され、画素P-3の第2サブフィールドSF2の発光データが非発光状態から発光状態に変更され、画素P-2の第3サブフィールドSF3の発光データが非発光状態から発光状態に変更され、画素P-1の第4サブフィールドSF4の発光データが非発光状態から発光状態に変更され、画素P-0の第1~第4サブフィールドSF1~SF4の発光データが発光状態から非発光状態に変更され、第5サブフィールドSF5の発光データは、変更されない。
 上記のサブフィールドの再配置処理により、N-2フレームからNフレームへ遷移する表示画像を視聴者が見た場合、視線方向が矢印AR方向に沿ってスムーズに移動することとなり、動画ボヤケや動画擬似輪郭の発生を抑制することができる。
 しかしながら、従来のサブフィールドの再配置処理でサブフィールドの発光位置を補正すると、動きベクトルに基づいて空間的に前方に位置する画素のサブフィールドが当該画素よりも後方の画素に分配されるので、本来であれば分配されないはずの画素からサブフィールドが分配される場合があった。この従来のサブフィールドの再配置処理の問題点について、以下に具体的に説明する。
 図15は、前景画像の背後を背景画像が通過する様子を表す表示画面の一例を示す図であり、図16は、図15に示す前景画像と背景画像との境界部分における、各サブフィールドの発光データを再配置する前の各サブフィールドの発光データの一例を示す模式図であり、図17は、各サブフィールドの発光データを再配置した後の各サブフィールドの発光データの一例を示す模式図であり、図18は、各サブフィールドの発光データを再配置した後の図15に示す表示画面における前景画像と背景画像との境界部分を示す図である。
 図15に示す表示画面D4では、前景画像である木T1の背後を背景画像である車C1が通過している。木T1は静止しており、車C1は右方向へ移動している。このとき、前景画像と背景画像との境界部分K1は、図16に示される。図16において、画素P-0~P-8が、木T1を構成する画素であり、画素P-9~P-17が、車C1を構成する画素である。なお、図16では、同じ画素に属するサブフィールドを同じハッチングで表している。Nフレームにおける車C1は、N-1フレームから5画素分移動している。したがって、N-1フレームの画素P-14における発光データは、Nフレームの画素P-9に移動している。
 ここで、上記の従来の画像表示装置は、動きベクトルに応じて各サブフィールドの発光データを再配置し、図17に示すように、Nフレームにおける各画素の各サブフィールドの再配置後の発光データが以下のように作成される。
 すなわち、画素P-8~P-4の動きベクトルは0であるので、画素P-8~P-4の第1~第5サブフィールドSF1~SF5の発光データは、左方向へ移動されない。そのため、画素P-9の第1~第5サブフィールドSF1~SF5の発光データ、画素P-10の第1~第4サブフィールドSF1~SF4の発光データ、画素P-11の第1~第3サブフィールドSF1~SF3の発光データ、画素P-12の第1~第2サブフィールドSF1~SF2の発光データ、及び画素P-13の第1サブフィールドSF1の発光データは、発光データが再配置されないことになる。
 仮に、画素P-8~P-4の第1~第5サブフィールドSF1~SF5の発光データを5~1画素分だけ左方向へ移動させた場合、図17の三角形で示す領域R1内のサブフィールドは、木T1を構成する画素に対応するサブフィールドの発光データとなる。
 つまり、領域R1内のサブフィールドは、木T1のサブフィールドの発光データが再配置されることとなる。本来、画素P-9~P-13は、車C1に属しているので、木T1に属する画素P-8~P-4の第1~第5サブフィールドSF1~SF5の発光データが再配置されると、図18に示すように、車C1と木T1との境界部分において動画ボヤケや動画擬似輪郭が発生し、画質が劣化する。
 また、前景画像と背景画像とが重なった領域において、従来のサブフィールドの再配置処理でサブフィールドの発光位置を補正すると、前景画像を構成するサブフィールドの発光データと、背景画像を構成するサブフィールドの発光データとのうちのいずれの発光データを配置すべきかがわからないという問題が発生する。この従来のサブフィールドの再配置処理の問題点について、以下に具体的に説明する。
 図19は、背景画像の前を前景画像が通過する様子を表す表示画面の一例を示す図であり、図20は、図19に示す前景画像と背景画像との重複部分における、各サブフィールドの発光データを再配置する前の各サブフィールドの発光データの一例を示す模式図であり、図21は、各サブフィールドの発光データを再配置した後の各サブフィールドの発光データの一例を示す模式図であり、図22は、各サブフィールドの発光データを再配置した後の図19に示す表示画面における前景画像と背景画像との重複部分を示す図である。
 図19に示す表示画面D5では、背景画像である木T2の前を前景画像であるボールB1が通過している。木T2は静止しており、ボールB1は右方向へ移動している。このとき、前景画像と背景画像との重複部分は、図20に示される。図20において、NフレームにおけるボールB1は、N-1フレームから7画素分移動している。したがって、N-1フレームの画素P-14~P-16における発光データは、Nフレームの画素P-7~P-9に移動している。なお、図20では、同じ画素に属するサブフィールドを同じハッチングで表している。
 ここで、上記の従来の画像表示装置は、動きベクトルに応じて各サブフィールドの発光データを再配置し、図21に示すように、Nフレームにおける各画素の各サブフィールドの再配置後の発光データが以下のように作成される。
 すなわち、画素P-7~P-9の第1~第5サブフィールドSF1~SF5の発光データが5~1画素分だけ左方向へ移動され、画素P-7~P-9の第6サブフィールドSF6の発光データは、変更されない。
 このとき、画素P-7~P-9は、動きベクトルの値が0ではないため、画素P-7の第6サブフィールドSF6、画素P-8の第5~第6サブフィールドSF5~SF6、及び画素P-9の第4~第6サブフィールドSF4~SF6は、それぞれ前景画像に対応する発光データが再配置される。しかしながら、画素P-10~P-14は、動きベクトルの値が0であるため、画素P-10の第3~第5サブフィールドSF3~SF5、画素P-11の第2~第4サブフィールドSF2~SF4、画素P-12の第1~第3サブフィールドSF1~SF3、画素P-13の第1~第2サブフィールドSF1~SF2、及び画素P-14の第1サブフィールドSF1は、それぞれ背景画像に対応する発光データが再配置されるか、前景画像に対応する発光データが再配置されるかがわからない。
 図21の四角形で示す領域R2内のサブフィールドは、背景画像に対応する発光データが再配置された場合を示している。このように、前景画像と背景画像との重なり部分において、背景画像に対応する発光データが再配置された場合、図22に示すように、ボールB1の輝度が低下し、ボールB1と木T2との重複部分において動画ボヤケや動画擬似輪郭が発生し、画質が劣化する。
特開2008-209671号公報
 本発明の目的は、動画ボヤケや動画擬似輪郭をより確実に抑制することができる映像処理装置及び映像表示装置を提供することである。
 本発明の一局面に係る映像処理装置は、1フィールド又は1フレームを複数のサブフィールドに分割し、発光する発光サブフィールド及び発光しない非発光サブフィールドを組み合わせて階調表示を行うために入力画像を処理する映像処理装置であって、前記入力画像を各サブフィールドの発光データに変換するサブフィールド変換部と、時間的に前後する少なくとも2つ以上の入力画像を用いて動きベクトルを検出する動きベクトル検出部と、前記動きベクトル検出部により検出された動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更することにより、前記サブフィールド変換部により変換された各サブフィールドの発光データを空間的に再配置し、少なくとも2フレームのサブフィールドを用いて現在のフレームの各サブフィールドの再配置発光データを生成する再生成部とを備える。
 この構成によれば、入力画像が各サブフィールドの発光データに変換され、時間的に前後する少なくとも2つ以上の入力画像を用いて動きベクトルが検出される。そして、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更することにより、各サブフィールドの発光データが空間的に再配置され、少なくとも2フレームのサブフィールドを用いて現在のフレームの各サブフィールドの再配置発光データが生成される。
 本発明によれば、少なくとも2フレームのサブフィールドを用いて現在のフレームの各サブフィールドの再配置発光データが生成されるので、発光データが再配置されなかった現在のフレームのサブフィールドに、他のフレームのサブフィールドの発光データを用いることができ、前景画像と背景画像との境界付近で発生する動画ボヤケや動画擬似輪郭をより確実に抑制することができる。
 本発明の目的、特徴及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の一実施形態による映像表示装置の構成を示すブロック図である。 各サブフィールドの発光重心値の一例を説明するための模式図である。 本実施の形態において図16に示すNフレームのサブフィールドを第1のサブフィールド再生成部によって再配置した後の再配置発光データの一例を示す模式図である。 本実施の形態において図16に示すN-1フレームのサブフィールドを第2のサブフィールド再生成部によって再配置した後の再配置発光データの一例を示す模式図である。 本実施の形態においてNフレームのサブフィールドとN-1フレームのサブフィールドとを合成した後の再配置発光データの一例を示す模式図である。 本実施の形態において各サブフィールドの発光データを再配置した後の図15に示す表示画面における前景画像と背景画像との境界部分を示す図である。 本実施の形態において図20に示すサブフィールドを再配置した後の各サブフィールドの発光データの一例を示す模式図である。 本実施の形態において各サブフィールドの発光データを再配置した後の図19に示す表示画面における前景画像と背景画像との境界部分を示す図である。 互いに対向する方向へ移動する第1の画像と第2の画像とが画面中央付近で互いの背後に入り込む様子を表す表示画面の一例を示す図である。 図9に示す第1の画像と第2の画像との境界部分における、各サブフィールドの発光データを再配置する前の各サブフィールドの発光データの一例を示す模式図である。 本実施の形態の再配置方法により各サブフィールドの発光データを再配置した後の各サブフィールドの発光データの一例を示す模式図である。 表示画面の遷移状態の一例を示す模式図である。 図12に示す表示画面を表示するときの各サブフィールドの発光データを再配置する前の各サブフィールドの発光データを説明するための模式図である。 図12に示す表示画面を表示するときの各サブフィールドの発光データを再配置した後の各サブフィールドの発光データを説明するための模式図である。 前景画像の背後を背景画像が通過する様子を表す表示画面の一例を示す図である。 図15に示す前景画像と背景画像との境界部分における、各サブフィールドの発光データを再配置する前の各サブフィールドの発光データの一例を示す模式図である。 各サブフィールドの発光データを再配置した後の各サブフィールドの発光データの一例を示す模式図である。 各サブフィールドの発光データを再配置した後の図15に示す表示画面における前景画像と背景画像との境界部分を示す図である。 背景画像の前を前景画像が通過する様子を表す表示画面の一例を示す図である。 図19に示す前景画像と背景画像との重複部分における、各サブフィールドの発光データを再配置する前の各サブフィールドの発光データの一例を示す模式図である。 各サブフィールドの発光データを再配置した後の各サブフィールドの発光データの一例を示す模式図である。 各サブフィールドの発光データを再配置した後の図19に示す表示画面における前景画像と背景画像との重複部分を示す図である。
 以下、本発明に係る映像表示装置について図面を参照しながら説明する。以下の実施形態では、映像表示装置の一例としてプラズマディスプレイ装置を例に説明するが、本発明が適用される映像表示装置はこの例に特に限定されず、1フィールド又は1フレームを複数のサブフィールドに分割して階調表示を行うものであれば、他の映像表示装置にも同様に適用可能である。
 また、本明細書において、「サブフィールド」との記載は「サブフィールド期間」という意味も含み、「サブフィールドの発光」との記載は「サブフィールド期間における画素の発光」という意味も含むものとする。また、サブフィールドの発光期間は、視聴者が視認可能なように維持放電により発光している維持期間を意味し、視聴者が視認可能な発光を行っていない初期化期間及び書き込み期間等を含まず、サブフィールドの直前の非発光期間は、視聴者が視認可能な発光を行っていない期間を意味し、視聴者が視認可能な発光を行っていない初期化期間、書き込み期間及び維持期間等を含む。
 図1は、本発明の一実施形態による映像表示装置の構成を示すブロック図である。図1に示す映像表示装置は、入力部1、サブフィールド変換部2、動きベクトル検出部3、画像データ記憶部4、動きベクトル記憶部5、サブフィールド再生成部6及び画像表示部7を備える。また、サブフィールド変換部2、動きベクトル検出部3、画像データ記憶部4、動きベクトル記憶部5及びサブフィールド再生成部6により、1フィールド又は1フレームを複数のサブフィールドに分割し、発光する発光サブフィールド及び発光しない非発光サブフィールドを組み合わせて階調表示を行うために入力画像を処理する映像処理装置が構成されている。
 入力部1は、例えば、TV放送用のチューナー、画像入力端子、ネットワーク接続端子などを備え、入力部1に動画像データが入力される。入力部1は、入力された動画像データに公知の変換処理等を行い、変換処理後のフレーム画像データをサブフィールド変換部2及び動きベクトル検出部3へ出力する。
 サブフィールド変換部2は、1フレーム画像データすなわち1フィールドの画像データを各サブフィールドの発光データに順次変換し、画像データ記憶部4及びサブフィールド再生成部6へ出力する。なお、以下の説明では、各サブフィールドの発光データに変換された画像データをサブフィールドデータとも呼ぶ。
 ここで、サブフィールドを用いて階調を表現する映像表示装置の階調表現方法について説明する。1つのフィールドをK個のサブフィールドから構成し、各サブフィールドに輝度に対応する所定の重み付けを行い、この重み付けに応じて各サブフィールドの輝度が変化するように発光期間を設定する。例えば、7個のサブフィールドを用い、2のK乗の重み付けを行った場合、第1~第7サブフィールドの重みはそれぞれ、1、2、4、8、16、32、64となり、各サブフィールドの発光状態又は非発光状態を組み合わせることにより、0~127階調の範囲で映像を表現することができる。なお、サブフィールドの分割数及び重み付けは、上記の例に特に限定されず、種々の変更が可能である。
 動きベクトル検出部3には、時間的に連続する2つのフレーム画像データ、例えば、N-1フレームの画像データ及びNフレームの画像データが入力され、動きベクトル検出部3は、これらのフレーム間の動き量を検出することによりNフレームの画素毎の動きベクトルを検出し、動きベクトル記憶部5及びサブフィールド再生成部6へ出力する。この動きベクトル検出方法としては、公知の動きベクトル検出方法が用いられ、例えば、ブロック毎のマッチング処理による検出方法が用いられる。
 画像データ記憶部4は、サブフィールド変換部2によって各サブフィールドの発光データに変換された少なくとも1フレーム前の画像データを記憶する。動きベクトル記憶部5は、動きベクトル検出部3によって検出された少なくとも1フレーム前の画像データの画素毎の動きベクトルを記憶する。
 サブフィールド再生成部6は、動きベクトル検出部3により検出された動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更することにより、サブフィールド変換部2により変換された各サブフィールドの発光データを空間的に再配置し、少なくとも2フレームのサブフィールドを用いて現在のフレームの各サブフィールドの再配置発光データを生成する。なお、サブフィールド再生成部6は、動きベクトルの方向によって特定される平面内において、2次元的に後方に移動した位置にある画素の対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更する。
 具体的に、サブフィールド再生成部6は、再配置されなかったサブフィールドの発光データに、画像データ記憶部4に記憶されている1フレーム前の画像データのサブフィールドの発光データを用いる。また、サブフィールド再生成部6は、第1のサブフィールド再生成部61、重なり検出部62、奥行き情報作成部63、第2のサブフィールド再生成部64及び合成部65を含む。
 第1のサブフィールド再生成部61は、図14に示す再配置方法と同様に、現在のフレームの各画素のサブフィールドの配置順に従い、時間的に先行するサブフィールドが大きく移動するように、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素の対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更する。
 重なり検出部62は、前景画像と背景画像との重なりを検出する。奥行き情報作成部63は、重なり検出部62によって重なりが検出された場合、前景画像と背景画像とが重なる画素毎に、前景画像及び背景画像のいずれであるかを表す奥行き情報を作成する。奥行き情報作成部63は、少なくとも2フレーム以上の動きベクトルの大きさに基づいて、奥行き情報を作成する。
 第1のサブフィールド再生成部61は、奥行き情報作成部63によって作成された奥行き情報に基づいて、各サブフィールドの再配置発光データを生成する。また、第1のサブフィールド再生成部61は、重なり検出部62によって重なりが検出された場合、前景画像を構成する画素について、動きベクトル検出部3により検出された動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更する。
 ここで、上記のサブフィールドの再配置方法についてさらに具体的に説明する。まず、発光重心値について説明する。発光重心値は、各サブフィールドの発光位置を1フレームで正規化した値(0~1)であり、各サブフィールドの移動量D[画素]は、動きベクトルをV[画素/フレーム]、発光重心値をGとすると、D=V×Gで表され、各サブフィールドの発光重心値を用いて、動きベクトルに応じた各サブフィールドの移動量を算出することができる。
 図2は、各サブフィールドの発光重心値の一例を説明するための模式図である。図2に示すように、例えば、1フレームを0~25で正規化し、第1~第5サブフィールドの発光期間を1、3、5、7、9とすると、第1サブフィールドSF1の発光重心値SG1は0.8(=(25-5)/25)、第2サブフィールドSF2の発光重心値SG2は0.72(=(25-7)/25)、第3サブフィールドSF3の発光重心値SG3は0.56(=(25-11)/25)、第4サブフィールドSF4の発光重心値SG4は0.32(=(25-7)/25)、第5サブフィールドSF5の発光重心値SG5は0.0(=(25-25)/25)となる。
 このとき、N-1フレームとNフレームとの動きベクトルMVとして、x方向(表示画面の水平方向)に25(画素/フレーム)、y方向(表示画面の垂直方向)に0(画素/フレーム)が検出された場合、上記のD=V×Gから、第1~第5サブフィールドSF1~SF5の移動量(x,y)[画素]はそれぞれ、(20,0)、(18,0)、(14,0)、(8,0)、(0,0)となる。なお、これら値は、図2中の横軸の数値でなく、第5サブフィールドSF5の発光重心値SG5から第1~第5サブフィールドSF1~SF5の発光重心値SG1~SG5までの画素数である。
 第2のサブフィールド再生成部64は、画像データ記憶部4に記憶されている1フレーム前のサブフィールドデータを読み出すとともに、動きベクトル記憶部5に記憶されている1フレーム前の画像データの各画素の動きベクトルを読み出し、1フレーム前のサブフィールドデータの各画素の動きベクトルの向きを反転させ、0~1の値に正規化された発光重心値を1~0の値に正規化し、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更し、各サブフィールドの再配置発光データを生成する。
 ここで、発光重心値は、各サブフィールドの発光位置を1フレームで正規化した値(0~1)であり、各サブフィールドの移動量を算出する際に用いられる。すなわち、各サブフィールドの移動量は、発光重心値に動きベクトル値を乗算することにより算出される。通常、発光重心値は、0~1の値に正規化されるが、1~0の値に正規化することにより、各サブフィールドの発光データが上下反転して配置されることとなる。
 合成部65は、第1のサブフィールド再生成部61によって生成された再配置発光データと、第2のサブフィールド再生成部64によって生成された再配置発光データとを合成する。
 画像表示部7は、プラズマディスプレイパネル及びパネル駆動回路等を備え、サブフィールド再生成部6によって生成された再配置発光データに基づいて、プラズマディスプレイパネルの各画素の各サブフィールドの点灯又は消灯を制御して動画像を表示する。
 次に、上記のように構成された映像表示装置による発光データの再配置処理について具体的に説明する。まず、入力部1に動画像データが入力され、入力部1は、入力された動画像データに所定の変換処理を行い、変換処理後のフレーム画像データをサブフィールド変換部2及び動きベクトル検出部3へ出力する。
 次に、サブフィールド変換部2は、フレーム画像データを画素毎に第1~第6サブフィールドSF1~SF6の発光データに順次変換し、サブフィールド再生成部6及び画像データ記憶部4へ出力する。
 例えば、図15に示すような、前景画像である木T1の背後を背景画像である車C1が通過する動画像データが入力部1に入力されたとする。このとき、木T1と車C1との境界付近の画素は、図16に示すように第1~第6サブフィールドSF1~SF6の発光データに変換される。サブフィールド変換部2は、図16に示すように、画素P-0~P-8の第1~第6サブフィールドSF1~SF6を木T1に対応する発光状態に設定し、画素P-9~P-17の第1~第6サブフィールドSF1~SF6を車C1に対応する発光状態に設定した発光データを生成する。したがって、サブフィールドの再配置を行わない場合は、図16に示すサブフィールドによる画像が表示画面に表示される。
 画像データ記憶部4は、サブフィールド変換部2によって変換されたサブフィールドデータを記憶する。なお、画像データ記憶部4は、現在のフレーム(Nフレーム)のサブフィールドデータと、1フレーム前のフレーム(N-1フレーム)のサブフィールドデータとを記憶する。
 上記の第1~第6サブフィールドSF1~SF6の発光データの作成に並行して、動きベクトル検出部3は、時間的に連続する2つのフレーム画像データ間の画素毎の動きベクトルを検出し、サブフィールド再生成部6及び動きベクトル記憶部5へ出力する。
 動きベクトル記憶部5は、動きベクトル検出部3によって検出されたフレーム画像データの画素毎の動きベクトルを記憶する。なお、動きベクトル記憶部5は、現在のフレーム(Nフレーム)のフレーム画像データの画素毎の動きベクトルと、1フレーム前のフレーム(N-1フレーム)のフレーム画像データの画素毎の動きベクトルとを記憶する。
 次に、第1のサブフィールド再生成部61は、Nフレームの第1~第6サブフィールドSF1~SF6の配置順に従い、時間的に先行するサブフィールドが大きく移動するように、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更する。これにより、第1のサブフィールド再生成部61は、サブフィールド変換部2により変換された各サブフィールドの発光データを空間的に再配置し、各サブフィールドの再配置発光データを生成する。
 次に、重なり検出部62は、サブフィールド毎に前景画像と背景画像との重なりを検出する。具体的には、重なり検出部62は、第1のサブフィールド再生成部61による各サブフィールドの発光データの再配置時において、サブフィールド毎の発光データが書き込まれた回数を計数し、書き込み回数が0回の場合、当該サブフィールドが発光データの設定されていない未設定部分として検出され、書き込み回数が2回以上の場合、当該サブフィールドが前景画像と背景画像との重なり部分として検出される。
 なお、重なり検出部62は、発光データが再配置されない未設定部分及び前景画像と背景画像とが重なった重なり部分が検出されない場合、第1のサブフィールド再生成部61によって生成された再配置発光データを画像表示部7へ出力する。
 図3は、本実施の形態において図16に示すNフレームのサブフィールドを第1のサブフィールド再生成部によって再配置した後の再配置発光データの一例を示す模式図である。図3に示す再配置発光データSF_aは、図17に示す再配置発光データと同じであるので詳細な説明は省略する。
 図3において、画素P-0~P-8は静止画像に含まれ、動きベクトルの値が0である。そのため、再配置発光データSF_aの領域R1内のサブフィールドについては、発光データが書き込まれないので、発光データの設定が行われない。
 重なり検出部62によって発光データの設定されていない未設定部分が検出された場合、第2のサブフィールド再生成部64は、画像データ記憶部4に記憶されているN-1フレームのサブフィールドデータを読み出すとともに、動きベクトル記憶部5に記憶されているN-1フレームのフレーム画像データの各画素の動きベクトルを読み出す。
 次に、第2のサブフィールド再生成部64は、N-1フレームのフレーム画像データの各画素の動きベクトルの方向を反転させ、N-1フレームのサブフィールドデータの0~1で正規化された各サブフィールドの発光重心値を1~0で正規化する。各画素の動きベクトルの方向を反転させることにより、図3に示す再配置発光データSF_aとは逆方向に発光データが移動することとなる。また、0~1で正規化された各サブフィールドの発光重心値を1~0で正規化することにより、第1~第6サブフィールドSF1~SF6の配置順に従い、時間的に先行するサブフィールドが小さく移動するように、各サブフィールドの発光データが移動することとなり、その結果、各サブフィールドの発光データが上下反転することとなる。
 次に、第2のサブフィールド再生成部64は、動きベクトルが反転されるとともに発光重心値が1~0で正規化されたN-1フレームの第1~第6サブフィールドSF1~SF6の配置順に従い、時間的に先行するサブフィールドが小さく移動するように、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更する。
 図4は、本実施の形態において図16に示すN-1フレームのサブフィールドを第2のサブフィールド再生成部によって再配置した後の再配置発光データの一例を示す模式図である。
 第2のサブフィールド再生成部64により、動きベクトルに応じて各サブフィールドの発光データが再配置され、図4に示すように、N-1フレームにおける各画素の各サブフィールドの再配置後の再配置発光データSF_bが以下のように作成される。
 すなわち、画素P-16の第2~第6サブフィールドSF2~SF6の発光データは、画素P-15~P-11の第2~第6サブフィールドSF2~SF6の発光データに変更され、画素P-16の第1サブフィールドSF1の発光データは、変更されない。また、画素P-15の第2~第6サブフィールドSF2~SF6の発光データは、画素P-14~P-10の第2~第6サブフィールドSF2~SF6の発光データに変更され、画素P-15の第1サブフィールドSF1の発光データは、変更されない。
 また、画素P-14の第2~第6サブフィールドSF2~SF6の発光データは、画素P-13~P-9の第2~第6サブフィールドSF2~SF6の発光データに変更され、画素P-14の第1サブフィールドSF1の発光データは、変更されない。また、画素P-13の第2~第6サブフィールドSF2~SF6の発光データは、画素P-12~P-8の第2~第6サブフィールドSF2~SF6の発光データに変更され、画素P-13の第1サブフィールドSF1の発光データは、変更されない。
 また、画素P-12の第2~第6サブフィールドSF2~SF6の発光データは、画素P-11~P-7の第2~第6サブフィールドSF2~SF6の発光データに変更され、画素P-12の第1サブフィールドSF1の発光データは、変更されない。また、画素P-11の第2~第6サブフィールドSF2~SF6の発光データは、画素P-10~P-6の第2~第6サブフィールドSF2~SF6の発光データに変更され、画素P-11の第1サブフィールドSF1の発光データは、変更されない。
 また、画素P-10の第2~第6サブフィールドSF2~SF6の発光データは、画素P-9~P-5の第2~第6サブフィールドSF2~SF6の発光データに変更され、画素P-10の第1サブフィールドSF1の発光データは、変更されない。また、画素P-9の第2~第6サブフィールドSF2~SF6の発光データは、画素P-8~P-4の第2~第6サブフィールドSF2~SF6の発光データに変更され、画素P-9の第1サブフィールドSF1の発光データは、変更されない。
 このように、第2のサブフィールド再生成部64は、動きベクトルが反転されるとともに発光重心値が1~0で正規化されたN-1フレームの各サブフィールドの発光データを空間的に再配置し、各サブフィールドの再配置発光データSF_bを生成する。
 次に、合成部65は、第1のサブフィールド再生成部61によって作成されたNフレームの再配置発光データSF_aと、第2のサブフィールド再生成部64によって作成された再配置発光データSF_bとを合成する。具体的に、合成部65は、重なり検出部62によって検出された再配置発光データSF_aの未設定部分のサブフィールドに、未設定部分に対応する再配置発光データSF_bのサブフィールドの発光データを設定する。再配置発光データSF_bの領域R1内のサブフィールドの発光データが、再配置発光データSF_aの未設定部分の領域R1内のサブフィールドの発光データに設定される。
 図5は、本実施の形態においてNフレームのサブフィールドとN-1フレームのサブフィールドとを合成した後の再配置発光データの一例を示す模式図である。
 上記のサブフィールドの再配置処理により、第1のサブフィールド再生成部61によって作成されたNフレームの再配置発光データSF_aにおける、画素P-9の第1~第5サブフィールドSF1~SF5の発光データ、画素P-10の第1~第4サブフィールドSF1~SF4の発光データ、画素P-11の第1~第3サブフィールドSF1~SF3の発光データ、画素P-12の第1~第2サブフィールドSF1~SF2の発光データ、及び画素P-13の第1サブフィールドSF1の発光データは、第2のサブフィールド再生成部64によって作成された再配置発光データSF_bにおける、画素P-9の第1~第5サブフィールドSF1~SF5の発光データ、画素P-10の第1~第4サブフィールドSF1~SF4の発光データ、画素P-11の第1~第3サブフィールドSF1~SF3の発光データ、画素P-12の第1~第2サブフィールドSF1~SF2の発光データ、及び画素P-13の第1サブフィールドSF1の発光データに設定される。
 つまり、図5の三角形で示す領域R1内のサブフィールドは、車C1に属するサブフィールドの発光データが再配置されることとなる。これにより、図6に示すように、車C1と木T1との境界が明確になり、動画ボヤケや動画擬似輪郭が抑制され、画質が向上する。
 続いて、重なり検出部62によって、1つのサブフィールドに発光データが2回以上書き込まれた前景画像と背景画像との重なり部分が検出された場合について説明する。
 例えば、図19のように、背景画像上を前景画像が通過する動画データのサブフィールドを再配置する場合、背景画像と前景画像とが重なる部分では、背景画像の発光データと前景画像の発光データとの2つの発光データが1つのサブフィールドに配置される。そのため、サブフィールド毎に発光データが書き込まれた回数を計数することにより、前景画像と背景画像とが重複しているか否かを検出することができる。
 次に、奥行き情報作成部63は、重なり検出部62によって重なり部分が検出された場合、前景画像と背景画像とが重なる画素毎に、前景画像及び背景画像のいずれであるかを表す奥行き情報を算出する。具体的に、奥行き情報作成部63は、2フレーム以上の同一画素の動きベクトルの値を比較し、動きベクトルの値が変化している場合、当該画素は前景画像であるとし、動きベクトルの値が変化していない場合、当該画素は背景画像であるとして奥行き情報を作成する。例えば、奥行き情報作成部63は、NフレームとN-1フレームとの同一画素のベクトル値を比較する。
 第1のサブフィールド再生成部61は、重なり検出部62によって重なりが検出された場合、重なり部分の各サブフィールドの発光データを、奥行き情報作成部63によって作成された奥行き情報で特定される前景画像を構成する画素のサブフィールドの発光データに変更する。
 図7は、本実施の形態において図20に示すサブフィールドを再配置した後の各サブフィールドの発光データの一例を示す模式図であり、図8は、本実施の形態において各サブフィールドの発光データを再配置した後の図19に示す表示画面における前景画像と背景画像との境界部分を示す図である。
 ここで、第1のサブフィールド再生成部61は、動きベクトルに応じて各サブフィールドの発光データを再配置し、図7に示すように、Nフレームにおける各画素の各サブフィールドの再配置後の発光データが以下のように作成される。
 まず、第1のサブフィールド再生成部61は、第1~第6サブフィールドSF1~SF6の配置順に従い、時間的に先行するサブフィールドが大きく移動するように、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更する。
 次に、重なり検出部62は、各サブフィールドの発光データの書き込み回数を計数する。図21に示す再配置発光データの場合、画素P-14の第1サブフィールドSF1、画素P-13の第1及び第2サブフィールドSF1及びSF2、画素P-12の第1~第3サブフィールドSF1~SF3、画素P-11の第2~第4サブフィールドSF2~SF4、及び画素P-10の第3~第5サブフィールドSF3~SF5は、書き込み回数が2回であるため、重なり検出部62は、これらのサブフィールドを、前景画像と背景画像との重なり部分として検出する。
 次に、奥行き情報作成部63は、再配置前のNフレームとN-1フレームとの同一画素の動きベクトルの値を比較し、動きベクトルの値が変化している場合、当該画素は前景画像であるとし、動きベクトルの値が変化していない場合、当該画素は背景画像であるとして奥行き情報を作成する。例えば、図20に示すNフレーム画像では、画素P-0~P-6が背景画像であり、画素P-7~P-9が前景画像であり、画素P-10~P-17が背景画像である。
 第1のサブフィールド再生成部61は、重なり検出部62によって重なり部分であるとして検出されたサブフィールドの移動前のサブフィールドの画素に対応付けられている奥行き情報を参照し、奥行き情報が前景画像を表す情報であれば、当該サブフィールドの発光データを移動前の画素のサブフィールドの発光データに変更し、奥行き情報が背景画像を表す情報であれば、当該サブフィールドの発光データを移動前の画素のサブフィールドの発光データに変更しない。
 これにより、図7に示すように、画素P-14の第1サブフィールドSF1の発光データは、画素P-9の第1サブフィールドSF1の発光データに変更され、画素P-13の第1及び第2サブフィールドSF1及びSF2の発光データは、画素P-8の第1サブフィールドSF1及び画素P-9の第2サブフィールドSF2の発光データに変更され、画素P-12の第1~第3サブフィールドSF1~SF3の発光データは、画素P-7の第1サブフィールドSF1、画素P-8の第2サブフィールドSF2及び画素P-9の第3サブフィールドSF3の発光データに変更され、画素P-11の第2~第4サブフィールドSF2~SF4の発光データは、画素P-7の第2サブフィールドSF2、画素P-8の第3サブフィールドSF3及び画素P-9の第4サブフィールドSF4の発光データに変更され、画素P-10の第3~第5サブフィールドSF3~SF5の発光データは、画素P-7の第3サブフィールドSF3、画素P-8の第4サブフィールドSF4及び画素P-9の第5サブフィールドSF5の発光データに変更される。
 上記のサブフィールドの再配置処理により、前景画像と背景画像との重なり部分において、前景画像のサブフィールドの発光データが優先的に移動されることとなる。つまり、図7の四角形で示す領域R2のサブフィールドは、前景画像に対応する発光データが再配置される。このように、前景画像と背景画像との重なり部分において、前景画像に対応する発光データが再配置された場合、図8に示すように、ボールB1の輝度が向上し、ボールB1と木T2との重複部分において動画ボヤケや動画擬似輪郭が抑制され、画質が向上する。
 なお、本実施の形態において、奥行き情報作成部63は、少なくとも2フレーム以上の動きベクトルの大きさに基づいて、前景画像であるか、背景画像であるかを表す奥行き情報を画素毎に作成しているが、本発明は特にこれに限定されない。すなわち、入力部1に入力された入力画像に、前景画像であるか、背景画像であるかを表す奥行き情報が予め含まれている場合、奥行き情報を作成する必要はない。この場合、入力部1に入力された入力画像から、奥行き情報が抽出される。また、奥行き情報作成部63は、入力映像信号からオブジェクト検出を行い、オブジェクトの動きに応じて、奥行き情報を求めても良い。また、奥行き情報作成部63は、文字検出を行い、文字が検出された場合、当該文字を前景画像として奥行き情報を作成しても良い。
 次に、サブフィールドの再配置処理の別の例について説明する。図9は、互いに対向する方向へ移動する第1の画像と第2の画像とが画面中央付近で互いの背後に入り込む様子を表す表示画面の一例を示す図であり、図10は、図9に示す第1の画像と第2の画像との境界部分における、各サブフィールドの発光データを再配置する前の各サブフィールドの発光データの一例を示す模式図であり、図11は、本実施の形態の再配置方法により各サブフィールドの発光データを再配置した後の各サブフィールドの発光データの一例を示す模式図である。
 図9に示す表示画面DPでは、右方向へ移動している第1の画像I1と、左方向へ移動している第2の画像I2とが画面中央付近で互いの背後に入り込んでいる。なお、図9~図11において、第1の画像I1の各画素の動きベクトルの値は“-6”であり、第2の画像I2の各画素の動きベクトルの値は“6”である。
 図10に示すように、サブフィールドの再配置処理前において、第1の画像I1は、画素P-9~P-19で構成され、第2の画像I2は、画素P-0~P-8で構成される。
 従来の再配置方法により図10に示すN-2フレーム、N-1フレーム及びNフレームの各サブフィールドの発光データをそれぞれ再配置した場合、図11に示す第1の画像I1と第2の画像I2との境界付近の三角形の領域R3~R8のサブフィールドの発光データが再配置されず、未設定状態となる。
 この場合、第1の画像I1と第2の画像I2との境界部分において十分な輝度が得られず、動画ボヤケや動画擬似輪郭が発生し、画質が劣化する。また、第1の画像I1と第2の画像I2との境界を越えて発光データを移動させた場合、境界部分において動画ボヤケや動画擬似輪郭が発生し、画質が劣化する。
 一方、本実施の形態の再配置方法により図10に示すN-2フレーム、N-1フレーム及びNフレームの各サブフィールドの発光データをそれぞれ再配置した場合、図11に示すように、領域R3~R8のサブフィールドの発光データは、それぞれ1フレーム前のサブフィールドデータに基づいて、再配置発光データが生成される。すなわち、N-2フレームの領域R3,R4のサブフィールドは、N-3フレーム(不図示)のサブフィールドデータを用いて再配置発光データが生成され、N-1フレームの領域R5,R6のサブフィールドは、N-2フレームのサブフィールドデータを用いて再配置発光データが生成され、Nフレームの領域R7,R8のサブフィールドは、N-1フレームのサブフィールドデータを用いて再配置発光データが生成される。
 このように、本実施の形態では、第1の画像I1と第2の画像I2との境界が明確になり、動きベクトルの方向が不連続である境界部分において再配置処理した場合に生じる動画ボヤケや動画擬似輪郭をより確実に抑制することができる。
 なお、本実施の形態では、画像データ記憶部4は、サブフィールド変換部2によって変換されたN-1フレームの画像データを記憶しているが、本発明は特にこれに限定されず、画像データ記憶部4は、入力部1から出力された、サブフィールドデータに変換される前のN-1フレームの画像データを記憶してもよい。第2のサブフィールド再生成部64によって再配置発光データが生成される場合、サブフィールド変換部2は、画像データ記憶部4からN-1フレームの画像データを読み出し、読み出したN-1フレームの画像データを各サブフィールドの発光データに順次変換し、サブフィールド再生成部6へ出力する。
 なお、上述した具体的実施形態には以下の構成を有する発明が主に含まれている。
 本発明の一局面に係る映像処理装置は、1フィールド又は1フレームを複数のサブフィールドに分割し、発光する発光サブフィールド及び発光しない非発光サブフィールドを組み合わせて階調表示を行うために入力画像を処理する映像処理装置であって、前記入力画像を各サブフィールドの発光データに変換するサブフィールド変換部と、時間的に前後する少なくとも2つ以上の入力画像を用いて動きベクトルを検出する動きベクトル検出部と、前記動きベクトル検出部により検出された動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更することにより、前記サブフィールド変換部により変換された各サブフィールドの発光データを空間的に再配置し、少なくとも2フレームのサブフィールドを用いて現在のフレームの各サブフィールドの再配置発光データを生成する再生成部とを備える。
 この構成によれば、入力画像が各サブフィールドの発光データに変換され、時間的に前後する少なくとも2つ以上の入力画像を用いて動きベクトルが検出される。そして、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更することにより、各サブフィールドの発光データが空間的に再配置され、少なくとも2フレームのサブフィールドを用いて現在のフレームの各サブフィールドの再配置発光データが生成される。
 したがって、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更する際に、前景画像と背景画像との境界付近で発光データが再配置されない場合があるが、少なくとも2フレームのサブフィールドを用いて現在のフレームの各サブフィールドの再配置発光データが生成されるので、発光データが再配置されなかった現在のフレームのサブフィールドに、他のフレームのサブフィールドの発光データを用いることができ、前景画像と背景画像との境界付近で発生する動画ボヤケや動画擬似輪郭をより確実に抑制することができる。
 また、上記の映像処理装置において、前記サブフィールド変換部によって変換された1フレーム前の画像データを記憶する記憶部をさらに備え、前記再生成部は、再配置されなかったサブフィールドの発光データに、前記記憶部に記憶されている1フレーム前のサブフィールドの発光データを用いることが好ましい。
 この構成によれば、1フレーム前の画像データが記憶部に記憶され、再配置されなかったサブフィールドの発光データに、記憶部に記憶されている1フレーム前の画像データのサブフィールドの発光データが用いられるので、発光データが再配置されなかった現在のフレームのサブフィールドに、1フレーム前の画像データのサブフィールドの発光データを用いることができ、前景画像と背景画像との境界付近で発生する動画ボヤケや動画擬似輪郭をより確実に抑制することができる。
 また、上記の映像処理装置において、前景画像と背景画像とが重なる画素毎に、前記前景画像及び前記背景画像のいずれであるかを表す奥行き情報を作成する奥行き情報作成部をさらに備え、前記再生成部は、前記奥行き情報作成部によって作成された前記奥行き情報に基づいて、各サブフィールドの再配置発光データを生成することが好ましい。
 この構成によれば、前景画像と背景画像とが重なる画素毎に、前景画像及び背景画像のいずれであるかを表す奥行き情報が作成され、作成された奥行き情報に基づいて、各サブフィールドの再配置発光データが生成される。
 したがって、前景画像と背景画像とが重なる場合、前景画像と背景画像とが重なる画素毎に、前景画像及び背景画像のいずれであるかを表す奥行き情報が作成されるので、当該奥行き情報に基づいて、各サブフィールドの再配置発光データを生成することにより、前景画像と背景画像との重なり部分で発生する動画ボヤケや動画擬似輪郭をより確実に抑制することができる。
 また、上記の映像処理装置において、前記奥行き情報作成部は、少なくとも2フレーム以上の動きベクトルに基づいて、前記奥行き情報を作成することが好ましい。この構成によれば、少なくとも2フレーム以上の動きベクトルに基づいて、奥行き情報を作成することができる。
 また、上記の映像処理装置において、前記再生成部は、前記前景画像と前記背景画像とが重なっている場合、前記奥行き情報作成部によって作成された前記奥行き情報で特定される前記前景画像を構成する画素について、前記動きベクトル検出部により検出された動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更することが好ましい。
 この構成によれば、前景画像と背景画像とが重なっている場合、奥行き情報で特定される前景画像を構成する画素について、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データが、移動前の画素のサブフィールドの発光データに変更されるので、前景画像の移動に応じて視聴者の視線方向がスムーズに移動することとなり、前景画像と背景画像との重なり部分で発生する動画ボヤケや動画擬似輪郭を抑制することができる。
 本発明の他の局面に係る映像表示装置は、上記のいずれかに記載の映像処理装置と、前記映像処理装置から出力される補正後の再配置発光データを用いて映像を表示する表示部とを備える。
 この映像表示装置においては、動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更する際に、前景画像と背景画像との境界付近で発光データが再配置されない場合があるが、少なくとも2フレームのサブフィールドを用いて現在のフレームの各サブフィールドの再配置発光データが生成されるので、発光データが再配置されなかった現在のフレームのサブフィールドに、他のフレームのサブフィールドの発光データを用いることができ、前景画像と背景画像との境界付近で発生する動画ボヤケや動画擬似輪郭をより確実に抑制することができる。
 なお、発明を実施するための形態の項においてなされた具体的な実施態様または実施例は、あくまでも、本発明の技術内容を明らかにするものであって、そのような具体例にのみ限定して狭義に解釈されるべきものではなく、本発明の精神と特許請求事項との範囲内で、種々変更して実施することができるものである。
 本発明に係る映像処理装置は、動画ボヤケや動画擬似輪郭をより確実に抑制することができるので、1フィールド又は1フレームを複数のサブフィールドに分割し、発光する発光サブフィールド及び発光しない非発光サブフィールドを組み合わせて階調表示を行うために入力画像を処理する映像処理装置等として有用である。

Claims (6)

  1.  1フィールド又は1フレームを複数のサブフィールドに分割し、発光する発光サブフィールド及び発光しない非発光サブフィールドを組み合わせて階調表示を行うために入力画像を処理する映像処理装置であって、
     前記入力画像を各サブフィールドの発光データに変換するサブフィールド変換部と、
     時間的に前後する少なくとも2つ以上の入力画像を用いて動きベクトルを検出する動きベクトル検出部と、
     前記動きベクトル検出部により検出された動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更することにより、前記サブフィールド変換部により変換された各サブフィールドの発光データを空間的に再配置し、少なくとも2フレームのサブフィールドを用いて現在のフレームの各サブフィールドの再配置発光データを生成する再生成部とを備えることを特徴とする映像処理装置。
  2.  前記サブフィールド変換部によって変換された1フレーム前の画像データを記憶する記憶部をさらに備え、
     前記再生成部は、再配置されなかったサブフィールドの発光データに、前記記憶部に記憶されている1フレーム前の画像データのサブフィールドの発光データを用いることを特徴とする請求項1記載の映像処理装置。
  3.  前景画像と背景画像とが重なる画素毎に、前記前景画像及び前記背景画像のいずれであるかを表す奥行き情報を作成する奥行き情報作成部をさらに備え、
     前記再生成部は、前記奥行き情報作成部によって作成された前記奥行き情報に基づいて、各サブフィールドの再配置発光データを生成することを特徴とする請求項1又は2記載の映像処理装置。
  4.  前記奥行き情報作成部は、少なくとも2フレーム以上の動きベクトルに基づいて、前記奥行き情報を作成することを特徴とする請求項3記載の映像処理装置。
  5.  前記再生成部は、前記前景画像と前記背景画像とが重なっている場合、前記奥行き情報作成部によって作成された前記奥行き情報で特定される前記前景画像を構成する画素について、前記動きベクトル検出部により検出された動きベクトルに対応する画素分だけ空間的に後方に移動した位置にある画素に対応するサブフィールドの発光データを、移動前の画素のサブフィールドの発光データに変更することを特徴とする請求項3又は4記載の映像処理装置。
  6.  請求項1~5のいずれかに記載の映像処理装置と、
     前記映像処理装置から出力される補正後の再配置発光データを用いて映像を表示する表示部とを備えることを特徴とする映像表示装置。
PCT/JP2010/000259 2009-02-04 2010-01-19 映像処理装置及び映像表示装置 WO2010089956A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP10738300.2A EP2387022A4 (en) 2009-02-04 2010-01-19 IMAGE PROCESSING DEVICE AND IMAGE DISPLAY PROCESS
US13/146,118 US20110279468A1 (en) 2009-02-04 2010-01-19 Image processing apparatus and image display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-023829 2009-02-04
JP2009023829 2009-02-04

Publications (1)

Publication Number Publication Date
WO2010089956A1 true WO2010089956A1 (ja) 2010-08-12

Family

ID=42541869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/000259 WO2010089956A1 (ja) 2009-02-04 2010-01-19 映像処理装置及び映像表示装置

Country Status (3)

Country Link
US (1) US20110279468A1 (ja)
EP (1) EP2387022A4 (ja)
WO (1) WO2010089956A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5938742B2 (ja) * 2012-03-13 2016-06-22 株式会社Joled El表示装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10282930A (ja) * 1997-04-10 1998-10-23 Fujitsu General Ltd ディスプレイ装置の動画補正方法及び動画補正回路
JP2001042819A (ja) * 1999-07-29 2001-02-16 Matsushita Electric Ind Co Ltd 階調表示方法、及び階調表示装置
JP2003503746A (ja) * 1999-06-28 2003-01-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ サブフィールド駆動型ディスプレイ
JP2008209671A (ja) 2007-02-27 2008-09-11 Hitachi Ltd 画像表示装置および画像表示方法
JP2008299272A (ja) * 2007-06-04 2008-12-11 Hitachi Ltd 画像表示装置及び方法
JP2009008738A (ja) * 2007-06-26 2009-01-15 Hitachi Ltd 表示装置及び表示方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030029649A (ko) * 2000-08-04 2003-04-14 다이나믹 디지탈 텝스 리서치 피티와이 엘티디 화상 변환 및 부호화 기술
EP1207510A1 (en) * 2000-11-18 2002-05-22 Deutsche Thomson-Brandt Gmbh Method and apparatus for processing video pictures
KR100570774B1 (ko) * 2004-08-20 2006-04-12 삼성에스디아이 주식회사 발광표시 장치의 표시 데이터용 메모리 관리 방법
TWI463874B (zh) * 2008-01-02 2014-12-01 Mstar Semiconductor Inc 產生目標影像區塊的影像處理方法及其相關裝置
JPWO2010038409A1 (ja) * 2008-09-30 2012-03-01 パナソニック株式会社 再生装置、記録媒体、及び集積回路

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10282930A (ja) * 1997-04-10 1998-10-23 Fujitsu General Ltd ディスプレイ装置の動画補正方法及び動画補正回路
JP2003503746A (ja) * 1999-06-28 2003-01-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ サブフィールド駆動型ディスプレイ
JP2001042819A (ja) * 1999-07-29 2001-02-16 Matsushita Electric Ind Co Ltd 階調表示方法、及び階調表示装置
JP2008209671A (ja) 2007-02-27 2008-09-11 Hitachi Ltd 画像表示装置および画像表示方法
JP2008299272A (ja) * 2007-06-04 2008-12-11 Hitachi Ltd 画像表示装置及び方法
JP2009008738A (ja) * 2007-06-26 2009-01-15 Hitachi Ltd 表示装置及び表示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2387022A4 *

Also Published As

Publication number Publication date
EP2387022A1 (en) 2011-11-16
US20110279468A1 (en) 2011-11-17
EP2387022A4 (en) 2013-05-29

Similar Documents

Publication Publication Date Title
KR100734455B1 (ko) 영상 표시장치
KR100595077B1 (ko) 화상표시장치및화상평가장치
JPH11231827A (ja) 画像表示装置及び画像評価装置
KR100702240B1 (ko) 디스플레이장치 및 그 제어방법
JP3758294B2 (ja) ディスプレイ装置の動画補正方法及び動画補正回路
JP4910645B2 (ja) 画像信号処理方法、画像信号処理装置、表示装置
EP1032931A1 (en) Plasma display panel drive pulse controller for preventing fluctuation in subframe location
JP2005321775A (ja) ディスプレー装置
JP2009145664A (ja) プラズマディスプレイ装置
WO2010073562A1 (ja) 映像処理装置及び映像表示装置
WO2011086877A1 (ja) 映像処理装置及び映像表示装置
JPH09258688A (ja) ディスプレイ装置
WO2005036512A1 (ja) 画像表示方法および画像表示装置
WO2010089956A1 (ja) 映像処理装置及び映像表示装置
US7474279B2 (en) Method and apparatus of driving a plasma display panel
KR100687558B1 (ko) 화상 표시 방법 및 화상 표시 장치
JP4100122B2 (ja) 画像表示装置
JP2001051641A (ja) 階調表示方法および階調表示装置
JP2008299272A (ja) 画像表示装置及び方法
WO2010073560A1 (ja) 映像処理装置及び映像表示装置
WO2010073561A1 (ja) 映像処理装置及び映像表示装置
TW200417964A (en) Display equipment and display method
JPH1124625A (ja) プラズマディスプレイ表示装置およびその駆動方法
JP3990612B2 (ja) 画像評価装置
JP3727619B2 (ja) 画像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10738300

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010738300

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13146118

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP