WO2010021180A1 - 画像信号処理装置、画像信号処理方法、画像表示装置、テレビジョン受像機、電子機器 - Google Patents

画像信号処理装置、画像信号処理方法、画像表示装置、テレビジョン受像機、電子機器 Download PDF

Info

Publication number
WO2010021180A1
WO2010021180A1 PCT/JP2009/059807 JP2009059807W WO2010021180A1 WO 2010021180 A1 WO2010021180 A1 WO 2010021180A1 JP 2009059807 W JP2009059807 W JP 2009059807W WO 2010021180 A1 WO2010021180 A1 WO 2010021180A1
Authority
WO
WIPO (PCT)
Prior art keywords
image signal
image
motion
processing
degree
Prior art date
Application number
PCT/JP2009/059807
Other languages
English (en)
French (fr)
Inventor
朋幸 石原
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN200980131663.4A priority Critical patent/CN102124511B/zh
Priority to JP2010525625A priority patent/JP5128668B2/ja
Priority to RU2011107933/07A priority patent/RU2475867C2/ru
Priority to BRPI0917272A priority patent/BRPI0917272A2/pt
Priority to EP09808116.9A priority patent/EP2323123B1/en
Priority to US12/737,710 priority patent/US8902319B2/en
Publication of WO2010021180A1 publication Critical patent/WO2010021180A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0247Flicker reduction other than flicker reduction circuits used for single beam cathode-ray tubes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/041Temperature compensation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/16Determination of a pixel data signal depending on the signal applied in the previous frame
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/18Use of a frame buffer in a display terminal, inclusive of the display panel
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • G09G3/2022Display of intermediate tones by time modulation using two or more time intervals using sub-frames
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums

Definitions

  • the present invention relates to an image signal processing device for improving moving image quality in an image display device using a hold-type display device such as a liquid crystal display device.
  • the moving image quality degradation (edge blur) in the conventional hold-type display device is such that the region of the image signal luminance level 75% moves in the horizontal direction on the background of the image signal luminance level 25%. This will be described as an example.
  • FIG. 13 shows the distribution of the luminance level of the input image signal for each pixel on one horizontal line in one screen of the image signal input in a frame at the time of image display as described above.
  • FIG. 14 shows the time transition of the display luminance distribution in the conventional hold-type display device when such an image moves in the horizontal direction.
  • an observer gazing at a screen follows a moving object with his / her eyes, and therefore recognizes an integral amount obtained by integrating the display luminance level in the direction of the arrow as a luminance level felt by the eye.
  • the luminance level obtained by integrating the luminance level at each time in the direction of the arrow and averaging the luminance level is the luminance level that the observer feels Distribution.
  • the luminance level distribution is such that it is connected by a line segment having an inclination near the boundary between the luminance level 25% region and the luminance level 75% region.
  • the width of the inclined line segment in the horizontal position direction is recognized as edge blurring, and this is a factor in the deterioration of the moving image quality of the hold type display device.
  • the simplest method for reducing the edge blur is to provide a minimum luminance level (black) display period in a part of one display frame period.
  • a minimum luminance level black
  • the state of light and darkness is repeated on the entire screen every cycle of one frame, and flicker is generated.
  • the luminance level is lowered because the minimum luminance level display period is always provided within one frame period.
  • FIG. 15 shows the distribution of the luminance level of the input image signal for each pixel on one horizontal line in one screen of the image signal input to a certain frame during image display as shown in FIG.
  • FIG. 16 shows the time transition of the display luminance distribution in the conventional hold type display device when such an image moves in the horizontal direction.
  • the luminance level obtained by integrating the luminance level at each time in the direction of the arrow and averaging the luminance level is the luminance level that the observer feels Distribution.
  • the large edge blur as described above does not occur, but the luminance level of an object that originally moves at a luminance level of 75% is greatly reduced to 44%. In other words, the moving object appears to be much darker than the original, which is also a factor in reducing the quality of the moving image.
  • Patent Document 1 As a method of reducing edge blur without causing flicker, a method as disclosed in Patent Document 1 has been proposed. As shown in FIG. 17, a virtual frame image corresponding to the temporal middle of two consecutive frames is generated by estimation and inserted between the two consecutive frames to reduce the edge blur, thereby improving the video quality. It is a method to suppress the deterioration of.
  • the input image signal of the (N-1) th frame When attention is paid to one horizontal line in the screen when an object having a luminance level of 75% moves in the horizontal direction on a background having a luminance level of 25% as shown in FIG. 2, for example, the input image signal of the (N-1) th frame.
  • the luminance level distribution is as shown in FIG. 18 (a), and the luminance level distribution of the input image signal of the Nth frame is as shown in FIG. 18 (b).
  • an area having a luminance level of 75% is the first as shown in FIG.
  • the luminance level distribution is such that it is between the (N-1) frame and the Nth frame.
  • a temporally intermediate virtual frame including an error is as shown in FIG. As indicated by an arrow, a pixel having a luminance of 25% is generated at a position where the luminance level is originally 75%.
  • Patent Document 2 discloses a technique for preventing motion blur by repeatedly displaying an image from which a high spatial frequency is removed and an emphasized image.
  • this patent document 2 since all the frame images are generated from the same input image, the relationship between the spatio-temporal and the luminance centroid for the observer who follows the display object moving on the screen is shifted. There is a problem that the distribution of the integrated luminance observed at the front end and the rear end of the object cannot be properly maintained.
  • the high spatial frequency component is removed as a positive value, there is a problem that the brightness of the emphasized frame is always high and flicker is generated on the entire surface.
  • Patent Document 1 and Patent Document 2 described above can be solved by the technique disclosed in Patent Document 3 shown below.
  • one frame period is divided into a subframe period A and a subframe period B, a blurring process is performed in the subframe period A, and an emphasis process is performed in the subframe period B.
  • a blurring process is performed in the subframe period A
  • an emphasis process is performed in the subframe period B.
  • Patent Document 3 discloses a technique of generating a blurred frame image and using the average value of the latest frame and the previous frame one frame before. Therefore, in Patent Document 3, the relationship between the spatio-temporal and the luminance centroid for the observer who follows the display moving on the screen is appropriate, and the distribution of the integrated luminance observed at the front and rear ends of the display is appropriate. Can be kept in. Further, according to Patent Document 3, the wide-area luminance of the blur frame and the emphasized frame is the same, and the entire surface flicker does not occur.
  • Patent Documents 4, 5, and 6 can be cited as techniques for suppressing flicker.
  • Patent No. 3295437 (issued on June 24, 2002)” US Published Patent Publication “US2006 / 0227249 (published on October 12, 2006)” International Patent Publication “WO2007 / 052441 Publication (May 10, 2007 International Publication)” Japanese Patent Publication “Japanese Patent Laid-Open No. 2002-351382 (published on Dec. 6, 2002)” Japanese Patent Publication “Japanese Patent Laid-Open Publication No. 2006-184896 (published July 13, 2006)” Japanese Patent Publication “JP 2007-304204 A (published on November 22, 2007)”
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide an image signal processing apparatus capable of sufficiently improving moving picture quality in an image display apparatus using a hold type display device such as a liquid crystal display device. It is to provide.
  • an image signal processing apparatus in an image display apparatus that displays an image based on an image signal of each pixel for each frame period corresponding to an image signal for one screen.
  • a motion level detection unit that detects a motion level of a video by comparing an image signal in a current frame and an image signal in a previous frame period immediately before the current frame, and one frame period Is divided into a plurality of periods including at least one subframe A period and at least one subframe B period, and the motion of the video with respect to the input image signal of each pixel in the subframe A period
  • a first image processing unit that performs a smoothing process according to the degree, and a video motion with respect to an input image signal of each pixel in the subframe B period.
  • the first And an applied motion level calculating unit that calculates an applied motion level applied to the image processing unit and / or the second image processing unit.
  • the division unit that divides one frame period into at least one subframe A period and at least one subframe B period, and the image signal for each pixel in the subframe A period.
  • a first image processing unit that performs a smoothing process in accordance with the degree of motion
  • a second image processing unit that performs an enhancement process in accordance with the degree of motion of the image for the image signal of each pixel in the subframe B period So that the difference in the image signal level between the target pixel and surrounding pixels is reduced by performing smoothing processing in one subframe period according to the degree of motion of the video, and the other subframe.
  • the first image processing unit and / or the second image processing unit is applied to the first image processing unit and / or the second image processing unit based on the video motion level in the current frame period detected by the motion level detection unit and the video motion level in the previous frame period.
  • an applied motion level calculation unit that calculates the applied motion level, smoothing processing and enhancement processing are always performed between consecutive frames.
  • smoothing processing and enhancement processing are always performed between consecutive frames.
  • flicker that is a concern when there are periodic frame periods in which smoothing processing and enhancement processing are not performed.
  • the moving image quality can be sufficiently improved.
  • a holding unit that holds the applied motion level calculated by the applied motion level calculating unit is provided, and the applied motion level calculating unit converts the applied motion level held in the holding unit to a video motion level in a previous frame period.
  • the degree of applied motion applied to the first image processing unit and / or the second image processing unit may be calculated.
  • the degree of movement can be compared and applied quickly.
  • first image processing unit and the second image processing unit may perform each process with a processing intensity corresponding to the applied motion level calculated by the applied level calculating unit.
  • the applied motion level calculation unit calculates the motion level Mc of the video in the current frame period, and the motion level held in the holding unit as Mh, and when Mc ⁇ Mh, the average and weighted average of Mc and Mh are performed.
  • the value is provided to the first image processing unit and the second image processing unit as the applied motion degree.
  • the applied motion level calculation unit sets the motion level Mc of the video in the current frame period, the motion level held in the holding unit as Mh, and when Mc ⁇ Mh, the Mc as the applied motion level.
  • the first image processing unit and the second image processing unit are provided.
  • the applied motion degree calculation unit calculates the applied motion degree in consideration of Mh, the motion degree Mc of the video in the current frame period, and the motion degree held in the holding unit. Since the smoothing process in the first image processing unit and the enhancement process in the second image processing unit can be appropriately performed in each frame, the occurrence of flicker can be further suppressed.
  • the image signal level higher than the maximum image signal level cannot be obtained even if the enhancement processing is performed.
  • the image signal level cannot be lower than the minimum image signal level, there is a problem in that enhancement processing cannot be performed and moving image quality cannot be improved.
  • the present invention proposes an image signal processing apparatus having the following configuration as a configuration for performing sufficient enhancement processing.
  • the image signal processing apparatus of the present invention is provided in an image display apparatus that displays an image based on the image signal of each pixel for each frame period corresponding to an image signal for one screen.
  • a division unit that divides one frame period into a plurality of periods including at least one subframe A period and at least one subframe B period, and an input image signal of each pixel in the subframe A period,
  • a first image processing unit that performs a smoothing process with a predetermined transition width; and a second image processing unit that performs an enhancement process on an input image signal of each pixel in the subframe B period.
  • the signal level of the image signal before the smoothing process is closer to the maximum value or the minimum value of the signal level of the image signal that can be displayed in the image display device. And characterized by applying a smoothing process at set the transition width is smaller.
  • the first image processing unit can perform the smoothing process before performing the smoothing process.
  • smoothing processing with the above-mentioned transition width set to be smaller as the signal level of the image signal is closer to the maximum value or the minimum value of the signal level of the image signal that can be displayed in the image display device, Brightness display.
  • the moving image quality can be sufficiently improved.
  • the image processing apparatus further includes a temperature detection unit that detects a temperature in the image signal processing device, and the first image processing unit decreases as the temperature detected by the temperature detection unit is lower than a preset temperature. Smoothing processing may be performed with the above-described transition width set to be.
  • the image display device that provides the image signal processing device is a liquid crystal display device whose response speed decreases as the temperature decreases, appropriate smoothing processing and enhancement processing can be performed. Improvements can be made.
  • the image signal processing apparatus is provided in an image display apparatus that displays an image based on the image signal of each pixel for each frame period corresponding to the image signal for one screen.
  • the motion level detection unit that detects the motion level of the video by comparing the image signal in the current frame and the image signal in the previous frame period immediately before the current frame, and at least one frame period, A dividing unit that divides a plurality of periods including one subframe A period and at least one subframe B period, and an input image signal of each pixel in the subframe A period according to a video motion level
  • a first image processing unit that performs smoothing processing and an input image signal of each pixel in the subframe B period according to the degree of motion of the video.
  • a first image processing unit that performs an enhancement process, a video motion level in the current frame period detected by the motion level detection unit, and a video motion level in the previous frame period.
  • an applied motion level calculation unit that calculates an applied motion level to be applied to the second image processing unit, it is possible to suppress the occurrence of flicker and to improve moving image quality.
  • FIG. 1 It is a block diagram which shows one structural example of the image display apparatus of this invention. It is a figure which shows a mode that the area
  • FIG. 7 is a diagram illustrating a result of performing smoothing processing and enhancement processing only on a frame in which the degree of motion is detected in the input image illustrated in FIG. 6. It is a figure which shows the result of having performed the smoothing process and the emphasis process in each frame in the input image shown in FIG. The figure which shows distribution of the image signal in the sub-frame A when the smoothing process is performed in consideration of the input image of the previous frame in the current frame, and the distribution of the image signal in the sub-frame B when the enhancement process is performed It is.
  • an image display device using a hold-type display device such as a liquid crystal display device that displays an image based on an image signal of each pixel for each frame period corresponding to an image signal for one screen is provided.
  • the following processing is performed on the premise of the image signal processing apparatus.
  • the image signal processing apparatus uses the (N ⁇ 1) th frame and the Nth frame, that is, two consecutive frames of image signals, for both frames.
  • a virtual sub-frame Q is generated in which the image signal level obtained by averaging the image signal levels for each pixel is used as the image signal level for each corresponding pixel.
  • one frame period is time-divided into two subframe periods having the same period length.
  • an image signal obtained by averaging (weighted average or simple average) image signals of pixels in a fixed peripheral range (reference range) including the target pixel of the virtual subframe Q is obtained.
  • the enhancement processing is performed on the average (weighted average or simple average) of the Nth frame input image signals for the pixels in the reference range including the target pixel of the virtual subframe Q. Is output, and an image signal that emphasizes the height difference of the input image signal of the target pixel is output as a subframe B image signal.
  • the image signal processing apparatus has a configuration in which averaging processing (smoothing processing) can be performed in the subframe A period and enhancement processing can be performed in the subframe B period. .
  • FIG. 1 is a schematic diagram showing an image display apparatus according to an embodiment of the present invention.
  • this image display device includes a controller LSI 100 as an image signal processing device, and this controller LSI 100 is connected to an image display unit 200 such as a liquid crystal panel, a previous frame memory 300, and a display frame memory 400. Has been configured.
  • the controller LSI 100 includes an image signal pre-conversion unit (conversion unit) 101, a previous frame memory controller 102, a time average image signal level generation unit 103, a display frame memory controller 104, a subframe A multiline memory 105, and a subframe B.
  • Multiline memory 106, subframe A image signal generation unit 107, subframe B image signal generation unit 108, data selector 109, timing controller (dividing unit) 110, basic motion level calculation unit (motion level detection unit) 111, applied motion A degree calculation unit (applied movement degree calculation unit) 112, a movement degree holding unit 113, and a temperature sensor (temperature detection unit) 114 are provided.
  • the image signal pre-conversion unit 101 performs a predetermined conversion process on an input image signal input from the outside, and outputs it. More specifically, the image signal prior conversion unit 101 converts the input image signal so that it falls within a predetermined upper limit specified value and a predetermined lower limit specified value. This conversion can be performed according to user preferences or product developer design goals. Specific aspects of the conversion process and the effect of improving the moving picture quality will be described later.
  • the timing controller 110 has a function as a division unit that divides one frame period into a plurality of periods including at least one subframe A period and at least one subframe B period. Further, the timing controller 110 generates timings of a subframe A period and a subframe B period obtained by time-dividing a 60 Hz input frame period into two.
  • the timing controller 110 controls the previous frame memory controller 102, the display frame memory controller 104, and the data selector 109.
  • the previous frame memory controller 102 (1) writes an input image signal of 60 Hz into the previous frame memory 300 and (2) one of the frames read out by the display frame memory controller 104 written in the previous frame memory 300.
  • the previous frame image signal is sequentially read out in accordance with the timing of the subframe A period and transferred to the time average image signal level generation unit 103.
  • the previous frame memory controller 102 performs the operations (1) and (2) in parallel in a time division manner.
  • the display frame memory controller 104 writes (3) an input image signal of 60 Hz to the display frame memory 400 and (4) the frame read by the previous frame memory controller 102 written in the display frame memory 400.
  • the next frame image signal is read out twice in the same frame in accordance with the timing of the subframe A period and the subframe B period, the time average image signal level generation unit 103, the subframe B multiline
  • the data is transferred to the memory 106 and the basic motion level calculation unit 111.
  • the display frame memory controller 104 performs the operations (3) and (4) in a time-sharing manner in parallel.
  • the time average image signal level generation unit 103 calculates the average value of the image signal level of the previous frame for the target pixel and the image signal level of the display frame (current frame) for the target pixel by an arithmetic circuit or software.
  • the virtual sub-frame Q having the average value as the image signal level is generated.
  • the basic motion level calculation unit 111 functions as a motion level detection unit that detects the video motion level by comparing the image signal in the current frame with the image signal in the previous frame period immediately before the current frame. . Specifically, the basic motion degree calculation unit 111 quantifies the degree of motion of the video (degree of motion) from the comparison between the image signal of the previous frame and the image signal of the current frame, and this numerical value (calculation result) Accordingly, a difference between a subframe A image signal or a subframe B image signal, which will be described later, and the pre-converted image signal for a target pixel is limited.
  • the difference between the image signals of the pixels at the same position in the previous frame and the current frame in the range (reference range) of the horizontal X pixel and vertical Y line centering on the target pixel is equal to or greater than a predetermined value.
  • the number of pixels is the degree of movement.
  • the multiplication is performed by multiplying by a larger weighting factor, and the obtained numerical value is used as the degree of motion, or the pixel movement amount (motion vector)
  • a method of estimating the amount) and determining the degree of movement can be used.
  • an image signal in a certain range area centered on a target pixel in the current frame and an image signal in a plurality of certain range areas in the previous frame are sequentially compared.
  • Estimate that the center pixel of the fixed range area in the previous frame has moved to the target pixel of the current frame with a small sum of level differences from the image signal of the fixed range area of the current frame, and move the target pixel Amount.
  • the movement amount of the target pixel that is, the absolute value of the motion vector
  • the target pixel is used as it is as the degree of movement of the pixel, or the target pixel is the center.
  • the sum of the movement amounts of the peripheral pixels is set as the degree of movement of the pixel, or the integrated value is set as the degree of movement of the pixel while performing greater weighting as it is closer to the pixel.
  • the numerical value indicating the basic motion level calculated by the basic motion level calculation unit 111 is transferred to the subsequent applied motion level calculation unit 112. Details of the applied motion degree calculation unit 112 will be described later.
  • the sub-frame A / B multi-line memories 105 and 106 hold image signals for Y lines centering on horizontal lines during display scanning.
  • the sub-frame A image signal generation unit 107 is a first image processing unit that performs a smoothing process (blurring process) on the input image signal of each pixel in the sub-frame A period according to the degree of video motion. Function.
  • the motion level of the video indicates an applied motion level calculated by an applied motion level calculation unit 112 described later.
  • the subframe A image signal generation unit 107 generates a horizontal image centered on the target pixel in the virtual subframe Q when the numerical value obtained by the applied motion degree calculation unit 112 satisfies a certain condition.
  • Image signals for X pixels and vertical Y lines are input from the multi-line memory 105 for subframe A. Thereafter, the sub-frame A image signal generation unit 107 multiplies the image signal of each pixel in the X ⁇ Y pixel range (reference range) by a weighting factor, and adds the total amount to each pixel in the reference range.
  • a value divided by the total amount of coefficients is defined as a subframe A image signal.
  • the subframe A image signal is an image signal obtained by performing a smoothing process (blurring process) on the input image signal of each pixel in the subframe A period according to the degree of motion (applied motion).
  • the weighting described above may be performed by uniformly weighting each pixel in the reference range (using the same weighting factor), or may be performed by multiplying a larger weighting factor as it is closer to the target pixel.
  • the sub-frame A image signal generation unit 107 functioning as the first image processing unit performs each process with a processing intensity corresponding to the applied motion degree calculated by the applied motion degree calculating unit 112 described later. It has become.
  • the subframe B image signal generation unit 108 uses the image signal of each pixel within the reference range centered on the target pixel for the subframe B. Input from the multiline memory 106. Thereafter, the subframe B image signal generation unit 108 performs the same calculation as that for generating the subframe A image signal on the reference range. That is, the subframe B image signal generation unit 108 has a function of smoothing the image signal, similar to the subframe A image signal generation unit 107, and the subframe A image is generated with respect to the image signal in the reference range. The same smoothing process as the signal is performed.
  • the sub-frame B image signal generation unit 108 functions as a second image processing unit that performs an enhancement process on the input image signal of each pixel in accordance with the degree of video motion in the sub-frame B period.
  • the motion level of the video indicates an applied motion level calculated by an applied motion level calculation unit 112 described later.
  • the sub-frame B image signal generation unit 108 has a display luminance of a virtual one frame period composed of the image signal subjected to the smoothing process, that is, the image signal obtained as a result of the calculation and the sub-frame B image signal.
  • the subframe B image signal for the target pixel is generated so that the time integration amount matches the luminance level when the pre-transformed image signal for the target pixel is stationary. Therefore, the sub-frame B image signal is an image signal obtained by performing enhancement processing on the input image signal of each pixel in the sub-frame B period according to the degree of video motion (applied motion level). That is, the sub-frame B image signal is determined so that the temporal integration amount of the luminance level of each pixel in one frame period matches the luminance level when the image signal after pre-conversion for the target pixel is stationary. Image signal.
  • a method of calculating from the response speed performance of the image display panel (image display unit 200) or a luminance measurement for each image signal in advance, and the input image signal and the image signal of the calculation result There is a method of providing a conversion table for outputting an appropriate subframe B image signal for each combination.
  • the sub-frame B image signal generation unit 108 functioning as the second image processing unit performs each process with a processing intensity corresponding to the applied motion degree calculated by the applied motion degree calculating unit 112 described later. It has become.
  • the data selector 109 selects a subframe A image signal or a subframe B image signal according to the current display subframe phase and transmits it to the image display unit 200.
  • the basic motion degree calculation unit 111 in order to appropriately perform the processing performed in the subframe A image signal generation unit 107 and the subframe B image signal generation unit 108 described above without degrading the moving image quality, the basic motion degree calculation unit 111.
  • an applied motion level calculation unit 112 and a motion level holding unit 113 are provided. Details of these members will be described later.
  • the luminance level distribution of the input image signal of the (N ⁇ 1) th frame is as shown in FIG. 3A
  • the luminance level distribution of the input image signal of the Nth frame is as shown in FIG. 3B.
  • the luminance level distribution on one horizontal line of the virtual subframe Q in which the intermediate value of the input image signal level after conversion of the Nth frame and the (N ⁇ 1) th frame for each pixel is the image signal level is shown in FIG. It becomes like (c) of 3.
  • an object in the screen in the case where an object having a luminance level of 75% whose area width is smaller than the movement amount in one frame period moves in a horizontal direction on a background having a luminance level of 25%. Pay attention to one horizontal line. That is, in the case where an object with a luminance level of 75% moves in the horizontal direction on a background with a luminance level of 25%, the width of the region of the object (movement) is larger than the movement amount of the moving object in one frame period. Pay attention to one horizontal line in the screen when the length in the direction is small.
  • the luminance level distribution of the input image signal of the (N ⁇ 1) th frame is as shown in FIG. 5A
  • the luminance level distribution of the input image signal of the Nth frame is as shown in FIG. 5B.
  • the luminance level distribution on one horizontal line of the virtual subframe Q composed of the image signal levels obtained by averaging the input image signals of the Nth frame and the (N ⁇ 1) th frame for each pixel is shown in FIG. c).
  • FIG. 6 shows the state of an input image when it is played back slowly by a DVD player or the like. In FIG. 6, it is assumed that slow playback is performed at 1/3 of the normal playback speed.
  • FIG. 6 (a) shows the frames of the input image in the order of (1), (2),. This is a video in which a bright rectangular block moves to the left on a dark background, but because it is played back at a slow rate of 1/3, (1) to (3) and (4) to (6) are the same image every three frames. Is entered.
  • the basic motion degree calculation unit 111 of the image processing apparatus the basic motion degree is generated in each of the frames (1), (4), and (7) in which the previous frame and the latest frame (current frame) are different.
  • the basic motion degree is zero.
  • FIG. 6B shows the change in the basic motion level calculated for pixels corresponding to the vicinity of the edge of the moving rectangular block.
  • FIG. 7 shows the distribution of image signals output by performing smoothing and emphasis processing based on the basic motion level calculated in this way, focusing on each pixel on one horizontal line on the screen. become that way. Only the two output subframes corresponding to the input frames (1) and (4) in which the basic motion degree occurs are blurred and emphasized.
  • the solid line shows the waveform when the processing is performed, and the broken line shows the waveform before the processing.
  • the basic motion degree calculation unit 111 the applied motion degree calculation unit 112, and the motion degree holding unit 113 described above are provided.
  • the applied motion level calculation unit 112 includes the first image processing unit based on the video motion level in the current frame period detected by the basic motion level detection unit 111 and the video motion level in the previous frame period. The degree of applied motion applied to the subframe A image signal generation unit 107 and / or the subframe B image signal generation unit 108 provided with the second image processing unit is calculated.
  • the applied motion level calculation unit 112 corresponds to the basic motion level calculated by the basic motion level calculation unit 111 and the previous input frame held in the motion level holding unit 113 by the previous process. Compare the motion level applied to smoothing and enhancement in the two subframes, and if the retained motion level is greater than the basic motion level, the stored motion level and the basic motion level While the average value (simple average or weighted average) is adopted as the applied motion level, when the retained motion level is equal to or smaller than the basic motion level, the basic motion level is employed as the applied motion level.
  • the subframe A image signal generation unit 107 and the subframe B image signal generation unit 108 use it for smoothing and enhancement based on the degree of applied motion determined in this way.
  • the calculated applied motion level is written in the motion level holding unit 113 in preparation for the next image display.
  • the applied motion level calculation unit 112 sets the motion level Mc of the video in the current frame period and the motion level held in the motion level holding unit 113 as Mh, and when Mc ⁇ Mh, A simple average or weighted average value of Mh is provided to the subframe A image signal generation unit 107 and the subframe B image signal generation unit 108 as an applied motion degree.
  • the applied motion degree calculation unit 112 sets the Mc as the applied motion degree when Mc ⁇ Mh, where Mh is the motion degree Mc of the video in the current frame period, and the motion degree held in the motion degree holding unit 113 is Mh.
  • Mh is the motion degree Mc of the video in the current frame period
  • Mh held in the motion degree holding unit 113 is Mh.
  • the motion level Mc of the video in the current frame period and the motion level held in the motion level holding unit 113 are simply compared with Mh.
  • the previous frame and the latest frame are different (1).
  • the retained motion level is smaller than the basic motion level, so that the basic motion level becomes the applied motion level, which is the same size as in FIG. 6B.
  • the average value is the applied motion level, which is larger than the basic motion level shown in FIG.
  • FIG. 8 shows the distribution of image signals output by performing smoothing and emphasis processing based on the basic motion level calculated in this way, focusing on each pixel on one horizontal line on the screen. become that way.
  • the solid line shows the waveform when the processing is performed
  • the broken line shows the waveform before the processing.
  • the image display device having the above configuration displays when the image signal generated by the sub-frame A image signal generation unit 107 and the image signal generated by the sub-frame B image signal generation unit 108 are continuously displayed.
  • the observer is prevented from seeing whether the luminance is excessive or insufficient.
  • FIG. 9 shows a distribution of image signals when the blur / enhancement process of the present invention is performed near the boundary between two gradation regions (image signals of the previous frame and the current frame).
  • a subframe A shows a distribution of image signals subjected to a blurring process (smoothing process) and a subframe B subjected to an enhancement process.
  • a portion where the ideal emphasis signal exceeds the maximum level that can be displayed on the image display unit (a portion indicated by a broken line) or a portion that falls below the minimum level that can be displayed on the image display unit 200 occurs.
  • the image display unit 200 has to display the image in a displayable range. In such a case, the image is originally displayed to an observer who views the image by repeating the blurred image in the subframe A. Since the time-integrated luminance is insufficient or excessive as compared with the luminance to be generated, there arises a problem that it is recognized as an illegal luminance display.
  • the subframe A image signal generation unit 107 and the subframe B image signal generation unit 108 It is conceivable to limit the transition width from the signal received from the previous stage.
  • the signal level of the image signal before the smoothing process is the signal level of the image signal that can be displayed on the image display unit 200.
  • the smoothing process is performed with a transition width set to be smaller as the value approaches the maximum value or the minimum value.
  • image signal enhancement processing As a method of image signal enhancement processing, first, smoothing processing similar to that performed in the subframe A image signal generation unit 107 is performed inside the subframe B image signal generation unit 108, and together with the image signal obtained there, There is a method of selecting an image signal whose time-integrated luminance when alternately displayed repeatedly on the image display unit matches the original luminance for the target pixel and outputting it as an enhancement signal.
  • the setting of the transition width restriction similar to the transition width restriction set for the smoothing process in the subframe A image signal generation unit 107 is set to the subframe B image signal generation.
  • the image signal obtained by the sub-frame A image signal generation unit 107 and the image signal obtained by the sub-frame B image signal generation unit 108 are also performed by the smoothing process that is first performed inside the unit 108. It is possible to match the time-integrated luminance when repeatedly displaying with the original luminance of the target pixel. However, in order to reduce the cost of the control circuit unit, a certain effect can be obtained even if the transition width is limited only in the subframe A image signal generation unit 107.
  • the image signal received from the previous stage is displayed as Ls
  • the maximum level that can be displayed on the image display unit 200 is displayed as Lmax
  • the image display unit 200 displays it.
  • the minimum possible level is Lmin
  • the limit of the transition width by the smoothing process is W
  • the transition width is limited to a range of W that satisfies the following expression (1).
  • W min (C0 +
  • min (X, Y) is a function for selecting the smaller one of X and Y
  • C0 and C1 are constant values of the limit width
  • K0 and K1 are the minimum level, the maximum level, and the original signal value, respectively. Is a proportional coefficient of the limit width with respect to the difference.
  • FIG. 11 shows an image signal obtained by such a method.
  • the broken line indicates the waveform of the smoothed image signal before limiting the transition width. That is, it can be seen that the image signal obtained by the present embodiment is limited in the transition width at the horizontal pixel positions X and Y in the subframe A.
  • the transition width of the image signal in the subframe A is limited, even if the image signal in the subframe B is within the range of the maximum level and the minimum level at which an image can be displayed, the time integration luminance is greatly insufficient. It is possible to avoid the problem of being recognized as an illegal luminance display without being over or over.
  • the image display unit 200 when the image display unit 200 is configured by a liquid crystal display panel, if the temperature inside the device decreases, the response of the liquid crystal deteriorates, and the same smoothing processing and enhancement processing as before are performed. In this case, an error from the original display luminance becomes large, which causes deterioration of image quality.
  • the controller LSI 100 shown in FIG. 1 includes a temperature sensor (temperature detection unit) 114 therein, and the temperature data detected by the temperature sensor 114 is subframe A image signal generation unit 107 and subframe B image signal generation unit. The data is output to 108.
  • a temperature sensor temperature detection unit
  • the image display device of the present invention can be configured as a liquid crystal television receiver 15, for example, as shown in FIG. That is, a configuration is provided in which an image receiving unit 14 is provided that receives a television broadcast by selecting a channel as a tuner unit and inputs a video signal indicating a video transmitted by the television broadcast to the controller LSI 100 as an input image signal. can do.
  • the image display unit 200 includes a liquid crystal panel, and can be configured to display an image based on an output image signal sent from the controller LSI 100 based on the video signal.
  • the image display device and the image display method of the present invention are liquid crystal, organic EL, electronic paper, and an image display module to which a display device for holding mode display is applied, and moving image display compatible devices. It can be used for electronic devices such as TVs, PC monitors, DVD players with monitors, game machines, car navigation systems, portable video players, and mobile phones.
  • Controller LSI 101 Image signal pre-conversion unit 102 Previous frame memory controller 103 Time average image signal level generation unit 104 Display frame memory controller 105 Multiline memory for subframe A 106 Multiline memory for subframe B 107 Subframe A image signal generation unit (first 1 image processing unit) 108 Subframe B image signal generation unit (second image processing unit) 109 Data selector 110 Timing controller (dividing unit) 111 Basic motion level calculation unit (motion level detection unit) 112 Applied motion level calculation unit (applied motion level detection unit) 113 Movement degree holding unit 114 Temperature sensor (temperature detection unit) 200 Image display unit 300 Previous frame memory 400 Display frame memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Liquid Crystal (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Picture Signal Circuits (AREA)

Abstract

 本発明の画像信号処理装置は、映像の動き度合いを検出する基本動き度合い計算部(111)と、一つのフレーム期間を、サブフレームAおよびB期間とを含んだ複数の期間に分けるタイミングコントローラ(110)と、上記サブフレームA期間において各画素の入力画像信号に対して、映像の動き度合いに応じて平滑化処理を施すサブフレームA画像信号生成部(107)と、上記サブフレームB期間において各画素の入力画像信号に対して、映像の動き度合いに応じて強調処理を施すサブフレームB画像信号生成部108と、現フレーム期間における映像の動き度合いと、前フレーム期間における映像の動き度合いとから、上記サブフレームA画像信号生成部(107)及び/または上記サブフレームB画像信号生成部(108)に適用する適用動き度合いを算出する適用動き度合い計算部(112)とを備えている。

Description

画像信号処理装置、画像信号処理方法、画像表示装置、テレビジョン受像機、電子機器
 本発明は、液晶表示装置などホールド型表示装置を使用した画像表示装置における動画品質を向上させるための画像信号処理装置に関する。
 従来、液晶表示装置などホールド型表示装置を使用した画像表示装置においては動画品質の劣化(エッジぼけ)が発生するという問題点がある。
 従来のホールド型表示装置における動画品質の劣化(エッジぼけ)について、図2に示すように画像信号の輝度レベル25%の背景上を画像信号の輝度レベル75%の領域が水平方向に動く場合を例として説明する。
 図13は上記のような画像表示の際にあるフレームに入力された画像信号1画面内の1水平ライン上各画素に対する入力画像信号の輝度レベルの分布である。
 このような画像が水平方向に動くときの従来のホールド型表示装置における表示輝度分布の時間推移を図14に示す。一般に画面を注視する観察者は水平に動く物体を目で追うため、矢印の方向に表示輝度レベルを積分した積分量を目で感じる輝度レベルとして認知する。
 物体(輝度レベル75%の領域)の動く速度が8ピクセル/フレームの場合に矢印の方向に各時間における輝度レベルを積算して平均した値が輝度レベルの積分量として観察者の目で感じる輝度の分布となる。上述の輝度レベルの分布をグラフ化した場合、輝度レベル25%の領域と輝度レベル75%の領域の境界付近において傾斜をもった線分で接続されるような輝度レベルの分布になっており、この傾斜を持った線分の水平位置方向の幅がエッジぼけとして認知され、これがホールド型表示装置の動画品質低下の要因である。
 上記エッジぼけを軽減する最も単純な方法としては、表示1フレーム期間の一部に最小輝度レベル(黒)表示期間を設ける方法がある。しかしながらこのような方法では、1フレームの周期毎に画面全体で明暗の状態を繰り返すことになり、フリッカを発生することになる。また入力画像信号が最大の場合においても1フレーム期間内にかならず最小輝度レベル表示期間を有するため、輝度レベルが低下するという問題もある。
 また、図4に示すような、輝度レベル25%の背景上における1フレーム期間の移動量よりも、輝度レベル75%の領域の幅の小さい場合について説明する。
 図15は図4に示すような画像表示の際にあるフレームに入力された画像信号1画面内の1水平ライン上各画素に対する入力画像信号の輝度レベルの分布である。このような画像が水平方向に動くときの従来のホールド型表示装置における表示輝度分布の時間推移を図16に示す。
 物体(輝度レベル75%の領域)の動く速度が8ピクセル/フレームの場合に矢印の方向に各時間における輝度レベルを積算して平均した値が輝度レベルの積分量として観察者の目で感じる輝度の分布となる。
 図17に示すように、上述ような大きなエッジぼけは発生しない反面、本来輝度レベル75%で動く物体の輝度レベルが44%に大きく輝度が低下している。つまり、動く物体が本来よりもかなり暗く見えるという事であり、これも動画品質の低下要因となっている。
 また、上述の例とは逆に背景の輝度レベルが高く、移動する領域の輝度レベルが低い場合にも同様の理由により動く領域の輝度が上昇して見えてしまう現象があり、動画品質の低下要因となる。
 フリッカを発生せずにエッジぼけを軽減する方法としては、特許文献1のような方法が提案されている。これは、図17に示すように、連続する2フレームの時間的中間にあたる仮想フレーム画像を推定して生成し、連続する2つのフレームの間に挿入することで上記エッジぼけを軽減し、動画品質の劣化を抑える方法である。
 しかしながら、特許文献1のような方法においては2つのフレーム間の画像信号を完全に正確に推定することは難しく、推定ミスによるエラーを発生する可能性がある。
 図2のような輝度レベル25%の背景上を輝度レベル75%の物体が水平方向に移動する場合の画面内の1水平ラインについて注目すると、例えば第(N-1)フレームの入力画像信号の輝度レベル分布は図18の(a)、第Nフレームの入力画像信号の輝度レベル分布は図18の(b)のようになる。このとき、第(N-1)フレームと第Nフレームの時間的中間の仮想フレームが正確に推定して生成できた場合、図18の(c)のように、輝度レベル75%の領域が第(N-1)フレームと第Nフレームの中間にくるような輝度レベル分布となる。ところが2つのフレーム間の画像信号を完全に正確に推定することは難しく、推定ミスによるエラーを発生することがある。エラーを含んだ時間的中間の仮想フレームは例えば図18の(d)のようになる。矢印で示すように本来輝度レベル75%の位置に輝度25%の画素が発生している。
 一方、特許文献2には、高空間周波数を取り除いた画像と、強調した画像を繰り返し表示することにより、動きぼけを防止するという技術が開示されている。しかしながら、この特許文献2では、いずれのフレーム画像も同一の入力画像から生成しているため、画面上を動く表示物を目で追う観察者に対する時空間と輝度重心の関係がずれるために、表示物の前端と後端とで観測される積分輝度の分布を適切に保つことができないという問題がある。また、高空間周波数成分を正値で取り除いているため、強調フレームの輝度が常に高く、全面フリッカを発生する、という問題もある。
 上記の特許文献1および特許文献2が有する問題は、次に示す特許文献3に開示された技術によって解決することができる。
 本発明者による、特許文献3では、一つのフレーム期間を、サブフレーム期間Aとサブフレーム期間Bとに分け、サブフレーム期間Aにおいてぼかし処理を行ない、サブフレーム期間Bにおいて強調処理を行なうことにより、動画品質の向上を図り、上記特許文献1の課題の解決を図っている。
 さらに、特許文献3では、ぼかしフレーム画像を生成し、最新フレームと1フレーム前の前フレームとの平均値を用いるという技術を開示している。従って、特許文献3では、画面上を動く表示物を目で追う観察者に対する時空間と輝度重心の関係が適正になり、表示物の前端と後端とで観察される積分輝度の分布を適正に保つことができる。さらに、特許文献3によれば、ぼかしフレームと強調フレームとの広域輝度が同じであり、全面フリッカを発生しない。
 上記の特許文献3以外にも、フリッカを抑制する技術としては、特許文献4,5,6等を挙げることができる。
日本国特許公報「特許第3295437号公報(2002年6月24日 発行)」 米国公開特許公報「US2006/0227249号(2006年10月12日 公開)」 国際公開特許公報「WO2007/052441号公報(2007年5月10日 国際公開)」 日本国公開特許公報「特開2002-351382号公報(2002年12月6日 公開)」 日本国公開特許公報「特開2006-184896号公報(2006年7月13日 公開)」 日本国公開特許公報「特開2007-304204号公報(2007年11月22日 公開)」
 ところが、特許文献3~6に開示された技術では、フリッカの発生を抑制することが可能であるものの、以下に示すような問題が生じる。
 すなわち、強調処理を行なう際に、もともと外部から入力される強調処理前の入力画像信号が表示し得る最小の画像信号レベル、または、最大の画像信号レベルに近い場合には、それ以上の強調ができないので、十分な強調処理ができずに、本来表示されるべき輝度と比較して時間積分輝度が不足したりオーバーしたりしてしまうために、不正な輝度表示として認識され、動画品質を低下させるという問題が生じる。
 従って、従来の何れの技術をもってしても、動画品質を十分に改善し得るものではない。
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、液晶表示装置などホールド型表示装置を使用した画像表示装置において、動画品質を十分に改善し得る画像信号処理装置を提供することにある。
 本発明に係る画像信号処理装置は、上記課題を解決するために、一画面分の画像信号に対応するフレーム期間ごとに、各画素の画像信号に基づいて画像を表示する画像表示装置に備えられ画像信号処理装置において、現フレームにおける画像信号と、該現フレームの一つ前の前フレーム期間における画像信号とを比較することにより映像の動き度合いを検出する動き度合い検出部と、一つのフレーム期間を、少なくとも一つのサブフレームA期間と、少なくとも一つのサブフレームB期間とを含んだ複数の期間に分ける分割部と、上記サブフレームA期間において各画素の入力画像信号に対して、映像の動き度合いに応じて平滑化処理を施す第1の画像処理部と、上記サブフレームB期間において各画素の入力画像信号に対して、映像の動き度合いに応じて強調処理を施す第2の画像処理部と、上記動き度合い検出部によって検出された現フレーム期間における映像の動き度合いと、前フレーム期間における映像の動き度合いとから、上記第1の画像処理部及び/または上記第2の画像処理部に適用する適用動き度合いを算出する適用動き度合い算出部とを備えていることを特徴としている。
 上記の構成によれば、一つのフレーム期間を少なくとも一つのサブフレームA期間と少なくとも一つのサブフレームB期間とに分ける分割部と、上記サブフレームA期間において各画素の画像信号に対し、映像の動き度合いに応じて平滑化処理を施す第1の画像処理部と、上記サブフレームB期間において各画素の画像信号に対し、映像の動き度合いに応じて強調処理を施す第2の画像処理部とを備えていることで、映像の動き度合いに応じて、一方のサブフレーム期間において平滑化処理を行なうことにより目的の画素と周辺の画素との画像信号レベルの差を小さくし、他方のサブフレーム期間において強調処理を行なうことにより目的の画素と周辺の画素との画像信号レベルの差を大きくしたりできる。
 しかも、動き度合い検出部によって検出された現フレーム期間における映像の動き度合いと、前フレーム期間における映像の動き度合いとから、上記第1の画像処理部及び/または上記第2の画像処理部に適用する適用動き度合いを算出する適用動き度合い算出部を備えることにより、連続したフレーム間において、常に、平滑化処理及び強調処理が行われることになるので、スロー再生時等、複数フレームの静止画像を周期的に表示する場合のように、平滑化処理および強調処理が行われないフレーム期間が周期的に存在する場合において懸念されるフリッカの発生を抑制することができる。
 従って、以上の構成によれば、動画品質を十分に改善することができるという効果を奏する。
 また、上記適用動き度合い算出部によって算出された適用動き度合いを保持する保持部を備え、上記適用動き度合い算出部は、上記保持部に保持された適用動き度合いを前フレーム期間における映像の動き度合いとして、上記第1の画像処理部及び/または上記第2の画像処理部に適用する適用動き度合いを算出するようにしてもよい。
 この場合、装置の内容に上記の保持部を持っているので、動き度合いの比較および適用処理を迅速に行うことができる。
 さらに、上記第1の画像処理部及び上記第2の画像処理部は、上記適用度合い算出部によって算出された適用動き度合いに応じた処理強度で各処理を施すようにしてもよい。
 具体的には、以下のような処理を行う。
 上記適用動き度合い算出部は、現フレーム期間における映像の動き度合いMc、上記保持部に保持されている動き度合いをMhとして、Mc<Mhのとき、上記Mcと上記Mhの単純平均もしくは加重平均した値を適用動き度合いとして、上記第1の画像処理部及び上記第2の画像処理部に提供する。
 また、上記適用動き度合い算出部は、現フレーム期間における映像の動き度合いMc、上記保持部に保持されている動き度合いをMhとして、Mc≧Mhのとき、上記Mcを適用動き度合いとして、上記第1の画像処理部及び上記第2の画像処理部に提供する。
 以上のように、適用動き度合い算出部において、現フレーム期間における映像の動き度合いMc、上記保持部に保持されている動き度合いをMhを考慮して、適用動き度合いを算出することにより、上記第1の画像処理部における平滑化処理および第2の画像処理部における強調処理が各フレームにおいて適切に行えるので、フリッカの発生をさらに抑制することが可能となる。
 ところで、入力される入力画像信号が最大の画像信号レベルまたは最小の画像信号レベルに近い場合に、強調処理を施そうとしても、最大の画像信号レベルよりも高い画像信号レベルにすることができず、かつ、最小の画像信号レベルよりも小さい画像信号レベルにすることができないので、強調処理ができず、動画品質の改善を行なうことができない、という問題がある。
 これに対して、本発明では、十分に強調処理を行うための構成として、以下の構成の画像信号処理装置を提案する。
 すなわち、本発明の画像信号処理装置は、一画面分の画像信号に対応するフレーム期間ごとに、各画素の画像信号に基づいて画像を表示する画像表示装置に備えられ画像信号処理装置において、一つのフレーム期間を、少なくとも一つのサブフレームA期間と、少なくとも一つのサブフレームB期間とを含んだ複数の期間に分ける分割部と、上記サブフレームA期間において各画素の入力画像信号に対して、所定の変移幅で平滑化処理を施す第1の画像処理部と、上記サブフレームB期間において各画素の入力画像信号に対して強調処理を施す第2の画像処理部とを備え、上記第1の画像処理部は、平滑化処理を施す前の画像信号の信号レベルが、上記画像表示装置における表示可能な画像信号の信号レベルの最大値または最小値に近い程、小さくなるように設定された上記変移幅で平滑化処理を施すことを特徴とする。
 これにより、第2の画像処理部において画像信号の信号レベルが大きすぎたり、小さすぎたりして十分に強調できない場合であっても、第1の画像処理部は、平滑化処理を施す前の画像信号の信号レベルが、上記画像表示装置における表示可能な画像信号の信号レベルの最大値または最小値に近い程、小さくなるように設定された上記変移幅で平滑化処理を施すことにより、適切な輝度表示にすることができる。
 従って、以上の構成によれば、動画品質を十分に改善することができるという効果を奏する。
 また、画像信号処理装置内の温度を検出する温度検出部をさらに備え、上記第1の画像処理部は、上記温度検出部により検出された温度が、予め設定した設定温度よりも低い程、小さくなるように設定された上記変移幅で平滑化処理を施すようにしてもよい。
 これにより、画像信号処理装置を提供する画像表示装置が、温度低下に伴って応答速度が低下する液晶表示装置であっても適切な平滑化処理および強調処理を施すことができるので、動画品質の向上を図ることができる。
 本発明に係る画像信号処理装置は、以上のように、一画面分の画像信号に対応するフレーム期間ごとに、各画素の画像信号に基づいて画像を表示する画像表示装置に備えられ画像信号処理装置において、現フレームにおける画像信号と、該現フレームの一つ前の前フレーム期間における画像信号とを比較することにより映像の動き度合いを検出する動き度合い検出部と、一つのフレーム期間を、少なくとも一つのサブフレームA期間と、少なくとも一つのサブフレームB期間とを含んだ複数の期間に分ける分割部と、上記サブフレームA期間において各画素の入力画像信号に対して、映像の動き度合いに応じて平滑化処理を施す第1の画像処理部と、上記サブフレームB期間において各画素の入力画像信号に対して、映像の動き度合いに応じて強調処理を施す第2の画像処理部と、上記動き度合い検出部によって検出された現フレーム期間における映像の動き度合いと、前フレーム期間における映像の動き度合いとから、上記第1の画像処理部及び/または上記第2の画像処理部に適用する適用動き度合いを算出する適用動き度合い算出部とを備えていることで、フリッカの発生を抑制し、動画品質を向上させるという効果を奏する。
本発明の画像表示装置の一構成例を示すブロック図である。 画像信号の輝度レベル25%の背景上を画像信号の輝度レベル75%の領域が水平方向に動く様子を示す図である。 各フレームにおける、各水平画素位置の輝度レベルを示す図である。 画像信号の輝度レベル25%の背景上を画像信号の輝度レベル75%の領域が水平方向に動く様子を示しており、輝度レベル25%の背景上における1フレーム期間の移動量よりも輝度レベル75%の領域の幅の小さい場合について示す図である。 各フレームにおける、各水平画素位置の輝度レベルを示す図である。 画像表示装置においてスロー再生された場合の入力画像の状態を示す図である。 図6に示す入力画像において、動き度合いが検出されたフレームのみが平滑化処理と強調処理とを行った結果を示す図である。 図6に示す入力画像において、各フレームにおいて平滑化処理と強調処理とを行った結果を示す図である。 現フレームにおいて、前フレームの入力画像を考慮して平滑化処理を行った場合のサブフレームAにおける画像信号の分布と、強調処理を行った場合のサブフレームBにおける画像信号の分布とを示す図である。 理想的な強調処理を行った場合の画像信号レベルと、画像表示部で表示可能な最大レベルおよび最小レベルとの関係を説明する図である。 本発明による平滑化処理を施した場合のサブフレームAおよびサブフレームBにおける画像信号の分布を示す図である。 液晶テレビジョン受像機として動作する画像表示装置の一構成例を示すブロック図である。 各水平画素位置の輝度レベルを示す図である。 画像が水平方向に動く場合の表示輝度分布の時間推移を示す図である。 各水平画素位置の輝度レベルを示す図である。 画像が水平方向に動く場合の表示輝度分布の時間推移を示す図である。 画像が水平方向に動く場合の表示輝度分布の時間推移を示す図である。 各フレームにおける、各水平画素位置の輝度レベルを示す図である。
 本発明の一実施の形態について説明すれば、以下の通りである。
〔実施の形態〕
 本実施の形態では、一画面分の画像信号に対応するフレーム期間ごとに、各画素の画像信号に基づいて画像を表示する液晶表示装置などのホールド型表示装置を使用した画像表示装置に備えられた画像信号処理装置を前提として、以下の処理を行うことを特徴としている。
 すなわち、本実施の形態に係る画像信号処理装置は、第Nフレームの表示を行なう場合に、第(N-1)フレームと第Nフレーム、つまり、連続する2フレームの画像信号から、両フレームの各画素に対する画像信号レベルを平均した画像信号レベルを対応する各画素の画像信号レベルとする仮想サブフレームQを生成する。
 また、1フレーム期間を、期間長の等しい2つのサブフレーム期間に時分割する。
 時分割した一方のサブフレームA期間においては、仮想サブフレームQの目的の画素を含む周辺一定範囲(参照範囲)内の画素の画像信号を平均(加重平均、または、単純平均)した画像信号をサブフレームA画像信号として出力する。
 一方、他方のサブフレームB期間においては、仮想サブフレームQの目的の画素を含む参照範囲内の画素に対する第Nフレーム入力画像信号の平均(加重平均、または、単純平均)に対して、強調処理を行った画像信号を出力して、目的の画素の入力画像信号の高低差を強調する画像信号をサブフレームB画像信号として出力する。
 端的に言えば、本実施の形態に係る画像信号処理装置では、サブフレームA期間において平均化処理(平滑化処理)を行ない、サブフレームB期間において強調処理を行なうことができる構成となっている。
 図1は、本発明の実施の形態の画像表示装置を示す概略図である。
 この画像表示装置は、同図に示すように、画像信号処理装置としてのコントローラLSI100を備え、このコントローラLSI100が、液晶パネルなどの画像表示部200、前フレームメモリ300、および表示フレームメモリ400と接続されて構成されている。
 上記コントローラLSI100は、画像信号事前変換部(変換部)101、前フレームメモリコントローラ102、時間平均画像信号レベル生成部103、表示フレームメモリコントローラ104、サブフレームA用マルチラインメモリ105、サブフレームB用マルチラインメモリ106、サブフレームA画像信号生成部107、サブフレームB画像信号生成部108、データセレクタ109、タイミングコントローラ(分割部)110、基本動き度合い計算部(動き度合い検出部)111、適用動き度合い計算部(適用動き度合い算出部)112、動き度合い保持部113、および温度センサ(温度検出部)114を備えている。
 上記画像信号事前変換部101は、外部から入力される入力画像信号に所定の変換処理を施し、出力する。より具体的には、画像信号事前変換部101は、入力画像信号が、所定の上限規定値と所定の下限規定値との間に収まるように変換する。この変換は、ユーザーの好みもしくは製品開発者の設計目標に応じて行なうことができる。具体的な変換処理の態様、およびこれによる動画品質向上の効果については、後述する。
 上記タイミングコントローラ110は、一つのフレーム期間を、少なくとも一つのサブフレームA期間と、少なくとも一つのサブフレームB期間とを含んだ複数の期間に分ける分割部としての機能を有している。さらに、上記タイミングコントローラ110は、60Hzの入力フレーム期間を2つに時分割したサブフレームA期間およびサブフレームB期間のタイミングを生成する。
 また、上記タイミングコントローラ110は、前フレームメモリコントローラ102、表示フレームメモリコントローラ104、およびデータセレクタ109とを制御する。
 上記前フレームメモリコントローラ102は、(1)60Hzの入力画像信号を前フレームメモリ300に書き込むとともに、(2)前フレームメモリ300に書き込まれている、表示フレームメモリコントローラ104が読みだすフレームの1つ前のフレーム画像信号を、サブフレームA期間のタイミングに合わせて順次読出し、時間平均画像信号レベル生成部103へ転送する。前フレームメモリコントローラ102は、以上(1)(2)の動作を時分割で並行に行なう。
 上記表示フレームメモリコントローラ104は、(3)60Hzの入力画像信号を表示フレームメモリ400に書き込むとともに、(4)表示フレームメモリ400に書き込こまれている、前フレームメモリコントローラ102が読みだすフレームの1つ後のフレーム画像信号を、サブフレームA期間およびサブフレームB期間のタイミングに合わせて、同一フレームの画像信号を2周づつ読み出し、時間平均画像信号レベル生成部103、サブフレームB用マルチラインメモリ106、および基本動き度合い計算部111へ転送する。表示フレームメモリコントローラ104は、以上(3)(4)の動作を時分割で並行に行なう。
 上記時間平均画像信号レベル生成部103は、目的の画素に対する前フレームの画像信号レベルと、この目的の画素に対する表示フレーム(現フレーム)の画像信号レベルの平均値を、演算回路やソフトウェアによって演算し、この平均値を画像信号レベルとする仮想サブフレームQを生成するものである。
 上記基本動き度合い計算部111は、現フレームにおける画像信号と、該現フレームの一つ前の前フレーム期間における画像信号とを比較することにより映像の動き度合いを検出する動き度合い検出部として機能する。具体的には、上記基本動き度合い計算部111は、前フレームの画像信号と、現フレームの画像信号と、の比較から映像の動き度合い(動きの度合い)を数値化し、この数値(計算結果)に応じて、後述するサブフレームA画像信号あるいは、サブフレームB画像信号と、目的の画素に対する前記事前変換された画像信号との差を制限するようになっている。
 具体的には、目的の画素を中心とする水平Xピクセル、垂直Yラインの範囲(参照範囲)の、前フレームと現フレームとにおける同位置の画素の画像信号の差があらかじめ定めた所定値以上である画素数を動き度合いとしている。その他、水平、垂直の各々方向について目的の画素から参照する画素までの距離が近いほど、大きな重み係数を掛けて積算し、得られた数値を動き度合いとする方法や、画素移動量(動きベクトル量)を推定して動き度合いとする方法などを用いることができる。
 上記画素移動量を推定する方法としては、例えば、現フレームにおいて目的の画素を中心とする一定範囲領域の画像信号と、前フレーム内の複数の一定範囲領域の画像信号とを順次比較してゆき、現フレームの一定範囲領域の画像信号とのレベル差の総和が少ない前フレーム内の一定範囲領域の中心画素が、現フレームの目的の画素へ移動したものと推定しこれを目的の画素の移動量とする。各画素について、このような移動量の推定を行った後、目的の画素の移動量(即ち動きベクトルの絶対値)をそのまま当該画素の動き度合とするか、もしくは、目的の画素を中心とする周辺画素の移動量の総和を当該画素の動き度合いとするか、もしくは、当該画素に近いほど大きな重みづけを行ないつつ、積算した値を当該画素の動き度合いとする。当該画素のみでなく周辺画素の移動量も積算する方法により、少々の異常なベクトル検出が発生しても適正な信号処理が行える半面、制御部のコスト増加を伴う。
 そして、上記基本動き度合い計算部111によって算出された基本動き度合いを示す数値は、後段の適用動き度合い計算部112に転送される。この適用動き度合い計算部112についての詳細は後述する。
 また、上記サブフレームA/B用マルチラインメモリ105・106は、表示走査中の水平ラインを中心にYライン分の画像信号を保持しておく。
 上記サブフレームA画像信号生成部107は、上記サブフレームA期間において各画素の入力画像信号に対して、映像の動き度合いに応じて平滑化処理(ぼかし処理)を施す第1の画像処理部として機能する。ここでの映像の動き度合いとは、後述する適用動き度合い計算部112によって算出された適用動き度合いを示す。
 具体的には、上記サブフレームA画像信号生成部107は、上記適用動き度合い計算部112によって求めた数値が、ある条件を満たした場合、仮想サブフレームQ内における目的の画素を中心とする水平Xピクセル、垂直Yライン分の画像信号をサブフレームA用マルチラインメモリ105より入力する。その後、サブフレームA画像信号生成部107は、X×Yピクセル範囲(参照範囲)内の各画素の画像信号に、重み係数を掛けて積算し、積算の総量を参照範囲内の各画素に対する重み係数の総量で割った値を、サブフレームA画像信号とする。つまり、サブフレームA画像信号は、サブフレームA期間において各画素の入力画像信号に対して、映像の動き度合い(適用動き度合い)に応じて平滑化処理(ぼかし処理)を施した画像信号となる。なお、上記の重みづけは、参照範囲の各画素の重みづけを一律として(同じ重み係数を用いて)行ってもよいし、目的の画素に近いほど大きい重み係数を掛けて行ってもよい。
 従って、上記第1の画像処理部として機能するサブフレームA画像信号生成部107は、後述する上記適用動き度合い算出部112によって算出された適用動き度合いに応じた処理強度で各処理を施すようになっている。
 サブフレームB画像信号生成部108は、適用動き度合い計算部112によって求めた数値がある条件を満たした場合、目的の画素を中心とする参照範囲内の各画素の画像信号を、サブフレームB用マルチラインメモリ106より入力する。その後、サブフレームB画像信号生成部108は、参照範囲に対して、サブフレームA画像信号を生成するのと同様の演算を行なう。つまり、サブフレームB画像信号生成部108は、サブフレームA画像信号生成部107と同様に、画像信号を平滑化する機能を有しており、参照範囲における画像信号に対して、サブフレームA画像信号と同様の平滑化処理を行う。
 次に、サブフレームB画像信号生成部108は、上記サブフレームB期間において各画素の入力画像信号に対して、映像の動き度合いに応じて強調処理を施す第2の画像処理部として機能する。ここでの映像の動き度合いとは、後述する適用動き度合い計算部112によって算出された適用動き度合いを示す。
 具体的には、上記サブフレームB画像信号生成部108は、上記平滑化処理が施された画像信号、すなわち演算結果の画像信号と、サブフレームB画像信号からなる仮想1フレーム期間の表示輝度の時間積分量が、目的の画素に対する事前変換された画像信号で静止している場合の輝度レベルに一致するように、目的の画素に対するサブフレームB画像信号を生成する。従って、サブフレームB画像信号は、サブフレームB期間において各画素の入力画像信号に対して、映像の動き度合い(適用動き度合い)に応じて強調処理を施した画像信号となる。つまり、サブフレームB画像信号は、1フレーム期間における各画素の輝度レベルの時間積分量が、目的の画素に対する事前変換後の画像信号で静止している場合の輝度レベルに一致するように、定めた画像信号である。
 具体的には、画像表示パネル(画像表示部200)の応答速度性能から演算により算出する方法や、あらかじめ各画像信号に対する輝度測定を行ない、入力画像信号と、上記演算結果の画像信号と、の各組み合わせに対して適正なサブフレームB画像信号を出力するような変換テーブルを備えておく方法などがある。
 従って、上記第2の画像処理部として機能するサブフレームB画像信号生成部108は、後述する上記適用動き度合い算出部112によって算出された適用動き度合いに応じた処理強度で各処理を施すようになっている。
 上記データセレクタ109は、現在の表示サブフレームフェイズに応じてサブフレームA画像信号もしくはサブフレームB画像信号を選択して、画像表示部200へ伝送する。
 ここで、本発明においては、上述したサブフレームA画像信号生成部107およびサブフレームB画像信号生成部108において行う処理を動画品質を低下させることなく適切に行うために、基本動き度合い計算部111のほかに、適用動き度合い計算部112および動き度合い保持部113を備えている。これら部材の詳細については後述する。
 ここで、上記構成の画像表示装置における動画表示時の水平画素位置と輝度レベルとの関係について以下に簡単に説明する。
 図2に示すように、輝度レベル25%の背景上を、1フレーム期間の移動量よりも領域の幅が大きい輝度レベル75%の物体が水平方向に移動する場合の画面内の1水平ラインに注目する。すなわち、輝度レベル25%の背景上を、輝度レベル75%の物体が水平方向に移動する場合であって、移動する上記物体の1フレーム期間での移動量よりも当該物体の領域の幅(移動方向への長さ)が大きいときの画面内の1水平ラインに注目する。
 そうすると、例えば、第(N-1)フレームの入力画像信号の輝度レベル分布は、図3の(a)、第Nフレームの入力画像信号の輝度レベル分布は、図3の(b)のようになる。このとき、各画素に対する第Nフレームと第(N-1)フレームの変換後の入力画像信号レベルの中間値を画像信号レベルとする仮想サブフレームQの1水平ライン上の輝度レベル分布は、図3の(c)のようになる。
 次に、図4に示すような、輝度レベルが25%の背景上を、1フレーム期間の移動量よりも領域の幅の小さい輝度レベル75%の物体が水平方向に移動する場合の画面内の1水平ラインに注目する。すなわち、輝度レベル25%の背景上を、輝度レベル75%の物体が水平方向に移動する場合であって、移動する上記物体の1フレーム期間での移動量よりも当該物体の領域の幅(移動方向への長さ)が小さいときの画面内の1水平ラインに注目する。
 そうすると、例えば、第(N-1)フレームの入力画像信号の輝度レベル分布は、図5の(a)、第Nフレームの入力画像信号の輝度レベル分布は、図5の(b)のようになる。このとき、各画素に対する第Nフレームと第(N-1)フレームの入力画像信号を平均した画像信号レベルで構成される仮想サブフレームQの1水平ライン上の輝度レベル分布は、図5の(c)のようになる。
 ところで、映画等の低フレームレートの映像を、よりフレームレートの高い一般的なテレビ等の映像に変換された映像や、DVDプレーヤ等によるスロー再生時等においては、画像が更新された1フレームの後に複数フレームの同一画像が続くような画像が繰り返される場合がある。このような映像の一例としてDVDプレーヤ等でスロー再生された場合の入力画像の状態を図6に示す。図6では、通常の再生速度の1/3の速度でスロー再生される場合を想定している。
 図6の(a)段は(1)(2)…の順に入力画像のフレームを示す。暗い背景上を明るい矩形ブロックが左へ移動するような映像だが、1/3倍でスロー再生されているため、(1)~(3)および(4)~(6)は3フレームずつ同じ画像が入力されている。
 このとき、上記画像処理装置の基本動き度合い計算部111において、前フレームと最新フレーム(現フレーム)が異なる(1)、(4)、(7)の各フレームでは、基本動き度合いが発生する一方、前フレームと最新フレームが同一である(2)、(3)、(5)、(6)の各フレームでは基本動き度合いは0である。動く矩形ブロックのエッジ付近に対応する画素において算出される基本動き度合いの変化を図6の(b)段に示す。
 このようにして算出された基本動き度合いに基づいて平滑化と強調化の処理を行って出力される画像信号の分布を、画面上の1水平ライン上の各画素に注目して図示すると図7のようになる。基本動き度合いが発生する(1)および(4)の入力フレームに対応する各2つの出力サブフレームについてのみぼかし、強調処理が行われている。図7において、実線が処理を施した場合の波形、破線が処理前の波形を示している。
 図7のように、ぼかし、強調処理が行われない表示フレームが存在するため、ぼかし、強調処理が行われる周期が長くなると、画面を見る人間にはフリッカが見えてしまうという問題がある。
 このようなフリッカの発生を抑えるために本実施形態では、上述した基本動き度合い計算部111、適用動き度合い計算部112、および動き度合い保持部113が設けられている。
 上記適用動き度合い計算部112は、上記基本動き度合い検出部111によって検出された現フレーム期間における映像の動き度合いと、前フレーム期間における映像の動き度合いとから、上記第1の画像処理部を備えたサブフレームA画像信号生成部107及び/または上記第2の画像処理部を備えたサブフレームB画像信号生成部108に適用する適用動き度合いを算出するようになっている。
 すなわち上記適用動き度合い計算部112では、基本動き度合い計算部111で算出された基本動き度合いと、前回の処理によって上記動き度合い保持部113に保持されている、1つ前の入力フレームに対応する2つのサブフレームで平滑化と強調化に適用された動き度合いとを比較して、保持されていた動き度合いが基本動き度合いよりも大きい場合については、保持されていた動き度合いと基本動き度合いの平均値(単純平均もしくは加重平均)を、適用動き度合いとして採用する一方、保持されていた動き度合いが基本動き度合いと同じか小さい場合には、基本動き度合いを適用動き度合いとして採用する。
 このように定めた適用動き度合いに基づいてサブフレームA画像信号生成部107およびサブフレームB画像信号生成部108にて平滑化および強調化に使用する。また算出されたこの適用動き度合いは、次の画像表示に備えて動き度合い保持部113に書き込んでおく。
 具体的には、上記適用動き度合い計算部112は、現フレーム期間における映像の動き度合いMc、上記動き度合い保持部113に保持されている動き度合いをMhとして、Mc<Mhのとき、上記Mcと上記Mhの単純平均もしくは加重平均した値を適用動き度合いとして、上記サブフレームA画像信号生成部107及び上記サブフレームB画像信号生成部108に提供するようになっている。
 また、上記適用動き度合い計算部112は、現フレーム期間における映像の動き度合いMc、上記動き度合い保持部113に保持されている動き度合いをMhとして、Mc≧Mhのとき、上記Mcを適用動き度合いとして、上記サブフレームA画像信号生成部107及び上記サブフレームB画像信号生成部108に提供するようになっている。
 以上の適用動き度合い計算部112における計算では、現フレーム期間における映像の動き度合いMcと、上記動き度合い保持部113に保持されている動き度合いをMhとの大小を単純に比較したものであるが、より適切な処理を行うためには、動き度合い保持部113に保持されている動き度合いをMhに対して予め設定した閾値Tを加えるか減じたものと、上記Mcを比較するのが好ましい。
 これは外部からの放送波や映像信号伝送路等でノイズが乗ったような場合に、実際はほぼ静止画であるにも関わらず、前フレームと現フレームに差分が生じて動き度合いが増加もしくは減少したと判断されるような場合において、動き度合いの変動が一定の範囲においては変動が無い場合と同様の処理を行うためである。
 このような処理を行った場合の動く矩形ブロックのエッジ付近に対応する画素において算出される適用動き度合いの変化を図6の(c)段に示すと、前フレームと最新フレームが異なる(1)、(4)、(7)では保持されていた動き度合いが基本動き度合いより小さくなるため、基本動き度合いが適用動き度合いとなり、図6の(b)段と同等の大きさとなる。一方、(2)、(3)、(5)、(6)では保持されていた動き度合いが基本動き度合いより大きくなるため、保持されていた動き度合いと基本動き度合いの平均値(単純平均もしくは加重平均)が適用動き度合いとなり、図6の(b)段に示す基本動き度合いよりも大きい値となる。
 このようにして算出された基本動き度合いに基づいて平滑化と強調化の処理を行って出力される画像信号の分布を、画面上の1水平ライン上の各画素に注目して図示すると図8のようになる。図8において、実線が処理を施した場合の波形、破線が処理前の波形を示している。
 基本動き度合いをそのまま使用した図7と比較して、図8では、(2A)~(3B)のサブフレーム表示においても、ぼかし、強調の程度は弱くなるものの完全になくなるわけではない。このように表示する事によってフリッカが見えてしまう問題を回避する事ができる。
 ところで、上記構成の画像表示装置は、サブフレームA画像信号生成部107で生成される画像信号と、サブフレームB画像信号生成部108で生成される画像信号が連続して表示される場合の表示輝度の時間積分量を本来の表示輝度に合せる事で、輝度の過不足が観察者に見えないようにしている。
 図9に2つの階調領域(前フレーム、現フレームの画像信号)の境界付近において本発明のぼかし/強調処理が行われた場合の画像信号の分布を示す。サブフレームAがぼかし処理(平滑化処理)、サブフレームBが強調処理が施された画像信号の分布を示している。
 次に、この2つの階調領域が一方は画像表示部200で表示可能な最大レベルに近く、他方は画像表示部200で表示可能な最小レベルに近いような場合のサブフレームBにおける強調信号について図10に示す。ここでは理想的な強調信号が、画像表示部で表示可能な最大レベルを上回る部分(破線の部分)や、画像表示部200で表示可能な最小レベルを下回る部分が発生している。実際には画像表示部200で表示可能な範囲で表示せざるを得ないため、このような場合には、サブフレームAにおけるぼかし画像との繰返しで画像を見る観察者に対して、本来表示されるべき輝度と比較して時間積分輝度が不足したりオーバーしてしまうために、不正な輝度表示として認識されるという問題が発生する。
 このような現象を軽減、回避するために画像信号が画像表示部200で表示可能な最大もしくは最小レベルに近い場合には、サブフレームA画像信号生成部107およびサブフレームB画像信号生成部108における、前段から受け取った信号からの変移幅に制限を設ける事が考えられる。
 例えば、上記サブフレームA画像信号生成部107およびサブフレームB画像信号生成部108において、平滑化処理を施す前の画像信号の信号レベルが、上記画像表示部200における表示可能な画像信号の信号レベルの最大値または最小値に近い程、小さくなるように設定された変移幅で平滑化処理を施すようにする。
 画像信号の強調処理の方法として、サブフレームB画像信号生成部108の内部でまずサブフレームA画像信号生成部107で行われるのと同様の平滑化処理を行い、そこで得られた画像信号と共に、交互に画像表示部に繰返し表示した場合の時間積分輝度が、目的の画素に対する本来の輝度に一致するような画像信号を選択して、強調信号として出力する方法がある。
 このような方法で強調信号を生成する場合には、サブフレームA画像信号生成部107における平滑化処理に対して設定する変移幅制限と同様の変移幅制限の設定を、サブフレームB画像信号生成部108の内部でまず行われる平滑化処理に対しても行っておく事で、サブフレームA画像信号生成部107で得られた画像信号とサブフレームB画像信号生成部108で得られた画像信号を繰返し表示した場合の時間積分輝度を、目的の画素の本来の輝度に一致させる事ができる。ただし、制御回路部のコストを抑制するために、サブフレームA画像信号生成部107においてのみ変移幅制限を行っても一定の効果は得られる。
 例えば、上記サブフレームA画像信号生成部107およびサブフレームB画像信号生成部108において、前段から受け取った画像信号をLs、画像表示部200で表示可能な最大レベルをLmax、画像表示部200で表示可能な最小レベルをLminのとき、平滑化処理による変移幅の制限をWとすると、以下の式(1)を満たすWの範囲に上記変移幅を制限する。
 W=min(C0+|Ls-Lmin|×K0,C1+|Lmax-Ls|×K1)
・・・・・・・・(1)
 ここで、min(X,Y)はX,Yのいずれか小さい方を選択する関数であり、C0,C1は制限幅の定数値、K0,K1は各々最小レベルおよび最大レベルと元の信号値との差分に対する制限幅の比例係数である。
 例えば、Lmax=100、Lmin=0、C0=0、C1=5、K0=K1=0.25の場合、Ls=90であれば、W=min(0+90×0.25=22.5,5+10×0.25=7.5)=7.5となり、サブフレームAおよびサブフレームB画像信号生成部における信号平滑化処理による変移幅は7.5に制限される。即ち平滑化処理を行っても90-7.5=82.5より小さい値は取らないように制限され、その結果この平滑値に対応する強調処理信号の理想値もLmax=100を大きく超える事がなくなり、理想値がLmaxを超えた場合に強調処理信号を100として表示した場合の本来の時間積分量との誤差を所望の範囲に抑える事ができる。
 このような方法によって得られる画像信号を図11に示す。サブフレームAにおいて、破線は、変移幅を制限する前の平滑化処理された画像信号の波形を示す。つまり、本実施の形態によって得られる画像信号は、サブフレームAにおける、水平画素位置X、Yにおいて、変移幅の制限を受けていることが分かる。
 このように、サブフレームAにおける画像信号の変移幅が制限されるため、サブフレームBにおける画像信号が画像表示可能な最大レベルと最小レベルの範囲内であっても、時間積分輝度が大幅に不足したりオーバーすることがなく不正な輝度表示として認識されるという問題が回避できる。
 上記構成の画像表示装置において、画像表示部200を液晶表示パネルで構成した場合、装置内部の温度が下がれば、液晶の応答が悪くなり、それまでと同じ平滑化処理および強調処理を行っていたのでは、本来の表示輝度との誤差が大きくなり画質劣化の要因となる。
 そこで、図1に示すコントローラLSI100では、内部に温度センサ(温度検出部)114を備え、該温度センサ114によって検出された温度データをサブフレームA画像信号生成部107およびサブフレームB画像信号生成部108に出力するようになっている。
 サブフレームA画像信号生成部107およびサブフレームB画像信号生成部108では、入力された温度データが予め設定した設定温度より低い程、小さくなるように設定された上記変移幅で平滑化処理を施すようになっている。
 これにより、液晶の応答性に応じた処理を適切に行うことができるので、動画像の劣化を抑制することができる。
 また、本発明の画像表示装置は、図12に示すように、例えば、液晶テレビジョン受像機15として構成することができる。すなわち、チューナ部としてチャネルを選択してテレビジョン放送を受信し、当該テレビジョン放送によって伝送された映像を示す映像信号を入力画像信号としてコントローラLSI100へ入力するような受像部14を設けた構成とすることができる。そして、画像表示部200は、液晶パネルからなっており、上記映像信号に基づいてコントローラLSI100から送られてくる出力画像信号に基づいて画像を表示するような構成とすることができる。
 これにより、動きの早い動画像はもとより、動きの遅いあるいは静止している画像においても表示品位の高い映像を表示できるテレビジョン受像機を提供することができる。
 本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明の画像表示装置、および画像表示方法は、液晶、有機ELや電子ペーパー、ホールドモード表示を行なう表示デバイスを応用した画像表示モジュールや動画表示対応機器類。TV、PCモニタ、モニタ付DVDプレーヤ、ゲーム機、カーナビ、携帯型ビデオプレーヤ、携帯電話等の電子機器に用いることができる。
100 コントローラLSI
101 画像信号事前変換部
102 前フレームメモリコントローラ
103 時間平均画像信号レベル生成部
104 表示フレームメモリコントローラ
105 サブフレームA用マルチラインメモリ
106 サブフレームB用マルチラインメモリ
107 サブフレームA画像信号生成部(第1の画像処理部)
108 サブフレームB画像信号生成部(第2の画像処理部)
109 データセレクタ
110 タイミングコントローラ(分割部)
111 基本動き度合い計算部(動き度合い検出部)
112 適用動き度合い計算部(適用動き度合い検出部)
113 動き度合い保持部
114 温度センサ(温度検出部)
200 画像表示部
300 前フレームメモリ
400 表示フレームメモリ

Claims (20)

  1.  一画面分の画像信号に対応するフレーム期間ごとに、各画素の画像信号に基づいて画像を表示する画像表示装置に備えられた画像信号処理装置において、
     現フレームにおける画像信号と、該現フレームの一つ前の前フレーム期間における画像信号とを比較することにより映像の動き度合いを検出する動き度合い検出部と、
     一つのフレーム期間を、少なくとも一つのサブフレームA期間と、少なくとも一つのサブフレームB期間とを含んだ複数の期間に分ける分割部と、
     上記サブフレームA期間において各画素の入力画像信号に対して、映像の動き度合いに応じて平滑化処理を施す第1の画像処理部と、
     上記サブフレームB期間において各画素の入力画像信号に対して、映像の動き度合いに応じて強調処理を施す第2の画像処理部と、
     上記動き度合い検出部によって検出された現フレーム期間における映像の動き度合いと、前フレーム期間における映像の動き度合いとから、上記第1の画像処理部及び/または上記第2の画像処理部に適用する適用動き度合いを算出する適用動き度合い算出部と、
    を備えていることを特徴とする画像信号処理装置。
  2.  上記適用動き度合い算出部によって算出された適用動き度合いを保持する保持部を備え、
     上記適用動き度合い算出部は、
     上記保持部に保持された適用動き度合いを前フレーム期間における映像の動き度合いとして、上記第1の画像処理部及び/または上記第2の画像処理部に適用する適用動き度合いを算出することを特徴とする請求項1に記載の画像信号処理装置。
  3.  上記第1の画像処理部及び上記第2の画像処理部は、上記適用動き度合い算出部によって算出された適用動き度合いに応じた処理強度で各処理を施すことを特徴とする請求項2に記載の画像信号処理装置。
  4.  上記適用動き度合い算出部は、
     現フレーム期間における映像の動き度合いMc、上記保持部に保持されている動き度合いをMhとして、Mc<Mhのとき、
     上記Mcと上記Mhの単純平均もしくは加重平均した値を適用動き度合いとして、上記第1の画像処理部及び上記第2の画像処理部に提供することを特徴とする請求項3に記載の画像信号処理装置。
  5.  上記適用動き度合い算出部は、
     現フレーム期間における映像の動き度合いMc、上記保持部に保持されている動き度合いをMhとして、Mc≧Mhのとき、
     上記Mcを適用動き度合いとして、上記第1の画像処理部及び上記第2の画像処理部に提供することを特徴とする請求項3に記載の画像信号処理装置。
  6.  一画面分の画像信号に対応するフレーム期間ごとに、各画素の画像信号に基づいて画像を表示する画像表示装置に備えられ画像信号処理装置において、
     一つのフレーム期間を、少なくとも一つのサブフレームA期間と、少なくとも一つのサブフレームB期間とを含んだ複数の期間に分ける分割部と、
     上記サブフレームA期間において各画素の入力画像信号に対して平滑化処理を施す第1の画像処理部と、
     上記サブフレームB期間において各画素の入力画像信号に対して強調処理を施す第2の画像処理部とを備え、
     上記第1の画像処理部は、
     平滑化処理を施す前の画像信号の信号レベルが、上記画像表示装置における表示可能な画像信号の信号レベルの最大値または最小値に近い程、小さくなるように設定された変移幅で平滑化処理を施すことを特徴とする画像信号処理装置。
  7.  上記第2の画像処理部は、
     入力画像信号に対して、上記第1の画像処理部と同様の平滑化処理を行うことで強調処理を施した信号として上記画像表示装置に提供するとき、
     強調処理を施す前の画像信号の信号レベルが、上記画像表示装置における表示可能な画像信号の信号レベルの最大値または最小値に近い程、小さくなるように設定された変移幅で平滑化処理を施すことを特徴とする請求項6に記載の画像信号処理装置。
  8.  画像信号処理装置内の温度を検出する温度検出部をさらに備え、
     上記第1の画像処理部は、
     上記温度検出部により検出された温度が、予め設定した設定温度よりも低い程、
    小さくなるように設定された変移幅で平滑化処理を施すことを特徴とする請求項6または7に記載の画像信号処理装置。
  9.  画像信号処理装置内の温度を検出する温度検出部をさらに備え、
     上記第2の画像処理部は、
     上記温度検出部により検出された温度が、予め設定した設定温度よりも低い程、
    小さくなるように設定された変移幅で強調処理を施すことを特徴とする請求項8に記載の画像信号処理装置。
  10.  一画面分の画像信号に対応するフレーム期間ごとに、各画素の画像信号に基づいた画像を画像表示装置に表示するための画像信号処理方法において、
     現フレームにおける画像信号と、該現フレームの一つ前の前フレーム期間における画像信号とを比較することにより映像の動き度合いを検出する動き度合い検出ステップと、
     一つのフレーム期間を、少なくとも一つのサブフレームA期間と、少なくとも一つのサブフレームB期間とを含んだ複数の期間に分ける分割ステップと、
     上記サブフレームA期間において各画素の入力画像信号に対して、映像の動き度合いに応じて平滑化処理を施す第1の画像処理ステップと、
     上記サブフレームB期間において各画素の入力画像信号に対して、映像の動き度合いに応じて強調処理を施す第2の画像処理ステップと、
     上記動き度合い検出ステップによって検出された現フレーム期間における映像の動き度合いと、前フレーム期間における映像の動き度合いとから、上記第1の画像処理ステップ及び/または上記第2の画像処理ステップにおいて適用される適用動き度合いを算出する適用動き度合い算出ステップと、
    を含むことを特徴とする画像信号処理方法。
  11.  上記適用動き度合い算出ステップにおいて算出された適用動き度合いを保持部に保持する保持ステップをさらに含み、
     上記適用動き度合い算出ステップは、
     上記保持部に保持された適用動き度合いを前フレーム期間における映像の動き度合いとして、上記第1の画像処理ステップ及び/または上記第2の画像処理ステップにおいて適用される適用動き度合いを算出することを特徴とする請求項10に記載の画像信号処理方法。
  12.  上記第1の画像処理ステップ及び上記第2の画像処理ステップは、上記適用動き度合い算出ステップによって算出された適用動き度合いに応じた処理強度で各処理を施すことを特徴とする請求項11に記載の画像信号処理方法。
  13.  上記適用動き度合い算出ステップは、
     現フレーム期間における映像の動き度合いMc、上記保持部に保持されている動き度合いをMhとして、Mc<Mhのとき、
     上記Mcと上記Mhの単純平均もしくは加重平均した値を適用動き度合いとして、上記第1の画像処理ステップ及び上記第2の画像処理ステップに提供することを特徴とする請求項12に記載の画像信号処理方法。
  14.  上記適用動き度合い算出ステップは、
     現フレーム期間における映像の動き度合いMc、上記保持部に保持されている動き度合いをMhとして、Mc≧Mhのとき、
     上記Mcを適用動き度合いとして、上記第1の画像処理ステップ及び上記第2の画像処理ステップに提供することを特徴とする請求項12に記載の画像信号処理方法。
  15.  一画面分の画像信号に対応するフレーム期間ごとに、各画素の画像信号に基づいた画像を画像表示装置に表示するための画像信号処理装置において、
     一つのフレーム期間を、少なくとも一つのサブフレームA期間と、少なくとも一つのサブフレームB期間とを含んだ複数の期間に分ける分割ステップと、
     上記サブフレームA期間において各画素の入力画像信号に対して平滑化処理を施す第1の画像処理ステップと、
     上記サブフレームB期間において各画素の入力画像信号に対して強調処理を施す第2の画像処理ステップとを備え、
     上記第1の画像処理ステップは、
     平滑化処理を施す前の画像信号の信号レベルが、上記画像表示装置における表示可能な画像信号の信号レベルの最大値または最小値に近い程、小さくなるように設定された変移幅で平滑化処理を施すことを特徴とする画像信号処理方法。
  16.  上記第2の画像処理ステップは、
     入力画像信号に対して、上記第1の画像処理ステップと同様の平滑化処理を行うことで強調処理を施した信号として上記画像表示装置に提供するとき、
     強調処理を施す前の画像信号の信号レベルが、上記画像表示装置における表示可能な画像信号の信号レベルの最大値または最小値に近い程、小さくなるように設定された変移幅で平滑化処理を施すことを特徴とする請求項15に記載の画像信号処理方法。
  17.  上記画像表示装置内の温度を検出する温度検出ステップをさらに含み、
     上記第1の画像処理ステップは、
     上記温度検出ステップにより検出された温度が、予め設定した設定温度よりも低い程、小さくなるように設定された上記変移幅で平滑化処理を施すことを特徴とする請求項16に記載の画像信号処理方法。
  18.  請求項1~9の何れか1項に記載の画像信号処理装置を備えた画像表示装置。
  19.  請求項18に記載の画像表示装置を備えたテレビジョン受像機。
  20.  請求項18に記載の画像表示装置を備えた電子機器。
PCT/JP2009/059807 2008-08-22 2009-05-28 画像信号処理装置、画像信号処理方法、画像表示装置、テレビジョン受像機、電子機器 WO2010021180A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN200980131663.4A CN102124511B (zh) 2008-08-22 2009-05-28 图像信号处理装置、图像信号处理方法、图像显示装置、电视接收机、电子设备
JP2010525625A JP5128668B2 (ja) 2008-08-22 2009-05-28 画像信号処理装置、画像信号処理方法、画像表示装置、テレビジョン受像機、電子機器
RU2011107933/07A RU2475867C2 (ru) 2008-08-22 2009-05-28 Устройство и способ обработки сигнала изображения, устройство воспроизведения изображения, телевизионный приемник, электронное устройство
BRPI0917272A BRPI0917272A2 (pt) 2008-08-22 2009-05-28 aparelho de processamento de sinal de imagem, método de processamento de sinal de imagem, aparelho de exibição de imagem, receptor de televisão e dispositivo eletrônico
EP09808116.9A EP2323123B1 (en) 2008-08-22 2009-05-28 Image signal processing device, image signal processing method, image display device, television receiver, and electronic device
US12/737,710 US8902319B2 (en) 2008-08-22 2009-05-28 Image signal processing apparatus, image signal processing method, image display apparatus, television receiver, and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-214614 2008-08-22
JP2008214614 2008-08-22

Publications (1)

Publication Number Publication Date
WO2010021180A1 true WO2010021180A1 (ja) 2010-02-25

Family

ID=41707061

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/059807 WO2010021180A1 (ja) 2008-08-22 2009-05-28 画像信号処理装置、画像信号処理方法、画像表示装置、テレビジョン受像機、電子機器

Country Status (7)

Country Link
US (1) US8902319B2 (ja)
EP (1) EP2323123B1 (ja)
JP (1) JP5128668B2 (ja)
CN (2) CN103227889B (ja)
BR (1) BRPI0917272A2 (ja)
RU (1) RU2475867C2 (ja)
WO (1) WO2010021180A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248323A (ja) * 2010-04-30 2011-12-08 Canon Inc 画像処理装置及びその制御方法
JP2014153628A (ja) * 2013-02-12 2014-08-25 Canon Inc 画像表示装置及びその方法
HRP20050265B1 (hr) * 2002-09-18 2016-05-20 Ortho-Mcneil Pharmaceutical, Inc. Postupci povećanja proizvodnje trombocita i matičnih hematopoetskih stanica

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4455649B2 (ja) * 2005-11-07 2010-04-21 シャープ株式会社 画像表示方法および画像表示装置
EP2323123B1 (en) * 2008-08-22 2014-08-20 Sharp Kabushiki Kaisha Image signal processing device, image signal processing method, image display device, television receiver, and electronic device
JP5537121B2 (ja) * 2009-10-30 2014-07-02 キヤノン株式会社 画像処理装置およびその制御方法
DE102012009881A1 (de) * 2012-05-18 2013-11-21 Audi Ag Anzeigevorrichtung eines Kraftwagens und Verfahren zum Betreiben der Anzeigevorrichtung
GB2514557A (en) * 2013-05-28 2014-12-03 Snell Ltd Image processing
US11282449B2 (en) * 2016-09-22 2022-03-22 Apple Inc. Display panel adjustment from temperature prediction
CN114793275B (zh) * 2022-03-09 2024-01-23 深圳康佳电子科技有限公司 一种图像信号处理方法、装置、终端及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3295437B2 (ja) 1991-03-29 2002-06-24 日本放送協会 表示装置
JP2002351382A (ja) 2001-03-22 2002-12-06 Victor Co Of Japan Ltd ディスプレイ装置
JP2006072359A (ja) * 2004-08-30 2006-03-16 Samsung Electronics Co Ltd ディスプレイ装置の制御方法
JP2006091412A (ja) * 2004-09-24 2006-04-06 Victor Co Of Japan Ltd 画像処理装置
JP2006184896A (ja) 2004-12-02 2006-07-13 Seiko Epson Corp 画像表示方法及び装置、並びにプロジェクタ
US20060227249A1 (en) 2005-04-11 2006-10-12 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
WO2007052441A1 (ja) 2005-11-07 2007-05-10 Sharp Kabushiki Kaisha 画像表示方法および画像表示装置
JP2007515874A (ja) * 2003-12-01 2007-06-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動きボケ低減のための帯域通過フィルタを用いた動き補償逆フィルタリング
JP2007304204A (ja) 2006-05-09 2007-11-22 Sony Corp 画像表示装置、信号処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2007316161A (ja) * 2006-05-23 2007-12-06 Matsushita Electric Ind Co Ltd 残差補間を用いた超解像処理方法及び装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029004A (en) * 1989-09-22 1991-07-02 Victor Company Of Japan, Ltd. Edge enhancement apparatus useful with liquid crystal displays
US5025312A (en) * 1990-03-30 1991-06-18 Faroudja Y C Motion-adaptive video noise reduction system using recirculation and coring
JPH03295437A (ja) 1990-04-13 1991-12-26 Saginomiya Seisakusho Inc 車両振動試験方法
US5982953A (en) * 1994-09-02 1999-11-09 Konica Corporation Image displaying apparatus of a processed image from temporally sequential images
RU2118839C1 (ru) * 1994-09-26 1998-09-10 Фирма "ЛГ Электроникс" Жидкокристаллический экран с активной матрицей
JPH08298603A (ja) * 1995-04-26 1996-11-12 Matsushita Electric Ind Co Ltd 映像信号処理装置
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US6404460B1 (en) * 1999-02-19 2002-06-11 Omnivision Technologies, Inc. Edge enhancement with background noise reduction in video image processing
EP1396819A4 (en) * 2001-06-15 2006-08-09 Sony Corp IMAGE PROCESSING APPARATUS AND METHOD AND IMAGING APPARATUS
JP3660610B2 (ja) * 2001-07-10 2005-06-15 株式会社東芝 画像表示方法
TW200303001A (en) 2001-11-09 2003-08-16 Sharp Kk Liquid crystal display device
TW575864B (en) 2001-11-09 2004-02-11 Sharp Kk Liquid crystal display device
US6965369B2 (en) * 2002-02-11 2005-11-15 Microsoft Corporation Method and apparatus for smoothing cursor movement in relation to a refresh rate of a display
JP3978206B2 (ja) * 2002-09-18 2007-09-19 シャープ株式会社 液晶表示装置
US7145558B2 (en) * 2003-09-03 2006-12-05 Motorola, Inc. Selective illumination of regions of an electronic display
JP4341839B2 (ja) * 2003-11-17 2009-10-14 シャープ株式会社 画像表示装置、電子機器、液晶テレビジョン装置、液晶モニタ装置、画像表示方法、表示制御プログラムおよび記録媒体
JP3801179B2 (ja) * 2004-01-30 2006-07-26 松下電器産業株式会社 フレーム巡回型ノイズ低減方法
KR100541961B1 (ko) * 2004-06-08 2006-01-12 삼성전자주식회사 선명도 향상 및 잡음처리가 가능한 영상신호 처리장치 및방법
US8026894B2 (en) * 2004-10-15 2011-09-27 Sharp Laboratories Of America, Inc. Methods and systems for motion adaptive backlight driving for LCD displays with area adaptive backlight
TW200627362A (en) * 2004-11-01 2006-08-01 Seiko Epson Corp Signal processing for reducing blur of moving image
JP3781050B1 (ja) * 2005-02-22 2006-05-31 三菱電機株式会社 画像処理装置、画像処理方法、および画像表示装置
WO2006100906A1 (ja) 2005-03-18 2006-09-28 Sharp Kabushiki Kaisha 画像表示装置、画像表示モニター、およびテレビジョン受像機
US20070165961A1 (en) * 2006-01-13 2007-07-19 Juwei Lu Method And Apparatus For Reducing Motion Blur In An Image
JP5448457B2 (ja) * 2006-02-03 2014-03-19 エントロピック・コミュニケーションズ・インコーポレイテッド ビデオ処理装置およびビデオデータの処理方法
JP4172495B2 (ja) * 2006-05-09 2008-10-29 ソニー株式会社 画像表示装置、信号処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP4746514B2 (ja) * 2006-10-27 2011-08-10 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法
JP5117762B2 (ja) * 2007-05-18 2013-01-16 株式会社半導体エネルギー研究所 液晶表示装置
US8482579B2 (en) * 2007-09-14 2013-07-09 Sharp Kabushiki Kaisha Image display device and image display method
TWI384454B (zh) * 2008-03-06 2013-02-01 Sunplus Technology Co Ltd Applicable to the liquid crystal display of the image processing system and methods
JP2009251026A (ja) * 2008-04-01 2009-10-29 Hitachi Displays Ltd 画像表示装置
EP2323123B1 (en) * 2008-08-22 2014-08-20 Sharp Kabushiki Kaisha Image signal processing device, image signal processing method, image display device, television receiver, and electronic device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3295437B2 (ja) 1991-03-29 2002-06-24 日本放送協会 表示装置
JP2002351382A (ja) 2001-03-22 2002-12-06 Victor Co Of Japan Ltd ディスプレイ装置
JP2007515874A (ja) * 2003-12-01 2007-06-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動きボケ低減のための帯域通過フィルタを用いた動き補償逆フィルタリング
JP2006072359A (ja) * 2004-08-30 2006-03-16 Samsung Electronics Co Ltd ディスプレイ装置の制御方法
JP2006091412A (ja) * 2004-09-24 2006-04-06 Victor Co Of Japan Ltd 画像処理装置
JP2006184896A (ja) 2004-12-02 2006-07-13 Seiko Epson Corp 画像表示方法及び装置、並びにプロジェクタ
US20060227249A1 (en) 2005-04-11 2006-10-12 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
WO2007052441A1 (ja) 2005-11-07 2007-05-10 Sharp Kabushiki Kaisha 画像表示方法および画像表示装置
JP2007304204A (ja) 2006-05-09 2007-11-22 Sony Corp 画像表示装置、信号処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2007316161A (ja) * 2006-05-23 2007-12-06 Matsushita Electric Ind Co Ltd 残差補間を用いた超解像処理方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2323123A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HRP20050265B1 (hr) * 2002-09-18 2016-05-20 Ortho-Mcneil Pharmaceutical, Inc. Postupci povećanja proizvodnje trombocita i matičnih hematopoetskih stanica
JP2011248323A (ja) * 2010-04-30 2011-12-08 Canon Inc 画像処理装置及びその制御方法
US9100637B2 (en) 2010-04-30 2015-08-04 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
JP2014153628A (ja) * 2013-02-12 2014-08-25 Canon Inc 画像表示装置及びその方法

Also Published As

Publication number Publication date
RU2475867C2 (ru) 2013-02-20
EP2323123A4 (en) 2011-10-19
CN102124511A (zh) 2011-07-13
US8902319B2 (en) 2014-12-02
EP2323123A1 (en) 2011-05-18
CN102124511B (zh) 2013-06-12
JPWO2010021180A1 (ja) 2012-01-26
JP5128668B2 (ja) 2013-01-23
BRPI0917272A2 (pt) 2015-11-10
RU2011107933A (ru) 2012-09-27
CN103227889A (zh) 2013-07-31
CN103227889B (zh) 2016-04-27
US20110128449A1 (en) 2011-06-02
EP2323123B1 (en) 2014-08-20

Similar Documents

Publication Publication Date Title
JP5128668B2 (ja) 画像信号処理装置、画像信号処理方法、画像表示装置、テレビジョン受像機、電子機器
JP5221550B2 (ja) 画像表示装置および画像表示方法
JP5187531B2 (ja) 画像表示装置
US7800691B2 (en) Video signal processing apparatus, method of processing video signal, program for processing video signal, and recording medium having the program recorded therein
WO2008035474A1 (fr) Dispositif et procédé d'affichage d'image
JP2005173573A (ja) 画像表示装置、電子機器、液晶テレビジョン装置、液晶モニタ装置、画像表示方法、表示制御プログラムおよび記録媒体
WO2007052441A1 (ja) 画像表示方法および画像表示装置
JP2012078590A (ja) 画像表示装置及びその制御方法
EP2315199B1 (en) Image processing apparatus and method of controlling the same
JP5149725B2 (ja) 画像処理装置及びその制御方法
WO2009131058A1 (ja) 表示制御装置および方法、並びにプログラム
US8687123B2 (en) Video signal processing
US8705882B2 (en) Image processing apparatus selectively outputting first and second subframes at a predetermined timing and method of controlling the same
JP2008096521A (ja) 映像表示装置
JP2013077863A (ja) 立体表示装置および立体表示方法
WO2010103593A1 (ja) 画像表示方法及び画像表示装置
JP4858997B2 (ja) 画像表示装置、電子機器、液晶テレビジョン装置、液晶モニタ装置、画像表示方法、表示制御プログラムおよび記録媒体
JP5968067B2 (ja) 画像処理装置及びその制御方法
KR101552886B1 (ko) 동영상의 화질 개선 장치 및 방법
JP2010192948A (ja) テレビジョン受像機
JP2010028576A (ja) 画像処理装置及びその制御方法
JP2009162943A (ja) 液晶表示装置
JP2011215426A (ja) 液晶表示装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980131663.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09808116

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010525625

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12737710

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 1425/CHENP/2011

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2009808116

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011107933

Country of ref document: RU

ENP Entry into the national phase

Ref document number: PI0917272

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20110221