WO2010035486A1 - 映像信号処理装置 - Google Patents

映像信号処理装置 Download PDF

Info

Publication number
WO2010035486A1
WO2010035486A1 PCT/JP2009/004902 JP2009004902W WO2010035486A1 WO 2010035486 A1 WO2010035486 A1 WO 2010035486A1 JP 2009004902 W JP2009004902 W JP 2009004902W WO 2010035486 A1 WO2010035486 A1 WO 2010035486A1
Authority
WO
WIPO (PCT)
Prior art keywords
noise
video signal
encoding
parallax
pixel
Prior art date
Application number
PCT/JP2009/004902
Other languages
English (en)
French (fr)
Inventor
森野英樹
澁谷竜一
寺井晴子
藤濤伸敏
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US12/989,460 priority Critical patent/US8558875B2/en
Priority to EP09815908A priority patent/EP2290996A4/en
Priority to JP2010530737A priority patent/JP5375830B2/ja
Publication of WO2010035486A1 publication Critical patent/WO2010035486A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Definitions

  • the present invention uses the parallax between the right-eye video and the left-eye video when performing 3D stereoscopic display, using MPEG2 and MPEG4-AVC / H.
  • the present invention relates to video signal processing that makes it possible to reduce encoding noise generated by H.264 encoding processing.
  • the parallax between the right-eye video and the left-eye video will be described. For example, if the object in the right-eye image is shifted to the left side and the object in the left-eye image is shifted to the right side, the object is projected to the front side for the person watching these images. Looks like. Conversely, the more the object in the right-eye image is shifted to the right side and the object in the left-eye image is shifted to the left side, the more the object is retracted, the more the object is retracted to the depth side. Looks like you are. When there is no parallax and the right-eye video and the left-eye video are the same, the object appears to be at the position of the display surface of the video display device.
  • Such an image having a parallax that can be stereoscopically viewed can be easily obtained by photographing two identical cameras side by side.
  • the right-eye camera is usually arranged on the right side and the left-eye camera is arranged on the left side.
  • the field sequential method shown in FIG. 7A is a method in which the left-eye video L and the right-eye video R are arranged and sent in time series for each frame.
  • a signal without deterioration in both vertical resolution and horizontal resolution can be obtained when stereoscopic viewing is not performed, that is, for two-dimensional display.
  • the transmission rate is doubled compared to the normal case.
  • the side-by-side method shown in FIG. 7B is a method in which a right-eye video R and a left-eye video L having a horizontal resolution of 1/2 are arranged and sent in the right half and the left half of one frame.
  • the vertical interleaving method shown in FIG. 7C is a method in which the left-eye video signal L and the right-eye video signal R are multiplexed and transmitted for each line in the vertical direction.
  • the checker pattern method shown in FIG. 7D is a method in which the right-eye video R and the left-eye video L are arranged and sent in a staggered pattern for each pixel.
  • both horizontal resolution and vertical resolution are deteriorated.
  • Video signals transmitted by such various methods are MPEG2 encoding methods used in recent digital broadcasting and MPEG4-AVC / H. It is assumed that the data is transmitted after being encoded by the H.264 encoding method or recorded on a storage medium. With this encoding process, it is possible to increase the transmission efficiency by compressing the data amount. However, the encoding process generates encoding noise associated with the compression process, which causes image quality degradation. Coding noise includes block noise generated at the boundary of the block and ringing noise (also referred to as mosquito noise) caused by quantization processing by performing a series of coding processes in units of blocks. Conventionally, a method has been proposed for detecting such noise with respect to these coding noises and reducing the noise by filtering or the like (see Reference 2).
  • noise is extracted from the video signal by a high-pass filter (hereinafter abbreviated as HPF (High Pass Filter)) or a band-pass filter (hereinafter abbreviated as BPF (Band Pass Filter)).
  • HPF High Pass Filter
  • BPF Band Pass Filter
  • MPEG2 and H.264 are used for 3D stereoscopic video signals.
  • coding noise such as block noise or ringing noise that occurs when H.264 coding processing is performed
  • it is often difficult to distinguish between noise and a picture in a video and false detection is often performed.
  • the pattern is blurred due to the noise reduction filter process, or the noise reduction effect is difficult to obtain depending on the characteristics of the filter.
  • the video signal processing device is a stereoscopic image display device that displays a stereoscopic image by using a right-eye video signal and a left-eye video signal having parallax, a parallax detection unit, a coding noise detection unit, and a coding noise removal unit, It has.
  • the parallax detection unit is an MPEG2 encoding method or MPEG4-AVC / H.
  • the parallax is detected from the right-eye video signal and the left-eye video signal obtained by decoding the video signal encoded by the H.264 encoding method, and the detected parallax is output as a parallax detection signal.
  • the encoding noise detection unit detects encoding noise generated by the encoding process from the right-eye video signal and the left-eye video signal, and corrects and corrects the detected encoding noise based on the parallax detection signal.
  • An encoding noise detection signal is generated from the encoding noise, and the encoding noise detection signal is output.
  • the coding noise removal unit reduces coding noise by filtering from the right-eye video signal and the left-eye video signal using the coding noise detection signal, and based on the parallax detection signal, the right-eye video signal and the left-eye video signal At least one of reduction of coding noise is performed by replacing the data of the noise generating pixel in the video signal with the corresponding pixel data of the other video in which noise shifted by the parallax is not generated.
  • the video signal processing method of the present invention provides a parallax detection step, an encoding noise detection step, and an encoding noise removal in a stereoscopic image display device that displays a stereoscopic image by a right-eye video signal and a left-eye video signal having parallax. And steps.
  • the parallax detection step the parallax detection unit performs the MPEG2 encoding method or the MPEG4-AVC / H.
  • the parallax is detected from the right-eye video signal and the left-eye video signal obtained by decoding the video signal encoded by the H.264 encoding method, and is output as a parallax detection signal.
  • the coding noise detection unit detects coding noise generated by the coding process from the right-eye video signal and the left-eye video signal, and is detected based on the parallax detection signal. Noise is corrected, a coding noise detection signal is generated from the corrected coding noise, and a coding noise detection signal is output.
  • the coding noise removal unit uses the coding noise detection signal to reduce the coding noise from the right-eye video signal and the left-eye video signal, and based on the parallax detection signal.
  • FIG. 1 is a block diagram showing a configuration of a video signal processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing video signal input and display in the embodiment of the present invention.
  • FIG. 3A is a diagram showing block noise in the embodiment of the present invention.
  • FIG. 3B is a diagram showing ringing noise in the embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of a block noise detection result according to the embodiment of the present invention.
  • FIG. 5 is a diagram showing an example of the detection result of ringing noise in the embodiment of the present invention.
  • FIG. 6 is a flowchart showing a flow of video signal processing in the video signal processing apparatus according to the embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration of a video signal processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing video signal input and display in the embodiment of the present invention.
  • FIG. 3A is a diagram showing block noise in
  • FIG. 7A is a diagram illustrating a transmission format in the conventional 3D stereoscopic display.
  • FIG. 7B is a diagram illustrating a transmission format in the conventional 3D stereoscopic display.
  • FIG. 7C is a diagram illustrating a transmission format in the conventional 3D stereoscopic display.
  • FIG. 7D is a diagram illustrating a transmission format in the conventional 3D stereoscopic display.
  • FIG. 1 is a block diagram showing a configuration of a video signal processing apparatus according to an embodiment of the present invention.
  • the video signal processing apparatus includes a parallax detection unit 202 having a video signal input terminal 201, a coding noise detection unit 203, and a coding noise removal having a video signal output terminal 205.
  • the video signal input terminal 201 has an MPEG2 encoding system, MPEG4-AVC / H.
  • the right-eye video signal 201R and the left-eye video signal 201L obtained by decoding the video encoded by the H.264 encoding method are input, and the video signal output terminal 205 performs signal processing on the right-eye video signal. 205R and left-eye video signal 205L are output.
  • the parallax detection unit 202 inputs the right-eye video signal 201R and the left-eye video signal 201L.
  • the parallax detection unit 202 detects the parallax between the right-eye video signal 201R and the left-eye video signal 201L, and outputs the detected parallax.
  • the encoding noise detection unit 203 receives the right-eye video signal 201R and the left-eye video signal 201L, and detects encoding noise such as block noise and ringing noise.
  • the coding noise detection unit 203 uses the parallax detection signal 210 that is a parallax detection result between the right-eye video signal 201R and the left-eye video signal 201L detected by the parallax detection unit 202, and further detects the detected coding noise.
  • the detection result of the coding noise is corrected so as to reduce it.
  • the encoded noise detection signal 212 is output. This correction method will be described later in detail.
  • the coding noise removal unit 204 reduces coding noise from the right-eye video signal 201R and the left-eye video signal 201L by filtering using the coding noise detection signal 212 output from the coding noise detection unit 203.
  • the encoding noise removing unit 204 uses the parallax detection signal 210 output from the parallax detection unit 202 to generate noise generation pixel data in one of the right-eye video signal 201R and the left-eye video signal 201L only for those parallaxes. The noise is reduced by substituting the corresponding pixel data of the other video signal in which the shifted noise is not generated.
  • the right-eye video signal 201R and the left-eye video signal 201L are assumed to be video signals that are displayed on the display device as the display video 305 shown in FIG.
  • the right-eye video 301 and the corresponding left-eye video 303 each have a trapezoidal object (an object composed of a triangle and a quadrangle) having parallax.
  • the relationship between the right-eye video 301 and the left-eye video 303 is shifted to the right as compared with the right-eye video 301 in the left-eye video 303 as shown in FIG.
  • the right-eye image 301 and the left-eye image 303 appear to overlap as shown in the display image 305 of FIG.
  • the right-eye video signal 201R and the left-eye video signal 201L displayed as described above are converted into the MPEG2 encoding method, MPEG4-AVC / H.
  • a video signal encoded by the H.264 encoding method and further decoded is input to the video signal input terminal 201.
  • block noise and ringing noise also referred to as mosquito noise
  • These noises are more likely to occur and become more noticeable when the compression rate is high, that is, as the bit rate is reduced.
  • FIG. 3 shows block noise 406 included in the right-eye video 401 and ringing noise 412 included in the left-eye video 407 as an example.
  • FIG. 3 also shows block boundaries 404 and 410 in each video.
  • the parallax detection unit 202 detects the parallax between the right-eye video signal 201R and the left-eye video signal 201L.
  • Various methods are conceivable for detecting the parallax. For example, with respect to the target pixel of the right-eye video signal 201R, the parallax detection unit 202 determines whether the pixel at the same position of the left-eye video signal 201L and the surrounding pixels are used. Take the difference. Then, the parallax detection unit 202 determines that the pixel having the smallest absolute value of the difference is a correlated pixel, that is, a pixel shifted by the amount of parallax. Then, the parallax detection unit 202 outputs the direction and distance between the pixel of interest and the pixel shifted by the amount of the parallax as the parallax detection signal 210.
  • the parallax detection unit 202 needs to widen the range of target pixels for which the difference between the right-eye video signal 201R and the left-eye video signal 201L is taken.
  • the parallax detection unit 202 uses the detection results of a plurality of pixels around the target pixel in order to increase the detection accuracy, and uses the parallax detection result having the same number of pixels having the same detection result as the detection result of the target pixel. Also good. The reason for this is that the parallax between the right-eye video signal 201R and the left-eye video signal 201L is often the same parallax within a certain range including peripheral pixels.
  • the parallax detection unit 202 extends the detection to the peripheral pixels of the pixel of interest in this way, thereby improving the detection accuracy. Can be increased.
  • the parallax detection unit 202 may suppress the influence of noise by removing a noise component with a low-pass filter (hereinafter abbreviated as LPF (Low Pass Filter)) or BPF before taking the difference.
  • LPF Low Pass Filter
  • the parallax detection signal 210 includes a direction and a distance on the display screen, and is a vector. In the parallax detection, the pixel of interest may be taken for either the right-eye video signal 201R or the left-eye video signal 201L.
  • the encoding noise detection unit 203 first detects block noise 406 and ringing noise 412 (also referred to as mosquito noise) generated by the encoding process for the right-eye video signal 201R and the left-eye video signal 201L, respectively.
  • block noise 406 and ringing noise 412 also referred to as mosquito noise
  • Various detection methods are conceivable for detecting these noises.
  • the processing unit is a block of the video signal. Therefore, the encoding noise detection unit 203 uses the block boundary 404 of the video signal. May be. That is, the encoding noise detection unit 203 compares the block boundary information with the right-eye video signal 201R and the left-eye video signal 201L. Then, the coding noise detection unit 203 checks the continuity of the pattern edge (contour), flatness, and signal level in the vicinity of the block boundary 404, and at least one of these between a plurality of pixels sandwiching the block boundary 404. If one is discontinuous, the plurality of pixels described above are detected as block noise 406.
  • the encoding noise detection unit 203 extracts a signal component of an edge (contour) using, for example, a spatial HPF. Then, the coding noise detection unit 203 compares the edge and the signal component extracted by the spatial HPF in the peripheral pixels of the block boundary 404, and compares the level difference of the signal component with a threshold value. If it is larger than the threshold, it is assumed that there is no correlation between the signal components.
  • the threshold value should be set according to the encoding bit rate and the image content. Therefore, the coding noise detection unit 203 determines that the image is discontinuous and the block noise 406 is generated when there is no correlation between the signal components as described above.
  • the coding noise detection unit 203 extracts a signal component using a spatial HPF between a plurality of pixels sandwiching the block boundary 404, and if there is no correlation between the signal components between the plurality of pixels, the coding noise detection unit 203 It may be detected as block noise 406.
  • the block noise 406 is generated. It can also be determined. These threshold values should also be set according to the encoding bit rate and the image content. Further, for example, continuity regarding a level difference between pixels in the vertical and horizontal directions on the image is calculated, and in the case of discontinuity, it can be determined that the block noise 406 is generated. If the boundary information of the block of the video signal can be detected by the decoder, it may be input to the encoding noise detection unit 203.
  • the coding noise detection unit 203 may determine the occurrence of the block noise 406 based on continuity of flatness. That is, since the fluctuation of the signal level is small in the flat portion and there is almost no extracted component due to HPF, the encoding noise detection unit 203 can detect the level difference of the signal due to the block noise 406.
  • the coding noise detection unit 203 can detect the block noise 406 to some extent from the video signal even when boundary information is not input from the decoder.
  • the HPF extraction components may be accumulated in the spatial direction (horizontal and vertical directions), and the block boundary 404 may be estimated from the distribution.
  • the cumulative value of the extracted components by the HPF described above is periodically increased and decreased according to the position of the block boundary 404 (cumulative at the boundary position). Often large). Therefore, the encoding noise detection unit 203 can identify the block boundary 404 by the above-described method.
  • the block size is variable, but it is often a unit of 4 pixels or 8 pixels. Therefore, the coding noise detection unit 203 can identify the block boundary 404 by making a determination in consideration of this. Similarly, the block boundary 404 can be estimated by extending the determination result based on the continuity of the flatness in the horizontal and vertical directions.
  • a high-frequency band component is extracted from the right-eye video signal 201R and the left-eye video signal 201L by HPF, and the level of this high-frequency band component is A pixel larger than the first predetermined value is detected as a large amplitude edge.
  • the first predetermined value described above should be set according to, for example, the encoding bit rate and the image content.
  • the coding noise detection unit 203 further extracts a component having a specific band from the pixel near the large amplitude edge by BPF.
  • the second predetermined value can be changed according to the encoding bit rate of the right-eye video signal 201R and the left-eye video signal 201L and the level of the large amplitude edge. It is also possible to appropriately set from the scenes and genres of the right-eye video signal 201R and the left-eye video signal 201L.
  • this ringing noise 412 occurs only in the same encoding processing block as the large amplitude edge. Therefore, when the block boundary that defines the processing block is known in advance, it is possible to improve the detection accuracy of the ringing noise 412 by determining whether the detected block is in the same block as the large amplitude edge. By such a method, the block noise 406 and the ringing noise 412 are detected for the right-eye video signal 201R and the left-eye video signal 201L.
  • the coding noise detection unit 203 in the present embodiment further corrects the detected coding noise based on the parallax detection signal 210 detected by the parallax detection unit 202. Then, an encoding noise detection signal 212 is generated from the corrected encoding noise, and the encoding noise detection signal 212 is output.
  • the encoding noise detection unit 203 performs parallax detection on the pixel position in the other video signal corresponding to the target pixel in one of the right-eye video signal 201R and the left-eye video signal 201L. It is obtained from the parallax detection signal 210 output from the unit 202.
  • the encoding noise detection unit 203 corrects the pixel of interest with reference to the corresponding pixel at this pixel position. Below, the detail of operation
  • FIG. 4 is a diagram illustrating an example of a detection result of the block noise 406 in the present embodiment.
  • FIG. 4 shows a right-eye video 501 and a left-eye video 503 together with block boundaries 505 and 506 and a parallax amount 509.
  • the parallax amount 509 is 5 pixels.
  • the pixel of interest 507 is a pixel in which block noise 406 is present at the block boundary 505 of the right-eye video 501. That is, in FIG. 4, the pixel in which the block noise 406 is generated is indicated by adding diagonal lines.
  • the pixel position of the left-eye image 503 that is shifted by the parallax amount 509 corresponding to the target pixel 507 in which the block noise 406 is generated is the same as the corresponding pixel 511 that is five pixels to the right of the target pixel 507. Become. As shown in FIG. 4, in this example, no block noise 406 is generated in the corresponding pixel 511. Therefore, the detection result of the block noise 406 can be corrected based on the detection results of the target pixel 507 and the corresponding pixel 511.
  • the encoding noise detection unit 203 makes both detection results valid and “no noise”.
  • the detection result of one of the target pixel 507 and the corresponding pixel 511 is “no noise” and the other is “no noise”, if there is a “no noise” pixel at the block boundaries 505 and 506, the code
  • the activation noise detection unit 203 makes both detection results valid as they are, and if the “noisy” pixel is not on the block boundaries 505 and 506, the detection result is invalid and both make “no noise”. By performing such correction, it is possible to suppress the occurrence of erroneous detection.
  • the detection accuracy of the block noise 406 can be further improved by using the detection results of the plurality of pixels 508 arranged vertically along the block boundary 505.
  • the encoding noise detection unit 203 makes both detection results valid and “no noise” as they are.
  • the detection result of either the target pixel 507 or the corresponding pixel 511 is “no noise” and the other is “no noise”
  • the coding noise detection unit 203 blocks the “no noise” pixel due to the parallax. It is determined that the boundary has deviated, and both detection results are valid as they are.
  • the encoding noise detection unit 203 has a parallax amount 509 equal to the number of constituent pixels of the block (eight pixels in MPEG2), or The detection result of either pixel can be validated as it is, assuming that it is an integer multiple thereof. Also, the coding noise detection unit 203 determines that neither detection result is the block noise 406 but the pattern (picture) that matches the noise detection, that is, the left and right detection results are invalid and “no noise”. It can also be corrected.
  • the coding noise detection unit 203 considers the detection results of a plurality of pixels 508 that are continuously arranged, and the detection result of “with noise” is continuously arranged in both the right-eye video 501 and the left-eye video 503. May be determined as noise, and the detection result of the target pixel 507 may be validated as it is.
  • the block boundaries 505 and 506 are in the vertical direction
  • the plurality of pixels 508 are arranged vertically.
  • a plurality of pixels arranged in the horizontal direction can be applied.
  • the encoding noise detection unit 203 invalidates the detection result as a false detection when the “no noise” detection result exists in both the right-eye video 501 and the left-eye video 503 to some extent, The detection result may be corrected as “no noise”. Thus, even when the block boundaries 505 and 506 are not known in advance, the detection accuracy of the block noise 406 can be improved by considering the detection results of a plurality of surrounding pixels.
  • FIG. 5 is a diagram illustrating an example of a detection result of the ringing noise 412 according to the embodiment of the present invention.
  • FIG. 5 shows a right-eye image 601 and a left-eye image 603 together with block boundaries 605 and 606 and a parallax amount 609.
  • the parallax amount 609 is 5 pixels.
  • the amount of parallax 609 between the right-eye video 601 and the left-eye video 603 is 5 pixels, and thus in the left-eye video 603 corresponding to the pixel of interest 611 in the right-eye video 601.
  • the corresponding pixel 613 is at the position of 5 pixels on the right side.
  • ringing noise 412 caused by the edge of a vertical line (black circle portion in the figure) in the block is generated in a plurality of pixels 615 on the left side (circled line in the drawing).
  • the plurality of pixels 607 corresponding to the ringing noise 412 of the left-eye video 603 are not in the ringing noise 412 because the vertical lines are in different blocks due to the parallax. .
  • the detection result of this ringing noise 412 can also be corrected, for example, as follows using the parallax information.
  • both detection results are valid as they are and “no noise” is set.
  • the detection result of one of the target pixel 611 and the corresponding pixel 613 is “no noise” and the other is “no noise”, either detection result can be made valid as it is.
  • the detection result of either the pixel of interest 611 or the corresponding pixel 613 is “noisy”, either detection result can be used as it is.
  • the final detection result can be obtained from the distribution state of the peripheral detection results. Since the ringing noise 412 often occurs in the peripheral pixels including the target pixel 611 and the corresponding pixel 613, the final detection result can be corrected by the number of pixels determined to be the peripheral noise.
  • the two pixels of the pixel of interest 611 and the corresponding pixel 613 which are in a positional relationship shifted by the parallax amount 609 between the right-eye image 601 and the left-eye image 603, or a plurality of peripheral pixels 607 including these two pixels,
  • the detection accuracy of the ringing noise 412 can be made higher than that detected from only one video signal.
  • the coding noise removal unit 204 performs noise removal processing on the block noise 406 and the ringing noise 412, and for the right eye.
  • the video signal 205R and the left-eye video signal 205L are output.
  • the coding noise removal unit 204 in the present embodiment can reduce the noise only in the noise part by applying the filter process only to the noise part based on the coding noise detection signal 212. That is, since the noise portion of the right-eye video signal 205R and the left-eye video signal 205L to which the encoded noise detection signal 212 is input is accurately shown, it is possible to reduce the blurring of the picture due to the noise reduction filter processing. .
  • the encoding noise removal unit 204 uses the parallax detection signal 210 from the parallax detection unit 202 to convert the noise generation pixel data in the right-eye images 501 and 601 and the left-eye images 503 and 603 into It is also possible to reduce the noise by replacing it with the corresponding pixel data of the other video in which the noise is shifted by the parallax amounts 509 and 609. The reason why this can be done is that the paired right-eye images 501 and 601 and the left-eye images 503 and 603 often have the same pattern, and if there is a parallax, the same pattern can be coded. This is because the processing blocks are different, and the portions where the block noise 406 and the ringing noise 412 are generated are different.
  • noise removal processing by replacing pixel data between the right-eye images 501 and 601 and the left-eye images 503 and 603 will be specifically described.
  • the pixels 507 and 611 in the video signal of either the right-eye video 501 or 601 and the left-eye video 503 or 603 are shifted from the target pixels 507 and 611 by the parallax amounts 509 and 609 detected by the parallax detection unit 202.
  • the detection result in the coding noise detection unit 203 is confirmed. In the case of the result of “no noise” for both pixels, no noise is removed because there is no noise.
  • the block noise 406 is detected at the block boundary 505 in the right-eye image 501 (circles with diagonal lines in the figure), but the correspondence in the left-eye image 503 shifted by the amount of parallax 509. Since there is no block noise 406 in the portion to be processed, the pixel data (black circle) of the left-eye video 503 is replaced with the pixel data generating the block noise 406 of the right-eye video 501. Noise can be reduced by such a data replacement method.
  • replacement processing can be performed using data of a plurality of pixels 513 around the corresponding data.
  • FIG. 6 is a flowchart showing a flow of video signal processing in the video signal processing apparatus according to the embodiment of the present invention.
  • the video signal processing method in the video signal processing apparatus includes a parallax detection step S100 in a stereoscopic image display apparatus that displays a stereoscopic image with a right-eye video signal 201R and a left-eye video signal 201L having parallax.
  • An encoding noise detection step S102 and an encoding noise removal step S104 are provided.
  • the parallax detection unit 202 performs MPEG2 encoding or MPEG4-AVC / H.
  • the parallax is detected from the right-eye video signal 201R and the left-eye video signal 201L obtained by decoding the video signal encoded by the H.264 encoding method, and is output as the parallax detection signal 210.
  • the parallax detection step S100 is performed in the parallax detection unit 202 at and around the pixel at the same position of the left-eye video signal 201L. Take the difference from the pixel.
  • the parallax detection unit 202 determines that the pixel having the smallest absolute value of the difference is a correlated pixel, that is, a pixel shifted by the parallax amounts 509 and 609. In the parallax detection step S100, the parallax detection unit 202 outputs the direction and distance between the target pixels 507 and 611 and the pixels shifted by the parallax amounts 509 and 609 as the parallax detection signal 210.
  • the encoding noise detection unit 203 detects encoding noise generated by the encoding process from the right-eye video signal 201R and the left-eye video signal 201L, and based on the parallax detection signal 210, The detected coding noise is corrected. Then, an encoding noise detection signal 212 is generated from the corrected encoding noise, and the encoding noise detection signal 212 is output. Specifically, the encoding noise detection unit 203 extracts edge (contour) signal components by, for example, a spatial HPF. Then, the edge and the signal component extracted by the spatial HPF in the peripheral pixels of the block boundary 404 are compared, and the difference in the level of the signal component is compared with a threshold value.
  • edge contour
  • the threshold value should be set according to the encoding bit rate and the image content. Therefore, when there is no correlation between the signal components as described above, it is determined that the image is discontinuous and the block noise 406 is generated.
  • the coding noise detection unit 203 applies a pixel of interest in one of the right-eye video signal 201R and the left-eye video signal 201L to the other video signal corresponding thereto.
  • the pixel position is obtained from the parallax detection signal 210 output from the parallax detection unit 202.
  • the encoding noise detection unit 203 corrects the pixel of interest with reference to the corresponding pixel at this pixel position.
  • the coding noise removal unit 204 uses the coding noise detection signal 212 to reduce the coding noise from the right-eye video signal and the left-eye video signal, and to detect the parallax detection signal. Based on 210, the noise generation pixel data in the right-eye video signal 201R and the left-eye video signal 201L is replaced with the corresponding pixel data of the other video in which noise shifted by the parallax is not generated. At least one of reducing encoding noise is performed. In this way, the coding noise removal unit 204 can remove noise by applying the filter process only to the noise portion based on the coding noise detection signal 212.
  • the reason why the encoding noise can be reduced by replacing the pixel data is that the paired right-eye video and left-eye video often have the same pattern. Furthermore, when there is parallax, even if the pattern is the same, the encoding processing blocks are different, and therefore, the portions where the block noise 406 and ringing noise 412 are generated are different. Therefore, since no noise reduction filter processing is used, the pattern is not blurred by the noise reduction filter processing. Further, the noise reduction effect can be further enhanced by the filter processing.
  • the present invention is based on MPEG2 and H.264 using the parallax between the right eye and the left eye for 3D stereoscopic display.
  • the present invention relates to video signal processing that can reduce coding noise generated by H.264 coding processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 映像信号処理装置は、右目用映像信号と左目用映像信号の視差を検出し、視差検出信号として出力する視差検出部と、符号化処理により発生する符号化ノイズを検出し、かつ視差検出信号に基づき検出された前記符号化ノイズを補正して符号化ノイズ検出信号を生成し、その符号化ノイズ検出信号を出力する符号化ノイズ検出部と、符号化ノイズ検出信号を用いてフィルタ処理により符号化ノイズを低減、および視差検出信号を基づき、右目用映像信号と左目用映像信号とにおけるノイズ発生画素のデータを置換処理することにより符号化ノイズを低減、の少なくとも一方を行う符号化ノイズ除去部と、を備える。

Description

映像信号処理装置
 本発明は、3D立体表示を行う際の右目用映像と左目用映像に対して両者の視差を利用してMPEG2方式やMPEG4-AVC/H.264方式の符号化処理により発生する符号化ノイズを低減することを可能にする映像信号処理に関する。
 映像表示装置において、3D立体表示を得るために様々な方法が検討されている。対象物の右目用映像と左目用映像とを用意し、これらをそれぞれ右目および左目で見せるような仕組みを提供し、対象物を立体視させる方法が、よく知られている。通常、人間が目で何かを見る場合、同じ対象物を見ていても右目と左目とで見える像には、視差が生じる。この視差により、人間は見ている対象物を立体的に捉えたり、その対象物の奥行きを感じたりすることができる。従って、この視差を持った右目用映像信号と左目用映像信号を用意することで、対象物を立体視することができる映像表示装置が実現される。
 次に、右目用映像と左目用映像との視差について説明する。例えば、右目用映像における対象物が左側に、左目用映像における対象物が右側にと、ずれればずれるほど、これらの映像を見ている人間には、対象物が手前側に飛び出しているように見える。また、逆に右目用映像における対象物が右側に、左目用映像における対象物が左側にと、ずれればずれるほど、これらの映像を見ている人間には、対象物が奥行き側に引っ込んでいるように見える。また、視差がなく右目用映像と左目用映像とが同じ場合には、対象物は、映像表示装置の表示面の位置にあるように見える。このような立体視することができる視差を持った映像は、同じカメラを水平に2台並べて撮影することで簡単に得ることができる。この際、通常、右目用のカメラは右側に、左目用のカメラは左側に配置する。
 また、3D立体視のための映像表示装置として様々な方式が提案されている。例えば、アクティブシャッタ方式は、右目用映像と左目用映像とを時系列に並べて順次表示する。そして、右目用レンズと左目用レンズとが右目用映像と左目用映像のそれぞれに合わせて開閉するシャッターメガネを使うことにより、右目用映像は右目のみで、左目用映像は左目のみで見ることになる。このようにして、対象物を立体視することが可能になる(特許文献1参照)。
 このような対象物を立体視するための映像信号を伝送する場合、右目用映像信号と左目用映像信号とをそれぞれ送る必要がある、したがって、そのまま右目用映像信号と左目用映像信号とを伝送すると、伝送レートが通常の場合と比べて、2倍になる。
 例えば、図7Aに示すフィールドシーケンシャル方式は、左目用映像Lと右目用映像Rとをフレーム毎に時系列に配列して送る方式である。この方式では、立体視をしない場合、すなわち2次元表示に対して垂直解像度・水平解像度共に劣化のない信号が得られる。しかしながら、伝送レートが通常の場合と比べて、2倍になる。
 そこで伝送レートを抑えるため、図7B、7C、7Dに示すような数種類の方式が開示されている。図7Bに示すサイドバイサイド方式は、水平解像度が1/2の右目用映像Rと左目用映像Lとを1フレームの右半分と左半分とに配置して送る方式である。しかしながら、この方式では、水平解像度に劣化が生じる。また、図7Cに示す垂直インターリーブ方式は、垂直方向に1ライン毎に左目用映像Lと右目用映像信号Rとを多重して送信する方式である。しかしながら、この方式では、垂直解像度に劣化が生じる。さらに、図7Dに示すチェッカパタン方式は、画素毎に右目用映像Rと左目用映像Lを千鳥模様に配列して送る方式である。しかしながら、この方式では、水平解像度・垂直解像度共に劣化が生じる。
 このような種々の方式によって伝送される映像信号は、近年のデジタル放送などで使用されるMPEG2符号化方式やMPEG4-AVC/H.264符号化方式などにより符号化処理された後に伝送する、あるいは蓄積メディアに記録されることが想定される。これの符号化処理により、データ量を圧縮することで伝送効率を高めることが可能となる。しかし、符号化処理により、圧縮処理に伴う符号化ノイズが発生し、画質劣化の要因ともなる。符号化ノイズには、一連の符号化処理をブロック単位で行うことにより、そのブロックの境界部に発生するブロックノイズや、量子化処理などに起因するリンギングノイズ(モスキートノイズとも言う)がある。従来から、これらの符号化ノイズに対しては、そのノイズを検出し、フィルタ処理などによりノイズを低減する手法が提案されている(参考文献2参照)。
 このような手法では、高域通過フィルタ(以下、HPF(High Pass Filter)と略記する)や帯域通過フィルタ(以下、BPF(Band Pass Filter)と略記する)により、映像信号からノイズを抽出する。しかし、実際には映像信号中の絵柄との区別が難しく誤検出をする場合が多いため、フィルタ処理により絵柄がぼけるといった副作用が発生する。また、フィルタの特性によっては、ノイズ低減効果が得にくいといった課題がある。
 このように従来の技術では、3D立体表示の映像信号に対しMPEG2やH.264の符号化処理をした場合に発生するブロックノイズやリンギングノイズといった符号化ノイズを低減する場合、実際にはノイズと映像中の絵柄との区別が難しく誤検出をすることが多い。その結果、ノイズ低減用のフィルタ処理により絵柄がぼけたり、フィルタの特性によってはノイズ低減効果が得にくいといった課題がある。
特開2002-262310号公報 特開2000-341558号公報
 本発明の映像信号処理装置は、視差を有する右目用映像信号と左目用映像信号とにより立体画像を表示する立体画像表示装置において、視差検出部と符号化ノイズ検出部と符号化ノイズ除去部とを備えている。視差検出部は、MPEG2符号化方式またはMPEG4-AVC/H.264符号化方式により符号化された映像信号をデコードした右目用映像信号と左目用映像信号とから視差を検出し、検出した視差を視差検出信号として出力する。符号化ノイズ検出部は、右目用映像信号と左目用映像信号とから符号化処理により発生する符号化ノイズを検出し、かつ視差検出信号に基づき、検出された符号化ノイズを補正し、補正した符号化ノイズから符号化ノイズ検出信号を生成し、符号化ノイズ検出信号を出力する。符号化ノイズ除去部は、符号化ノイズ検出信号を用いて、右目用映像信号と左目用映像信号とからフィルタ処理により符号化ノイズを低減、および視差検出信号を基づき、右目用映像信号と左目用映像信号とにおけるノイズ発生画素のデータを、視差だけずれたノイズの発生していないもう一方の映像の対応する画素データと置換処理をすることにより符号化ノイズを低減、の少なくとも一方を行う。
 このような構成により、右目用映像信号と左目用映像信号の間の視差を検出し、これを符号化ノイズ検出やノイズ除去処理に利用することにより、符号化ノイズ検出の精度を高めたり、フィルタ処理による絵柄がぼけるといった弊害を低減させる。
 また、本発明の映像信号処理方法は、視差を有する右目用映像信号と左目用映像信号とにより立体画像を表示する立体画像表示装置において、視差検出ステップと符号化ノイズ検出ステップと符号化ノイズ除去ステップとを備えている。視差検出ステップは、視差検出部において、MPEG2符号化方式またはMPEG4-AVC/H.264符号化方式により符号化された映像信号をデコードした右目用映像信号と左目用映像信号とから視差を検出し、視差検出信号として出力する。符号化ノイズ検出ステップは、符号化ノイズ検出部において、右目用映像信号と左目用映像信号とから符号化処理により発生する符号化ノイズを検出し、かつ視差検出信号に基づき、検出された符号化ノイズを補正し、補正した符号化ノイズから符号化ノイズ検出信号を生成し、符号化ノイズ検出信号を出力する。符号化ノイズ除去ステップは、符号化ノイズ除去部において、符号化ノイズ検出信号を用いて、右目用映像信号と左目用映像信号とからフィルタ処理により符号化ノイズを低減、および視差検出信号を基づき、右目用映像信号と左目用映像信号とにおけるノイズ発生画素のデータを、視差だけずれたノイズの発生していないもう一方の映像の対応する画素データと置換処理をすることにより符号化ノイズを低減、の少なくとも一方を行う。
図1は、本発明の実施の形態における映像信号処理装置の構成を示すブロック図である。 図2は、本発明の実施の形態における映像信号入力、表示を示す図である。 図3Aは、本発明の実施の形態におけるブロックノイズを示す図である。 図3Bは、本発明の実施の形態におけるリンギングノイズを示す図である。 図4は、本発明の実施の形態におけるブロックノイズの検出結果の例を示す図である。 図5は、本発明の実施の形態におけるリンギングノイズの検出結果の例を示す図である。 図6は、本発明の実施の形態における映像信号処理装置において映像信号処理の流れを示すフローチャートである。 図7Aは、従来の3D立体表示における伝送フォーマットを示す図である。 図7Bは、従来の3D立体表示における伝送フォーマットを示す図である。 図7Cは、従来の3D立体表示における伝送フォーマットを示す図である。 図7Dは、従来の3D立体表示における伝送フォーマットを示す図である。
 (実施の形態)
 図1は、本発明の実施の形態における映像信号処理装置の構成を示すブロック図である。以下、本発明の実施の形態について、図面を参照しながら説明する。図1に示すように、本実施の形態における映像信号処理装置は、映像信号入力端子201を有する視差検出部202と、符号化ノイズ検出部203と、映像信号出力端子205を有する符号化ノイズ除去部204とにより構成されている。映像信号入力端子201には、MPEG2符号化方式やMPEG4-AVC/H.264符号化方式により符号化されたものをデコードした右目用映像信号201Rと左目用映像信号201Lとが入力され、映像信号出力端子205からは、映像信号処理装置により信号処理された右目用映像信号205R及び左目用映像信号205Lが出力される。
 視差検出部202は、右目用映像信号201Rと左目用映像信号201Lを入力する。そして、視差検出部202は、右目用映像信号201Rと左目用映像信号201Lに対して両者の視差を検出し、視差検出信号210として出力する。また、符号化ノイズ検出部203は、右目用映像信号201Rおよび左目用映像信号201Lを入力して、ブロックノイズやリンギングノイズといった符号化ノイズを検出する。符号化ノイズ検出部203は、視差検出部202において検出された右目用映像信号201Rと左目用映像信号201Lの間の視差検出結果である視差検出信号210を用いて、さらに検出した符号化ノイズを低減するように符号化ノイズの検出結果を補正する。そして、符号化ノイズ検出信号212として出力する。この補正方法については、後に詳細に説明する。
 符号化ノイズ除去部204は、符号化ノイズ検出部203の出力する符号化ノイズ検出信号212を用いてフィルタ処理により右目用映像信号201Rおよび左目用映像信号201Lから符号化ノイズを低減する。また、符号化ノイズ除去部204は、視差検出部202の出力する視差検出信号210を用いて、右目用映像信号201Rと左目用映像信号201Lとの一方におけるノイズ発生画素のデータをそれらの視差だけずれたノイズの発生していない他方の映像信号の対応する画素データと置き換えることにより、ノイズを低減する。
 以下、具体例を挙げて映像信号処理装置の動作を説明する。右目用映像信号201Rと左目用映像信号201Lは、例えば図2に示す表示映像305として表示装置に表示されるような映像信号を想定する。右目用映像301とそれに対応する左目用映像303には、それぞれ視差を持った台形状の物体(三角形と四角形から構成される物体)がある。そして、右目用映像301と左目用映像303との関係は、図2に示すように左目用映像303が右目用映像301に比べて右にずれている。これらのような映像を表示装置に映し立体視用のメガネを使わずにみると、図2の表示映像305のように右目用映像301と左目用映像303とが重なって見える。
 上記したように表示される右目用映像信号201Rおよび左目用映像信号201LをMPEG2符号化方式やMPEG4-AVC/H.264符号化方式により符号化し、さらにそれをデコード処理した映像信号が、映像信号入力端子201に入力される。この場合、デコード処理により、入力された映像信号である右目用映像信号201Rおよび左目用映像信号201Lにはブロックノイズやリンギングノイズ(モスキートノイズとも言う)が発生することがある。これらのノイズは圧縮率が大きい場合、すなわち、ビットレートが小さくなればなるほど発生しやすくなり、また目につきやすくなる。
 ここで、図2の表示映像305に対応する映像信号に対してデコード処理を行った結果、例えば図3に示すように右目用映像401および左目用映像407にブロックノイズ406やリンギングノイズ412が発生する場合を想定する。そして、上記したような場合の右目用映像信号201Rおよび左目用映像信号201Lが、映像信号入力端子201に入力されるものとする。図3には、例として、右目用映像401に含まれるブロックノイズ406と、左目用映像407に含まれるリンギングノイズ412とを示している。なお、図3には、それぞれの映像におけるブロック境界404、410も示している。なお、右目用映像401、左目用映像407の一部であるブロックノイズ発生領域403,リンギングノイズ発生領域409を部分拡大した図もそれぞれ示している。
 次に、図1に示した各ブロックの具体的な動作について、図3を用いて詳細に説明する。
 まず、視差検出部202は、右目用映像信号201Rおよび左目用映像信号201Lに対して両者の視差を検出する。視差の検出にはいろいろな方法が考えられるが、例えば右目用映像信号201Rの着目画素に対し、視差検出部202は、左目用映像信号201Lの同じ位置にある画素およびその周辺にある画素との差分をとる。そして、視差検出部202は、その差分の絶対値が最も小さい画素が相関のある画素、すなわち視差分だけずれた画素であると判断する。そして、視差検出部202は、着目画素とその視差分だけずれた画素との方向と距離とを視差検出信号210として出力する。
 なお、視差が大きい場合には視差検出部202は、右目用映像信号201Rおよび左目用映像信号201Lの差分をとる対象画素の範囲を広げる必要がある。また、視差検出部202は、検出精度を上げるため着目画素の周辺にある複数の画素の検出結果も用いて、同一の検出結果を持つ画素数が最も多い視差検出結果を着目画素の検出結果としてもよい。このようにする理由は、右目用映像信号201Rと左目用映像信号201Lの間の視差は、周辺画素を含めたある程度まとまった範囲で同一の視差となることが多いということによる。特に符号化ノイズの発生している場合、ノイズにより相関が正しく取れない場合があるため、視差検出部202は、このように着目画素の周辺画素まで拡張して検出を行うことにより、検出精度を高めることができる。また視差検出部202は、差分を取る前に低域通過フィルタ(以下、LPF(Low Pass Filter)と略記する)やBPFによりノイズ成分を除去してノイズの影響を抑えてもよい。なお、視差検出信号210は、表示画面上において方向と距離とを含むものであり、ベクトルである。また、視差検出においては右目用映像信号201Rと左目用映像信号201Lのどちらに着目画素をとってもよい。
 次に、符号化ノイズ検出部203では、まず符号化処理により発生したブロックノイズ406やリンギングノイズ412(モスキートノイズとも言う)を右目用映像信号201Rおよび左目用映像信号201Lに対してそれぞれ検出する。これらのノイズの検出には、様々な検出方法が考えられる。
 ブロックノイズ406を検出する場合、例えばデコーダにて映像信号をデコードする際に処理単位となるのは映像信号のブロックであるため、符号化ノイズ検出部203は、映像信号のブロック境界404を利用してもよい。すなわち、符号化ノイズ検出部203は、ブロックの境界情報と右目用映像信号201Rおよび左目用映像信号201Lと対比する。そして、符号化ノイズ検出部203は、ブロック境界404付近で絵柄のエッジ(輪郭)と平坦度と信号レベルとの連続性をチェックし、ブロック境界404を挟む複数の画素間において、これらの少なくとも1つが不連続になっている場合には上記した複数の画素をブロックノイズ406として検出する。
 具体的には符号化ノイズ検出部203は、例えば、空間方向のHPFによりエッジ(輪郭)の信号成分を抽出する。そして、符号化ノイズ検出部203は、上記したエッジとブロック境界404の周辺画素において空間方向のHPFにより抽出された信号成分とを比較し、信号成分のレベルの差を閾値と比較する。そして閾値と比べて大きければ、信号成分に相関がないとする。ここで、閾値は、符号化ビットレートや画像内容に応じて設定されるべきである。したがって、符号化ノイズ検出部203は、上記したように信号成分に相関がない場合、画像は不連続であって、ブロックノイズ406が発生していると判定する。すなわち、符号化ノイズ検出部203は、ブロック境界404を挟む複数の画素間で空間方向のHPFにより、信号成分を抽出し、複数の画素間の信号成分に相関が無い場合、その複数の画素をブロックノイズ406として検出してもよい。
 また、抽出したエッジの信号成分のレベルがある閾値より大きく、かつ、その周辺画素において空間方向のHPFにより抽出された信号成分のレベルが別の閾値より小さければ、ブロックノイズ406が発生していると判定することもできる。なお、これらの閾値も、符号化ビットレートや画像内容に応じて設定されるべきである。さらに、例えば画像上の縦および横方向の画素間のレベルの差分に関する連続性を算出し、不連続の場合、ブロックノイズ406が発生していると判定することもできる。なお、映像信号のブロックの境界情報は、デコーダにより検出できる場合、これを符号化ノイズ検出部203に入力すればよい。
 また、符号化ノイズ検出部203は、平坦度の連続性でブロックノイズ406の発生を判定してもよい。すなわち、平坦部では信号レベルの変動が小さく、HPFによる抽出成分がほとんどないため、符号化ノイズ検出部203は、ブロックノイズ406に起因する信号のレベル差を検出することができる。
 また、符号化ノイズ検出部203は、境界情報がデコーダから入力されない場合においても、映像信号からブロックノイズ406をある程度検出することができる。例えば、HPF抽出成分を空間方向(水平、垂直方向)に累積し、その分布によりブロック境界404を推定してもよい。これはMPEG2方式の場合、ブロック境界404は水平、垂直方向に定位であるため上記したHPFによる抽出成分の累積値は、ブロック境界404の位置に合わせて周期的に増減を繰り返す(境界位置では累積値が大きい)ことが多い。したがって、上記した方法により符号化ノイズ検出部203は、ブロック境界404を特定することができる。
 H.264方式の場合、ブロックサイズは可変であるが4画素、8画素の単位であることが多い。したがって、符号化ノイズ検出部203は、これを考慮した判定を行えば、ブロック境界404を特定することは可能である。また、平坦度の連続性による判定結果を同様に水平、垂直方向に拡張して判定することでブロック境界404を推定することも可能である。
 一方、リンギングノイズ412の検出の場合、例えば、映像信号から検出する方法として、まずHPFにより右目用映像信号201Rおよび左目用映像信号201Lとから高周波帯域成分を抽出し、この高周波帯域成分のレベルが第一所定値以上に大きな画素を大振幅エッジとして検出する。なお、上記した第一所定値は、例えば符号化ビットレートや画像内容に応じて設定されるべきである。そして、符号化ノイズ検出部203は、さらにこの大振幅エッジの近傍の画素についてBPFにより特定の帯域を有する成分を抽出する。そして、抽出した特定の帯域成分のレベルが第二所定値以上であれば、これらの画素をリンギングノイズ412として検出してもよい。これはリンギングノイズ412が大振幅エッジ付近の平坦度の高い部分に発生する小~中レベルの変動であることが多いためである。なお、第二所定値は、右目用映像信号201Rおよび左目用映像信号201Lの符号化ビットレートや大振幅エッジのレベルに応じて設定値を変更することができる。また、右目用映像信号201Rおよび左目用映像信号201Lのシーンやジャンルから、適宜設定することも可能である。
 また、このリンギングノイズ412は大振幅エッジと同じ符号化処理ブロック内でのみ発生する。したがって、処理ブロックを定めるブロック境界が予め分かる場合には、検出された大振幅エッジと同じブロック内にあるか判別することでリンギングノイズ412の検出精度を高めることができる。このような方法により、右目用映像信号201Rおよび左目用映像信号201Lについてブロックノイズ406とリンギングノイズ412との検出を行う。
 ここで、本実施の形態における符号化ノイズ検出部203は、上述した動作に加えて、さらに、視差検出部202において検出された視差検出信号210に基づき、検出された符号化ノイズを補正する。そして、補正した符号化ノイズから、符号化ノイズ検出信号212を生成して、その符号化ノイズ検出信号212を出力する。このような動作を行うために、符号化ノイズ検出部203は、右目用映像信号201Rと左目用映像信号201Lの一方における着目画素に対し、これに対応する他方の映像信号における画素位置を視差検出部202から出力される視差検出信号210から求める。そして、符号化ノイズ検出部203は、この画素位置における対応画素を参照して、着目画素を補正する。以下では、上記した符号化ノイズ検出部203の動作の詳細について説明する。
 図4は、本実施の形態におけるブロックノイズ406の検出結果の例を示す図である。図4には、右目用映像501と左目用映像503とをブロック境界505,506および視差量509とともに示している。なお、この例では、視差量509は5画素としている。図4に示すように、例えば着目画素507を右目用映像501のブロック境界505にあるブロックノイズ406の発生している画素とする。すなわち、図4では、ブロックノイズ406の発生している画素は、斜線を付加して示している。したがって、ブロックノイズ406の発生している着目画素507に対応する視差量509だけずれた位置にある左目用映像503の画素位置は、着目画素507から右に5画素の位置にある対応画素511となる。図4に示すように、この例では、対応画素511には、ブロックノイズ406が発生していない。したがって、これらの着目画素507、対応画素511における検出結果によりブロックノイズ406の検出結果を補正することができる。
 ここで、符号化ノイズ検出部203におけるブロックノイズ406の検出結果の補正について詳細に説明する。
 まず、例えばデコーダから境界情報が入力される場合のように、予めブロック境界505、506が分かる場合について説明する。この場合には、次のような補正方法が考えられる。右目用映像501の着目画素507および左目用映像503の対応画素511のどちらの検出結果も「ノイズあり」の場合、かつ着目画素507と対応画素511がともにブロック境界505,506にある場合、すなわち視差量509がブロックの構成画素数(MPEG2なら8画素)と等しい場合、あるいはその整数倍の場合、符号化ノイズ検出部203は、検出結果を有効にする。しかし、着目画素507と対応画素511のどちらか一方でもブロック境界505、506になければ誤検出の可能性があるものとして、符号化ノイズ検出部203は、どちらの検出結果も無効とし「ノイズなし」とする。また着目画素507と対応画素511のどちらの画素の検出結果も「ノイズなし」の場合、符号化ノイズ検出部203は、そのままどちらの検出結果も有効とし「ノイズなし」とする。また着目画素507と対応画素511のどちらか一方の検出結果が「ノイズあり」で、もう一方が「ノイズなし」である場合、「ノイズあり」の画素がブロック境界505、506にあれば、符号化ノイズ検出部203は、そのままどちらの検出結果も有効とし、「ノイズあり」の画素がブロック境界505、506になければ検出結果を無効としどちらも「ノイズなし」とする。このような補正を行うことにより誤検出の発生を抑えることが可能となる。
 なお、ブロック境界505に沿って縦に並ぶ複数の画素508の検出結果を使用して、よりブロックノイズ406の検出精度をあげることもできる。例えば、着目画素507を中心に連続して並ぶ複数の画素508の検出結果から数の多い方の検出結果を着目画素507の検出結果として補正処理を行うことも可能である。そしてさらに、補正した後に複数の画素508の補正後の結果も含めて最終的な検出結果とすることも可能である。
 次に、予めブロック境界505、506が分からない場合の補正について説明する。例えば次のような補正方法が考えられる。着目画素507と対応画素511のどちらの画素の検出結果も「ノイズなし」の場合、符号化ノイズ検出部203は、そのままどちらの検出結果も有効とし「ノイズなし」とする。また着目画素507と対応画素511のどちらか一方の検出結果が「ノイズあり」でもう一方が「ノイズなし」である場合、符号化ノイズ検出部203は、視差により「ノイズなし」の画素はブロック境界から外れたと判断し、そのままどちらの検出結果も有効とする。また着目画素507と対応画素511のどちらの画素の検出結果も「ノイズあり」の場合、符号化ノイズ検出部203は、視差量509がブロックの構成画素数(MPEG2なら8画素)と等しい、あるいはその整数倍であるとし、どちらの画素の検出結果もそのまま有効とすることもできる。また、符号化ノイズ検出部203は、どちらの検出結果もブロックノイズ406ではなく、ノイズ検出に合致するパターン(絵柄)、すなわち誤検出であるとして左右どちらの検出結果も無効とし「ノイズなし」と補正することもできる。
 また、符号化ノイズ検出部203は、連続して並ぶ複数の画素508の検出結果を考慮し、「ノイズあり」の検出結果が右目用映像501および左目用映像503でどちらも連続して並ぶ場合には、ノイズであると判断し、着目画素507の検出結果をそのまま有効としてもよい。この例ではブロック境界505、506が縦方向なら縦に並ぶ複数の画素508であるが、例えば境界が横方向なら横に並ぶ複数の画素でも適用できる。また、符号化ノイズ検出部203は、「ノイズなし」の検出結果が右目用映像501および左目用映像503でどちらにもある程度存在する場合には誤検出として検出結果を無効とし、着目画素507の検出結果を「ノイズなし」と補正してもよい。このようにブロック境界505、506が予め分からない場合についても、周辺の複数の画素の検出結果を考慮することで、ブロックノイズ406の検出精度の向上を図ることができる。
 一方、リンギングノイズ412についても同様の補正が可能である。図5は、本発明の実施の形態におけるリンギングノイズ412の検出結果の例を示す図である。図5には、右目用映像601と左目用映像603とをブロック境界605,606および視差量609とともに示している。なお、この例でも、視差量609は5画素としている。図5に示すように、例えば図5では右目用映像601と左目用映像603の間の視差量609は5画素であるので、右目用映像601中の着目画素611に対応する左目用映像603中の対応画素613は右側に5画素の位置にある。左目用映像603ではブロック内の縦線(図の黒丸部分)のエッジに起因するリンギングノイズ412がその左側の複数の画素615(図の斜線の入った丸)に発生している。しかし、右目用映像601では視差の関係から左目用映像603のリンギングノイズ412に対応する複数の画素607には、視差により縦線が異なるブロックにあるためリンギングノイズ412が発生していないものとする。
 このリンギングノイズ412の検出結果についても、視差情報により例えば次のような補正をすることができる。着目画素611と対応画素613とのどちらの画素の検出結果も「ノイズなし」の場合、そのままどちらの検出結果も有効とし「ノイズなし」とする。また着目画素611と対応画素613とのどちらか一方の検出結果が「ノイズあり」でもう一方が「ノイズなし」である場合、そのままどちらの検出結果も有効とすることもできる。また、予めブロック境界605、606が分かっている場合には、リンギングノイズ412の発生している画素とそれを発生させる原因となる付近の大振幅エッジの画素とが異なるブロックにあるか(=「ノイズなし」)、同一ブロックにあるか(=「ノイズあり」)を判定し、どちらか一方でも検出結果が合わなければどちらの検出結果も無効とし「ノイズなし」とすることもできる。また着目画素611と対応画素613とのどちらの画素の検出結果も「ノイズあり」の場合、そのままどちらの検出結果も有効とすることもできる。また、予めブロック境界605、606が分かっている場合には、ノイズ画素とそれを発生させる原因となる付近の大振幅エッジの画素とが異なるブロックにあるか(=「ノイズなし」)、同一ブロックにあるか(=「ノイズあり」)を判定し、どちらか一方でも検出結果が合わなければどちらの検出結果も無効にし「ノイズなし」とすることもできる。
 またブロックノイズ検出と同様に周辺の検出結果の分布状態から最終的な検出結果とすることも可能である。リンギングノイズ412は着目画素611や対応画素613を含めその周辺画素においても発生することが多いため、周辺のノイズと判断される画素数によって最終的な検出結果を補正することもできる。
 このように右目用映像601と左目用映像603で視差量609だけずれた位置関係にある着目画素611と対応画素613との2つの画素、あるいはこれら2つの画素を含む周辺の複数の画素607、615に対する符号化ノイズの検出結果を用いて検出結果を補正することにより、一方のみの映像信号から検出するよりもリンギングノイズ412の検出精度を高くすることができる。
 このようにして、符号化ノイズ検出部203において検出された符号化ノイズ検出信号212に基づいて、符号化ノイズ除去部204はブロックノイズ406やリンギングノイズ412に対してノイズ除去処理を行い、右目用映像信号205Rおよび左目用映像信号205Lを出力する。本実施の形態における符号化ノイズ除去部204は、符号化ノイズ検出信号212に基づいて、ノイズ部分のみに対してフィルタ処理を適用することにより、ノイズ部分のみのノイズを低減することができる。すなわち、符号化ノイズ検出信号212が入力された右目用映像信号205Rおよび左目用映像信号205Lのノイズ部分を的確に示しているため、ノイズ低減用のフィルタ処理により絵柄がぼけたりすることを低減できる。
 さらに、上記した方法以外に符号化ノイズ除去部204は、視差検出部202からの視差検出信号210を用いて右目用映像501、601と左目用映像503、603におけるノイズ発生画素のデータを、その視差量509,609だけずれたノイズの発生していないもう一方の映像の対応する画素データと置き換えることにより、ノイズを低減することも可能である。このようにできる理由は、対になった右目用映像501、601と左目用映像503、603とでは同一の絵柄パターンを持つことが多く、また視差がある場合には同一パターンであっても符号化処理ブロックが異なり、これによりブロックノイズ406やリンギングノイズ412の発生部分が異なるからである。
 次に、右目用映像501、601と左目用映像503、603との画素データの置換えによるノイズ除去処理について具体的に説明する。まず右目用映像501、601と左目用映像503、603とのどちらか一方の映像信号中の着目画素507、611と視差検出部202で検出された視差量509、609だけずれた位置にあるこの着目画素507、611に対応するもう一方の映像信号中の対応画素511、613について、符号化ノイズ検出部203における検出結果を確認する。どちらの画素に対しても「ノイズなし」の結果の場合、ノイズがないためノイズ除去処理は行われない。次に、どちらも「ノイズあり」という結果の場合、右目用映像501、601と左目用映像503、603とのどちらの映像信号にもノイズがあるため、右目用映像501、601と左目用映像503、603との画素データの置換えを行ってもノイズを除去することができない。したがって、この場合にはフィルタ処理によりノイズ低減を行う。次に右目用映像501、601と左目用映像503、603とのどちらか一方が「ノイズあり」でもう一方が「ノイズなし」という結果の場合、「ノイズあり」の画素に対応する視差量509、609だけずれたもう一方の映像中の該当する画素のデータをそのまま「ノイズあり」と判定された画素のデータとして置換する。
 例えば図4の場合、右目用映像501ではブロック境界505の部分にブロックノイズ406が検出されているが(図中の斜線の入った丸)、視差量509だけずれた左目用映像503中の対応する部分にはブロックノイズ406がないため、この左目用映像503の画素データ(黒丸)が右目用映像501のブロックノイズ406を発生している画素データと置換される。このようなデータ置換えの方法によりノイズを低減することが可能となる。
 このとき、置換え処理の後に空間LPFをかけることにより置換処理により発生する不要な帯域成分を除去することも可能である。また、視差量509だけずれた対応するデータ同士の置換えのみならず、その周囲にある複数の画素513のデータを使用して置換え処理を行うことも可能である。
 ブロックノイズ406やリンギングノイズ412が発生する箇所の周辺画素間において、信号レベルの変化が少ない部分であることも多いため、着目画素以外に周辺データやその平均を取ったデータなどにより置換え処理を行うことも可能である。このようなノイズ低減処理を用いることによりフィルタ処理による絵柄がぼけるといった弊害を低減させることができる。
 次に、本実施の形態における映像信号処理装置が行う映像信号処理の方法について、図6に示すフローチャートを用いて説明する。図6は、本発明の実施の形態における映像信号処理装置において映像信号処理の流れを示すフローチャートである。図6に示すように、映像信号処理装置における映像信号処理方法は、視差を有する右目用映像信号201Rと左目用映像信号201Lとにより立体画像を表示する立体画像表示装置において、視差検出ステップS100と符号化ノイズ検出ステップS102と符号化ノイズ除去ステップS104とを備えている。
 視差検出ステップS100は、視差検出部202において、MPEG2符号化方式またはMPEG4-AVC/H.264符号化方式により符号化された映像信号をデコードした右目用映像信号201Rと左目用映像信号201Lとから視差を検出し、視差検出信号210として出力する。視差の検出するために、例えば右目用映像信号201Rの着目画素507、611に対し、視差検出ステップS100は、視差検出部202において、左目用映像信号201Lの同じ位置にある画素およびその周辺にある画素との差分をとる。そして、視差検出ステップS100は、視差検出部202において、その差分の絶対値が最も小さい画素が相関のある画素、すなわち視差量509、609だけずれた画素であると判断する。そして、視差検出ステップS100は、視差検出部202において着目画素507、611とその視差量509、609だけずれた画素との方向と距離とを視差検出信号210として出力する。
 符号化ノイズ検出ステップS102は、符号化ノイズ検出部203において、右目用映像信号201Rと左目用映像信号201Lとから符号化処理により発生する符号化ノイズを検出し、かつ視差検出信号210に基づき、検出された符号化ノイズを補正する。そして、補正した符号化ノイズから符号化ノイズ検出信号212を生成し、符号化ノイズ検出信号212を出力する。具体的には符号化ノイズ検出部203において、例えば、空間方向のHPFによりエッジ(輪郭)の信号成分を抽出する。そして、上記したエッジとブロック境界404の周辺画素において空間方向のHPFにより抽出された信号成分とを比較し、信号成分のレベルの差を閾値と比較する。そして閾値と比べて大きければ、信号成分に相関がないとする。ここで、閾値は、符号化ビットレートや画像内容に応じて設定されるべきである。したがって、上記したように信号成分に相関がない場合、画像は不連続であって、ブロックノイズ406が発生していると判定する。
 さらに、検出された符号化ノイズを補正するために、符号化ノイズ検出部203において、右目用映像信号201Rと左目用映像信号201Lの一方における着目画素に対し、これに対応する他方の映像信号における画素位置を視差検出部202から出力される視差検出信号210から求める。そして、符号化ノイズ検出部203は、この画素位置における対応画素を参照して、着目画素を補正する。
 符号化ノイズ除去ステップS104は、符号化ノイズ除去部204において、符号化ノイズ検出信号212を用いて、右目用映像信号と左目用映像信号とからフィルタ処理により符号化ノイズを低減、および視差検出信号210を基づき、右目用映像信号201Rと左目用映像信号201Lとにおけるノイズ発生画素のデータを、視差だけずれたノイズの発生していないもう一方の映像の対応する画素データと置換処理をすることにより符号化ノイズを低減、の少なくとも一方を行う。このようにして、符号化ノイズ除去部204において、符号化ノイズ検出信号212に基づいて、ノイズ部分のみに対してフィルタ処理を適用することによりノイズを除去することができる。すなわち、符号化ノイズ検出信号212が入力された右目用映像信号205Rおよび左目用映像信号205Rのノイズ部分を的確に示しているため、ノイズ低減用のフィルタ処理により絵柄がぼけたりすることを低減できる。
 また、画素データを置換処理することにより符号化ノイズを低減できる理由は、対になった右目用映像と左目用映像とでは同一の絵柄パターンを持つことが多いためである。さらに視差がある場合には同一パターンであっても符号化処理ブロックが異なるため、ブロックノイズ406やリンギングノイズ412の発生部分が異なるからである。したがって、ノイズ低減用のフィルタ処理を用いないので、ノイズ低減用のフィルタ処理により絵柄がぼけたりしない。また、フィルタ処理によりノイズ低減効果をより高めることができる。
 本発明は、3D立体表示を行う際の右目用左目用の映像に対して両者の視差を利用してMPEG2やH.264の符号化処理により発生する符号化ノイズを低減することを可能にする映像信号処理に関する。
 201  映像信号入力端子
 201L  左目用映像信号
 201R  右目用映像信号
 202  視差検出部
 203  符号化ノイズ検出部
 204  符号化ノイズ除去部
 205  映像信号出力端子
 205L  左目用映像信号
 205R  右目用映像信号
 210  視差検出信号
 212  符号化ノイズ検出信号
 301  右目用映像
 303  左目用映像
 305  表示映像
 401  右目用映像
 403  ブロックノイズ発生領域
 404  ブロック境界
 406  ブロックノイズ
 407  左目用映像
 409  リンギングノイズ発生領域
 410  ブロック境界
 412  リンギングノイズ
 501  右目用映像
 503  左目用映像
 505  ブロック境界
 506  ブロック境界
 507  着目画素
 508  複数の画素
 509  視差量
 511  対応画素
 513  複数の画素
 601  右目用映像
 603  左目用映像
 605  ブロック境界
 606  ブロック境界
 607  複数の画素
 609  視差量
 611  着目画素
 613  対応画素
 615  複数の画素

Claims (10)

  1. 視差を有する右目用映像信号と左目用映像信号とにより立体画像を表示する立体画像表示装置において、
    MPEG2符号化方式またはMPEG4-AVC/H.264符号化方式により符号化された映像信号をデコードした前記右目用映像信号と前記左目用映像信号とから前記視差を検出し、検出した前記視差を視差検出信号として出力する視差検出部と、
    前記右目用映像信号と前記左目用映像信号とから符号化処理により発生する符号化ノイズを検出し、
    かつ前記視差検出信号に基づき、検出された前記符号化ノイズを補正し、補正した前記符号化ノイズから符号化ノイズ検出信号を生成し、前記符号化ノイズ検出信号を出力する符号化ノイズ検出部と、
    前記符号化ノイズ検出信号を用いて、前記右目用映像信号と前記左目用映像信号とからフィルタ処理により前記符号化ノイズを低減、
    および前記視差検出信号を基づき、前記右目用映像信号と前記左目用映像信号とにおけるノイズ発生画素のデータを、前記視差だけずれたノイズの発生していないもう一方の映像の対応する画素データと置換処理をすることにより前記符号化ノイズを低減、
    の少なくとも一方を行う符号化ノイズ除去部と、
    を備えた映像信号処理装置。
  2. 前記符号化ノイズ検出部は、ブロック境界を挟む複数の画素間において絵柄のエッジと平坦度と信号レベルとの少なくとも1つが不連続になっている場合、前記複数の画素をブロックノイズとして検出する請求項1に記載の映像信号処理装置。
  3. 前記符号化ノイズ検出部は、ブロック境界を挟む複数の画素間で空間方向の高域通過フィルタにより、信号成分を抽出し、前記複数の画素間の前記信号成分に相関が無い場合、前記複数の画素を前記ブロックノイズとして検出する請求項1に記載の映像信号処理装置。
  4. 前記符号化ノイズ検出部は、前記右目用映像信号と前記左目用映像信号との高周波帯域成分のレベルが第一所定値以上に大きい画素を抽出し、前記画素の近傍の画素の有する特定の帯域成分のレベルが第二所定値以上であれば、前記画素をリンギングノイズと判定する請求項1に記載の映像信号処理装置。
  5. 前記符号化ノイズ検出部は、前記高周波帯域成分が前記第一所定値以上に大きい前記画素と、特定の帯域成分が第二所定値以上である前記画素の近傍の前記画素とが、同一の符号化処理ブロックである場合にのみ、前記画素をリンギングノイズと判定する請求項1に記載の映像信号処理装置。
  6. 視差を有する右目用映像信号と左目用映像信号とにより立体画像を表示する立体画像表示装置において、
    視差検出部において、MPEG2符号化方式またはMPEG4-AVC/H.264符号化方式により符号化された映像信号をデコードした前記右目用映像信号と前記左目用映像信号とから前記視差を検出し、視差検出信号として出力する視差検出ステップと、
    符号化ノイズ検出部において、前記右目用映像信号と前記左目用映像信号とから符号化処理により発生する符号化ノイズを検出し、
    かつ前記視差検出信号に基づき、検出された前記符号化ノイズを補正し、補正した前記符号化ノイズから符号化ノイズ検出信号を生成し、前記符号化ノイズ検出信号を出力する符号化ノイズ検出ステップと、
    符号化ノイズ除去部において、前記符号化ノイズ検出信号を用いて、前記右目用映像信号と前記左目用映像信号とからフィルタ処理により前記符号化ノイズを低減、
    および前記視差検出信号を基づき、前記右目用映像信号と前記左目用映像信号とにおけるノイズ発生画素のデータを、前記視差だけずれたノイズの発生していないもう一方の映像の対応する画素データと置換処理をすることにより前記符号化ノイズを低減、
    の少なくとも一方を行う符号化ノイズ除去ステップと、
    を備えた映像信号処理方法。
  7. 前記符号化ノイズ検出ステップは、ブロック境界を挟む複数の画素間において絵柄のエッジと平坦度信号レベルとの少なくとも1つが不連続になっている場合、前記複数の画素を前記ブロックノイズとして検出する請求項6に記載の映像信号処理方法。
  8. 前記符号化ノイズ検出ステップは、ブロック境界を挟む複数の画素間で空間方向の高域通過フィルタにより、信号成分を抽出し、前記複数の画素間の前記信号成分に相関が無い場合、前記複数の画素を前記ブロックノイズとして検出する請求項6に記載の映像信号処理方法。
  9. 前記符号化ノイズ検出ステップは、前記右目用映像信号と前記左目用映像信号との高周波帯域成分のレベルが第一所定値以上に大きい画素を抽出し、前記画素の近傍の画素の有する特定の帯域成分のレベルが第二所定値以上であれば、前記画素をリンギングノイズと判定する請求項6に記載の映像信号処理方法。
  10. 前記符号化ノイズ検出ステップは、前記高周波帯域成分が前記第一所定値以上に大きい前記画素と、特定の帯域成分が第二所定値以上である前記画素の近傍の前記画素とが、同一の符号化処理ブロックである場合にのみ、前記画素をリンギングノイズと判定する請求項6に記載の映像信号処理方法。
PCT/JP2009/004902 2008-09-29 2009-09-28 映像信号処理装置 WO2010035486A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/989,460 US8558875B2 (en) 2008-09-29 2009-09-28 Video signal processing device
EP09815908A EP2290996A4 (en) 2008-09-29 2009-09-28 VIDEO SIGNAL PROCESSING DEVICE
JP2010530737A JP5375830B2 (ja) 2008-09-29 2009-09-28 映像信号処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008250155 2008-09-29
JP2008-250155 2008-09-29

Publications (1)

Publication Number Publication Date
WO2010035486A1 true WO2010035486A1 (ja) 2010-04-01

Family

ID=42059499

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/004902 WO2010035486A1 (ja) 2008-09-29 2009-09-28 映像信号処理装置

Country Status (4)

Country Link
US (1) US8558875B2 (ja)
EP (1) EP2290996A4 (ja)
JP (1) JP5375830B2 (ja)
WO (1) WO2010035486A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012120054A (ja) * 2010-12-02 2012-06-21 Canon Inc 画像符号化装置、画像符号化方法およびプログラム
WO2012153504A1 (ja) * 2011-05-06 2012-11-15 株式会社ニコン 撮像装置および撮像装置の制御プログラム
JP2014112783A (ja) * 2012-12-05 2014-06-19 Canon Inc 画像処理装置、画像処理方法およびプログラム、並びに画像処理装置を備えた撮像装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010050084A1 (ja) * 2008-10-31 2012-03-29 パナソニック株式会社 信号処理装置
US9164621B2 (en) * 2010-03-18 2015-10-20 Fujifilm Corporation Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium
WO2012108099A1 (ja) * 2011-02-09 2012-08-16 富士フイルム株式会社 撮像装置および撮像方法
JP5807354B2 (ja) * 2011-03-22 2015-11-10 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR101773616B1 (ko) * 2011-05-16 2017-09-13 엘지디스플레이 주식회사 영상처리방법과 이를 이용한 입체영상 표시장치
US20140192266A1 (en) * 2013-01-04 2014-07-10 Qualcomm Incorporated Method and apparatus of reducing compression noise in digital video streams
US9924200B2 (en) * 2013-01-24 2018-03-20 Microsoft Technology Licensing, Llc Adaptive noise reduction engine for streaming video
WO2015061128A1 (en) * 2013-10-21 2015-04-30 Bae Systems Information And Electronic Systems Integration Inc. Medical thermal image processing for subcutaneous detection of veins, bones and the like
WO2018163843A1 (ja) 2017-03-08 2018-09-13 ソニー株式会社 撮像装置、および撮像方法、並びに画像処理装置、および画像処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322302A (ja) * 1994-05-23 1995-12-08 Sanyo Electric Co Ltd 立体動画像再生装置
JPH0847002A (ja) * 1994-07-26 1996-02-16 Sanyo Electric Co Ltd 立体動画像の復号装置
JP2000341558A (ja) 1999-05-31 2000-12-08 Victor Co Of Japan Ltd デジタル放送受信機
JP2002262310A (ja) 2001-02-26 2002-09-13 Nsp Corp 立体映像表示装置
JP2003319419A (ja) * 2002-04-25 2003-11-07 Sharp Corp データ復号装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150608A (ja) * 1996-11-19 1998-06-02 Sanyo Electric Co Ltd デジタル放送システムのユーザ側端末
JP3261115B2 (ja) * 1999-09-22 2002-02-25 富士重工業株式会社 ステレオ画像処理装置
FI115946B (fi) * 2000-05-05 2005-08-15 Nokia Corp Menetelmä virheiden havaitsemiseksi videoinformaatiosta
JP3983573B2 (ja) * 2002-03-06 2007-09-26 富士重工業株式会社 ステレオ画像特性検査システム
JP5535485B2 (ja) * 2006-01-09 2014-07-02 トムソン ライセンシング 削減された分解能更新モードをマルチビュー・ビデオ符号化に提供する方法及び装置
US7876973B2 (en) * 2006-01-12 2011-01-25 Integrity Applications Incorporated Edge ringing artifact suppression methods and apparatuses

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322302A (ja) * 1994-05-23 1995-12-08 Sanyo Electric Co Ltd 立体動画像再生装置
JPH0847002A (ja) * 1994-07-26 1996-02-16 Sanyo Electric Co Ltd 立体動画像の復号装置
JP2000341558A (ja) 1999-05-31 2000-12-08 Victor Co Of Japan Ltd デジタル放送受信機
JP2002262310A (ja) 2001-02-26 2002-09-13 Nsp Corp 立体映像表示装置
JP2003319419A (ja) * 2002-04-25 2003-11-07 Sharp Corp データ復号装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2290996A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012120054A (ja) * 2010-12-02 2012-06-21 Canon Inc 画像符号化装置、画像符号化方法およびプログラム
WO2012153504A1 (ja) * 2011-05-06 2012-11-15 株式会社ニコン 撮像装置および撮像装置の制御プログラム
JP5979137B2 (ja) * 2011-05-06 2016-08-24 株式会社ニコン 撮像装置および撮像装置の制御プログラム
JP2014112783A (ja) * 2012-12-05 2014-06-19 Canon Inc 画像処理装置、画像処理方法およびプログラム、並びに画像処理装置を備えた撮像装置

Also Published As

Publication number Publication date
JP5375830B2 (ja) 2013-12-25
US8558875B2 (en) 2013-10-15
EP2290996A4 (en) 2012-03-14
US20110037835A1 (en) 2011-02-17
EP2290996A1 (en) 2011-03-02
JPWO2010035486A1 (ja) 2012-02-16

Similar Documents

Publication Publication Date Title
JP5375830B2 (ja) 映像信号処理装置
US8447096B2 (en) Method and device for processing a depth-map
EP2549762B1 (en) Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor
JP4485951B2 (ja) 3次元ビデオ信号後処理方法
US20130009955A1 (en) Method and apparatus for correcting errors in stereo images
US8817020B2 (en) Image processing apparatus and image processing method thereof
JP2006513596A5 (ja)
JP2013527646A5 (ja)
US9451233B2 (en) Methods and arrangements for 3D scene representation
JP2005151568A (ja) 中間映像合成のための時間的平滑化装置及び方法
CN102884799A (zh) 用于3维视频的舒适噪声和胶片颗粒处理
JP2012114910A (ja) 遮蔽レイヤの拡張
Pająk et al. Perceptual depth compression for stereo applications
JP2007519338A (ja) 映像フレームのエラー隠蔽装置および方法
WO2010035443A1 (ja) 映像信号処理装置及び映像信号処理方法
Joachimiak et al. View synthesis quality mapping for depth-based super resolution on mixed resolution 3D video
JP2011228929A (ja) 3d符号化装置、3d符号化方法およびプログラム
Kim et al. 3-D video coding using depth transition data
JP5393593B2 (ja) 多視点画像補正装置
Fezza et al. Asymmetric coding using binocular just noticeable difference and depth information for stereoscopic 3D
WO2012046369A1 (ja) 撮像装置、視差調整方法、半導体集積回路及びデジタルカメラ
Fezza et al. Asymmetric coding of stereoscopic 3D based on perceptual significance
Ranjbari et al. Depth error concealment based on decision making
JP6131256B6 (ja) 映像処理装置及びその映像処理方法
TW201304508A (zh) 用於處理視頻之方法及其系統

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09815908

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2010530737

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12989460

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2009815908

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE