WO1998004087A1 - Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels - Google Patents

Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels Download PDF

Info

Publication number
WO1998004087A1
WO1998004087A1 PCT/JP1997/002471 JP9702471W WO9804087A1 WO 1998004087 A1 WO1998004087 A1 WO 1998004087A1 JP 9702471 W JP9702471 W JP 9702471W WO 9804087 A1 WO9804087 A1 WO 9804087A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
video
information
perspective
area
Prior art date
Application number
PCT/JP1997/002471
Other languages
English (en)
French (fr)
Inventor
Haruhiko Murata
Yukio Mori
Shuugo Yamashita
Akihiro Maenaka
Seiji Okada
Kanji Ihara
Original Assignee
Sanyo Electric Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP18962996A external-priority patent/JP3957343B2/ja
Priority claimed from JP8208173A external-priority patent/JP3005474B2/ja
Priority claimed from JP20817296A external-priority patent/JP3235776B2/ja
Priority claimed from JP8240408A external-priority patent/JP2846858B2/ja
Priority claimed from JP9159949A external-priority patent/JP2951291B2/ja
Application filed by Sanyo Electric Co., Ltd. filed Critical Sanyo Electric Co., Ltd.
Priority to US09/147,518 priority Critical patent/US6445833B1/en
Priority to DE69739179T priority patent/DE69739179D1/de
Priority to EP97930812A priority patent/EP0918439B1/en
Publication of WO1998004087A1 publication Critical patent/WO1998004087A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Definitions

  • the present invention relates to an apparatus and a method for converting a two-dimensional image into a three-dimensional image. Background technology>
  • a field memory is used to generate a video signal that is temporally delayed from the original 2D video signal (hereinafter referred to as a delayed video signal).
  • a method is known in which one of the original two-dimensional video signal and the delayed video signal is output as a left-eye video signal, and the other is output as a right-eye video signal.
  • this method has a problem that the cost is high because a field memory is required to generate a video signal delayed in time from the original two-dimensional video signal.
  • this method can only convert a moving 2D image into a 3D image.
  • the present invention eliminates the need for a field memory for generating a video signal delayed in time with respect to the original 2D video signal, thereby reducing the cost and converting the 2D video into a 3D video. And a method.
  • Another object of the present invention is to provide an apparatus and a method for converting a two-dimensional video into a three-dimensional video, which can obtain a stereoscopic video even if the video represented by the original two-dimensional video signal is a still video. I do.
  • An object of the present invention is to provide a stereoscopic effect adjusting method and a stereoscopic effect adjusting device that can adjust the stereoscopic effect of a stereoscopic image obtained by a 3D image signal by processing the 3D image signal in real time. Aim.
  • a first video signal as a reference and a second video signal delayed with respect to the first video signal are generated, one of which is used as a left-eye video signal, and the other is used as a right-eye video signal.
  • the original two-dimensional video signal is used as it is as the first video signal.
  • the amount of delay of the second video signal with respect to the first video signal is determined according to the speed of the video motion of the two-dimensional video signal.
  • the second video signal is generated as follows.
  • a predetermined number of past fields from the latest field of the two-dimensional video signal input to the two-dimensional Z three-dimensional video converter are stored in a plurality of field memories in field units. Then, from the two-dimensional video signals stored in each field memory, the two-dimensional video signal corresponding to the delay amount determined according to the speed of the video motion of the two-dimensional video signal is read.
  • the two-dimensional video signal read from the field memory is the second video signal.
  • the left-eye video signal and the right-eye video signal obtained in this manner are output at normal speed in order to prevent the generation of frits when viewing these images using time-sharing shutter glasses. Is converted to twice as fast.
  • FIG. 55 shows a configuration of a conventional two-dimensional Z three-dimensional video converter for generating a double-speed three-dimensional video signal from a two-dimensional video signal.
  • the two-dimensional three-dimensional video converter is an integrated circuit (LSI) 110 for converting a two-dimensional video signal into a three-dimensional video signal, and a plurality of delay circuits connected to the integrated circuit 110.
  • the components of the integrated circuit 1100 include only a portion related to writing data to the delay field memory 1200 and reading data from the delay field memory 1200. Is shown.
  • the components of the integrated circuit 110 include the write-side data pass path 110, the write-side timing generator 1102, the read-side data pass path 1103, and the read-side reset path.
  • the ringing generation unit 110 is illustrated.
  • the integrated circuit 110 includes, in addition to these components, a motion vector detection unit, an interface connected to a CPU, and the like.
  • the write system timing generator 1102 and read system timing generator 1104 have a reference clock signal CLK generated based on the horizontal synchronization signal HSYNC of the 2D video signal and a vertical synchronization of the 2D video signal.
  • Signal V SYNC The horizontal sync signal HD generated by the reference clock signal CLK based on the horizontal sync signal HS YNC is input.
  • the frequency fc and ⁇ of the reference clock signal CLK are represented by the following equation (1), where fH is the frequency of the horizontal synchronization signal HD.
  • the integrated circuit 1100 has a luminance signal (Y signal) and a color difference signal (R-Y signal and BY signal) that constitute a two-dimensional video signal.
  • the integrated circuit 110 outputs a right-eye video signal and a left-eye video signal having a relative time difference.
  • the right-eye video signal is composed of a right-eye luminance signal Y (R), a right-eye color difference signal R-Y (R), and a right-eye color difference signal B-Y (R).
  • the left-eye video signal is composed of a left-eye luminance signal Y (L), a left-eye color difference signal R-Y (L), and a left-eye color difference signal B—Y (L).
  • One of them is generated based on the signal that the two-dimensional video signal input to the integrated circuit 110 is sent to the read-side data path 1103 via the write-side data path 1101.
  • Video signal for right eye and left eye is supplied to the integrated circuit 1100 via the write-side data path 1 1 0 1 and the delay-side field memory 1 2 Is generated based on the signal sent to.
  • the writing of the Y, R-Y, and B-Y signals input to the write-side data path 111 into the field memory 1200 is performed according to the reference clock signal CLK. That is, the frequency of the write clock to the delay field memory 1200 is the frequency fCLK of the reference clock i CLK.
  • the reading of the signal stored in the field memory 1200 is also performed according to the reference clock signal CLK. That is, the frequency of the read clock of the delay field memory 1200 is also the frequency f CLK of the reference clock signal CLK.
  • the right-eye luminance signal Y (R), right-eye color difference signal R-Y (R), right-eye color difference signal B—Y (R), and left-eye luminance signal Y (L) output from the integrated circuit 1100 are output.
  • the horizontal and vertical frequencies of the left-eye color difference signal R-Y (L) and the left-eye color difference signal BY (L) are the same as the horizontal and vertical frequencies of the 2D video signal.
  • the doubler circuit 1300 includes a right-eye luminance signal Y (R), a right-eye color difference signal R-Y (R), a right-eye color difference signal B-Y (R), and a left-eye luminance output from the integrated circuit 1100.
  • the double-speed field memory 130 that stores the signal Y (L), the left-eye color difference signal R-Y (L), and the left-eye color difference signal B_Y (L), respectively.
  • Double-speed field memory write and evening generator 1307 for controlling data writing to 1-1306, and double-speed field memories 1301 for controlling double-speed data A field memory read / receive timing generating circuit 13008 is provided.
  • the right-eye luminance signal Y (R) is read from the double-speed field memory 1301, and the right-eye color difference signal R—Y (R) is read from the double-speed field memory 1302. Is read, and the right-eye color difference signal B—Y (R) is read from the double-speed field memory 1303.
  • the left-eye video signal is read, the left-eye luminance signal Y (L) is read from the double-speed field memory 1304. Then, the left-eye color difference signal R—Y (L) is read from the double-speed field memory 13 05, and the left-eye color difference signal B—Y (L) is read from the double-speed field memory 13 06. .
  • the reference clock signal CLK is input to the double-speed field memory 13 01 13 06 and the double-speed field memory write timing generator 13 07 as a write clock.
  • the double-speed field memory 1 3 0 1 1 3 0 6 and the double-speed field memory read-out timing generating circuit 1 308 have a clock signal CLK a of twice the frequency of the reference clock signal CLK as a read clock. Is entered.
  • the frequency f CLKa of the read clock signal CLKa is twice the frequency f CLK of the write clock signal CLK.
  • CLK a 2 CLK ⁇ J Therefore, the video signal output from the speed-doubling circuit 1300 is a signal whose horizontal and vertical frequencies are twice as high as those of the two-dimensional video signal.
  • FIG. 56 shows the signals of each section when four delay field memories are provided, and the power, left-eye video signal is delayed by two fields from the right-eye video signal.
  • the conventional two-dimensional Z-three-dimensional video converter requires a double-speed circuit provided with a field memory to generate a double-speed three-dimensional video signal, and thus has a problem of high cost.
  • An object of the present invention is to provide a two-dimensional Z-three-dimensional video converter capable of reducing the number of field memories and reducing costs as compared with the conventional one.
  • An apparatus for converting a first two-dimensional image into a three-dimensional image includes a two-dimensional input
  • a feature amount extracting means for extracting image feature amounts related to perspective of a video for each of a plurality of parallax calculation areas set in one field screen for each field based on a video signal; Based on the image feature amount extracted for each area, disparity information generating means for generating disparity information for each predetermined unit area in one field screen, and a signal in each predetermined unit area of a two-dimensional input video signal, And a phase control unit for generating a first video signal and a second video signal having a horizontal phase difference corresponding to the parallax information corresponding to the predetermined unit area.
  • the parallax information generating means includes, for example, a means for generating information regarding the perspective of the video for each parallax calculation area based on the image feature amount relating to the perspective of the video for each parallax calculation area, and a method for calculating each parallax.
  • a device having means for converting information regarding the perspective of the video for each region into disparity information for each disparity calculation region is used.
  • the parallax information generating means includes, for example, a means for generating information regarding the perspective of the video for each parallax calculation area based on the image feature amount relating to the perspective of the video for each parallax calculation area, a position in the vertical direction of the video ( (Hereinafter referred to as the screen height position) of the disparity calculation areas below the nearest height position where the perspective position represented by the information regarding the perspective of the image is information on the perspective of the image with respect to the parallax calculation area.
  • the screen height position a position in the vertical direction of the video
  • the perspective position represented by the information about the perspective of the image is the perspective represented by the information about the perspective of the image with respect to the parallax calculation area immediately above it.
  • Means for correcting the information regarding the perspective of the video with respect to the parallax calculation area so as to approach the position, and the information regarding the perspective of the video for each parallax calculation area after correction into the parallax information for each parallax calculation area are used.
  • the parallax information generating means includes, for example, a method of grouping the entire area in one field screen for each object included in the parallax calculation area based on the image feature amount relating to the perspective of the video for each parallax calculation area. The results of grouping by means 1 and 1
  • regions in which the size of image features related to perspective of video are similar are grouped together.
  • the means to make the group belong to the surrounding group, and two adjacent groups Based on the image features related to the perspective of the video with respect to the parallax calculation areas in one group and the other group, it should be determined whether or not both groups should be combined, and both groups should be combined. If it is determined, it has a means to combine the two groups.
  • information relating to the perspective of the video for each group is based on the image feature amount relating to the perspective of the video for each parallax calculation area in each group and a weighting factor preset for each parallax calculation area. Is used.
  • the third means for example, the following is used.
  • the perspective distance represented by the information on the perspective of the video is lower than the nearest height position, and the perspective of the video with respect to that parallax calculation area
  • the perspective position represented by the information about the parallax calculation area is located at a position that is more than a predetermined value more than the perspective position represented by the information about the perspective of the parallax calculation area immediately above the parallax calculation area
  • the parallax calculation region is
  • the perspective position represented by the information about the perspective of the video to be read is more than a predetermined value more than the perspective position represented by the information about the perspective of the video with respect to the parallax calculation area immediately above the parallax calculation area.
  • the perspective of the image with respect to the parallax calculation area such that the perspective position represented by the information regarding the perspective of the video with respect to the parallax calculation area approaches the perspective position represented by the information regarding the perspective of the video with respect to the parallax calculation area immediately above.
  • the information on the perspective of the video is adjacent to each other so that the information between the two groups is within the specified range.
  • phase control means for example, a first storage means having a capacity capable of storing a two-dimensional input video signal for a plurality of pixels equal to or less than one horizontal line and temporarily storing the two-dimensional input video signal; A second storage unit that has a capacity capable of storing a plurality of pixels equal to or less than one horizontal line for a two-dimensional input video signal, and temporarily stores a read address of the first storage unit for a two-dimensional input video signal; Horizontal and vertical position of 2D input video signal The standard read address determined according to the position is controlled based on the parallax information corresponding to the predetermined unit area to which the horizontal vertical position of the two-dimensional input video signal belongs, thereby defining the standard read address.
  • a first read address control means for generating a first video signal whose horizontal phase is advanced by an amount corresponding to the parallax information with respect to a reference horizontal phase, and a read address of the second storage means.
  • the standard read address By controlling the standard read address based on the parallax information corresponding to the predetermined unit area to which the horizontal and vertical positions of the two-dimensional input video signal belong, the reference horizontal phase defined by the standard read address is obtained.
  • a second read address control means for generating a second video signal whose horizontal phase is delayed by an amount corresponding to the parallax information. Used.
  • the image feature value related to the perspective of the video is selected from the integrated value of the luminance high-frequency component, the luminance contrast, the integrated value of the luminance, the integrated value of the R-Y component, the integrated value of the B-Y component, and the saturation integrated value. Any given one or any combination is used.
  • the luminance high-frequency component refers to a high-frequency portion of the luminance signal frequency component.
  • Luminance contrast refers to the middle band of the luminance signal frequency component.
  • the luminance integrated value refers to a DC component of a luminance signal frequency component.
  • the predetermined unit area is, for example, an area of one pixel unit.
  • the first method for converting a two-dimensional video into a three-dimensional video according to the present invention is based on a two-dimensional input video signal, and for each field, a plurality of parallax calculation areas set in a one-field screen.
  • the first step of extracting the amount of image features related to the perspective of the video, generating the disparity information for each predetermined unit area within one field screen based on the image features extracted for each disparity calculation area A second step, and a first video signal and a second video signal having a horizontal phase difference corresponding to the disparity information corresponding to the predetermined unit area from a signal in each predetermined unit area of the two-dimensional input video signal. It is characterized by having a third step of generating each.
  • the second step for example, information about the perspective of the video is generated for each parallax calculation area based on the image feature amount related to the perspective of the video for each parallax calculation area.
  • the method includes a step and a step of converting information regarding the perspective of the video for each parallax calculation area into parallax information for each parallax calculation area.
  • the second step includes, for example, generating information on the perspective of the video for each parallax calculation area based on the image feature amount related to the perspective of the video for each parallax calculation area.
  • the perspective position represented by the information about the perspective of the image with respect to the parallax calculation area is the parallax immediately above the parallax calculation area.
  • the perspective position represented by the information about the perspective of the video with respect to the parallax calculation area is the parallax calculation immediately above it.
  • the parallax calculation area is set so as to approach the perspective position represented by the information on the perspective of the image with respect to the area. Step of correcting the information about the perspective of the video against, and information about the perspective of the video for each parallax calculation region after correction, is used which has a step of converting the parallax information for each parallax calculation region.
  • the two-dimensional input image signal is temporarily stored in the first storage means and the second storage means having a capacity capable of storing a two-dimensional human image signal for a plurality of pixels of one horizontal line or less. And storing the read address of the first storage means in the horizontal and vertical positions of the two-dimensional input video signal with respect to the standard read address determined according to the horizontal and vertical positions of the two-dimensional input video signal.
  • a first video signal is generated in which the horizontal phase is advanced by an amount corresponding to the parallax information with respect to the reference horizontal phase defined by the standard read address.
  • the read address of the second storage means is a predetermined read address to which the horizontal vertical position of the two-dimensional input video signal belongs with respect to the standard read address.
  • the second video signal whose horizontal phase is delayed by an amount corresponding to the parallax information with respect to the reference horizontal phase defined by the standard read address can be obtained.
  • the one having the step of generating is used.
  • the image feature amount relating to the perspective of the video any one or any combination selected from the integrated value of the luminance high-frequency component, the luminance contrast, the integrated luminance value, and the integrated chroma value is used.
  • the integrated value of the luminance high-frequency component may be used as the image feature amount related to the perspective of the video.
  • Luminance contrast may be used as the image feature amount relating to the perspective of the video.
  • the integrated value of the luminance high frequency component and the luminance contrast may be used as the image feature amount relating to the perspective of the video.
  • the integrated value of the luminance high-frequency component, the luminance contrast, and the integrated luminance value may be used as the image feature amount relating to the perspective of the video.
  • the integrated value of the luminance high-frequency component, the luminance contrast, and the integrated value of the saturation may be used as the image feature amount relating to the perspective of the video.
  • the integrated value of the luminance high-frequency component, the luminance contrast, the integrated luminance value, and the integrated chroma value may be used as the image characteristic amount related to the perspective of the video.
  • the predetermined unit area is, for example, an area of one pixel unit.
  • a device for converting a second two-dimensional image into a three-dimensional image includes, for each field, a plurality of motion vector detection areas set in one field screen based on a two-dimensional input video signal.
  • a motion vector detecting means for detecting a motion vector for each of them, and a parallax for each predetermined unit area within a one-field screen based on a horizontal component of the motion vector detected for each motion vector detection area.
  • Parallax information generating means for generating information; and a first video signal having a horizontal phase difference corresponding to the parallax information corresponding to the predetermined unit area from a signal in each predetermined unit area of the two-dimensional input video signal, and And phase control means for respectively generating two video signals.
  • the parallax information generating means includes, for example, the horizontal component of the motion vector detected for each motion vector detection area, the maximum value of the horizontal component, and the motion vector detection area in which the horizontal component is the maximum value. , 7j
  • the one-field screen based on the motion vector detection area where the horizontal component is the minimum and the horizontal component is the minimum, and information indicating whether the video in each motion vector detection area is the background or the subject. The one that generates the parallax information for each predetermined unit area in is used.
  • phase control means for example, a first storage means having a capacity capable of storing a two-dimensional input video signal for a plurality of pixels equal to or less than one horizontal line and temporarily storing the two-dimensional input video signal;
  • a second storage unit that has a capacity capable of storing a plurality of pixels equal to or less than one horizontal line for a plurality of pixels, and temporarily stores a two-dimensional input video signal, and a read address of the first storage unit.
  • the standard read address determined according to the horizontal and vertical positions of the two-dimensional input video signal is controlled based on disparity information corresponding to a predetermined unit area to which the horizontal and vertical positions of the two-dimensional input video signal belong.
  • a first read address control means for generating a first video signal having a horizontal phase advanced by an amount corresponding to the parallax information with respect to a reference horizontal phase defined by the standard read address, And controlling the read address of the second storage means with respect to the standard read address based on parallax information corresponding to a predetermined unit area to which the horizontal and vertical positions of the two-dimensional input video signal belong.
  • An apparatus using second read address control means for generating a second video signal whose horizontal phase is delayed by an amount corresponding to the parallax information with respect to a reference horizontal phase defined by an address is used.
  • the predetermined unit area is, for example, an area of one pixel unit.
  • the second method of converting a 2D video into a 3D video according to the present invention is based on a 2D input video signal, and for each field, detects a plurality of motion vector detection areas set in one field screen.
  • First step for detecting the motion vector for each, generating parallax information for each predetermined unit area within one field screen based on the horizontal component of the motion vector detected for each motion vector detection area A second step, and a first video signal and a second video signal having a horizontal phase difference corresponding to the disparity information corresponding to the predetermined unit area from the signal in each predetermined unit area of the two-dimensional input video signal.
  • a third step of generating each of In the second step for example, the horizontal component of the motion vector detected for each motion vector detection area, the maximum value of the horizontal component, the motion vector detection area where the horizontal component is the maximum value, and the horizontal component
  • the minimum value, the motion whose horizontal component is the minimum value Parallax information for each predetermined unit area in one field screen is generated based on information indicating whether the video of the vector detection area and the motion vector detection area is the background or the subject.
  • the two-dimensional input video signal is temporarily stored in the first storage means and the second storage means having a capacity capable of storing a plurality of pixels equal to or less than one horizontal line. And storing the read address of the first storage means in the horizontal and vertical positions of the two-dimensional input video signal with respect to the standard read address determined according to the horizontal and vertical positions of the two-dimensional input video signal.
  • a first video signal is generated in which the horizontal phase is advanced by an amount corresponding to the parallax information with respect to the reference horizontal phase defined by the standard read address.
  • the read address of the second storage means is a predetermined read address to which the horizontal vertical position of the two-dimensional input video signal belongs with respect to the standard read address.
  • the predetermined unit area is, for example, an area of one pixel unit.
  • the first stereoscopic effect adjusting method according to the present invention is a method of adjusting the contour of an image for each predetermined unit area of a three-dimensional image based on information on the perspective of the image for each predetermined unit area within one field screen of the three-dimensional image.
  • the feature is to adjust the stereoscopic effect of 3D video by controlling the sharpness.
  • the predetermined unit area is, for example, an area of one pixel unit.
  • the sharpness of the outline of the image is increased in the area where the near image is reflected, and the sharpness of the outline of the image is reduced in the area where the far image is reflected.
  • the sharpness of the outline of the image is controlled. The human eye sees the contour more closely, and the farther the object looks, the more blurred the contour is. Be emphasized.
  • a second stereoscopic effect adjusting method is a method for adjusting the saturation of an image for each predetermined unit area of a three-dimensional image based on information on the perspective of the image for each predetermined unit area within one field screen of the three-dimensional image.
  • the feature is that the stereoscopic effect of the 3D image is adjusted by controlling the 3D image.
  • the predetermined unit area is, for example, an area of one pixel unit.
  • the saturation of the image is set so that the saturation of the image is increased in the area where the near image is reflected, and the saturation of the image is decreased in the area where the far image is reflected. Is controlled. To the human eye, the closer the object, the more vivid the color, and the farther the object, the lighter the color. This enhances the stereoscopic effect of the image.
  • a third stereoscopic effect adjustment method is a method for adjusting the contour of an image for each predetermined unit area of a three-dimensional image based on information on the perspective of the image for each predetermined unit area within one field screen of the three-dimensional image.
  • the feature is to control the stereoscopic effect of the 3D image by controlling the sharpness and the saturation of the image.
  • the predetermined unit area is, for example, an area of one pixel unit.
  • the sharpness of the outline of the image is increased in the area where the near image is projected, and the sharpness of the outline of the image is reduced in the area where the distant image is projected.
  • the sharpness of the outline of the image is controlled, so that the saturation of the image is increased in the area where the near image is reflected, and the saturation of the image is decreased in the area where the far image is reflected.
  • the saturation of the image is controlled. To the human eye, the closer the object is, the sharper the outline and the color appear, and the farther the object is, the more the outline appears blurred and the color appears lighter, enhancing the stereoscopic effect of the image.
  • a first three-dimensional effect adjusting apparatus provides an image contour for each predetermined unit area of a three-dimensional image based on information on the perspective of the image for each predetermined unit area within one field screen of the three-dimensional image.
  • It is characterized by having contour control means for controlling brightness.
  • the predetermined unit area is, for example, an area of one pixel unit.
  • the contour control means for example, for a region where a near image is projected, the distance is increased so that the brightness of the outline of the image is high, and for a region where the image is projected, the image is projected.
  • a method of controlling the sharpness of the outline of the image is used. To the human eye, the closer the object, the more vivid the color, and the farther the object, the lighter the color. This enhances the stereoscopic effect of the image.
  • a contour control means for a region where the image is close to the image, the ratio of the low frequency component of the image is reduced and the ratio of the high frequency component of the image is increased, so that the distant image is For a pleasant area, one may increase the proportion of the low-frequency component of the video and decrease the proportion of the high-frequency component of the video.
  • a second three-dimensional effect adjusting device provides a three-dimensional image based on information on the perspective of an image for each predetermined unit area within a one-field screen of a three-dimensional image, for each predetermined unit area of the three-dimensional image. Characterized by having a saturation control means for controlling
  • the predetermined unit area is, for example, an area of one pixel unit.
  • the saturation control means may increase the saturation of the image in a region where a near image is reflected, and decrease the saturation of the image in a region where a distant image is reflected.
  • a device that controls the saturation of an image is used. To the human eye, the closer the object, the more vivid the color, and the farther the object, the lighter the color. This enhances the stereoscopic effect of the image.
  • a third stereoscopic effect adjusting device provides a three-dimensional effect adjusting device that adjusts the outline of an image for each predetermined unit area of a three-dimensional image based on information on the perspective of the image for each predetermined unit area within one field screen of the three-dimensional image.
  • Contour control means for controlling the sharpness; and controlling the saturation of the image for each predetermined unit area of the three-dimensional image based on information on the perspective of the image for each predetermined unit area within one field screen of the three-dimensional image. It is characterized by having a saturation control means.
  • the predetermined unit area is, for example, an area of one pixel unit.
  • the contour control means increases the sharpness of the outline of the image in a region where a near image is projected, and sets the brightness of the outline of the image in a region where a far image is projected.
  • a device that controls the brightness of the outline of the video is used so that the image is low.
  • the saturation control means for a region where a close video is reflected, the saturation of the video is increased. In the area where the image is projected in the distance, the saturation of the image A device that controls the saturation of the video is used so that the image quality is reduced.
  • the two-dimensional Z-three-dimensional video converter comprises: a plurality of field memories for storing the input two-dimensional video signal for a predetermined number of past fields from the latest field; and a plurality of field memories. Means for reading out two video signals having a relative time difference, outputting one as a left-eye video signal, and outputting the other as a right-eye video signal.
  • the frequency of the read clock of each field memory is set to twice the frequency of the write clock of each field memory.
  • the field memory power and the read left and right eye video signals Is a signal whose horizontal and vertical frequencies are twice that of a 2D video signal.
  • FIG. 1 is a block diagram showing an overall configuration of a 2DZ3D video conversion device.
  • FIG. 2 is a schematic diagram illustrating a parallax calculation area.
  • FIG. 3 is a block diagram showing a configuration of the luminance integrating circuit.
  • FIG. 4 is a block diagram showing the configuration of the high frequency component integrating circuit.
  • FIG. 5 is a circuit diagram showing a specific example of the high-pass filter 2 32 of FIG.
  • FIG. 6 is a graph showing input / output characteristics of the slice processing circuit 234 of FIG.
  • FIG. 7 is a block diagram showing another example of the high frequency component integrating circuit.
  • FIG. 8 is a circuit diagram showing a specific example of the peak detection circuit 239 of FIG.
  • FIG. 9 is a time chart showing signals of each part of the peak detection circuit 239.
  • FIG. 10 is a block diagram illustrating a configuration of a luminance contrast calculation circuit.
  • FIG. 11 is a circuit diagram showing a configuration of the luminance contrast detection circuit of FIG.
  • FIG. 12 is a circuit diagram showing a configuration of a saturation integration circuit.
  • FIG. 13 is an explanatory diagram for describing a method of generating disparity information using CPU.
  • FIG. 14 is a graph showing the input / output relationship of the normalizing means 4 10 of FIG.
  • FIG. 15 is a schematic diagram showing a parallax calculation area actually set.
  • FIG. 16 is a schematic diagram illustrating an example of depth information of each parallax calculation area before depth correction.
  • FIG. 17 is a schematic diagram showing depth information of each parallax calculation area after depth correction.
  • FIG. 18 is a graph showing a relationship between the height position of the screen before the depth correction and the depth information and a relationship between the height position of the screen after the depth correction and the depth information.
  • FIG. 19 is a graph showing the relationship between depth information and disparity information.
  • FIG. 20 is a block diagram mainly showing a configuration of a parallax control circuit and an arbitrary pixel delay FIFO.
  • FIG. 21 is a schematic diagram showing a relative horizontal position, a relative vertical position, and the like.
  • FIG. 22 is an explanatory diagram for describing a method of generating disparity information for a target pixel.
  • FIG. 23 is a diagram illustrating a selection rule by the parallax selection circuit.
  • FIG. 24 is a time chart showing signals of respective units when the disparity information is 0.
  • FIG. 25 is a block diagram in which each address value when the disparity information is 1.2 is added to the disparity control circuit.
  • FIG. 26 is a time chart showing signals of respective units when the disparity information is 1.2.
  • FIG. 27 is a block diagram illustrating the overall configuration of the 2D / 3D video conversion device.
  • FIG. 28 is a flowchart illustrating a processing procedure of generating disparity information by the CPU.
  • FIG. 29 is a histogram showing the number of parallax calculation regions for each normalized value of the high-frequency component integrated value.
  • FIG. 30 is a schematic diagram showing a grouping result obtained based on the histogram of FIG.
  • FIG. 31 is a graph showing the distribution of the parallax calculation area with the normalized value of the RY component integrated value on the vertical axis and the normalized value of the BY component integrated value on the horizontal axis.
  • FIG. 32 is a schematic diagram showing the grouping results obtained based on the graph of FIG.
  • FIG. 33 is a schematic diagram showing the grouping results obtained based on the graph of FIG.
  • Figure 34 is a schematic diagram showing the grouping results corrected by the spatial separation process.
  • FIG. 35 is a schematic diagram for explaining the singularity processing.
  • FIG. 36 is a schematic diagram showing the grouping result corrected by the singularity processing.
  • FIG. 37 is a schematic diagram showing background weight components set in advance for each parallax calculation area.
  • FIG. 38 is a schematic diagram illustrating an example of depth information of each parallax calculation area before depth correction.
  • FIG. 39 is a schematic diagram showing depth information of each parallax calculation area after depth correction.
  • Figure 40 shows the relationship between the height position of the screen before depth correction and the depth information.
  • 6 is a graph showing the relationship between the height information on the screen and depth information after depth correction.
  • FIG. 41 is a schematic diagram for explaining the depth information correction processing for the inside of the group.
  • FIG. 42 is a graph showing the relationship between depth information and disparity information.
  • FIG. 43 is a block diagram illustrating the overall configuration of the 2D / 3D video conversion device.
  • FIG. 44 is a functional block diagram illustrating a depth information generation process performed by the CPU.
  • FIG. 45 is an explanatory diagram illustrating a depth information generation method performed by the CPU.
  • FIG. 46 is a block diagram showing a configuration of the 2DZ 3D video conversion system.
  • FIG. 47 is a block diagram illustrating a configuration of a three-dimensional effect adjustment circuit.
  • FIG. 48 is a graph showing the relationship between the disparity information PR for each pixel and the first coefficient KL.
  • FIG. 49 is a graph showing the relationship between the parallax information PR for each pixel and the second coefficient KH.
  • FIG. 50 is a graph showing the relationship between the parallax information PR for each pixel and the third coefficient KC.
  • FIG. 51 is a block diagram showing the configuration of the stereoscopic effect adjustment system.
  • FIG. 52 is a block diagram showing a configuration of a two-dimensional Z-three-dimensional video converter.
  • FIG. 53 is an electric circuit diagram showing a phase synchronization circuit for generating the first reference clock CLK1 and the first horizontal synchronization signal HD1.
  • FIG. 54 is a time chart showing signals of respective parts in FIG. 51 when the double-speed conversion mode is set as the 2D / 3D video conversion mode.
  • FIG. 55 is a block diagram showing a configuration of a conventional two-dimensional / three-dimensional video converter for generating a double-speed three-dimensional video signal from a two-dimensional video signal.
  • FIG. 56 is a time chart showing signals of respective parts in FIG. ⁇ Best mode for carrying out the invention>
  • FIG. 1 shows the overall configuration of a 2 ⁇ / 3D video converter for converting a 2D video into a 3D video.
  • the luminance signal Y, color difference signal R--, and color difference signal ⁇ - ⁇ that constitute the 2D video signal are converted into digital ⁇ signal, R – ⁇ ⁇ ⁇ signal and ⁇ - ⁇ signal by AD conversion circuit 1 (ADC), respectively. Is done.
  • the signal is sent to the luminance integration circuit 7, the high-frequency component integration circuit 8 and the luminance contrast calculation circuit 9, and the first arbitrary pixel delay FIFO 11 for the left image and the first arbitrary pixel delay FIF 0 for the right image 2 Sent to 1.
  • the R- ⁇ signal is sent to the saturation integration circuit 10 and sent to the second left image arbitrary pixel delay F IFO 12 and the second right image arbitrary pixel delay FIF ⁇ 22.
  • the B—Y signal is sent to the saturation integration circuit 10 and sent to a third left image arbitrary pixel delay FIFO 13 and a third right image arbitrary pixel delay FIFO23.
  • the luminance integrating circuit 7 calculates a luminance integrated value for each of a plurality of parallax calculation areas E1 to E12 preset in a one-field screen, as shown in FIG.
  • the high frequency component integrating circuit 8 calculates the integrated value of the high frequency component for each of the parallax calculation areas E1 to E12 for each field.
  • the luminance contrast calculation circuit 9 calculates a luminance contrast for each of the parallax calculation areas E1 to E12 for each field.
  • the saturation integration circuit 10 calculates an integrated value of saturation for each of the parallax calculation areas E1 to E12 for each field.
  • the integrated value of the saturation for each of the parallax calculation areas E1 to E12 is an image feature amount related to the perspective of the video in each of the parallax calculation areas E1 to E12. Note that a total of 60 parallax calculation areas F1 to F60 of 6 rows and 10 columns are actually set in the one-field screen as shown in FIG. 15, but for convenience of explanation, As shown in FIG. 2, it is assumed that a total of 12 parallax calculation areas E 1 to E 12 of 3 rows and 4 columns are set in one field screen.
  • parallax information is generated such that an object on the front side such as a subject has a smaller amount of parallax, and an object on the back side such as a background has a larger amount of parallax.
  • the details of the method of generating the disparity information will be described later.
  • the disparity information for each of the disparity calculation areas E1 to E12 calculated by CPU3 is sent to the disparity control circuit 4.
  • the disparity control circuit 4 generates disparity information for each pixel position in each field based on the disparity information for each of the disparity calculation areas E1 to E12. Then, based on the obtained parallax information for each pixel position, video signals (Y signal, RY signal, BY signal) are read from each of the FIFOs 11 to 13 and 21 to 23.
  • FIF ⁇ 1 1 ⁇ 1 3, 2 1 so that the readout address at the time is shifted between the arbitrary pixel delay FIF ⁇ 1 1 to 13 for the left image and the arbitrary pixel delay FIFO 21 12 to 23 for the right image. Control the read addresses of ⁇ 23. Therefore, the horizontal phase of the left video signal read from the left image arbitrary pixel delay FIF ⁇ 11 to 13 and the right image signal read from the right image arbitrary pixel delay FIF ⁇ 2 1 to 23 Have different horizontal phases.
  • the left video signal (YL signal, (R ⁇ Y) L signal, (B ⁇ Y) L signal) read from the left video arbitrary pixel delay FIFO 11 to 13 is sent to the DA conversion circuit (DAC) 5. Therefore, after being converted into an analog signal, it is sent to a stereoscopic display device, not shown.
  • Arbitrary pixel delay for right image The right image signals (YR signal, (R-Y) R signal, (B-Y) R signal) read out from FIF ⁇ 21 to 23 are converted to a DA converter (DAC). After being converted into an analog signal by 6, it is sent to a three-dimensional display device (not shown). Since the horizontal phase of the left video signal is different from the horizontal phase of the right video signal, parallax occurs between the left video and the right video. As a result, when the left image is observed only with the left eye and the right image is observed only with the right eye, a stereoscopic image in which the subject is in front of the background is obtained.
  • FIG. 3 shows the configuration of the luminance integrating circuit 7.
  • each parallax calculation area E 1 to E 12 is m
  • the number of pixels in the vertical direction of each parallax calculation area E 1 to E 12 is n
  • the first parallax calculation area The horizontal position (HAD) and the vertical position (VAD) are represented with the coordinates (a, b) at the upper left of E1.
  • the luminance integrating circuit 7 includes a timing signal generating circuit 201, an adding circuit 202, a luminance integrating register group 203, and a selection circuit (SEL) 204.
  • the luminance accumulation register group 203 includes first to second luminance accumulation registers 211 to 222 corresponding to the parallax calculation areas E1 to E12, respectively.
  • the timing signal generating circuit 201 receives a horizontal synchronizing signal Hsync and a vertical synchronizing signal Vsync of an input video signal and a clock signal CLK for detecting a horizontal address in each horizontal period.
  • the timing signal generating circuit 201 Based on the horizontal synchronizing signal Hsyn c.
  • the vertical synchronizing signal Vsync and the clock signal CLK, the timing signal generating circuit 201 generates the first to the 12th enable signals EN1 to EN12, Outputs reset signal RST and output timing signal DUT.
  • Each enable signal EN 1 to EN 12 corresponds to each of the parallax calculation areas E 1 to E 12 and is always at the L level, and the horizontal and vertical positions of the input video signal are in the corresponding area. Sometimes it goes to H level.
  • the first to the 12th enable signals EN1 to EN12 are input to the first to the 12th luminance integration registers 211 to 222 as write signals, respectively.
  • the first to the 12th enable signals EN 1 to EN 12 are also sent to the selection circuit 204.
  • the selection circuit 204 selects and outputs an input signal corresponding to the H-level enable signal.
  • the reset signal RST is output at the effective video start timing of each field in the input video signal, and is sent to each of the luminance integration registers 211-222. When the reset signal RST is input to each of the luminance accumulation registers 211 to 222, the content is set to 0.
  • the output timing signal D OUT is at the H level only for a certain period from the time when the vertical position of the input video signal ⁇ the vertical position at the lower end of the lowermost parallax calculation area E 12 is exceeded .
  • the output timing signal DOUT is sent to the CPU 3.
  • a reset signal is output at the effective video start timing of the input video signal, and the content of each of the brightness integration registers 21 i to 222 is set to 0.
  • the first enable signal EN1 is at the H level, so that the first enable signal EN1 is held in the first luminance integration register 211.
  • the luminance value is sent to the addition circuit 202 via the selection circuit 204, and the Y signal in the input video signal is input to the addition circuit 202.
  • the luminance value held in the first luminance integration register 211 and the Y signal of the input video signal are added by the addition circuit 202, and the addition result is stored in the first luminance integration register 211. Is stored. That is, when the horizontal / vertical position of the input video signal is within the first parallax calculation area E1, the luminance values of the pixels within the first parallax calculation area E1 are integrated, and the integration result is the second. It is accumulated in the luminance integration register 2 1 1 of 1.
  • the integrated luminance values for each of the parallax calculation areas Ei to E12 are stored in the corresponding integrated luminance registers 211 to 222.
  • the output timing signal D OUT becomes H level
  • the luminance integrated values for each of the parallax calculation areas E 1 to E 12 stored in each of the luminance integration registers 211 to 222 are decoded by the CPU 3. Sent via evening bus (D ATA-BUS).
  • FIG. 4 shows a configuration of the high frequency component integrating circuit 8.
  • the high-frequency component integrating circuit 8 is composed of a timing signal generating circuit 23, a high-pass filter (HPF) 232, an absolute value converting circuit 233, a slice processing circuit 234, and an adding circuit 2. 1
  • the high-frequency component integration register group 2 36 includes first to 12th high-frequency component integration registers 24 1 to 25 2 corresponding to the respective parallax calculation areas E 1 to E 12.
  • the input signal and output signal of the timing signal generation circuit 231 are the same as the input signal and output signal of the timing signal generation circuit 201 of FIG.
  • the high-pass filter 2 32 for example, as shown in FIG. 5, five D flip-flops 26 1 to 26 5, a bit shift circuit 26 6 for obtaining an output twice as large as the input value, A high-pass filter having adder coefficients of 1, 0, 2, 0 and 11 is used.
  • a circuit having input / output characteristics as shown in FIG. 6 is used as the slice processing circuit 234.
  • the reason why the output is set to 0 for inputs from 0 to Ia is to prevent noise from being extracted as a high-frequency component.
  • the high-frequency component of the Y signal in the input video signal is extracted by the high-pass filter 232, its absolute value is obtained by the absolute value conversion circuit 233, and the absolute value of the high-frequency component is obtained by the slice processing circuit 234. From which noise is removed.
  • a reset signal is output at the effective video start timing of the input video signal, and the contents of each of the high-frequency component integration registers 241-252 are set to 0.
  • the first enable signal EN1 is at the H level, so that the first enable signal EN1 is held in the first high-frequency component integration register 2 4 1
  • the high frequency component is sent to the addition circuit 235 via the selection circuit 237, and the high frequency component of the Y signal (output of the slice processing circuit 234) in the input video signal is sent to the addition circuit 235. input.
  • the high-frequency component held in the first high-frequency component integration register 241, and the high-frequency component of the Y signal in the input video signal are added by the adder circuit 235, and the addition result is obtained by the first circuit.
  • the high-frequency components of the pixels in the first parallax calculation area E1 are integrated, and The integration result is stored in the first high-frequency component integration register 2 41.
  • the integrated value of the high-frequency component for each of the parallax calculation areas E1 to E12 is stored in the corresponding high-frequency component integration register 241-252. Then, when the output timing signal DOUT becomes H level, the integrated value of the high frequency component for each of the parallax calculation areas E 1 to E 12 stored in each of the high frequency component integration registers 24 1 to 25 2 is calculated by the CPU. Sent to 3 via the data bus.
  • FIG. 7 shows another example of the high frequency component integrating circuit 8.
  • the high-frequency component integrating circuit 8 includes a timing signal generating circuit 2 38, a high-pass filter 2 32, a peak detecting circuit 2 39, an adding circuit 2 35, a high-frequency component integrating register group 2 3 6 and a selecting circuit 2 3 7 It has.
  • the timing signal generation circuit 238 is almost the same as the timing signal generation circuit 201 of FIG. 3, but as shown in FIG. 2, the horizontal position of the input video signal is determined by the parallax calculation areas E 1 and E 5.
  • the point at which the trigger pulse (region boundary signal RST1) is output when the horizontal position immediately before E9 and the horizontal position at the end of each parallax calculation region E1 to E12 is reached is shown in FIG. It is different from the timing signal generation circuit 201.
  • the area boundary signal RST1 is sent to the peak detection circuit 239.
  • the high-frequency component of the Y signal extracted by the high-pass filter 232 is sent to a peak detection circuit 239.
  • the peak detection circuit 239 detects the maximum value of the high frequency component for each horizontal line in each of the parallax calculation areas E1 to E12.
  • a peak detection circuit 239 including a comparison circuit 271, a maximum value register 272, and a gate 273 is used.
  • FIG. 9 shows the horizontal synchronization signal H sync of the input video signal, the area boundary signal RST, and the output of the gate 273 and the like.
  • the maximum value register 272 receives the high-frequency component of the Y signal extracted by the high-pass filter 232, the area boundary signal RST1, the determination result signal La of the comparison circuit 271, and the clock signal CLK.
  • the comparison circuit 271 compares the output of the maximum value register 272 with the high frequency component of the Y signal in the input video signal, and when the high frequency component of the Y signal is larger than the output of the maximum value register 272. And the judgment result signal La is H To level.
  • the maximum value register 272 stores, for each period in which the area boundary signal RST 1 is at the L level, one horizontal line in the parallax calculation areas E 1 to E 12 corresponding to the horizontal and vertical positions of the input video signal. The maximum value of the high frequency components of the Y signal for each pixel is stored.
  • the gate 273 outputs the output value of the maximum value register 272 when the region boundary signal RST1 becomes H level, and outputs 0 when the region boundary signal RST1 is L level. That is, from the gate circuit 273, every time the region boundary signal RST1 becomes H level, one horizontal line in the predetermined parallax calculation regions E1 to E12 stored in the maximum value register 272 is obtained. The maximum value of the high frequency component of the Y signal for the line is output. Therefore, in each high-frequency component integration register 24 1 to 25 2 (see Fig. 7), the integrated value of the maximum value of the high-frequency component of the Y signal for each horizontal line in the corresponding disparity calculation area is accumulated. Will be done.
  • FIG. 10 shows the configuration of the luminance contrast calculation circuit 9.
  • the luminance contrast calculation circuit 9 includes a timing signal generation circuit 301 and a luminance contrast detection circuit group 302.
  • the luminance contrast detection circuit group 302 includes first to 12th luminance contrast detection circuits 31 1 to 32 2 corresponding to the parallax calculation areas E 1 to E 12, respectively.
  • the input signal and the output signal of the timing signal generation circuit 301 are the same as the input signal and the output signal of the timing signal generation circuit 201 of FIG.
  • each luminance contrast detection circuit 3 1 1-3 2 2 has a first comparison circuit 33, a maximum value register 33, a second comparison circuit 33, and a minimum value register. 3 3 4 and a subtractor 3 3 5 are provided.
  • the judgment signal Lb and the clock signal CLK output from the comparison circuit 331 are input.
  • the first comparison circuit 331 compares the output value of the maximum value register 332 with the Y signal of the input video signal, and when the Y signal of the input video signal is larger than the output value of the maximum value register 332. Set b to H level.
  • the maximum value register 332 When the reset signal RST goes high, the contents of the maximum value register 332 are cleared to zero.
  • the enable signals EN of the areas E1 to E12 corresponding to the luminance contrast detection circuit are at the H level and the judgment signal Lb is at the H level, the Y signal is stored in the maximum value register 332. . That is, the contents of the maximum value register 332 are updated. Therefore, immediately before the output timing signal DOUT is output, the maximum value register 332 stores the maximum luminance value of the pixels in the parallax calculation areas E1 to E12 corresponding to the luminance contrast detection circuit. The value is accumulated.
  • the determination signal Lc and the clock signal CLK output from the second comparison circuit 333 are input.
  • the second comparison circuit 333 compares the output value of the minimum value register 334 with the Y signal of the input video signal, and determines that the Y signal of the input video signal is smaller than the output value of the minimum value register 334, Set L c to H level.
  • the minimum value register 334 When the reset signal RST becomes H level, a predetermined maximum value is set in the minimum value register 334.
  • the enable signals EN of the areas E 1 to E 12 corresponding to the luminance contrast detection circuit are at the H level and the determination signal Lc is at the H level, the Y signal is stored in the minimum value register 334. That is, the contents of the minimum value register 334 are updated. Therefore, immediately before the output timing signal DOUT is output, the minimum value register 334 includes the luminance contrast detection circuit. The minimum value of the luminance values of the pixels in the parallax calculation areas E1 to E12 corresponding to the road is accumulated.
  • the output of the subtractor 335 is the difference between the maximum value and the minimum value of the luminance values of the pixels in the corresponding parallax calculation areas E1 to E12. The value corresponds to the difference (luminance contrast). Then, when the output timing signal DUT is output, the output (luminance contrast) of the subtractor 335 is sent to the CPU 3.
  • FIG. 12 shows the configuration of the saturation integration circuit 10.
  • the saturation integration circuit 10 includes a timing signal generation circuit 34, a saturation calculation circuit 342, an addition circuit 343, a saturation integration register group 344, and a selection circuit 345.
  • the saturation accumulation register group 344 includes first to 12th saturation accumulation registers 35 1 to 362 corresponding to the parallax calculation areas E 1 to E 12, respectively.
  • the input signal and output signal of the timing signal generation circuit 341 are the same as the input signal and output signal of the timing signal generation circuit 201 in FIG.
  • the saturation calculation circuit 342 sets the value of the R-Y signal in the input video signal to (R-Y) and the value of the B-Y signal in the input video signal to (B-Y), and calculates the following equation (3). An operation is performed to obtain a value SAI corresponding to the saturation.
  • the reset signal RST is output at the effective video start timing of the input video signal, and the contents of the saturation integration registers 351 to 362 are set to 0. If the horizontal vertical position of the input video signal is within the first parallax calculation area E1, the first enable signal EN1 becomes H level, and is stored in the first saturation integration register 351.
  • the saturation is sent to the addition circuit 343 via the selection circuit 345, and the saturation calculated by the saturation calculation circuit 342 is input to the addition circuit 343. Accordingly, the saturation held in the first saturation integration register 35 1 and the saturation calculated by the saturation calculation circuit 34 2 are added by the addition circuit 34 43, and the addition result is obtained. Is stored in the first saturation integration register 35 1.
  • the integrated value of the saturation for each of the parallax calculation areas E 1 to E 12 is stored in the corresponding saturation integration register 35 1 to 36 2. Then, when the output timing signal DOUT becomes H level, the integrated value of the saturation for each of the parallax calculation areas E 1 to E 12 stored in each of the saturation integration registers 35 1 to 36 2 is calculated by the CPU. Sent to 3 via the data bus.
  • FIG. 13 illustrates a method of calculating the amount of parallax performed by CPU3.
  • the first normalizing means 401 normalizes the integrated value of the high-frequency component for each of the parallax calculation areas E1 to E12 to a value in the range of 0 to 10.
  • the second normalizing means 402 normalizes the luminance contrast for each of the parallax calculation areas E1 to E12 to a value in the range of 0 to 10.
  • the third normalizing means 403 normalizes the integrated luminance value for each of the parallax calculation areas E1 to E12 to a value in the range of 0 to 10.
  • the fourth normalization means 404 normalizes the saturation integration value for each of the parallax calculation areas E1 to E12 to a value in the range of 0 to 10.
  • the coefficient K 1 is multiplied by the multiplying means 405 to the integrated value of the normalized high-frequency component for each of the parallax calculation areas E 1 to E 12, it is sent to the adding means 409.
  • the coefficient K2 is multiplied by the multiplication means 406 to the normalized luminance contrast for each of the parallax calculation areas E1 to E12, and then sent to the addition means 409.
  • the normalized luminance integrated value for each of the parallax calculation areas E1 to E12 is multiplied by the coefficient K3 by the multiplying means 407, and then sent to the adding means 409.
  • the coefficient K 4 is multiplied by the multiplication means 408 to the normalized saturation integration value for each of the parallax calculation areas E 1 to E 12, it is sent to the addition means 409.
  • any one or any combination selected from the integrated value of the high-frequency component, the luminance contrast, the integrated value of the luminance and the integrated value of the saturation can be obtained. It can be used as an image feature quantity related to the perspective of video.
  • the integrated value of the high-frequency component can be used as the image feature amount relating to the perspective of the video. It is also possible to use only the brightness contrast as the image feature related to the perspective of the video.
  • the integrated value of the high-frequency component and the luminance contrast can also be used as the image feature relating to the perspective of the video.
  • the integrated value of the high-frequency component, the luminance contrast, and the integrated luminance value can also be used as the image feature amount relating to the perspective of the video.
  • the integrated value of the high frequency component, the luminance contrast, and the integrated value of the saturation can also be used as the image feature amount relating to the perspective of the video.
  • the integrated value of the high-frequency component, the luminance contrast, the integrated luminance value, and the integrated chroma value can also be used as the image feature amount relating to the distance of the video.
  • the values of the respective parallax calculation areas ⁇ 1 to ⁇ 12 obtained by the multiplying means 405 to 408 are added.
  • the values for each of the parallax calculation areas ⁇ 1 to ⁇ 12 obtained by the adding means 409 are converted into values in the range of 0 to 10 (hereinafter referred to as depth information) by the fifth normalizing means 410.
  • Is normalized to FIG. 14 shows the relationship between the output value of the adding means 409 and the depth information obtained by the fifth normalizing means 410.
  • the depth information for each of the parallax calculation areas ⁇ 1 to ⁇ 12 is information regarding the perspective of the video for each of the parallax calculation areas ⁇ 1 to ⁇ 12.
  • the depth information for each of the parallax calculation areas ⁇ 1 to ⁇ 12 obtained by the fifth normalization means 4110 is sent to the depth correction means 411.
  • an area where the depth information obtained by the adding means 409 is larger is an area where an object existing ahead is captured.
  • the depth information obtained by the adding means 409 is inversely proportional to the depth from the tube position. I do.
  • FIG. 15 shows 60 disparity calculation areas F1 to F60 that are actually set for one field.
  • an average value of depth information is calculated for each row of the parallax calculation areas F1 to F60. If the depth information for each of the parallax calculation areas F1 to F60 has a value as shown in FIG. 16, the average value of the depth information for each of the first to sixth rows is 1.2, 3.6, 6.0, 7.2, 4.0, and 1.2.
  • an area where many objects at the near position are reflected is extracted. That is, the row having the largest average value of the depth information is extracted. In the example of FIG. 16, the area on the fourth line is extracted.
  • the depth information of each area in the row below the extracted row is determined so that the depth information does not suddenly decrease relative to the area immediately above it. Is adjusted. Specifically, for an area where the depth information of each area in the row below the extracted row is smaller than the area immediately above by 3 or more, the depth information is 2 smaller than the depth information of the area immediately above. The depth information of the area is changed.
  • the depth information of the area below the area where many objects at the near position are corrected in the respective rows of the parallax calculation area is corrected for the following reason.
  • depth information is increased by depth correction so that the depth information of an image located in front of the object and having a low high-frequency component is not larger than the value of the depth information of a region immediately above the image.
  • the depth information for each area (details of F1 to F60, but E1 to E12 for convenience of explanation) whose depth information has been corrected by the depth correction means 4 1 1 By 4 12, it is normalized within the range of 0-10.
  • the depth information for each of the regions E 1 to E 12 obtained by the re-normalization unit 4 1 2 is converted into disparity information for each of the regions E 1 to E 12 by the disparity information determining unit 4 13. .
  • the disparity information determining means 413 converts the depth information into disparity information for each of the regions E1 to E12 based on a relationship between the predetermined depth information and the disparity information.
  • the relationship between the depth information and the disparity information is inversely proportional, as shown by the straight line S1 or S2 in FIG.
  • the relationship between the depth information indicated by the straight line S1 and the disparity information is Used to obtain a stereoscopic image with a relatively strong stereoscopic effect.
  • the relationship between the depth information indicated by the straight line S2 and the parallax information is used when it is desired to obtain a stereoscopic image having a relatively weak stereoscopic effect.
  • the disparity information for each of the regions E to E12 thus obtained is sent to the disparity control circuit 4 (see FIG. 1). Note that the depth correction by the depth correction means 4 1 1 may be omitted.
  • FIG. 20 mainly shows the configuration of the parallax control circuit and the arbitrary pixel delay F ⁇ F ⁇ of FIG.
  • Fig. 20 shows only the arbitrary pixel delay FIFO 11 for the left video and the arbitrary pixel delay FIFO 21 for the right video for the Y signal among the arbitrary pixel delays FIF ⁇ 11-1 to 13 and 21 to 23.
  • the other arbitrary pixel delay FIFOs 12, 13, 22, and 23 have the same configuration and perform the same control, the other arbitrary pixel delay FIFOs FIF 0 1 2, 1 3, Descriptions of the configurations and control methods of 22 and 23 are omitted.
  • the disparity information calculated by CPU 3 is disparity information for the center position of each of the disparity calculation areas E1 to E12.
  • the parallax control circuit 4 obtains parallax information for each pixel position on a one-field screen based on the parallax information for the center position of each of the parallax calculation areas E1 to E12.
  • an arbitrary left image is generated based on the disparity information for each pixel position in order to generate a left image and a right image having disparity corresponding to the disparity information for that pixel position from the two-dimensional image signal for each pixel position.
  • the read addresses of the pixel delay FIFOs 11 to 13 and the arbitrary pixel delay for the right image F ⁇ F ⁇ 21 to 23 are controlled.
  • the disparity information for each pixel position in one field screen is obtained by a timing signal generation circuit 5, a disparity interpolation coefficient generation circuit 52, a disparity information storage means 60, a disparity selection circuit 80, and first to fourth multipliers 81. 884 and the adder circuit 85.
  • the horizontal sync signal H sync and vertical sync signal V sync of the input video signal are Input to the imming signal generation circuit 51. Further, a clock signal CLK for detecting a horizontal address in each horizontal period is also input to the timing signal generation circuit 51.
  • the timing signal generating circuit 51 Based on the horizontal synchronizing signal Hsync, the vertical synchronizing signal Vsync and the clock signal CLK, the timing signal generating circuit 51 generates a horizontal address signal HAD indicating the absolute horizontal position of the input video signal, A vertical address signal VAD indicating the absolute vertical position, a relative horizontal position signal HP 0 S indicating the relative horizontal position of the input video signal, and a relative vertical position signal VP 0 S indicating the relative vertical position of the input video signal. Generate and output.
  • the parallax calculation areas E1 to E12 in FIG. 2 are set as follows. As shown by the dotted line in Fig. 21, the entire screen is divided into 20 areas of 4 rows and 5 columns (hereinafter referred to as the first divided area). Then, a quadrangular region having four vertices at the center of the first divided region at the upper left, the center of the first divided region at the upper right, the center of the first divided region at the lower left, and the center of the first divided region at the lower right is 3 It is divided into 12 regions (hereinafter referred to as second divided regions) in rows and 4 columns, and each second divided region is a disparity calculation region E 1 to E
  • the number of pixels in the horizontal direction of the first divided region and the second divided region is represented by m, and the number of pixels in the vertical direction of the first divided region and the second divided region is represented by n.
  • the relative horizontal position of the input video signal is 0 when the left end of each first divided area is 0 and the right end is m.
  • the relative vertical position of the input video signal is represented by 0 to (n-1), with the upper end of each first divided area being 0 and the lower end being n.
  • the relative horizontal position signal H POS and the relative vertical position V P ⁇ S of the input video signal are
  • the parallax interpolation coefficient generation circuit 52 generates a first parallax interpolation coefficient KUL, a second parallax interpolation coefficient KUR, and a third parallax interpolation coefficient based on the relative horizontal position signal HPOS, the relative vertical position VPOS, and the following equation (4).
  • KUL ⁇ (m-HPOS) / m) x ⁇ (n-VPOS) / n ⁇
  • KUR ⁇ HPOS / m ⁇ x ⁇ (n-VPOS) / n ⁇
  • KDL ⁇ (m-HPOS) / m ⁇ x ⁇ VPOS) / n ⁇
  • KDR ⁇ HPOS / m ⁇ x (VPOS) / n ⁇
  • the disparity information of the region E1 centered on the upper left vertex is the first disparity information UL
  • the region E centered on the upper right vertex is E
  • the second disparity information is the second disparity information UR
  • the disparity information of the region E5 centered on the lower left vertex is the third disparity information DL
  • the disparity information of the region E6 centered on the lower right vertex is the second disparity information UR. 4 Extracted as parallax information DR.
  • the disparity information of the disparity calculation area is extracted as first to fourth disparity information UL, UR, DL, DR.
  • the first divided region including the target position is the first divided region on the right of the first divided region at the upper left corner
  • the four vertices of the first divided region including the target position If only the lower two vertices correspond to the center of the parallax calculation area, As the disparity information UL and UR corresponding to the upper two vertices of the four vertices of the first divided area including the position, the disparity information of the disparity calculation area centered on the lower vertex is extracted.
  • the first divided region including the target position is the first divided region below the first divided region at the upper left corner
  • the first divided region includes four vertices of the first divided region including the target position. If only the two vertices on the right correspond to the center of the parallax calculation area, the parallax information UL and DL corresponding to the two vertices on the left of the four vertices of the first divided area including the target position Extracts the disparity information of the disparity calculation area centered on the right vertex.
  • the four vertices of the first divided region including the target position are included.
  • the parallax information DL and DR corresponding to the lower two vertices of the four vertices of the first divided area including the target position are included.
  • the disparity information of the disparity calculation area centered on the upper vertex is extracted.
  • the parallax information UR and DR corresponding to the two vertices on the right of the four vertices of the first divided area including the target position Extracts the disparity information of the disparity calculation area centered on the left vertex.
  • the first parallax interpolation coefficient KUL is the ratio of the horizontal width m of the first divided region e including the target position Pxy to the distance ⁇ XR from the target position PX y to the right side of the first divided region e ((m -HPOS) / m) and the vertical width n of the first divided area e.
  • the distance from the eye position Pxy to the lower side of the first divided region e is calculated by the product of the ratio ⁇ YnD ⁇ and ⁇ (n-VPOS) / n ⁇ . That is, the first parallax interpolation coefficient KUL increases as the distance between the upper left vertex PE1 of the first divided region e including the target position Pxy and the target position Pxy decreases.
  • the second parallax interpolation coefficient KUR is a ratio (HPOSZm) of the distance ⁇ XL from the target position PX y to the left side of the first divided region e with respect to the horizontal width m of the first divided region e including the target position Pxy. And the ratio ⁇ (n-VPOS) / n ⁇ of the vertical width n of the first divided area e to the distance AYD from the position of interest P xy to the lower side of the first divided area e.
  • the second parallax interpolation coefficient KUR increases as the distance between the upper right vertex PE2 of the first divided region e including the target position PXy and the target position Pxy decreases.
  • the third parallax interpolation coefficient KDL is the ratio of the horizontal width m of the first divided region e including the target position PX y to the distance AXR from the target position Pxy to the right side of the first divided region e ((m- HPOS) / m ⁇ and the ratio (VPOS / n) of the vertical width n of the first divided area e to the distance ⁇ from the eye position Pxy to the upper side of the first divided area e. That is, the third parallax interpolation coefficient KDL increases as the distance between the lower left vertex P E5 of the first divided area e including the target position P Xy and the target position P xy decreases.
  • the fourth parallax interpolation coefficient KDR is the ratio (HPOSZm) of the distance AXL from the target position Pxy to the left side of the first divided region e with respect to the horizontal width m of the first divided region e including the target position PXy. And the ratio (VPOSZn) of the vertical width n of the first divided region e to the distance AYU from the position of interest P xy to the upper side of the first divided region e. That is, the fourth parallax capture coefficient KDR increases as the distance between the lower right vertex P E6 of the first divided region e including the target position Pxy and the target position P Xy becomes smaller.
  • the parallax information storage means 60 includes first to 12th parallax registers 61 to 72 provided corresponding to the areas E1 to E12, respectively.
  • the 1st to 12th parallax registers 6 1 to 72 store the parallax information for each of the regions E 1 to E 12 generated by the CPU 3.
  • a parallax selection circuit 80 is provided downstream of the parallax information storage means 60.
  • the disparity selecting circuit 80 receives disparity information from each of the disparity registers 61 to 72. Further, a horizontal address signal HAD and a vertical address signal VAD are sent from the timing signal generation circuit 51 to the parallax selection circuit 80.
  • the parallax selection circuit 80 determines the area corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 22, the first area including the target position is included). The disparity information for the disparity calculation area centered on the upper left vertex is selected and output as first disparity information UL. Further, the parallax selection circuit 80 sets the area corresponding to the horizontal address signal HAD and the vertical address signal VAD according to the rule shown in FIG. The disparity information for the disparity calculation area centered on the upper right vertex of the area is selected and output as the second disparity information UR.
  • the parallax selection circuit 80 determines the area corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 22, the first area including the target position in accordance with the rule shown in FIG. 23C). Is selected and output as third disparity information DL. Further, the parallax selection circuit 80 determines the area corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 22, the first area including the target position in accordance with the rule shown in FIG. 23D). The disparity information for the disparity calculation region centered on the lower right vertex of the region is selected and output as the fourth disparity information DR.
  • the symbol " ⁇ " represented by ab such as 0-m, means that the symbol is a or more and less than b. It is used as an issue.
  • the first disparity information UL, the second disparity information UR, the third disparity information DL, and the fourth disparity information DR selected by the disparity selection circuit 80 are second, third, and fourth multipliers 81, respectively. Enter in 82, 83 and 84.
  • the second, third, and fourth multipliers 81, 82, 83, and 84 respectively include a first disparity interpolation coefficient KUL, a second disparity interpolation coefficient KUR, and a third disparity interpolation coefficient from the disparity capture coefficient generation circuit 52.
  • the parallax interpolation coefficient KDL and the fourth parallax interpolation coefficient KDR are also input.
  • the first multiplier 81 multiplies the first disparity information UL by a first disparity interpolation coefficient KUL.
  • the second multiplier 82 multiplies the second disparity information UR by a second disparity interpolation coefficient KUR.
  • the third multiplier 83 multiplies the third disparity information DL by a third disparity interpolation coefficient KDL.
  • the fourth multiplier 84 multiplies the fourth disparity information DR by a fourth disparity interpolation coefficient KDR.
  • the outputs of the multipliers 81, 82, 83 and 84 are added by an adder circuit 85. Thereby, disparity information PR for the target position is obtained.
  • Each arbitrary pixel delay FIF 01 1, 21 has two line memories 11a, llb, 21a, 21b to perform horizontal phase control in units smaller than one pixel .
  • the Y signal and the clock signal CLK are input to the two line memories 11a, 11b, 21a, and 21b, respectively, in the arbitrary pixel delays FI FO 1 and 21 1. I have.
  • the horizontal address signal HAD output from the timing signal generation circuit 51 is also input to the standard address generation circuit 90.
  • the standard address generation circuit 90 generates a standard write address WAD and a standard read address RAD for the two line memories 11a, llb, 21a, and 21b in each arbitrary pixel delay FI FO 121. Output.
  • the standard address generation circuit 90 also outputs a synchronization signal C sync added to the left video signal and the right video signal obtained by the 2DZ3D conversion device.
  • the horizontal synchronization signal represented by the synchronization signal C sync is a signal delayed by a predetermined number of clocks from the horizontal synchronization signal Hsync of the input video signal.
  • the standard read address RAD allows the horizontal phase of the video signal input to each arbitrary pixel delay F] FO 1 to 21 to be advanced or delayed with respect to the reference horizontal phase specified by the standard read address. Therefore, it is behind the standard write address WAD by a predetermined number of clocks.
  • the standard write address WAD output from the standard address generation circuit 90 is stored in two line memories 11 a, 11 b, 21 a, and 21 b in each of the arbitrary pixel delay FIFOs 11 and 21. Input as a write control signal indicating the write address.
  • the standard read address RAD output from the standard address generation circuit 90 is input to the adder 91 and the subtractor 92, respectively.
  • the disparity information PR of the target position output from the addition circuit 85 is also input to the adder 91 and the subtractor 92.
  • the adder 91 the disparity information PR is added to the standard read address RAD. As a result, the read address PRL for the left image is obtained.
  • the integer part PRL1 of the left video read address PRL is input as a read address RADL1 to the first line memory 11a in the left video arbitrary pixel delay FIFO11. Therefore, the Y signal is read from the address corresponding to the address RADL1 of the first line memory 11a.
  • the read Y signal is input to the first left image multiplier 101.
  • the address value obtained by adding 1 to the integer part PRL 1 of the read address PRL 1 for the left image is input as the read address RADL 2 to the second line memory 11 b in the arbitrary pixel delay FIFO 11 for the left image. . Therefore, the Y signal is read from the address corresponding to the address RADL2 of the second line memory 11b. The read Y signal is input to the second left video multiplier 102.
  • the read address RADL 1 for the first line memory 11a and the read address RADL 2 for the second line memory 11b differ by one, the read address RADL 1 is read from the first line memory 11a.
  • the read Y signal and the Y signal read from the second line memory 11b are signals whose horizontal position is shifted by one.
  • the fractional part PRL 2 of the read address PRL for the left image is the second left image interpolation coefficient To the second left video multiplier 102.
  • the value (1—PRL 2) obtained by subtracting the decimal part PRL 2 of the left video read address PRL from 1 is input to the first left video multiplier 101 as the first left video interpolation coefficient.
  • the first left video multiplier 101 multiplies the Y signal read from the first line memory 11a by the first left video interpolation coefficient (1-PRL2).
  • the second left video multiplier 102 the Y signal read from the second line memory 11b is multiplied by the second left video interpolation coefficient PRL2. Then, the Y signals obtained by the multipliers 101 and 102 are added by the adder 103 and then output as the left video Y signal YL-OUT.
  • a left video Y signal is obtained in which the amount of horizontal phase is delayed from the reference horizontal phase defined by the standard read address RAD by an amount corresponding to the parallax information for the target position.
  • the parallax information PR is subtracted from the standard read address RAD. As a result, the right video read address PRR is obtained.
  • the integer part PRR1 of the read address PRR for the right image is input to the first line memory 21a in the arbitrary pixel delay FIF021 for the right image as a read address RADR1. Therefore, the Y signal is read from the address corresponding to the address RADR1 of the first line memory 21a. The read Y signal is input to the first right video multiplier 111.
  • the read address for the right video PRR Integer part The address value obtained by adding 1 to PRR 1 is input as the read address RADR 2 to the second line memory 2 1 b in the arbitrary pixel delay FI FO 21 for the right video . Therefore, the Y signal is read from the address corresponding to the address RADR2 of the second line memory 21b. The read Y signal is input to the second right video multiplier 112.
  • the read address RADR 1 for the first line memory 21a and the read address RADR 2 for the second line memory 21b are different from each other by 1, so that the read address RADR 1 is read from the first line memory 21a.
  • Y signal and the second line The Y signal read from the memory 21b is a signal whose horizontal position is shifted by one.
  • the decimal part PRR2 of the read address PRR for the right video is input to the second right video multiplier 111 as a second right video interpolation coefficient.
  • the value (1—PRR2) obtained by subtracting the fractional part PRR2 of the read address PRR for right video from 1 (1—PRR2) is input to the first multiplier for right video 1 1 1 as the first right video interpolation coefficient.
  • the Y signal read from the first line memory 21 a is multiplied by the first right video interpolation coefficient (11-1 PRR 2).
  • the Y signal read from the second line memory 21b is multiplied by the second right video interpolation coefficient PRR2. Then, the Y signals obtained by the multipliers 111 and 112 are added by the adder 113 and then output as a right video Y signal YR-OUT.
  • a Y signal for the right image is obtained in which the horizontal phase amount is advanced by an amount corresponding to the parallax information for the target position with respect to the reference horizontal phase defined by the standard read address RAD.
  • FIG. 24 shows the signals of the respective parts when the disparity information for the target position is 0.
  • the read address PRL for the left image output from the adder 91 and the read address PRR for the right image output from the subtractor 92 are both equal to the standard read address RAD.
  • the read address RADL 1 for the first line memory 1 1a in the left image arbitrary pixel delay FI FO 11 1 and the read for the first line memory 21 a in the right image arbitrary pixel delay FI F02 1 The address RADR 1 is the same as the standard read address RAD.
  • Read address RADR for b is standard read This is 1 larger than the address RAD.
  • first left video interpolation coefficient (1-PRL 2) and the first right video interpolation coefficient (1 -PRR 2) become 1, and the second left video interpolation coefficient PRL 2 and the second right video interpolation coefficient The coefficient PRR 2 becomes 0.
  • the Y signal read from the address corresponding to the standard address RAD of the first line memory 11a in the left image arbitrary pixel delay FI FO 11 is added from the adder 103 to the left image Y signal.
  • the Y signal output as YL-OUT and read from the address corresponding to the standard address RAD of the first line memory 21 a in the arbitrary pixel delay FI FO 21 for the right image is output from the adder 113.
  • Y signal for right image YR Output as OUT.
  • two Y signals having the same horizontal phase shift amount that is, two Y signals without parallax are output as a left video Y signal and a right video Y signal.
  • FIG. 25 shows the case where the standard write address WAD for a given position of interest is 20, the standard read address RAD for the above noted position is 10 and the disparity information for the above noted position is 1.2, Specific examples are shown.
  • Fig. 26 shows the signals of each part at that time.
  • the left video read address PRL output from the adder 91 is 11.2, the integer part PRL1 is 11 and the decimal part PRL2 is 0.2.
  • the read address RADL 1 for the first line memory 11 a in the arbitrary pixel delay FI FO 11 for the left image is 1 1
  • the read address RADL 2 for the second line memory 11 b is 12.
  • the Y signal ( ⁇ ,) is read from the address 11 of the first line memory 11 a in the left image arbitrary pixel delay FIFO 11, and is read from the first multiplier 101.
  • a signal (0.8 ⁇ ) that is 0.8 times the output ⁇ signal ( ⁇ ) is output.
  • the Y signal (Y 12 ) is read from the address 12 of the second line memory 11 b in the left image arbitrary pixel delay FI F01 1, and is read from the second multiplier 102.
  • signal (Upsilon 12) of 0.2 times the signal (0.2 xY I2) is output.
  • the adder 1 03, 0. 8 XYU + 0. 2 Left picture for Upsilon signal corresponding to xY 12 Upsilon L one OUT is output. That is, the Y signal corresponding to the read address 11.2 is output as the left video Y signal YL-OUT.
  • the read address PRR for the right video output from the subtractor 92 is 8.8, the integer part PRR 1 is 8, and the decimal part PRR 2 is 0.8.
  • the read address RADR 1 for the first line memory 21 a in the arbitrary pixel delay F IFO 21 for the right image is 8, and the read address RADR 2 for the second line memory 21 b is 9.
  • the second right video interpolation coefficient KR 2 (two PRR 2) is 0.8.
  • the Y signal (Y 8 ) is read from the address 8 of the first line memory 21 a in the arbitrary pixel delay FI F02 1 for the right image, and is read from the first multiplier 111 1. 0.2 times the signal of the signal ( ⁇ 8) (0. 2 xY 8) is output.
  • the Y signal (Y 3 ) is read from the address 9 of the second line memory 21 b in the arbitrary pixel delay FI FO 21 for the right image, and is read from the second multiplier 111.
  • a signal (0.8 x Y 9 ) that is 0.8 times the ⁇ signal (Y s ) is output.
  • the adder 113 outputs a right video Y signal YR-OUT corresponding to 0.2 XY 8 +0.8 xY 9 . That is, the Y signal corresponding to the read address 8.8 is output as the right video Y signal YR-OUT.
  • the 2DZ 3D video converter according to the above embodiment does not require a field memory for generating a video signal that is time-delayed from the original 2D video signal, thus reducing costs. Can be achieved. Also, 2DZ 3D image according to the above embodiment The conversion device can obtain a stereoscopic video even if the video represented by the original 2D video signal is a still video.
  • FIG. 1 A second embodiment of the present invention will be described with reference to FIGS. 2, 15, and 27 to 42.
  • FIG. 2 A second embodiment of the present invention will be described with reference to FIGS. 2, 15, and 27 to 42.
  • FIG. 27 shows the overall configuration of a 2D / 3D video converter for converting a 2D video into a 3D video. 27, parts corresponding to those in FIG. 1 are denoted by the same reference numerals.
  • the luminance signal Y, chrominance signal R-Y and chrominance signal B-Y that make up the two-dimensional video signal are converted into digital Y, R-Y, and B-Y signals by the AD conversion circuit I (ADC), respectively. Is done.
  • the Y signal is sent to the high-frequency component integrating circuit 8 and the luminance contrast calculating circuit 9 and is sent to the first left image arbitrary pixel delay FIFO 11 and the first right image arbitrary pixel delay FIFO 21 .
  • the RY signal is sent to the RY component integration circuit 31 and is also sent to a second left image arbitrary pixel delay FIFO12 and a second right image arbitrary pixel delay FIFO22.
  • the B-Y signal is sent to the B-Y component integration circuit 32, and is also sent to a third left image arbitrary pixel delay FIFO 13 and a third right image arbitrary pixel delay FIFO23.
  • the high-frequency component integrating circuit 8 has the same configuration as the high-frequency component integrating circuit 8 in FIG. 1. For each field, as shown in FIG. 2, a plurality of parallax calculation areas E 1 set in a one-field screen are set in advance. Calculate the integrated value of the high frequency component for each of ⁇ E 1 o
  • the brightness contrast calculation circuit 9 has the same configuration as the brightness contrast calculation circuit 9 of FIG. 1, and calculates the brightness contrast for each of the parallax calculation areas E1 to E12 for each field.
  • the RY component integrating circuit 31 calculates the integrated value of the RY component for each of the parallax calculation areas E1 to Ei2 for each field.
  • ⁇ - ⁇ component integration circuit 3 2 The integrated value of the BY component for each of the parallax calculation areas E1 to E12 is calculated for each field.
  • the configuration of the R- ⁇ component integration circuit 31 and the configuration of the -- ⁇ component integration circuit 32 are basically the same as the configuration of the luminance integration circuit shown in FIG. That is, if the R- ⁇ component is input to a circuit similar to the luminance integration circuit in Fig. 3, the R- ⁇ component integration circuit 31 is configured. In addition, if a ⁇ - ⁇ component is input to a circuit similar to the luminance integration circuit in FIG. 3, a ⁇ - ⁇ component integration circuit 32 is configured.
  • Integrated value of high-frequency component for each parallax calculation area ⁇ 1 to ⁇ 1 2 Luminance contrast for each parallax calculation area ⁇ 1 to ⁇ 12, R-Y component for each parallax calculation area ⁇ 1 to ⁇ 1 2
  • the integrated value of and the integrated value of the ⁇ - ⁇ component for each of the parallax calculation areas ⁇ 1 to ⁇ 1 2 are used as image feature amounts relating to the perspective of the video in each of the parallax calculation areas ⁇ 1 to ⁇ 12.
  • the CPU 3 calculates each parallax calculating area E 1 Generate disparity information for E12.
  • parallax information is generated such that an object on the front side, such as a subject, has a smaller amount of parallax, and an object on the rear side, such as a background, has a larger amount of parallax. The details of the method of generating the disparity information will be described later.
  • the disparity information for each of the disparity calculation areas E1 to E12 calculated by the CPU 3 is sent to the disparity control circuit 4.
  • the disparity control circuit 4 generates disparity information for each pixel position in each field based on the disparity information for each of the disparity calculation areas E1 to E12. Then, based on the obtained parallax information for each pixel position, video signals (Y signal, R-Y signal, and B-Y signal) are read from each of the FIFOs 11 to 13 and 21 to 23.
  • Readout address is left pixel arbitrary pixel delay FIFO 11 to 13 and right image
  • the read addresses of the F FOs 11 to 13 and 21 to 23 are controlled so as to shift between the arbitrary pixel delays FI FOs 21 to 23. Therefore, the horizontal phase of the left video signal read from the left video arbitrary pixel delay FI FO11 to 13 and the horizontal phase of the right video signal read from the right video arbitrary pixel delay FI F021 to 23 Will be different.
  • FI signal Left video signal delay (FI signal) (YL signal, (R-Y) L signal, (B-Y) L signal) read out from FI FO 1 1 to 13 is supplied to the DA conversion circuit (DAC) 5. Therefore, after being converted into an analog signal, it is sent to a stereoscopic display device (not shown).
  • Right video arbitrary pixel delay FI video signals (YR signal, (RY) R signal, (B-Y) R signal) read from FI F021 to 23 are converted to analog signals by DA conversion circuit (DAC) 6. After the conversion, it is sent to a three-dimensional display device (not shown).
  • FIG. 28 illustrates a disparity information generation processing procedure for each disparity calculation area performed by CPU3.
  • step 1 grouping processing (step 1), spatial separation processing (step 2), singularity processing (step 3), intergroup coupling processing (step 4), depth information for each group Generation processing (Step 5), Depth information correction processing for all areas (Step 6), Depth information correction processing for group boundaries (Step 7), Depth information correction processing for the inside of the group (Step 8), and disparity information calculation processing (Step 8) Step 9) is performed.
  • FIG. 15 shows 60 disparity calculation areas F1 to F60 actually set for one field.
  • step 1 Explanation of grouping process
  • the grouping process in step 1 is the first process performed for the purpose of grouping all the regions that make up one image for each object included in the image.
  • the high-frequency integrated values obtained for each of the parallax calculation areas F1 to F60 are normalized to values within a predetermined range (for example, 0 to 20). Then, a distribution (histogram) of the number of parallax calculation regions belonging to each normalized value of the high-frequency integrated value is generated.
  • Figure 29 shows an example of the generated histogram. Then, the parallax calculation regions included in the peaks between the valleys of the histogram are defined as one group. A luminance contrast may be used instead of the high frequency integrated value.
  • FIG. 30 shows the results of grouping the parallax calculation areas F1 to F60 in this manner. In FIG. 30, numbers G1 to G4 indicate group numbers.
  • the integrated value of the RY component obtained for each of the parallax calculation areas F1 to F60 is normalized to a value in the range of 0 to 20. Then, a distribution (histogram) of the number of parallax calculation areas belonging to each normalized value of the RY component integrated value is generated. Based on this histogram, a boundary value between groups is obtained from the normalized values of the RY component integrated values.
  • the integrated values of the B-Y components obtained for each of the parallax calculation areas F1 to F60 are normalized to values in the range of 0 to 10. Then, a distribution (histogram) of the number of parallax calculation regions belonging to each normalized value of the B-Y component integrated value is generated. Based on this histogram, the boundary value between groups is determined from the normalized values of the B—Y component integrated values. Then, as shown in FIG. 31, the total parallax calculation areas are grouped using the two types of boundary values obtained in this way.
  • FIGS. 32 and 33 show the results of grouping the parallax calculation areas F1 to F60 in this way. In FIGS. 32 and 33, G1 to G5 indicate group numbers.
  • step 2 among the disparity calculation regions belonging to the same group by the process of step 1, spatially adjacent disparity calculation regions are combined into one group. In other words, even if the parallax calculation areas belong to the same group by the processing in step 1, the parallax calculation areas spatially separated by other groups are separated into different groups.
  • the parallax calculation areas determined to belong to group 3 (G 3) include group 3 1 (G 3 1), group 3 2 (G 3 2) And group 3 3 (G 3 3).
  • a certain group is a group including only one parallax calculation area A.
  • the two parallax calculation areas in the upper direction of the parallax calculation area A are defined as Ul and U2, starting from the one close to the parallax calculation area A.
  • the two parallax calculation areas below the parallax calculation area A are D1 and D2, starting from those that are closer to the parallax calculation area A.
  • the two parallax calculation areas on the left side of the parallax calculation area A are referred to as Ll and L2, starting from the area close to the parallax calculation area A.
  • the two parallax calculation areas on the right side of the parallax calculation area A are defined as R 1 and R 2 starting from the one close to the parallax calculation area A.
  • the B-Y component integrated value and R-Y component integrated value for a certain parallax calculation area Fa are expressed as Fa (BY) and Fa (R-Y), respectively, and the B-Y component integration for a certain parallax calculation area Fb is
  • the value and the R-Y component integrated value are represented by Fb (BY) and Fb (RY)
  • the color distance dist between the area Fa and the area Fb is defined by the following equation (5).
  • group 31 (G3 1) in FIG. 34 is composed of only one parallax calculation area, and it is determined that it belongs to group 1 (G 1) by the above-described singularity processing, FIG. The grouping is modified as shown.
  • step 4 first, for each group, the average value of the R-Y component integrated value and the average value of the B-Y component integrated value of the disparity calculation areas constituting the group are calculated.
  • the color distance between two adjacent groups is calculated. That is, two adjacent groups are defined as Ga and Gb. Assuming that the group G a is composed of n parallax calculation areas a, a2, and an, the average value of the integrated values of the B—Y components of the group Ga * Ga (B ⁇ Y) and the R—Y component The average of the integrated values * Ga (R-Y) is obtained by the following equation (6).
  • * Ga (BY) ⁇ al (BY) + a2 (B-Y) ten ... + an (B-Y) ⁇ ⁇ n
  • the average value of the integrated values of the B—Y components of the group Gb * Gb (BY) and R—Y can be obtained by the following equation (7).
  • the integrated value of the high-frequency components obtained for each of the parallax calculation areas F1 to F60 is 0 to! Normalized to a value in the range of 0. Further, the luminance contrast obtained for each of the parallax calculation areas F1 to F60 is normalized to a value in the range of 0 to 10.
  • the depth information for each group is generated based on the digitized value and the background weight component given in advance for each of the parallax calculation areas F1 to F60 as shown in FIG.
  • a method of generating depth information for an arbitrary group will be described. First, the number n of parallax calculation areas belonging to the group is determined. Further, the sum ⁇ a of the normalized values a of the integrated values of the high-frequency components for the parallax calculation regions belonging to the group is calculated. Further, the sum ⁇ b of the normalized values b of the luminance contrast for the parallax calculation regions belonging to the group is calculated. Further, the sum ⁇ c of the background weight components c for the parallax calculation regions belonging to the group is calculated.
  • depth information H for the group is generated based on the following equation (9).
  • the average value of the depth information is calculated for each row of the parallax calculation areas F1 to F60. For example, if the depth information for each of the parallax calculation areas F1 to F60 has a value as shown in FIG. 38, the average value of the depth information for each of the first to sixth rows is 1 2, 3.6, 6.0, 7.2, 4.0, 1.2.
  • an area where many objects at the near position are reflected is extracted. That is, the row having the largest average value of the depth information is extracted. In the example of FIG. 38, the area on the fourth line is extracted.
  • the depth information of each area in the row below the extracted row is determined so that the depth information does not suddenly decrease relative to the area immediately above it. Is adjusted. Specifically, it is below the extracted row For an area where the depth information of each area in the row is smaller than the area immediately above by 3 or more, the depth information of that area is changed to a value smaller by 2 than the depth information of the area immediately above.
  • the region whose depth information is smaller than the depth information of the region immediately above by 3 or more is corrected for F42 to F49.
  • the regions whose depth information is smaller than the depth information (corrected depth information) of the region immediately above by 3 or more F53 to F58 The depth information is corrected.
  • the depth information of the area below the area where many objects at the near position are corrected in the respective rows of the parallax calculation area is corrected for the following reason.
  • the depth of the parallax calculation area of one group is determined. It is determined whether or not the difference between the base information and the depth information of the parallax calculation area of the other group is equal to or greater than a predetermined value. If the difference between the two pieces of depth information is equal to or greater than a predetermined value, the smaller one of the pieces of depth information (that is, the person located rearward) is set so that the difference between the two pieces of depth information becomes smaller than the predetermined value. Increase the depth information for the parallax calculation area.
  • the region of interest is A
  • the depth information for it is HA
  • the four adjacent regions are U, D, L, R
  • the depth information for them is HU
  • the estimated depth value HA for the attention area A is corrected by the following equation (10).
  • HA (HA / 2) + HU + HD + HL + HR) / 8 ⁇ -(10)
  • the depth information for each of the parallax calculation areas F1 to F60 obtained in this manner is Normalized within the range of 0-10.
  • the depth information for each of the parallax calculation areas F1 to F60 is converted to the parallax information for each of the areas F1 to F60.
  • the depth information is converted into the disparity information for each of the regions F1 to F60 based on the relationship between the predetermined depth information and the disparity information.
  • the relationship between the depth information and the disparity information is inversely proportional, as shown by the straight line S1 or S2 in FIG.
  • the relationship between the depth information indicated by the straight line S1 and the disparity information is Used to obtain a stereoscopic image with a relatively strong stereoscopic effect.
  • the relationship between the depth information indicated by the straight line S2 and the parallax information is used when it is desired to obtain a stereoscopic image having a relatively weak stereoscopic effect.
  • the thus obtained disparity information for each disparity calculation area is sent to the disparity control circuit 4 (see FIG. 27).
  • parallax control circuit 4 in the second embodiment are the same as those of the parallax control circuit shown in FIGS. 1 and 20 in the first embodiment. Is omitted.
  • the 2D / 3D video converter according to the above embodiment does not require a field memory for generating a video signal that is temporally delayed from the original 2D video signal, so that the cost is low. Can be achieved. Further, in the 2DZ3D video converter according to the above-described embodiment, a stereoscopic video can be obtained even if the video represented by the original 2D video signal is a still video.
  • the entire area in one field screen is divided into groups for each object included in the screen and information regarding the perspective of the video for each group is generated, the parallax of each part in the same object is generated. Fluctuations are suppressed. As a result, image distortion is reduced within the same object, and good stereoscopic vision is possible.
  • FIG. 21 a third embodiment of the present invention will be described with reference to FIGS. 21 and 43 to 45.
  • FIG. 21 a third embodiment of the present invention will be described with reference to FIGS. 21 and 43 to 45.
  • FIG. 43 shows the configuration of the 2D / 3D video conversion device.
  • the portions corresponding to FIG. 1 are denoted by the same reference numerals.
  • the luminance signal Y, chrominance signal R-Y, and chrominance signal B-Y that make up the two-dimensional video signal are converted to digital Y, R-Y, and B-Y signals by the AD conversion circuit 1 (ADC), respectively. Is done.
  • the Y signal is sent to the motion vector detection circuit 2 and the first left video It is sent to the pixel delay FIFO 11 and the first right image arbitrary pixel delay FIFO 21.
  • the R-Y signal is sent to the second left image arbitrary pixel delay FIFO 12 and the second right image arbitrary pixel delay FIFO 22.
  • the B-Y signal is sent to a third left image arbitrary pixel delay FIFO 13 and a third right image arbitrary pixel delay FIF 02 3.
  • the motion vector detection circuit 2 has, for each field, 12 motion vector detection areas (hereinafter referred to as “parallax calculation areas”) set within one field screen as shown in FIG. Calculate the motion vector for each of E 1 2. Then, the motion vector detection circuit 2 calculates data indicating an area where the calculated motion vector has low reliability (hereinafter, referred to as an NG area), and outputs the data in the X direction for each of the areas E 1 to E 12 other than the NG area.
  • parallax calculation areas 12 motion vector detection areas
  • the CPU 3 calculates the depth amount or the protrusion amount for each of the disparity calculation areas E1 to E12 based on the information sent from the motion vector detection circuit 2, and based on the calculated depth amount or the protrusion amount. Then, disparity information is generated for each of the disparity calculation areas E1 to E12. In this example, the depth amount is calculated for each of the parallax calculation regions E1 to E12 such that the depth amount increases in the region where the background exists and decreases in the region where the subject exists. The details of the method for calculating the depth amount will be described later.
  • the disparity information for each of the disparity calculation areas E1 to E12 calculated by the CPU 3 is sent to the disparity control circuit 4.
  • the parallax control circuit 4 generates parallax information for each pixel position in each field based on the parallax information for each of the parallax calculation areas E1 to E12. Then, based on the obtained parallax information for each pixel position, each FIFO 11-1 to 1 3.
  • the read address is arbitrary pixel delay FI FO 1 to 13 for left image and arbitrary pixel delay FI FO for right image
  • the read addresses of the FIFOs 11 to 13 and 21 to 23 are controlled so as to shift between 21 and 23. Therefore, the horizontal phase of the left video signal read from the left video arbitrary pixel delay FIF ⁇ 1 to 13 differs from the horizontal phase of the right video signal read from the right video arbitrary pixel delay FI F021 to 23 Like that.
  • the left video signal (YL signal, (R ⁇ Y) L signal, (B ⁇ Y) L signal) read from the left video arbitrary pixel delay FI FO 11 to 13 is converted to a DA conversion circuit (DAC) 5 After that, it is sent to a stereoscopic display device (not shown).
  • Right video arbitrary pixel delay FI video signals (YR signal, (RY) R signal, (B ⁇ Y) R signal) read from FI F021 to 23 are converted to analog signals by DA conversion circuit (DAC) 6. After the conversion, it is sent to a three-dimensional display device (not shown).
  • FIG. 44 illustrates a method of generating disparity information performed by the CPU 3.
  • the subject / background discriminating means 131 uses the motion vector in the X direction of each of the parallax calculation areas Ei to E12 other than the NG area to generate an image of the subject in each parallax calculation area other than the NG area for each parallax calculation area. It is determined whether it is a background or a background. As this determination method, for example, a method disclosed in Japanese Patent Application Laid-Open No. 8-149517 is used.
  • the depth information generating means 132 includes a motion vector in the X direction for each of the disparity calculation areas E1 to E12 other than the NG area, and a motion vector for each of the disparity calculation areas E1 to E12 other than the NG area in the X direction.
  • the maximum value of the motion vectors (including the data in the area where the motion vector in the X direction is the maximum value), and the motion vectors in the X direction of the parallax calculation areas E1 to E12 other than the NG area Minimum value (including data in the area where the X-direction motion vector is the minimum value)
  • the depth amount (depth information) is determined for each of the parallax calculation areas E 1 to E 12 based on the data indicating the NG area and the NG area.
  • each parallax calculation area E1 to E12 other than the NG area by the subject / background discriminating means 131, and the movement in the X direction of each parallax calculation area E1 to E12 other than the NG area The maximum value of the vectors (including data of the area where the motion vector in the X direction is the maximum value) and the motion vector in the X direction of each parallax calculation area E1 to E12 other than the NG area
  • the parallax calculation area where the motion vector in the X direction is the maximum value and the motion vector in the X direction are calculated.
  • One of the minimum parallax calculation regions is determined as the tube surface position PPF, and the other of the parallax calculation regions is determined as the deepest position PPR.
  • FIG. 7 the stereoscopic position of the parallax calculation area where the motion vector in the X direction is the maximum value is determined as the tube surface position PPF, and the stereoscopic position of the parallax calculation area where the motion vector in the X direction is the minimum value is determined.
  • the innermost position is determined by PPR.
  • the motion in the X direction is determined as the innermost position PPR, and the stereoscopic position of the parallax calculation area where the motion vector in the X direction is the minimum value is determined as the tube position PPF. .
  • the image in the parallax calculation area where the motion vector in the X direction is the maximum value is the subject
  • the image in the parallax calculation area where the motion vector in the X direction is the minimum value is the background, as shown in FIG.
  • the stereoscopic position of the parallax calculation area where the motion vector in the X direction is the maximum value is determined as the tube surface position PPF
  • the stereoscopic position of the parallax calculation area where the motion vector in the X direction is the minimum value is determined.
  • the stereoscopic viewing positions of the parallax calculation areas other than the NG area are the tube surface position PPF and the innermost.
  • a position corresponding to the motion vector in the X direction of the parallax calculation area is determined.
  • the stereoscopic position is determined to be closer to the screen position PPF in the region with the larger motion vector in the X direction, and the stereoscopic position in the region with the smaller motion vector in the X direction is the deepest in the region. Position Determined to be close to PPR.
  • the stereoscopic position of each NG area is determined by the force of the NG area in the upper part of the screen (areas E1 to E4), the force in the middle part (areas E5 to E8), and the lower part of the screen (area E9). ⁇ E12).
  • the stereoscopic position of the NG area at the bottom of the screen is determined to be the center position Pa between the tube surface position P PF and the innermost position P PR.
  • the stereoscopic position of the NG area at the top of the screen is determined to be the same position Pc as the innermost position PPR.
  • the stereoscopic position of the NG area at the center of the screen is the center position Pb between the stereoscopic position Pa of the NG area at the bottom of the screen and the stereoscopic position Pc of the NG area at the top of the screen. It is determined.
  • the stereoscopic position of the NG area is determined as described above.
  • the image is assumed to be the background.
  • the background is closer to the bottom of the screen and farther to the top of the screen. Therefore, the stereoscopic position of each NG position is determined such that the upper NG region of the screen is located further away from the tube surface position P PF in the NG region.
  • the stereoscopic position of the NG area on the lower side of the screen is determined to be deeper than the stereoscopic position of the area where the subject exists. .
  • the depth amount (depth information) from the tube surface position PPF of each of the parallax calculation areas E1 to E12 is determined. It is determined.
  • the depth information selection means 1 3 3 is generated by the depth information generation means 1 3 2
  • the depth information selection means 13 3 is used when the integrated value of the absolute value of the motion vector in the X direction of each of the parallax calculation areas E 1 to E 12 other than the NG area is equal to or larger than a predetermined value, that is, If the motion of the video in the current field is large, the depth information of the current field is selected and output.
  • a predetermined value that is, If the motion of the video in the current field is large, the depth information of the current field is selected and output.
  • the integrated value of the absolute value of the motion vector in the X direction of each of the parallax calculation areas E1 to E12 other than the NG area is smaller than a predetermined value, that is, when the motion of the video of the current field with respect to the previous field is small.
  • the depth information selection means 1 3 3 selects and outputs the depth information of the previous field.
  • the depth information for each of the parallax calculation areas E 1 to E 12 output from the depth information selecting means 1 3 3 (hereinafter referred to as first depth information for each of the areas E 1 to E 12) is the depth information. It is sent to smoothing processing means 140 for preventing abrupt change between adjacent fields, and is smoothed.
  • the smoothing means 140 includes a first multiplying means 134, an adding means 135, and a second multiplying means 136.
  • the first depth information for each of the parallax calculation areas E 1 to E 12 is multiplied by a coefficient H by a first multiplication unit 134.
  • the coefficient is usually set to, for example, 1Z8. However, when the scene of the current field changes from the scene of the previous field (scene change), the coefficient is set to 1.
  • a method of detecting such a scene change for example, a method disclosed in Japanese Patent Laid-Open No. 8-149514 is used.
  • the output of the first multiplying means 13 4 (hereinafter, referred to as second depth information for each of the areas E 1 to E 12) is sent to the adding means 135.
  • the output of the second multiplying means 1336 (hereinafter referred to as fourth depth information for each of the areas E1 to E12) is also sent to the adding means 135, and the respective parallax calculating areas E1 to E 1st depth information for each 2 and corresponding disparity calculation The sum of the output area and the fourth depth information is calculated.
  • the output of the previous adding means 135 (hereinafter referred to as third depth information for each of the areas E1 to E12) is multiplied by a coefficient / S.
  • the coefficient 5 is usually set to, for example, 78. However, when the scene of the current field changes (scene change) from the scene of the previous field, the coefficient is set to 0.
  • the first multiplication means 134 outputs the respective parallax calculation areas E 1 to E output from the depth information selection means 133.
  • the first depth information for each 12 is multiplied by 1-8.
  • the second depth information for each of the parallax calculation areas E1 to E12 is obtained.
  • the second depth information for each of the parallax calculation areas E1 to E12 is sent to the adding means 135.
  • the addition means 135 further multiplies the third depth information for each of the parallax calculation areas E 1 to E 12 previously output from the addition means 135 by 7 Z 8 by the second multiplication means 13 36.
  • the fourth depth information for each of the parallax calculation areas E1 to E12 obtained by performing the calculation is also input.
  • the adding means 135 calculates the sum of the second depth information of each of the parallax calculation areas E1 to E12 and the fourth depth information of the corresponding parallax calculation area. Thereby, the third depth information for each of the parallax calculation areas E1 to E12 is obtained. The third depth information for each of the parallax calculation areas E1 to E12 is sent to the parallax control circuit 4 (see FIG. 43) as parallax information.
  • the first multiplication means 13 4 causes each of the parallax calculation areas E 1 to E 1 output from the depth information selection means 13 3.
  • the depth information for each two is multiplied by one. Therefore, the depth information for each of the parallax calculation areas E1 to E12 output from the depth information selection means 133 is output as it is from the first multiplication means 134.
  • the depth information for each of the parallax calculation areas E1 to E12 output from the depth information selection means 133 is output as it is from the addition means 135.
  • the depth information for each of the parallax calculation areas E to E12 output from the depth information selection means 133 is the parallax information. Is sent to the parallax control circuit 4 (see Fig. 43).
  • the configuration and operation of the parallax control circuit 4 according to the third embodiment are the same as those of the parallax control circuit shown in FIG. 1 and FIG. 20 according to the first embodiment. Is omitted.
  • the 2DZ3D video converter does not require a field memory for generating a video signal that is temporally delayed from the original two-dimensional video signal, so that the cost can be reduced.
  • FIGS. [4-1] An embodiment in which the present invention is applied to a 2D / 3D video conversion system will be described.
  • FIG. 46 shows the configuration of the 2D / 3D video conversion system.
  • This 2DZ 3D video conversion system is a 3D video converter that converts a 2D video into a 3D video. It has a three-dimensional effect adjustment circuit 502 for adjusting the three-dimensional effect to the video signal.
  • a luminance signal Y-IN, a color difference signal (R-Y) -IN, and a color difference signal (B-Y) -IN constituting a two-dimensional video signal are input to the 2DZ3D video converter 501.
  • the luminance signal YL, color difference signal (R-Y) L and color difference signal (B-Y) that make up the left video signal, and the brightness that makes up the right video signal The signal YR, the color difference signal (RY), the color difference signal (BY) length, and the parallax information PR for each pixel are output.
  • Each output signal of the 2D / 3D video conversion device 501 is sent to the stereoscopic effect adjustment circuit 502.
  • the luminance signal YL- ⁇ UT, the color difference signal (R-Y) L-OUT and the color difference signal (B-Y) L-OUT which constitute the left video signal after the stereoscopic effect adjustment
  • the luminance signal YR- ⁇ UT, the color difference signal (R-Y) R-OUT, and the color difference signal (B-Y) R-OUT that constitute the right video signal after adjusting the stereoscopic effect are output.
  • Examples of the 2DZ 3D video converter 501 include the 2 ⁇ / 3D video converter described in the first embodiment (see FIG. 1) and the 2DZ 3D video converter described in the second embodiment.
  • the device (see FIG. 27) or the 2DZ3D image conversion device (see FIG. 43) described in the third embodiment is used.
  • FIG. 46 shows a configuration of the three-dimensional effect adjustment circuit 502.
  • the three-dimensional effect adjustment circuit 502 includes a coefficient generation circuit 601, a left image three-dimensional effect adjustment circuit 602 that performs a three-dimensional effect adjustment process on the left image signal, and a right image that performs a three-dimensional effect adjustment process on the right image signal.
  • a three-dimensional effect adjustment circuit 603 is provided.
  • the coefficient generation circuit 601 generates a first coefficient KL, a second coefficient KH and a third coefficient KL based on the parallax information PR (information on the perspective of the image) for each pixel sent from the 2DZ3D image conversion device 501.
  • Generate coefficient KC Generate coefficient KC.
  • the first coefficient KL is generated within a range of 0 or more and 1 or less (0 ⁇ KL 1), and is a coefficient for adjusting a ratio of a low frequency component of an image.
  • the first coefficient KL is a coefficient for blurring the outline of the image, that is, a coefficient for reducing the brightness of the outline of the image.
  • the coefficient generation circuit 601 decreases the first coefficient KL for the pixel where the image in front is shown, and increases the first coefficient KL for the pixel in which the image behind is shown. I do.
  • the disparity information PR for a pixel in which an image in front is reflected is small, and the disparity information PR for a pixel in which an image in the rear is reflected is large.
  • the coefficient generation circuit 601 sets the value of the first coefficient KL to 0 when the disparity information PR is equal to or less than a predetermined value, and In a range where the difference information PR is larger than a predetermined value, the value of the first coefficient KL is increased as the disparity information PR increases.
  • the second coefficient KH is generated within a range of 0 or more and 1 or less (O ⁇ KH 1), and is a coefficient for adjusting a ratio of a high frequency component of an image.
  • the second coefficient KH is a coefficient for sharpening the outline of the video, that is, a coefficient for increasing the brightness of the outline of the video. The larger the value of the second coefficient KH, the more the video having a sharper outline is obtained. Will be able to
  • the coefficient generation circuit 600 increases the second coefficient KH for the pixel where the image in front is shown, and calculates the second coefficient KH for the pixel in which the image behind is shown. Make it smaller. As described above, in this embodiment, the disparity information PR for a pixel in which a video in front is shown is small, and the disparity information PR for a pixel in which an image in back is shown is large. For this reason, as shown in FIG. 49, the coefficient generation circuit 6001 reduces the value of the second coefficient KH as the disparity information PR increases, in a range where the disparity information PR is equal to or less than a predetermined value, and the disparity information PR In the range larger than the predetermined value, the value of the second coefficient KH is set to 0.
  • the third coefficient KC is a coefficient for adjusting the saturation of the video, and the saturation of the video is enhanced as the third coefficient KC increases.
  • the coefficient generation circuit 601 increases the third coefficient KC for a pixel in which a forward image is reflected, and decreases the third coefficient KC for a pixel in which a backward image is reflected. I do.
  • the disparity information PR for the pixel in which the image in front is shown is small, and the disparity information PR for the pixel in which the image in the back is shown is large. Therefore, as shown in FIG. 50, the coefficient generation circuit 601 decreases the value of the third coefficient KC as the disparity information PR increases.
  • the left image stereoscopic effect adjustment circuit 602 includes a luminance signal YL, a color difference signal (R-Y) L, and a color difference signal (BY) L which constitute the left image sent from the 2D / 3D image converter 501. Is entered.
  • the left image stereoscopic effect adjustment circuit 602 includes a circuit for adjusting the brightness of the image outline 6 1 0 and a circuit 620 for adjusting the saturation of the image.
  • the circuit 610 for adjusting the sharpness of the outline of an image will be described.
  • the circuit for adjusting the sharpness of the outline of the image is a circuit for adjusting the ratio of the low-frequency component of the image, and the circuit for adjusting the ratio of the high-frequency component of the image and the addition of their outputs.
  • the circuit that adjusts the proportion of the low-frequency component of the video is a single-pass filter (LPF) that extracts the low-frequency component of the luminance signal YL 70 K
  • the luminance signal extracted by the low-pass filter 701 The first multiplier 702, which multiplies the low frequency component of YL by the first coefficient KL, the arithmetic unit 703 which performs the operation of KL, the luminance signal YL is the output of the arithmetic unit 703 (1 KL) and a first adder 705 for adding the output of the first multiplier 720 and the output of the second multiplier 704.
  • the circuit 6 1 2 that adjusts the proportion of the high-frequency component of the image is a high-frequency component of the luminance signal YL extracted by the high-pass filter 711 and the high-pass filter 711 that extracts the high-frequency component of the luminance signal YL.
  • a third multiplier 712 for multiplying the component by the second coefficient KH is provided.
  • the output of the circuit 611 that adjusts the ratio of the low-frequency component of the video (output of the first adder 705) and the output of the circuit 612 that adjusts the ratio of the high-frequency component of the video (the third multiplier) 712) is added by the adder circuit 613.
  • the output YL-OUT of the addition circuit 613 is sent to a stereoscopic display device (not shown).
  • the first coefficient KL becomes smaller and the second coefficient KH becomes larger for the pixel in which the image in front is shown. Therefore, the ratio of the low-frequency component of the luminance signal YL is low and the ratio of the high-frequency component of the luminance signal YL is high for the pixel on which the image in front is projected. For this reason, the image corresponding to the pixel in which the image in front is reflected is an image with a sharp outline.
  • the first coefficient KL becomes larger and the second coefficient KH becomes smaller for the pixel in which the image behind appears. Therefore, the ratio of the low frequency component of the luminance signal YL is high and the high frequency component of the The ratio of minutes is lower. For this reason, the image for the pixel in which the image on the rear is reflected is an image with a blurred outline. In this way, the image for the pixel where the image in front is reflected is a video with a sharp outline, and the image for the pixel where the image in the rear is displayed with a blurred outline, so that the stereoscopic effect is emphasized. Is done.
  • the circuit 620 for adjusting the saturation of an image will be described.
  • the circuit for adjusting the color saturation of the image is composed of a fifth multiplier for multiplying the color difference signal (R ⁇ Y) L by a third coefficient KC and a third coefficient for the color difference signal (B—Y) L
  • a sixth multiplier 722 for multiplying KC is provided.
  • the output (R-Y) L-OUT of the fifth multiplier 721 and the output (B-Y) L-OUT of the sixth multiplier 722 are sent to a three-dimensional display device (not shown).
  • the third coefficient K C becomes larger for a pixel in which an image in front is shown. Therefore, for the pixel in which the image in front is reflected, the values of the color difference signals (R ⁇ Y) L and (B ⁇ Y) L increase, and the saturation increases. On the other hand, the third coefficient K C becomes smaller for a pixel on which a video behind is reflected. Therefore, for the pixel where the image behind is displayed, the values of the color difference signals (R ⁇ Y) L and (B ⁇ Y) L decrease, and the saturation decreases.
  • Fig. 51 shows the configuration of the stereoscopic effect adjustment system.
  • This three-dimensional effect adjustment system includes a parallax detection circuit 801 for detecting parallax information PR for each pixel from a three-dimensional video signal for each field, and a parallax detection circuit 8001 for each pixel.
  • the stereoscopic effect adjusting circuit 802 adjusts the stereoscopic effect for the three-dimensional video signal based on the parallax information PR.
  • the parallax detection circuit 801 includes a selection circuit 90 K motion vector detection circuit 902, a vector correction circuit 903, and a parallax information generation circuit 904.
  • the luminance signal YL-IN of the left image forming the three-dimensional image and the luminance signal YR-IN of the right image forming the three-dimensional image are input to the selection circuit 901.
  • the field identification signal FLD is input to the selection circuit as a control signal.
  • the selection circuit 91 switches and outputs the luminance signal Y L-IN in the left image and the luminance signal Y R-11 1 ⁇ in the right image on a field basis based on the field identification signal FLD.
  • the field identification signal FLD is H level when the field of the input video signal is an odd field, and is L level when the field of the input video signal is an even field.
  • the selection circuit 901 selects and outputs the luminance signal YL_IN in the left video, and the field identification signal FLD is at the L level ( If it is an even field, the luminance signal YR-IN in the right image is selected and output.
  • the motion vector detection circuit 902 based on the video signal output from the selection circuit 901, includes, for each field, 12 motion vectors set in a one-field screen as shown in FIG.
  • the vector in the X direction is calculated for each of the vector detection areas (hereinafter referred to as parallax calculation areas) E1 to E12.
  • the X-direction motion vector for each of the parallax calculation areas E1 to E12 obtained by the motion vector detection circuit 902 is sent to the vector correction circuit 903.
  • the X-direction motion vector for each of the parallax calculation regions E1 to E12 obtained by the motion vector detection circuit 902 is the left image for each of the parallax calculation regions E1 to E12.
  • the horizontal movement of the image between the right image and the right image is shown. Since the left image and the right image have parallax, the horizontal position differs between the two images depending on the distance from the camera even for the same object.
  • the X-direction motion vector for each of the parallax calculation areas E1 to E12 corresponds to the parallax between the two images for each of the parallax calculation areas E1 to E12.
  • the sign of the motion vector in the X direction is opposite to that of the vector.
  • a vector correction circuit 903 is provided to match the signs of the obtained X-direction vectors when the objects are moving in the same direction.
  • the vector correction circuit 903 sets the parallax calculation areas E1 to E1 sent from the motion vector detection circuit 902.
  • the X-direction motion vector for each of 2 is sent to the parallax information generation circuit 904 as it is.
  • the vector correction circuit 903 sets the parallax calculation areas E 1 to E 1 2 sent from the motion vector detection circuit 902 respectively.
  • the sign of the X-direction motion vector with respect to is inverted and sent to the parallax information generation circuit 904.
  • the parallax information generation circuit 904 generates parallax information for each pixel based on the X-direction motion vector for each of the parallax calculation areas E1 to E12 sent from the vector correction circuit 903. Generate a PR.
  • the X-direction motion vector for each of the disparity calculation areas E1 to E12 sent from the vector correction circuit 903 is used as disparity information for each of the disparity calculation areas E1 to E12.
  • the disparity information PR for each pixel is generated from the disparity information for each of the disparity calculation areas E1 to E12.
  • the stereoscopic effect adjustment circuit 802 performs processing for correcting the stereoscopic effect on the three-dimensional video signal based on the parallax information PR for each pixel obtained by the parallax detection circuit 801. .
  • This three-dimensional effect correction circuit 802 is the same as the three-dimensional effect adjustment circuit 502 of FIG. 46, and a description of its configuration and operation will be omitted.
  • the fourth embodiment it is possible to adjust the stereoscopic effect of the stereoscopic video obtained by the three-dimensional video signal.
  • FIG. 52 shows the configuration of a 2D / 3D video conversion device.
  • 2D Z 3D video converter converts 2D video signal to 3D video signal ,
  • the components of the integrated circuit 11010 include data writing to the delay field memory 10020 and data reading from the delay field memory 1020. Only relevant parts are shown.
  • the components of the integrated circuit 11010 include the write-side data path 1101, the write-related timing generator 101, the read-side datapath 101, and the read-related timing.
  • the generator 104 is shown.
  • the integrated circuit 11010 includes, in addition to these components, a moving vector detection unit, an interface connected to the CPU, and the like.
  • a luminance signal (Y signal) and a color difference signal (R-Y signal and B-Y signal) that constitute a two-dimensional video signal are input.
  • a right-eye video signal and a left-eye video signal having a relative time difference are output.
  • the right-eye video signal is composed of a right-eye luminance signal Y (R), a right-eye color difference signal R-Y (R), and a right-eye color difference signal B—Y (R).
  • the left-eye video signal is composed of a left-eye luminance signal Y (L), a left-eye color difference signal R-Y (L), and a left-eye color difference signal B-Y (L).
  • This two-dimensional Z-three-dimensional video converter has the following three modes as two-dimensional three-dimensional video conversion modes.
  • the first normal speed conversion mode is a mode for generating a three-dimensional video signal having the same horizontal and vertical frequencies as the two-dimensional video signal, and one of the right-eye video signal and the left-eye video signal is This mode is generated based on a two-dimensional video signal sent to the read-side data path 101 3 without passing through the field memory.
  • the second normal speed conversion mode is a mode for generating a 3D video signal having the same horizontal and vertical frequencies as the 2D video signal, and both the right-eye video signal and the left-eye video signal use a field memory. Sent to read data path 1 0 1 3 via This is a mode generated based on a two-dimensional video signal.
  • the double speed conversion mode is a mode for generating a three-dimensional video signal whose horizontal and vertical frequencies are twice as high as the two-dimensional video signal.
  • both the right-eye video signal and the left-eye video signal are generated based on the two-dimensional video signal transmitted to the read-side data path 101 through the field memory.
  • the first reference clock signal CLK generated based on the horizontal synchronization signal H SYNC of the two-dimensional video signal CLK is generated based on the horizontal synchronization signal HS YNC of the two-dimensional video signal.
  • the second reference clock signal CLK2 the vertical synchronization signal VSYNC of the two-dimensional video signal, the first horizontal synchronization signal HD1 generated by the first reference clock signal CLK1 based on the horizontal synchronization signal HSYNC of the two-dimensional video signal
  • FIG. 53 shows a phase synchronization circuit (PLL circuit) for generating the first reference clock signal CLK1 and the first horizontal synchronization signal HD1.
  • PLL circuit phase synchronization circuit
  • the input of the phase synchronization circuit is the horizontal synchronization signal HSYNC of the two-dimensional video signal, and the output of the phase synchronization circuit is the first horizontal synchronization signal HD1.
  • the phase comparison result between the horizontal synchronization signal HSYNC input to the phase synchronization circuit and the first horizontal synchronization signal HD1 output from the phase synchronization circuit is converted into a voltage by the phase comparison section 103.
  • the output voltage of the phase comparator 1031 after being smoothed by a low-pass filter (LPF) 103, is sent to a voltage controlled oscillator (VCO) 103.
  • the voltage controlled oscillator 103 outputs a signal having a frequency corresponding to the input voltage.
  • the output (signal a) of the voltage controlled oscillator 1033 is taken out as the first reference clock signal CLK 1 and sent to the divide-by-2 circuit 1034.
  • a signal b in which the frequency of the output signal a of the voltage controlled oscillator 103 is 1 Z2 is output from the divide-by-2 circuit 1034.
  • the output signal b of the divide-by-2 circuit 1034 is sent to the divide-by-10 circuit 1035. From the 9 10 divider circuit 1 0 3 5, the output signal b of the 2 divider circuit 1 0 3 4 b A signal HD 1 whose frequency is 1/9 10 is output.
  • the frequency f CLK1 is 1820 times the frequency f H (1 5.75 [kHz]) of the horizontal synchronization signal H SYNC. That is, the frequency f CLK1 of the first reference clock signal CLK 1 is 1 820 Ri f H Der is about 28. 6 (MHz).
  • the first reference clock signal CLK 1 is a signal obtained by dividing one cycle of the horizontal synchronization signal H SYNC of the two-dimensional video signal into 1820 clocks. If the 2D video signal is a video reproduced by a VTR, the frequency of the horizontal synchronization signal H SYNC may fluctuate. The frequency of the first reference clock signal CLK 1 is equal to the horizontal synchronization signal HSYN
  • the second reference clock signal CLK2 and the second horizontal synchronization signal HD2 are also generated by the same phase synchronization circuit as in FIG.
  • the frequency f CLK2 of the second reference clock signal CLK2 is equal to the frequency of the horizontal synchronization signal H3 ⁇ 1 ⁇ (: obviously(1 5.75 [kHz] ) is 1 820 times. that is, the frequency f CLK2 of the second reference clock signal CLK2 is 1 820 f H, about 28
  • the cut-off frequency of the low-pass filter (LPF) is set to the low-pass filter (LPF) shown in Figure 53. It is set lower than the cut-off frequency of 1032. For this reason, the second reference clock signal CLK 2 becomes a signal with a small frequency change even if the frequency of the horizontal synchronization signal H SYNC changes.
  • the first reference clock signal CLK1 is frequency-divided by two by the frequency-dividing circuit 1015.
  • the third clock signal CLK 3 output from the divide-by-2 circuit 10 15 is sent to the write system evening generator 10 12 and the first selector 10 16.
  • the frequency f CLK3 of the third clock signal CLK 3 is the first reference clock signal C
  • the second reference clock signal CLK 2 is sent to the first selector 110 16 and also to the 2 divider circuit 107.
  • the fourth clock signal CLK4 output from the divide-by-2 circuit 107 is sent to the first selector 106.
  • the frequency f CLK4 of the fourth clock signal CL K4 is the frequency of the second reference clock signal CLK2 f 1Z2 of the clock f CLK2
  • the vertical synchronization signal VSYNC is sent to the write timing generator 101 and the read timing generator 101.
  • the first horizontal synchronizing signal HD 1 is sent to the write system timing generator 10 12 and also sent to the second selector 10 18.
  • the second horizontal synchronization signal HD2 is sent to the second selector 108.
  • the first selector 10 16 sets the third clock signal CLK 3, the second reference clock signal CLK 2, and the fourth clock signal CLK 4 according to the set 2D video conversion mode. One of them is selected and sent to the lead system evening generating section 104.
  • the second selector 1018 selects one of the first horizontal synchronization signal HD1 and the second horizontal synchronization signal HD2 according to the set 2D / 3D video conversion mode. And sends it to the read timing generator 10 14.
  • the first selector 106 selects the third clock i, CLK3, and generates lead system timing. Send to part 1 0 1 4
  • the write clock and the read clock of the field memory 1020 are the third clock signal CLK3 obtained by dividing the first reference clock signal CLK1 by two. Therefore, the operation of the integrated circuit 110 is exactly the same as the operation of the integrated circuit 110 of FIG.
  • the first selector 106 selects the fourth clock signal CLK 4 and sets the lead system timing generator. Send to 1 0 1 4
  • the write clock of the field memory 1020 becomes the third clock signal CLK3 obtained by dividing the first reference clock signal CLK1 by 2
  • the read clock of the field memory 1020 becomes
  • the second reference clock signal CLK 2 becomes a fourth clock signal CLK 4 obtained by dividing the frequency by two. Therefore, even if the frequency of the horizontal synchronization signal HSYNC of the two-dimensional video signal changes, the jitter is absorbed.
  • the first selector 1016 selects the second reference clock signal CLK2 and sets the read system timing generator 101 Send to 4.
  • the write clock of the field memory 1020 is the third clock signal CLK3 obtained by dividing the first reference clock signal CLK1 by 2
  • the read clock of the field memory 1020 is the second reference clock. This becomes the clock signal CLK2.
  • the frequency of the read clock of the field memory 102 is twice the frequency of the write clock. Therefore, the three-dimensional video signal output from the integrated circuit 11010 is a signal whose horizontal and vertical frequencies are twice as high as those of the two-dimensional video signal. Also, even if the frequency of the horizontal synchronization signal HSYNC of the two-dimensional video signal fluctuates, jitter is absorbed.
  • FIG. 54 shows signals of respective units when the double speed conversion mode is set as the 2D / 3D video conversion mode.
  • FIG. 54 shows an example in which four delay field memories are provided and the left-eye video signal is delayed by two fields from the right-eye video signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

明 細 書
2次元映像を 3次元映像に変換する装置および方法 <技術分野 >
この発明は、 2次元映像を 3次元映像に変換する装置および方法に関する。 ぐ背景技術 >
〔 1〕 2次元映像を 3次元映像に変換する方法として、 フィールドメモリを用 いて、 元の 2次元映像信号に対して、 時間的に遅延された映像信号 (以下、 遅延 映像信号という) を生成し、 元の 2次元映像信号と遅延映像信号のうち、 一方を 左目用映像信号として出力し、 他方を右目用映像信号として出力する方法が知ら れている。 しかしながら、 この方法では、 元の 2次元映像信号に対して時間的に 遅延された映像信号を生成するためにフィールドメモリが必要となるため、 コス トが高いという問題がある。 また、 この方法では、 動きのある 2次元映像のみし か 3次元映像に変換することができない。
この発明は、 元の 2次元映像信号に対して時間的に遅延された映像信号を生成 するためのフィールドメモリが不要となり、 コス卜の低廉化が図れる 2次元映像 を 3次元映像に変換する装置および方法を提供することを目的とする。
また、 この発明は、 元の 2次元映像信号によって表される映像が静止映像であ つても立体映像が得られる、 2次元映像を 3次元映像に変換する装置および方法 を提供することを目的とする。
〔2〕 互いに視差を有する左映像と右映像とからなる 3次元映像信号を立体表 示装置に表示することにより、 立体感のある映像を提供する装置が既に開発され ている。 また、 2次元映像信号から 3次元映像信号を生成する装置も既に開発さ れている。
しかしながら、 3次元映像信号をリアルタイムに処理することにより、 3次元 映像信号によって得られる立体映像の立体感を調整できる装置はまだ開発されて いない。
この発明は、 3次元映像信号をリアルタイムに処理することにより、 3次元映 像信号によって得られる立体映像の立体感を調整することができる立体感調整方 法および立体感調整装置を提供することを目的とする。
〔3〕 2次元映像から、 基準となる第 1映像信号と、 第 1映像信号に対して遅 延された第 2映像信号とを生成し、 これらの一方を左目用映像信号とし、 他方を 右目用映像信号とすることにより、 2次元映像を 3次元映像に変換する 2次元 Z 3次元映像変換装置が知られている。
第 1映像信号としては、 一般に元の 2次元映像信号がそのまま用いられる。 第 1映像信号に対する第 2映像信号の遅延量は、 2次元映像信号の映像の動きの速 度に応じて決定される。 第 2映像信号は、 次のようにして生成される。
つまり、 2次元 Z 3次元映像変換装置に入力された 2次元映像信号の最新フィ 一ルドから過去所定フィ一ルド数分が、 複数のフィールドメモリにフィ一ルド単 位でそれぞれ格納される。 そして、 各フィールドメモリに格納されている 2次元 映像信号のうちから、 2次元映像信号の映像の動きの速度に応じて決定された遅 延量に対応する 2次元映像信号が読み出される。 フィールドメモリから読み出さ れた 2次元映像信号が第 2映像信号である。 このようにして得られた左目用映像 信号および右目用映像信号は、 時分割シャッ夕メガネを用いてこれらのそれらの 映像を見る際に、 フリツ力が発生するのを防止するために、 通常速度の 2倍の速 度に変換される。
図 5 5は、 2次元映像信号から倍速の 3次元映像信号を生成するための従来の 2次元 Z 3次元映像変換装置の構成を示している。
2次元ノ 3次元映像変換装置は、 2次元映像信号を 3次元映像信号に変換する ための集積回路 (L S I ) 1 1 0 0と、 集積回路 1 1 0 0に接続された複数の遅 延用フィールドメモリ 1 2 0 0と、 集積回路 1 1 0 0から出力される左目用映像 信号および右目用映像信号の周波数を 2倍にするための倍速化回路 1 3 0 0とか ら構成されている。
図 55においては、 集積回路 1 1 00の構成要素としては、 遅延用フィールド メモリ 1 200へのデ一夕の書き込みおよび遅延用フィールドメモリ 1 200か らのデ一夕の読み出しに関係する部分のみが図示されている。 つまり、 集積回路 1 1 00の構成要素としては、 ライト側デ一夕パス 1 1 0 し ライ ト系タイミ ン グ発生部 1 1 02、 リード側デ一夕パス 1 1 0 3およびリード系夕イミ ング発生 部 1 1 04が図示されている。 集積回路 1 1 00は、 これらの構成要素の他、 動 きべク トル検出部、 CPUに接続されるインタフ X—ス等を備えている。
ライ ト系タイミング発生部 1 1 02およびリード系タイミング発生部 1 1 04 には、 2次元映像信号の水平同期信号 HSYNCに基づいて生成された基準クロ ック信号 CLK、 2次元映像信号の垂直同期信号 V SYNC:、 水平同期信号 HS YNCに基づいて基準クロック信号 CLKで生成された水平同期信号 HDが入力 している。 基準クロック信号 CLKの周波数 f cし κ は、 水平同期信号 HDの周波 数を f H とすると、 次式 ( 1 ) で表される周波数となっている。 f CLK - 9 1 0 f H ·■· ( 1 ) 集積回路 1 1 00には、 2次元映像信号を構成する輝度信号 (Y信号) ならび に色差信号 (R - Y信号および B— Y信号) とが入力する。 集積回路 1 1 00か らは、 相対的に時間差を有する右目用映像信号および左目用映像信号が出力され る。 右目用映像信号は、 右目用輝度信号 Y (R) と右目用色差信号 R— Y (R) と右目用色差信号 B— Y (R) と力、らなる。 左目用映像信号は、 左目用輝度信号 Y (L) と左目用色差信号 R - Y (L) と左目用色差信号 B— Y (L) とからな 右目用映像信号および左目用映像信号のうちの一方は、 集積回路 1 1 00に入 力した 2次元映像信号がライト側デ一夕パス 1 1 0 1を介してリード側データパ ス 1 1 03に送られた信号に基づいて生成される。 右目用映像信号および左目用 映像信号のうちの他方は、 集積回路 1 1 00に入力した 2次元映像信号がライ ト 側デ一夕パス 1 1 0 1および遅延用フィールドメモリ 1 20 0を介してリード側 データパス 1 1 03に送られた信号に基づいて生成される。
ライ ト側データパス 1 1 0 1に入力した Y信号、 R— Y信号および B— Y信号 のフィールドメモリ 1 200への書き込みは、 基準クロック信号 CLKにしたが つて行われる。 つまり、 遅延用フィールドメモリ 1 200への書き込みクロック の周波数は、 基準クロック i 号 CLKの周波数 f CL K である。
フィールドメモリ 1 200に格納された信号の読み出しも、 基準クロック信号 CLKにしたがって行われる。 つまり、 遅延用フィールドメモリ 1 20 0の読み 出しクロックの周波数も、 基準クロック信号 CLKの周波数 f CLK である。
したがって、 集積回路 1 1 00から出力される右目用輝度信号 Y (R) 、 右目 用色差信号 R - Y (R) 、 右目用色差信号 B— Y (R) 、 左目用輝度信号 Y (L ) 、 左目用色差信号 R - Y (L) および左目用色差信号 B Y (L) の水平、 垂 直周波数は、 2次元映像信号の水平、 垂直周波数と同じである。
倍速化回路 1 300は、 集積回路 1 1 00から出力される右目用輝度信号 Y ( R) 、 右目用色差信号 R— Y (R) 、 右目用色差信号 B - Y (R) 、 左目用輝度 信号 Y (L) 、 左目用色差信号 R - Y (L) および左目用色差信号 B_Y (L) を、 それぞれ格納する倍速用フィールドメモリ 1 30 1〜 1 306、 これらの倍 速用フィールドメモリ 1 30 1〜1 306へのデ—夕の書き込みを制御する倍速 用フィールドメモリライト夕ィミング発生回路 1 307、 ならびにこれらの倍速 用フィ一ルドメモリ 1 30 1〜 1 306からのデータの読み出しを制御する倍速 用フィールドメモリ リード夕イミング発生回路 1 30 8を備えている。
右目用映像信号が読み出される場合には、 倍速用フィールドメモリ 1 30 1か ら右目用輝度信号 Y (R) が読み出され、 倍速用フィールドメモリ 1 302から 右目用色差信号 R— Y (R) が読み出され、 倍速用フィールドメモリ 1 303か ら右目用色差信号 B— Y (R) が読み出される。 左目用映像信号が読み出される 場合には、 倍速用フィールドメモリ 1 304から左目用輝度信号 Y (L) が読み 出され、 倍速用フィールドメモリ 1 3 0 5から左目用色差信号 R— Y (L) が読 み出され、 倍速用フィールドメモリ 1 3 0 6から左目用色差信号 B— Y (L) が 読み出される。
倍速用フィールドメモリ 1 3 0 1 1 3 0 6および倍速用フィールドメモリラ ィトタイミング発生回路 1 3 0 7には、 書き込みクロックとして、 基準クロック 信号 CLKが入力している。 倍速用フィールドメモリ 1 3 0 1 1 3 0 6および 倍速用フィ一ルドメモリリード夕イミング発生回路 1 30 8には、 読み出しクロ ックとして、 基準クロック信号 C L Kの 2倍の周波数のクロック信号 C L K aが 入力している。
つまり、 読み出しクロック信号 CLKaの周波数 f CLKaは、 次式 (2) で示す ように、 書き込みクロック信号 CLKの周波数 f CLK の 2倍となっている。 C L K a= 2 CLK \ J したがって、 倍速化回路 1 30 0から出力される映像信号は、 2次元映像信号 に対して水平、 垂直周波数が 2倍の信号となる。
遅延用フィールドメモリが 4っ設けられており、 力、つ左目用映像信号が右目用 映像信号に対して、 2フィールド遅延している場合の、 各部の信号を図 5 6に示 しておく。
従来の 2次元 Z 3次元映像変換装置では、 倍速の 3次元映像信号を生成するた めに、 フィ一ルドメモリを備えた倍速化回路が必要であるので、 コストが高くな るという問題がある。
この発明は、 従来に比べてフィールドメモリ数を削減でき、 コストの低廉化が 図れる 2次元 Z 3次元映像変換装置を提供することを目的とする。 ぐ発明の開示 >
この発明による第 1の 2次元映像を 3次元映像に変換する装置は、 2次元入力 映像信号に基づいて、 各フィールドごとに、 1 フィールド画面内に設定された複 数の視差算出領域のそれぞれに対して、 映像の遠近に関する画像特徴量を抽出す る特徴量抽出手段、 各視差算出領域ごとに抽出された画像特徴量に基づいて、 1 フィールド画面内の所定単位領域ごとの視差情報を生成する視差情報生成手段、 ならびに 2次元入力映像信号の各所定単位領域内の信号から、 その所定単位領域 に対応する視差情報に応じた水平位相差を有する第 1映像信号と第 2映像信号と をそれぞれ生成する位相制御手段を備えていることを特徴とする。
視差情報生成手段としては、 たとえば、 視差算出領域ごとの映像の遠近に関す る画像特徴量に基づし、て、 各視差算出領域ごとに映像の遠近に関する情報を生成 する手段、 および各視差算出領域ごとの映像の遠近に関する情報を、 各視差算出 領域ごとの視差情報に変換する手段を備えているものが用いられる。
視差情報生成手段としては、 たとえば、 視差算出領域ごとの映像の遠近に関す る画像特徴量に基づいて、 各視差算出領域ごとに映像の遠近に関する情報を生成 する手段、 映像の垂直方向の位置 (以下、 画面の高さ位置という) のうち、 映像 の遠近に関する情報によって表される遠近位置が最も近い高さ位置より下側の各 視差算出領域のうち、 その視差算出領域に対する映像の遠近に関する情報によつ て表される遠近位置が、 その直上の視差算出領域に対する映像の遠近に関する情 報によって表される遠近位置より所定値以上遠い位置である視差算出領域につい ては、 その視差算出領域に対する映像の遠近に関する情報によって表される遠近 位置がその直上の視差算出領域に対する映像の遠近に関する情報によって表され る遠近位置に接近するように、 その視差算出領域に対する映像の遠近に関する情 報を補正する手段、 および補正後の各視差算出領域ごとの映像の遠近に関する情 報を、 各視差算出領域ごとの視差情報に変換する手段を備えてしヽるものが用レ、ら れる。
視差情報生成手段としては、 たとえば、 視差算出領域ごとの映像の遠近に関す る画像特徴量に基づいて、 1 フィールド画面内の全領域をその画面に含まれてい る物体毎にグループ分けを行なう第 1手段、 第 1手段によるグループ分け結果と 、 視差算出領域ごとの映像の遠近に関する画像特徴量とに基づいて、 各グループ 毎の映像の遠近に関する情報を生成する第 2手段、 各グループ毎の映像の遠近に 関する情報に基づいて、 各視差算出領域毎の映像の遠近に関する情報を生成する 第 3手段、 ならびに各視差算出領域毎の映像の遠近に関する情報を、 各視差算出 領域ごとの視差情報に変換する第 4手段を備えているものが用いられる。
第 1手段としては、 たとえば、 次のようなものが用いられる。
( 1 ) 映像の遠近に関する画像特徴量の大きさに対する視差算出領域数を表す度 数分布に基づいて、 映像の遠近に関する画像特徴量の大きさの近似している領域 が同一グループとなるように 1フィ一ルド画面内の全領域をグループ分けするも の。
( 2 ) 映像の遠近に関する画像特徴量の大きさに対する視差算出領域数を表す度 数分布に基づいて、 映像の遠近に関する画像特徴量の大きさの近似している領域 が同一グループとなるように 1フィールド画面内の全領域をグル一プ分けする手 段、 および同じグループ内に互いに空間的に離れている複数の領域が存在する場 合には、 それらの領域がそれぞれ異なるグループとなるように、 グループ分けを 行なう手段を備えているもの。
( 3 ) 映像の遠近に関する画像特徴量の大きさに対する視差算出領域数を表す度 数分布に基づいて、 映像の遠近に関する画像特徴量の大きさの近似している領域 が同一グループとなるように 1フィールド画面内の全領域をグループ分けする手 段、 同じグループ内に互いに空間的に離れている複数の領域が存在する場合には 、 それらの領域がそれぞれ異なるグループとなるように、 グループ分けを行なう 手段、 および所定数以下の視差算出領域から構成されているグループが存在する 場合には、 そのグループ内のおよびその周辺の視差算出領域に対する映像の遠近 に関する画像特徴量に基づいて、 そのグループを周囲のグループに属させるべき か否かを判別し、 そのグループを周囲のグループに属させるべきと判別した場合 には、 そのグループを周囲のグループに属させる手段を備えているもの。
( 4 ) 映像の遠近に関する画像特徴量の大きさに対する視差算出領域数を表す度 数分布に基づ 、て、 映像の遠近に関する画像特徴量の大きさの近似している領域 が同一グループとなるように 1フィールド画面内の全領域をグループ分けする手 段、 同じグループ内に互いに空間的に離れている複数の領域が存在する場合には 、 それらの領域がそれぞれ異なるグループとなるように、 グループ分けを行なう 手段、 所定数以下の視差算出領域から構成されているグループが存在する場合に は、 そのグループ内のおよびその周辺の視差算出領域に対する映像の遠近に関す る画像特徴量に基づレ、て、 そのグループを周囲のグル一プに属させるべきか否か を判別し、 そのグループを周囲のグループに属させるべきと判別した場合には、 そのグループを周囲のグループに属させる手段、 および隣接する 2つのグル一プ のうち、 一方のグループ内および他方のグループ内の視差算出領域に対する映像 の遠近に関する画像特徴量に基づレ、て、 両グループを結合させるべきか否かを判 別し、 両グループを結合させるべきと判別した場合には、 両グループを結合させ る手段を備えているもの。
第 2手段としては、 たとえば、 各グループ内の視差算出領域ごとの映像の遠近 に関する画像特徴量および各視差算出領域毎に予め設定された重み係数に基づい て、 各グループ毎に映像の遠近に関する情報を算出するものが用いられる。 第 3手段としては、 たとえば、 次のようなものが用いられる。
( 1 ) 画面の高さ位置のうち、 映像の遠近に関する情報によって表される遠近位 置が最も近い高さ位置より下側の各視差算出領域のうち、 その視差算出領域に対 する映像の遠近に関する情報によって表される遠近位置が、 その直上の視差算出 領域に対する映像の遠近に関する情報によって表される遠近位置より所定値以上 遠い位置である視差算出領域については、 その視差算出領域に対する映像の遠近 に関する情報によつて表される遠近位置がその直上の視差算出領域に対する映像 の遠近に関する情報によって表される遠近位置に接近するように、 その視差算出 領域に対する映像の遠近に関する情報を補正する手段を備えているもの。
( 2 ) 画面の高さ位置のうち、 映像の遠近に関する情報によって表される遠近位 置が最も近い高さ位置より下側の各視差算出領域のうち、 その視差算出領域に対 する映像の遠近に関する情報によって表される遠近位置が、 その直上の視差算出 領域に対する映像の遠近に関する情報によって表される遠近位置より所定値以上 遠レ、位置である視差算出領域にっ 、ては、 その視差算出領域に対する映像の遠近 に関する情報によって表される遠近位置がその直上の視差算出領域に対する映像 の遠近に関する情報によって表される遠近位置に接近するように、 その視差算出 領域に対する映像の遠近に関する情報を補正する手段、 および隣合う 2つのグル ープの境界部において、 映像の遠近に関する情報が両グループ間で所定範囲以内 となるように、 隣合う 2つのグループの境界部の視差算出領域に対する映像の遠 近に関する情報を補正する手段を備えているもの。
( 3 ) 画面の高さ位置のうち、 映像の遠近に関する情報によって表される遠近位 置が最も近い高さ位置より下側の各視差算出領域のうち、 その視差算出領域に対 する映像の遠近に関する情報によって表される遠近位置が、 その直上の視差算出 領域に対する映像の遠近に関する情報によって表される遠近位置より所定値以上 遠い位置である視差算出領域については、 その視差算出領域に対する映像の遠近 に関する情報によって表される遠近位置がその直上の視差算出領域に対する映像 の遠近に関する情報によって表される遠近位置に接近するように、 その視差算出 領域に対する映像の遠近に関する情報を補正する手段、 隣合う 2つのグループの 境界部において、 映像の遠近に関する情報が両グループ間で所定範囲以内となる ように、 隣合う 2つのグループの境界部の視差算出領域に対する映像の遠近に関 する情報を補正する手段、 および同じグループ内の各視差算出領域間において、 映像の遠近に関する情報の差が所定範囲以内となるように、 各グループ内の映像 の遠近に関する情報を平滑化させる手段を備えているもの。
位相制御手段としては、 たとえば、 2次元入力映像信号を 1水平ライン分以下 の複数画素数分記憶できる容量を有し、 かつ 2次元入力映像信号を一次的に記憶 する第 1の記憶手段、 2次元入力映像信号を 1水平ラィン分以下の複数画素数分 記憶できる容量を有し、 かつ 2次元入力映像信号を一次的に記憶する第 2の記憶 手段、 第 1の記憶手段の読み出しアドレスを、 2次元入力映像信号の水平垂直位 置に応じて決定された標準読み出しァドレスに対して、 2次元入力映像信号の水 平垂直位置が属する所定単位領域に対応する視差情報に基づいて制御することに より、 上記標準読み出しァドレスによって規定される基準水平位相に対して上記 視差情報に応じた量だけ水平位相が進んだ第 1映像信号を生成する第 1の読み出 しアドレス制御手段、 ならびに第 2の記憶手段の読み出しア ドレスを、 上記標準 読み出しァドレスに対して、 2次元入力映像信号の水平垂直位置が属する所定単 位領域に対応する視差情報に基づレ、て制御することにより、 上記標準読み出しァ ドレスによって規定される基準水平位相に対して上記視差情報に応じた量だけ水 平位相が遅れた第 2映像信号を生成する第 2の読み出しァドレス制御手段を備え ているものが用いられる。
映像の遠近に関する画像特徴量としては、 輝度高周波成分の積算値、 輝度コン トラスト、 輝度積算値、 R - Y成分の積算値、 B - Y成分の積算値および彩度積 算値のうちから選択された任意の 1つまたは任意の組み合わせが用いられる。 輝 度高周波成分とは、 輝度信号周波数成分の高域部分をいう。 輝度コントラストと は、 輝度信号周波数成分の中域部分をいう。 輝度積算値とは、 輝度信号周波数成 分の D C成分をいう。 所定単位領域は、 たとえば、 1画素単位の領域である。 この発明による第 1の 2次元映像を 3次元映像に変換する方法は、 2次元入力 映像信号に基づいて、 各フィールドごとに、 1 フィールド画面内に設定された複 数の視差算出領域のそれぞれに対して、 映像の遠近に関する画像特徼量を抽出す る第 1ステップ、 各視差算出領域ごとに抽出された画像特徴量に基づいて、 1 フ ィールド画面内の所定単位領域ごとの視差情報を生成する第 2ステップ、 ならび に 2次元入力映像信号の各所定単位領域内の信号から、 その所定単位領域に対応 する視差情報に応じた水平位相差を有する第 1映像信号と第 2映像信号とをそれ ぞれ生成する第 3ステップを備えていることを特徴とする。
第 2ステップとしては、 たとえば、 視差算出領域ごとの映像の遠近に関する画 像特徴量に基づいて、 各視差算出領域ごとに映像の遠近に関する情報を生成する ステップ、 および各視差算出領域ごとの映像の遠近に関する情報を、 各視差算出 領域ごとの視差情報に変換するステップを備えているものが用いられる。
第 2ステップとしては、 たとえば、 視差算出領域ごとの映像の遠近に関する画 像特徴量に基づいて、 各視差算出領域ごとに映像の遠近に関する情報を生成する ステップ、 画面の高さ位置のうち、 映像の遠近に関する情報によって表される遠 近位置が最も近い高さ位置より下側の各視差算出領域のうち、 その視差算出領域 に対する映像の遠近に関する情報によって表される遠近位置が、 その直上の視差 算出領域に対する映像の遠近に関する情報によって表される遠近位置より所定値 以上遠い位置である視差算出領域については、 その視差算出領域に対する映像の 遠近に関する情報によって表される遠近位置がその直上の視差算出領域に対する 映像の遠近に関する情報によって表される遠近位置に接近するように、 その視差 算出領域に対する映像の遠近に関する情報を補正するステップ、 および補正後の 各視差算出領域ごとの映像の遠近に関する情報を、 各視差算出領域ごとの視差情 報に変換するステップを備えているものが用いられる。
第 3ステップとしては、 たとえば、 2次元人力映像信号を 1水平ライン分以下 の複数画素数分記憶できる容量を有する第 1の記憶手段および第 2の記憶手段に 、 2次元入力映像信号を一次的に記憶するステップ、 第 1の記憶手段の読み出し ァドレスを、 2次元入力映像信号の水平垂直位置に応じて決定された標準読み出 しァドレスに対して、 2次元入力映像信号の水平垂直位置が属する所定単位領域 に対応する視差情報に基づいて制御することにより、 上記標準読み出しァドレス によって規定される基準水平位相に対して上記視差情報に応じた量だけ水平位相 が進んだ第 1映像信号を生成するステップ、 ならびに第 2の記憶手段の読み出し アドレスを、 上記標準読み出しアドレスに対して、 2次元入力映像信号の水平垂 直位置が属する所定単位領域に対応する視差情報に基づレ、て制御することにより 、 上記標準読み出しアドレスによって規定される基準水平位相に対して上記視差 情報に応じた量だけ水平位相が遅れた第 2映像信号を生成するステップを備えて いるものが用いられる。 映像の遠近に関する画像特徴量としては、 輝度高周波成分の積算値、 輝度コン トラスト、 輝度積算値および彩度積算値のうちから選択された任意の 1つまたは 任意の組み合わせが用いられる。 映像の遠近に関する画像特徴量として、 輝度高 周波成分の積算値を用いてもよい。 映像の遠近に関する画像特徴量として、 輝度 コントラストを用いてもよい。 映像の遠近に関する画像特徴量として、 輝度高周 波成分の積算値および輝度コントラストを用いてもよい。 映像の遠近に関する画 像特徴量として、 輝度高周波成分の積算値、 輝度コントラストおよび輝度積算値 を用いてもよい。 映像の遠近に関する画像特徴量として、 輝度高周波成分の積算 値、 輝度コントラストおよび彩度積算値を用いてもよい。 映像の遠近に関する画 像特徵量として、 輝度高周波成分の積算値、 輝度コントラスト、 輝度積算値およ び彩度積算値を用いてもよい。
所定単位領域は、 たとえば、 1画素単位の領域である。
この発明による第 2の 2次元映像を 3次元映像に変換する装置は、 2次元入力 映像信号に基づいて、 各フィールドごとに、 1 フィールド画面内に設定された複 数の動きべクトル検出領域のそれぞれに対する動きべクトルを検出する動きべク トル検出手段、 各動きべクトル検出領域ごとに検出された動きべク トルの水平方 向成分に基づいて、 1フィールド画面内の所定単位領域ごとの視差情報を生成す る視差情報生成手段、 ならびに 2次元入力映像信号の各所定単位領域内の信号か ら、 その所定単位領域に対応する視差情報に応じた水平位相差を有する第 1映像 信号と第 2映像信号とをそれぞれ生成する位相制御手段を備えていることを特徴 とする。
視差情報生成手段としては、 たとえば、 各動きベクトル検出領域ごとに検出さ れた動きべク トルの水平方向成分、 水平方向成分の最大値、 水平方向成分が最大 値である動きべク トル検出領域、 7j平方向成分の最小値、 水平方向成分が最小値 である動きべクトル検出領域および各動きべクトル検出領域の映像が背景である か被写体であるかを示す情報に基づいて、 1フィールド画面内の所定単位領域ご との視差情報を生成するものが用いられる。 位相制御手段としては、 たとえば、 2次元入力映像信号を 1水平ライン分以下 の複数画素数分記憶できる容量を有し、 かつ 2次元入力映像信号を一次的に記憶 する第 1の記憶手段、 2次元入力映像信号を 1水平ライン分以下の複数画素数分 記憶できる容量を有し、 かつ 2次元入力映像信号を一次的に記憶する第 2の記憶 手段、 第 1の記憶手段の読み出しァドレスを、 2次元入力映像信号の水平垂直位 置に応じて決定された標準読み出しァドレスに対して、 2次元入力映像信号の水 平垂直位置が属する所定単位領域に対応する視差情報に基づいて制御することに より、 上記標準読み出しァドレスによって規定される基準水平位相に対して上記 視差情報に応じた量だけ水平位相が進んだ第 1映像信号を生成する第 1の読み出 しアドレス制御手段、 ならびに第 2の記憶手段の読み出しアドレスを、 上記標準 読み出しァドレスに対して、 2次元入力映像信号の水平垂直位置が属する所定単 位領域に対応する視差情報に基づいて制御することにより、 上記標準読み出しァ ドレスによって規定される基準水平位相に対して上記視差情報に応じた量だけ水 平位相が遅れた第 2映像信号を生成する第 2の読み出しァドレス制御手段を備え ているものが用いられる。
上記所定単位領域は、 たとえば、 1画素単位の領域である。
この発明による第 2の 2次元映像を 3次元映像に変換する方法は、 2次元入力 映像信号に基づいて、 各フィールドごとに、 1フィールド画面内に設定された複 数の動きべクトル検出領域のそれぞれに対する動きべクトルを検出する第 1ステ ップ、 各動きべクトル検出領域ごとに検出された動きべクトルの水平方向成分に 基づいて、 1 フィールド画面内の所定単位領域ごとの視差情報を生成する第 2ス テツプ、 ならびに 2次元入力映像信号の各所定単位領域内の信号から、 その所定 単位領域に対応する視差情報に応じた水平位相差を有する第 1映像信号と第 2映 像信号とをそれぞれ生成する第 3ステップを備えていることを特徴とする。 第 2ステップでは、 たとえば、 各動きべクトル検出領域ごとに検出された動き ベクトルの水平方向成分、 水平方向成分の最大値、 水平方向成分が最大値である 動きべクトル検出領域、 水平方向成分の最小値、 水平方向成分が最小値である動 きべクトル検出領域および各動きべクトル検出領域の映像が背景であるか被写体 であるかを示す情報に基づいて、 1フィ一ルド画面内の所定単位領域ごとの視差 情報が生成される。
第 3ステップとしては、 たとえば、 2次元入力映像信号を 1水平ライン分以下 の複数画素数分記憶できる容量を有する第 1の記憶手段および第 2の記憶手段に 、 2次元入力映像信号を一次的に記憶するステップ、 第 1の記憶手段の読み出し ァドレスを、 2次元入力映像信号の水平垂直位置に応じて決定された標準読み出 しァドレスに対して、 2次元入力映像信号の水平垂直位置が属する所定単位領域 に対応する視差情報に基づいて制御することにより、 上記標準読み出しァドレス によって規定される基準水平位相に対して上記視差情報に応じた量だけ水平位相 が進んだ第 1映像信号を生成するステップ、 ならびに第 2の記憶手段の読み出し アドレスを、 上記標準読み出しアドレスに対して、 2次元入力映像信号の水平垂 直位置が属する所定単位領域に対応する視差情報に基づいて制御することにより 、 上記標準読み出しァドレスによって規定される基準水平位相に対して上記視差 情報に応じた量だけ水平位相が遅れた第 2映像信号を生成するステップを備えて いるものが用いられる。
所定単位領域は、 たとえば 1画素単位の領域である。 この発明による第 1の立体感調整方法は、 3次元映像の 1 フィールド画面内の 所定単位領域ごとの映像の遠近に関する情報に基づいて、 3次元映像の各所定単 位領域ごとに映像の輪郭の鮮明度を制御することにより、 3次元映像の立体感を 調整することを特徴とする。 所定単位領域は、 たとえば、 1画素単位の領域であ る。
具体的には、 近い映像が映っている領域に対しては、 映像の輪郭の鮮明度が高 くなるように、 遠い映像が映っている領域に関しては映像の輪郭の鮮明度が低く なるように、 映像の輪郭の鮮明度が制御される。 人間の眼には、 近いものほど輪 郭がくつきりと見え、 遠いものほど輪郭がぼやけて見えるので、 映像の立体感が 強調される。
この発明による第 2の立体感調整方法は、 3次元映像の 1フィールド画面内の 所定単位領域ごとの映像の遠近に関する情報に基づいて、 3次元映像の各所定単 位領域ごとに映像の彩度を制御することにより、 3次元映像の立体感を調整する ことを特徴とする。 所定単位領域は、 たとえば、 1画素単位の領域である。 具体的には、 近い映像が映っている領域に対しては、 映像の彩度が高くなるよ うに、 遠い映像が映っている領域に関しては映像の彩度が低くなるように、 映像 の彩度が制御される。 人間の眼には、 近いものほど色があざやかに見え、 遠いも のほど色が薄く見えるので、 映像の立体感が強調される。
この発明による第 3の立体感調整方法は、 3次元映像の 1 フィールド画面内の 所定単位領域ごとの映像の遠近に関する情報に基づいて、 3次元映像の各所定単 位領域ごとに映像の輪郭の鮮明度を制御するとともに映像の彩度を制御すること により、 3次元映像の立体感を調整することを特徴とする。 所定単位領域は、 た とえば、 1画素単位の領域である。
具体的には、 近い映像が映っている領域に対しては、 映像の輪郭の鮮明度が高 くなるように、 遠い映像が映っている領域に関しては映像の輪郭の鲜明度が低く なるように、 映像の輪郭の鮮明度が制御され、 近い映像が映っている領域に対し ては映像の彩度が高くなるように、 遠い映像が映っている領域に関しては映像の 彩度が低くなるように、 映像の彩度が制御される。 人間の眼には、 近いものほど 輪郭がくつきりと見えるとともに色があざやかに見え、 遠いものほど輪郭がぼや けて見えるとともに色が薄く見えるので、 映像の立体感が強調される。
この発明による第 1の立体感調整装置は、 3次元映像の 1 フィールド画面内の 所定単位領域ごとの映像の遠近に関する情報に基づいて、 3次元映像の各所定単 位領域ごとに映像の輪郭の鲜明度を制御する輪郭制御手段を備えていることを特 徵とする。 所定単位領域は、 たとえば、 1画素単位の領域である。
輪郭制御手段としては、 たとえば、 近い映像が映っている領域に対しては、 映 像の輪郭の鲜明度が高くなるように、 遠し、映像が映つている領域に関しては映像 の輪郭の鮮明度が低くなるように、 映像の輪郭の鲜明度を制御するものが用レ、ら れる。 人間の眼には、 近いものほど色があざやかに見え、 遠いものほど色が薄く 見えるので、 映像の立体感が強調される。
このような輪郭制御手段の具体例としては、 近し、映像が映つている領域に対し ては、 映像の低周波成分の割合を減少させるとともに映像の高周波成分の割合を 増加させ、 遠い映像が快っている領域に関しては映像の低周波成分の割合を増加 させるとともに映像の高周波成分の割合を減少させるものが挙げられる。
この発明による第 2の立体感調整装置は、 3次元映像の 1 フィールド画面内の 所定単位領域ごとの映像の遠近に関する情報に基づいて、 3次元映像の各所定単 位領域ごとに映像の彩度を制御する彩度制御手段を備えてレ、ることを特徴とする
。 所定単位領域は、 たとえば、 1画素単位の領域である。
彩度制御手段としては、 たとえば、 近い映像が映っている領域に対しては、 映 像の彩度が高くなるように、 遠い映像が映っている領域に関しては映像の彩度が 低くなるように、 映像の彩度を制御するものが用いられる。 人間の眼には、 近い ものほど色があざやかに見え、 遠いものほど色が薄く見えるので、 映像の立体感 が強調される。
この発明による第 3の立体感調整装置は、 3次元映像の 1 フィールド画面内の 所定単位領域ごとの映像の遠近に関する情報に基づいて、 3次元映像の各所定単 位領域ごとに映像の輪郭の鮮明度を制御する輪郭制御手段、 および 3次元映像の 1フィールド画面内の所定単位領域ごとの映像の遠近に関する情報に基づいて、 3次元映像の各所定単位領域ごとに映像の彩度を制御する彩度制御手段を備えて いることを特徴とする。 所定単位領域は、 たとえば、 1画素単位の領域である。 輪郭制御手段としては、 たとえば、 近い映像が映っている領域に対しては、 映 像の輪郭の鮮明度が高くなるように、 遠レ、映像が映つている領域に関しては映像 の輪郭の鲜明度が低くなるように、 映像の輪郭の鲜明度を制御するものが用いら れ、 彩度制御手段としては、 たとえば、 近い映像が映っている領域に対しては、 映像の彩度が高くなるように、 遠 、映像が映つてレ、る領域に関しては映像の彩度 が低くなるように、 映像の彩度を制御するものが用いられる。
人間の眼には、 近いものほど輪郭がくつきりと見えるとともに色があざやかに 見え、 遠いものほど輪郭がぼやけて見えるとともに色が薄く見えるので、 映像の 立体感が強調される。
このような輪郭制御手段の具体例としては、 近い映像が映っている領域に対し ては、 映像の低周波成分の割合を減少させるとともに映像の高周波成分の割合を 増加させ、 遠い映像が映っている領域に関しては映像の低周波成分の割合を増加 させるとともに映像の高周波成分の割合を減少させるものが挙げられる。 この発明による 2次元 Z 3次元映像変換装置は、 入力された 2次元映像信号を 、 最新フィ一ルドから過去所定フィ一ルド数分記憶するための複数のフィールド メモリと、 複数のフィールドメモリから、 相対的に時間差を有する 2つの映像信 号をそれぞれ読み出して、 一方を左目用映像信号として出力し、 他方を右目用映 像信号として出力する手段とを備えた 2次元 Z 3次元映像変換装置において、 各 フィールドメモリの読み出しクロックの周波数か、 各フィールドメモリの書き込 みクロックの周波数の 2倍に設定されていることを特徴とする。
各フィールドメモリの読み出しクロックの周波数が、 各フィールドメモリの書 き込みクロックの周波数の 2倍に設定されているので、 フィ一ルドメモリ力、ら読 み出された左目用映像信号および右目用映像信号は、 2次元映像信号に対して水 平、 垂直周波数が 2倍の信号となる。
<図面の簡単な説明 >
図 1は、 2 DZ 3 D映像変換装置の全体構成を示すプロック図である。
図 2は、 視差算出領域を示す模式図である。
図 3は、 輝度積算回路の構成を示すプロック図である。
図 4は、 高周波成分積算回路の構成を示すプロック図である。
図 5は、 図 4のハイパスフィルタ 2 3 2の具体例を示す回路図である。 図 6は、 図 4のスライス処理回路 2 3 4の入出力特性を示すグラフである。 図 7は、 高周波成分積算回路の他の例を示すプロック図である。
図 8は、 図 7のピーク検出回路 2 3 9の具体例を示す回路図である。
図 9は、 ピーク検出回路 2 3 9の各部の信号を示すタイムチャートである。 図 1 0は、 輝度コントラスト算出回路の構成を示すブロック図である。
図 1 1は、 図 1 0の輝度コントラスト検出回路の構成を示す回路図である。 図 1 2は、 彩度積算回路の構成を示す回路図である。
図 1 3は、 C P Uによる視差情報の生成方法を説明するための説明図である。 図 1 4は、 図 1 3の正規化手段 4 1 0の入出力関係を示すグラフである。 図 1 5は、 実際に設定される視差算出領域を示す模式図である。
図 1 6は、 奥行き補正前における各視差算出領域の奥行き情報の一例を示す模 式図である。
図 1 7は、 奥行き補正後における各視差算出領域の奥行き情報を示す模式図で める。
図 1 8は、 奥行き補正前における画面の高さ位置に対する奥行き情報との関係 および奥行き補正後における画面の高さ位置に対する奥行き情報との関係を示す グラフである。
図 1 9は、 奥行き情報と視差情報との関係を示すグラフである。
図 2 0は、 主として、 視差制御回路および任意画素遅延 F I F Oの構成を示す ブロック図である。
図 2 1は、 相対的水平位置および相対的垂直位置等を示す模式図である。 図 2 2は、 注目画素に対する視差情報を生成する方法を説明するための説明図 である。
図 2 3は、 視差選択回路による選択規則を示す図である。
図 2 4は、 視差情報が 0の場合の各部の信号を示すタイムチャートである。 図 2 5は、 視差情報が 1 . 2の場合の各ァドレス値を視差制御回路に付記した ブロック図である。 図 2 6は、 視差情報が 1 . 2の場合の各部の信号を示すタイムチャートである o
図 2 7は、 2 D/ 3 D映像変換装置の全体構成を示すブロック図である。 図 2 8は、 C P Uによる視差情報の生成処理手順を示すフローチャートである o
図 2 9は、 高周波成分積算値の各正規化値に対する視差算出領域の数を示すヒ ストグラムである。
図 3 0は、 図 2 9のヒストグラムに基づいて得られたグループ分け結果を示す 模式図である。
図 3 1は、 R - Y成分積算値の正規化値を縦軸にとり、 B— Y成分積算値の正 規化値を横軸にとって、 視差算出領域の分布を表したグラフである。
図 3 2は、 図 3 1のグラフに基づいて得られたグループ分け結果を示す模式図 である。
図 3 3は、 図 3 1のグラフに基づいて得られたグループ分け結果を示す模式図 である。
図 3 4は、 空間分離処理によって修正されたグループ分け結果を示す模式図で の
図 3 5は、 特異点処理を説明するための模式図である。
図 3 6は、 特異点処理によって修正されたグループ分け結果を示す模式図であ る。
図 3 7は、 各視差算出領域毎に予め設定された背景重み成分を示す模式図であ る。
図 3 8は、 奥行き補正前における各視差算出領域の奥行き情報の一例を示す模 式図である。
図 3 9は、 奥行き補正後における各視差算出領域の奥行き情報を示す模式図で める 0
図 4 0は、 奥行き補正前における画面の高さ位置に対する奥行き情報との関係 および奥行き補正後における画面の高さ位置に対する奥行き情報との関係を示す グラフである。
図 4 1は、 グループ内部に対する奥行き情報補正処理を説明するための模式図 である。
図 4 2は、 奥行き情報と視差情報との関係を示すグラフである。
図 4 3は、 2 D/ 3D映像変換装置の全体構成を示すブロック図である。 図 4 4は、 CPUによる奥行き情報の生成処理手順を示す機能ブロック図であ 図 4 5は、 CPUによる奥行き情報の生成方法を説明するための説明図である 。
図 4 6は、 2 DZ 3D映像変換システムの構成を示すブロック図である。 図 4 7は、 立体感調整回路の構成を示すブロック図である。
図 4 8は、 画素ごとの視差情報 PRと第 1係数 KLとの関係を示すグラフであ 。
図 4 9は、 画素ごとの視差情報 PRと第 2係数 KHとの関係を示すグラフであ る。
図 5 0は、 画素ごとの視差情報 PRと第 3係数 KCとの関係を示すグラフであ 図 5 1は、 立体感調整システムの構成を示すブロック図である。
図 5 2は、 2次元 Z 3次元映像変換装置の構成を示すブロック図である。 図 5 3は、 第 1基準クロック CLK 1および第 1水平同期信号 HD 1を発生す るための位相同期回路を示す電気回路図である。
図 5 4は、 2次元 /3次元映像変換モードとして倍速変換モードが設定されて いる場合の図 5 1の各部の信号を示すタイムチャートである。
図 5 5は、 2次元映像信号から倍速 3次元映像信号を生成するための従来の 2 次元 / 3次元映像変換装置の構成を示すプロック図である。
図 5 6は、 図 5 5の各部の信号を示すタイムチヤ一トである。 <発明を実施するための最良の形態 >
〔 1〕 第 1の実施の形態の説明
図 1〜図 2 6を参照して、 この発明の第 1の実施の形態について説明する。 図 1は、 2次元映像を 3次元映像に変換するための 2 Ό/ 3 D映像変換装置の 全体的な構成を示している。
2次元映像信号を構成する輝度信号 Y、 色差信号 R - Υおよび色差信号 Β - Υ は、 A D変換回路 1 (A D C ) によってそれぞれディジタルの Υ信号、 R— Υ信 号および Β - Υ信号に変換される。
Υ信号は、 輝度積算回路 7、 高周波成分積算回路 8および輝度コントラスト算 出回路 9に送られるとともに、 第 1の左映像用任意画素遅延 F I F O 1 1および 第 1の右映像用任意画素遅延 F I F 0 2 1に送られる。 R - Υ信号は、 彩度積算 回路 1 0に送られるとともに、 第 2の左映像用任意画素遅延 F I F O 1 2および 第 2の右映像用任意画素遅延 F I F〇 2 2に送られる。 B— Y信号は、 彩度積算 回路 1 0に送られるとともに、 第 3の左映像用任意画素遅延 F I F O 1 3および 第 3の右映像用任意画素遅延 F I F O 2 3に送られる。
輝度積算回路 7は、 1 フィールド毎に、 図 2に示すように、 1 フィールド画面 内に予め設定された複数個の視差算出領域 E 1〜E 1 2それぞれに対する輝度積 算値を算出する。 高周波成分積算回路 8は、 1 フィールド毎に、 各視差算出領域 E 1〜E 1 2それぞれに対する高周波成分の積算値を算出する。 輝度コントラス ト算出回路 9は、 1フィールド毎に、 各視差算出領域 E 1〜E 1 2それぞれに対 する輝度コントラストを算出する。 彩度積算回路 1 0は、 1 フィールド毎に、 各 視差算出領域 E 1〜E 1 2それぞれに対する彩度の積算値を算出する。
視差算出領域 E 1〜E 1 2それぞれに対する輝度積算値、 各視差算出領域 E 1 〜E 1 2それぞれに対する高周波成分の積算値、 各視差算出領域 E 1〜E 1 2そ れぞれに対する輝度コントラストおよび各視差算出領域 E 1〜E 1 2それぞれに 対する彩度の積算値が、 視差算出領域 E 1〜E 1 2ごとの映像の遠近に関する画 像特徴量である。 なお、 1フィールド画面内には、 実際には、 図 1 5に示すように 6行 1 0列の 計 6 0個の視差算出領域 F 1〜F 6 0が設定されているが、 説明の便宜上、 図 2 に示すように、 1フィールド画面内に、 3行 4列の計 1 2個の視差算出領域 E 1 〜E 1 2が設定されているものとする。
C P U 3は、 輝度積算回路 7、 高周波成分積算回路 8、 輝度コントラスト算出 回路 9および彩度積算回路 1 0から送られてきた情報に基づいて、 各視差算出領 域 E 1〜E 1 2に対する視差情報を生成する。 この例では、 被写体のように前側 にある物体ほど視差量が少なく、 背景のように後ろ側にある物体ほど視差量が大 きくなるように視差情報が生成される。 この視差情報の生成方法の詳細について は、 後述する。
C P U 3によって算出された各視差算出領域 E 1〜E 1 2に対する視差情報は 、 視差制御回路 4に送られる。 視差制御回路 4は、 各視差算出領域 E 1〜E 1 2 に対する視差情報に基づいて、 各フィールドの各画素位置ごとの視差情報を生成 する。 そして、 得られた各画素位置ごとの視差情報に基づいて、 各 F I F O 1 1 〜1 3、 2 1〜2 3から映像信号 (Y信号、 R— Y信号、 B— Y信号) を読み出 す際の読み出しァドレスが左映像用任意画素遅延 F I F〇 1 1〜 1 3と右映像用 任意画素遅延 F I F O 2 1〜2 3との間でずれるように、 各 F I F〇 1 1〜 1 3 、 2 1〜2 3の読み出しアドレスを制御する。 したがって、 左映像用任意画素遅 延 F I F〇 1 1〜 1 3から読み出された左映像信号の水平位相と、 右映像用任意 画素遅延 F I F〇 2 1〜2 3から読み出された右映像信号の水平位相が異なるよ うになる。
左映像用任意画素遅延 F I F O 1 1〜 1 3から読み出された左映像信号 (Y L 信号、 (R— Y) L信号、 (B - Y) L信号) は、 D A変換回路 (D A C ) 5に よってアナログ信号に変換された後、 図示しなレ、立体表示装置に送られる。 右映 像用任意画素遅延 F I F〇2 1〜2 3から読み出された右映像信号 (Y R信号、 ( R - Y) R信号、 (B— Y) R信号) は、 D A変換回路 (D A C ) 6によって アナ口グ信号に変換された後、 図示しない立体表示装置に送られる。 左映像信号の水平位相と、 右映像信号の水平位相は異なっているので、 左映像 と右映像との間に視差が発生する。 この結果、 左映像を左目のみで観察し、 右映 像を右目のみで観察すると、 被写体が背景に対して前方位置にあるような立体映 像が得られる。
図 3は、 輝度積算回路 7の構成を示している。
図 2においては、 各視差算出領域 E 1〜E 1 2の水平方向の画素数を m、 各視 差算出領域 E 1〜E 1 2の垂直方向の画素数を n、 第 1の視差算出領域 E 1の左 上の座標を (a, b) として、 水平位置 (HAD) および垂直位置 (VAD) が 表されている。
輝度積算回路 7は、 タイミング信号発生回路 20 1、 加算回路 202および輝 度積算レジスタ群 203および選択回路 (SEL) 204を備えている。 輝度積 算レジス夕群 203は、 各視差算出領域 E 1〜E 1 2にそれぞれ対応した第 1〜 第 1 2の輝度積算レジスタ 21 1〜222を備えている。
タイミング信号発生回路 20 1には、 入力映像信号の水平同期信号 H s yn c および垂直同期信号 Vs yn cならびに各水平期間の水平ァドレスを検出するた めのクロック信号 CLKが入力している。
タイミング信号発生回路 20 1は、 水平同期信号 H s yn c. 垂直同期信号 V s y n cおよびクロック信号 C L Kに基づレ、て、 第 1〜第 1 2のイネ一ブル信号 EN 1〜EN 1 2、 リセット信号 RSTおよび出力タイミング信号 D〇UTを出 力する。
各ィネーブル信号 EN 1〜EN 1 2は、 それぞれ各視差算出領域 E 1〜E 1 2 に対応しており、 常時は Lレベルであり、 入力映像信号の水平垂直位置が対応す る領域内にあるときに、 Hレベルとなる。 第 1〜第 1 2のィネーブル信号 EN 1 〜EN 1 2は、 それぞれ第 1〜第 1 2の輝度積算レジス夕 2 1 1〜222に、 書 き込み信号として入力している。 また、 第 1〜第 1 2のイネ一ブル信号 EN 1〜 EN 1 2は、 選択回路 204にも送られる。 選択回路 204は、 Hレベルのイネ 一ブル信号に対応する入力デ一夕を選択して出力する。 リセッ ト信号 R STは、 入力映像信号における各フィールドの有効映像開始夕 イミングで出力され、 各輝度積算レジスタ 2 1 1〜222に送られる。 各輝度積 算レジスタ 2 1 1〜222にリセッ ト信号 RSTが入力されると、 その内容が 0 にされる。
出力タイミング信号 D OUTは、 図 2に示すように、 入力映像信号の垂直位置 力 \ 最下段の視差算出領域 E 1 2の下端の垂直位置を越えた時点から一定期間だ け、 Hレベルとなる。 出力タイミング信号 DOUTは、 CPU 3に送られる。 入力映像信号における有効映像開始タイミングにリセッ ト信号が出力され、 各 輝度積算レジスタ 2 1 i〜222の内容が 0にされる。 入力映像信号の水平垂直 位置が第 1の視差算出領域 E 1内である場合には、 第 1のィネーブル信号 EN 1 が Hレベルとなるので、 第 1の輝度積算レジスタ 2 1 1に保持されている輝度値 が選択回路 204を介して加算回路 202に送られるとともに、 入力映像信号に おける Y信号が加算回路 202に入力する。
したがって、 第 1の輝度積算レジスタ 2 1 1に保持されていた輝度値と、 入力 映像信号における Y信号とが加算回路 202によって加算され、 その加算結果が 第 1の輝度積算レジス夕 2 1 1に格納される。 つまり、 入力映像信号の水平垂直 位置が第 1の視差算出領域 E 1内である場合においては、 第 1の視差算出領域 E 1内の画素の輝度値が積算されていき、 その積算結果が第 1の輝度積算レジス夕 2 1 1に蓄積される。
このようにして、 各視差算出領域 E i〜E 1 2ごとの輝度積算値が、 対応する 輝度積算レジスタ 2 1 1〜222に蓄積される。 そして、 出力タイミング信号 D OUTが Hレベルとなると、 各輝度積算レジス夕 2 1 1〜222に蓄積されてい る各視差算出領域 E 1〜E 1 2ごとの輝度積算値が、 CPU 3にデ一夕バス (D ATA-BUS) を介して送られる。
図 4は、 高周波成分積算回路 8の構成を示している。
高周波成分積算回路 8は、 タイミング信号発生回路 23 し ハイパスフィル夕 (HPF) 232、 絶対値化回路 233、 スライス処理回路 234、 加算回路 2 1
2 5
3 5および高周波成分積算レジス夕群 2 3 6および選択回路 2 3 7を備えている 。 高周波成分積算レジスタ群 2 3 6は、 各視差算出領域 E 1〜E 1 2にそれぞれ 対応した第 1〜第 1 2の高周波成分積算レジスタ 2 4 1〜2 5 2を備えている。 タイミング信号発生回路 2 3 1の入力信号および出力信号は、 図 3のタイミン グ信号発生回路 2 0 1の入力信号および出力信号と同じである。
ハイパスフィルタ 2 3 2としては、 たとえば、 図 5に示すように、 5つの Dフ リップフロップ 2 6 1〜2 6 5、 入力値の 2倍の出力を得るためのビッ トシフ ト 回路 2 6 6、 加算器 2 6 7および減算器 2 6 8からなる、 — 1、 0、 2、 0およ び一 1の夕ップ係数を持つハイパスフィル夕が用いられる。
また、 スライス処理回路 2 3 4としては、 図 6に示すような入出力特性を有す る回路が用いられる。 0〜I aまでの入力に対しては、 出力を 0としているのは 、 ノイズが高周波成分として抽出されないようにするためである。
したがって、 入力映像信号における Y信号の高周波成分がハイパスフィル夕 2 3 2によって抽出され、 その絶対値が絶対値化回路 2 3 3により得られ、 スライ ス処理回路 2 3 4によって高周波成分の絶対値からノイズが除去される。
入力映像信号における有効映像開始タイミングにリセッ ト信号が出力され、 各 高周波成分積算レジスタ 2 4 1〜2 5 2の内容が 0にされる。 入力映像信号の水 平垂直位置が第 1の視差算出領域 E 1内である場合には、 第 1のィネーブル信号 E N 1が Hレベルとなるので、 第 1の高周波成分積算レジスタ 2 4 1に保持され ている高周波成分が選択回路 2 3 7を介して加算回路 2 3 5に送られるとともに 、 入力映像信号における Y信号の高周波成分 (スライス処理回路 2 3 4の出力) が加算回路 2 3 5に入力する。
したがって、 第 1の高周波成分積算レジスタ 2 4 1に保持されていた高周波成 分と、 入力映像信号における Y信号の高周波成分とが加算回路 2 3 5によって加 算され、 その加算結果が第 1の高周波成分積算レジスタ 2 4 1 に格納される。 つ まり、 入力映像信号の水平垂直位置が第 1の視差算出領域 E 1内である場合にお いては、 第 1の視差算出領域 E 1内の画素の高周波成分が積算されていき、 その 積算結果が第 1の高周波成分積算レジスタ 2 4 1に蓄積される。
このようにして、 各視差算出領域 E 1〜E 1 2ごとの高周波成分の積算値が、 対応する高周波成分積算レジスタ 2 4 1〜2 5 2に蓄積される。 そして、 出力夕 イミング信号 D O U Tが Hレベルとなると、 各高周波成分積算レジスタ 2 4 1〜 2 5 2に蓄積されている各視差算出領域 E 1〜E 1 2ごとの高周波成分の積算値 が、 C P U 3にデータバスを介して送られる。
図 7は、 高周波成分積算回路 8の他の例を示している。
この高周波成分積算回路 8は、 タイミング信号発生回路 2 3 8、 ハイパスフィ ル夕 2 3 2、 ピーク検出回路 2 3 9、 加算回路 2 3 5、 高周波成分積算レジスタ 群 2 3 6および選択回路 2 3 7を備えている。
タイミング信号発生回路 2 3 8は、 図 3のタイミング信号発生回路 2 0 1 とほ ぼ同じであるが、 図 2に示すように、 入力映像信号の水平位置が、 視差算出領域 E 1、 E 5、 E 9の直前の水平位置および各視差算出領域 E 1〜E 1 2の最後尾 の水平位置に達したときに、 トリガパルス (領域境界信号 R S T 1 ) が出力され る点が、 図 3のタイミング信号発生回路 2 0 1 と異なっている。 領域境界信号 R S T 1は、 ピーク検出回路 2 3 9に送られる。
ハイパスフィル夕 2 3 2によって抽出された Y信号の高周波成分は、 ピーク検 出回路 2 3 9に送られる。 ピーク検出回路 2 3 9は、 各視差算出領域 E 1〜E 1 2内の各水平ラインごとに、 高周波成分の最大値を検出する。 ピーク検出回路 2 3 9としては、 図 8に示すように、 比較回路 2 7 1、 最大値レジスタ 2 7 2およ びゲート 2 7 3を備えたものが用いられる。 図 9は、 入力映像信号の水平同期信 号 H s y n c、 領域境界信号 R S Tし ゲート 2 7 3等の出力を示している。 最大値レジスタ 2 7 2には、 ハイパスフィルタ 2 3 2によって抽出された Y信 号の高周波成分、 領域境界信号 R S T 1、 比較回路 2 7 1の判定結果信号 L aお よびクロック信号 C L Kが入力される。 比較回路 2 7 1は、 最大値レジス夕 2 7 2の出力と入力映像信号における Y信号の高周波成分とを比較し、 Y信号の高周 波成分が最大値レジスタ 2 7 2の出力より大きいときに、 判定結果信号 L aを H レベルにする。
領域境界信号 R S T 1が Hレベルになると、 最大値レジスタ 2 7 2の内容は 0 にされる。 領域境界信号 R S T 1が Lレベルである状態において、 比較回路 2 7 1からの判定結果信号 L aが Hレベルであれば、 Y信号の高周波成分が最大値レ ジス夕 2 7 2に格納される。 つまり、 最大値レジス夕 2 7 2の内容が更新される 。 したがって、 最大値レジスタ 2 7 2には、 領域境界信号 R S T 1が Lレベルで ある期間ごとに、 入力映像信号の水平垂直位置に対応する視差算出領域 E 1〜E 1 2内の 1水平ラインの各画素に対する Y信号の高周波成分のうちの最大値が蓄 積される。
ゲート 2 7 3は、 領域境界信号 R S T 1が Hレベルになると、 最大値レジス夕 2 7 2の出力値を出力し、 領域境界信号 R S T 1が Lレベルのときには 0を出力 する。 つまり、 ゲート回路 2 7 3からは、 領域境界信号 R S T 1が Hレベルにな るごとに、 最大値レジスタ 2 7 2に蓄積されていた所定の視差算出領域 E 1〜E 1 2内の 1水平ラインに対する Y信号の高周波成分の最大値が出力される。 した がって、 各高周波成分積算レジス夕 2 4 1〜2 5 2 (図 7参照) には、 対応する 視差算出領域内の各水平ラインに対する Y信号の高周波成分の最大値の積算値が 蓄積されることになる。
図 1 0は、 輝度コントラスト算出回路 9の構成を示している。
輝度コントラスト算出回路 9は、 タイミング信号発生回路 3 0 1および輝度コ ントラスト検出回路群 3 0 2を備えている。 輝度コントラスト検出回路群 3 0 2 は、 各視差算出領域 E 1〜E 1 2にそれぞれ対応した第 1〜第 1 2の輝度コント ラスト検出回路 3 1 1〜3 2 2を備えている。
タイミング信号発生回路 3 0 1の入力信号および出力信号は、 図 3のタイミン グ信号発生回路 2 0 1の入力信号および出力信号と同じである。
各輝度コントラスト検出回路 3 1 1 - 3 2 2は、 図 1 1 に示すように、 第 1の 比較回路 3 3 し 最大値レジスタ 3 3 2、 第 2の比較回路 3 3 3、 最小値レジス 夕 3 3 4および減算器 3 3 5を備えている。 最大値レジスタ 332には、 入力映像信号における Y信号、 当該輝度コントラ スト検出回路に対応する領域 E 1〜E 1 2のィネーブル信号 EN (N= l、 2 1 2) 、 リセット信号 RST、 第 1の比較回路 33 1から出力される判定信号 L bおよびクロック信号 CLKが入力している。 第 1の比較回路 33 1は、 最大値 レジスタ 332の出力値と入力映像信号における Y信号とを比較し、 入力映像信 号における Y信号が最大値レジスタ 332の出力値より大きいときに判定信号 L bを Hレベルにする。
リセット信号 RSTが Hレベルになると、 最大値レジスタ 332の内容は 0に される。 当該輝度コントラスト検出回路に対応する領域 E 1〜E 1 2のイネーブ ル信号 E Nが Hレベルでありかつ判定信号 L bが Hレベルのときに、 Y信号が最 大値レジス夕 332に格納される。 つまり、 最大値レジス夕 332の内容が更新 される。 したがって、 出力タイミング信号 DOUTが出力される直前においては 、 最大値レジスタ 332には、 当該輝度コントラスト検出回路に対応する視差算 出領域 E 1〜E 1 2内の各画素の輝度値のうちの最大値が蓄積される。
最小値レジス夕 334には、 入力映像信号における Y信号、 当該輝度コントラ スト検出回路に対応する領域 E 1〜E 1 2のイネ一ブル信号 EN (N=し 2 1 2) 、 リセッ ト信号 RST、 第 2の比較回路 333から出力される判定信号 L cおよびクロック信号 CLKが入力している。 第 2の比較回路 333は、 最小値 レジス夕 334の出力値と入力映像信号における Y信号とを比較し、 入力映像信 号における Y信号が最小値レジス夕 334の出力値より小さいときに判定信号 L cを Hレベルにする。
リセッ ト信号 RSTが Hレベルになると、 最小値レジスタ 334に、 予め定め られた最大値が設定される。 当該輝度コントラスト検出回路に対応する領域 E 1 〜E 1 2のイネ一ブル信号 ENが Hレベルでありかつ判定信号 L cが Hレベルの ときに、 Y信号が最小値レジスタ 334に格納される。 つまり、 最小値レジスタ 334の内容が更新される。 したがって、 出力タイミング信号 DOUTが出力さ れる直前においては、 最小値レジス夕 334には、 当該輝度コントラスト検出回 路に対応する視差算出領域 E 1〜E 1 2内の各画素の輝度値のうちの最小値が蓄 積される。
この結果、 出力タイミング信号 DOUTが出力される時点においては、 減算器 335の出力は、 対応する視差算出領域 E 1〜E 1 2内の各画素の輝度値のうち の最大値と最小値との差 (輝度コントラスト) に対応した値となる。 そして、 出 力タイミング信号 D〇UTが出力されると、 減算器 335の出力 (輝度コントラ スト) が CPU3に送られる。
図 1 2は、 彩度積算回路 1 0の構成を示している。
彩度積算回路 1 0は、 タイミ ング信号発生回路 34 し 彩度算出回路 342、 加算回路 34 3、 彩度積算レジス夕群 344および選択回路 34 5を備えている 。 彩度積算レジスタ群 344は、 各視差算出領域 E 1〜E 1 2にそれぞれ対応し た第 1〜第 1 2の彩度積算レジス夕 35 1〜362を備えている。
タイミング信号発生回路 34 1の入力信号および出力信号は、 図 3のタイミン グ信号発生回路 20 1の入力信号および出力信号と同じである。
彩度算出回路 342は、 入力映像信号における R - Y信号の値を (R - Y) と し、 入力映像信号における B— Y信号の値を (B— Y) として、 次式 (3) の演 算を行なって、 彩度に対応する値 S A Iを求める。
SA I = (R-Y) 2 + (B-Y) (3)
入力映像信号における有効映像開始タイミングにリセッ ト信号 RSTが出力さ れ、 各彩度積算レジスタ 35 1〜362の内容が 0にされる。 入力映像信号の水 平垂直位置が第 1の視差算出領域 E 1内である場合には、 第 1のィネーブル信号 EN 1が Hレベルとなるので、 第 1の彩度積算レジスタ 35 1に保持されている 彩度が選択回路 345を介して加算回路 343に送られるとともに、 彩度算出回 路 34 2によって演算された彩度が加算回路 343に入力する。 したがって、 第 1の彩度積算レジスタ 3 5 1に保持されている彩度と、 彩度算 出回路 3 4 2によって演算された彩度とが加算回路 3 4 3によって加算され、 そ の加算結果が第 1の彩度積算レジスタ 3 5 1に格納される。 つまり、 入力映像信 号の水平垂直位置が第 1の視差算出領域 E 1内である場合においては、 第 1の視 差算出領域 E 1内の画素の彩度が積算されていき、 その積算結果が第 1の彩度積 算レジスタ 3 5 1に蓄積される。
このようにして、 各視差算出領域 E 1〜E 1 2ごとの彩度の積算値が、 対応す る彩度積算レジスタ 3 5 1〜3 6 2に蓄積される。 そして、 出力タイミング信号 D O U Tが Hレベルとなると、 各彩度積算レジス夕 3 5 1〜3 6 2に蓄積されて いる各視差算出領域 E 1〜E 1 2ごとの彩度の積算値が、 C P U 3にデータバス を介して送られる。
図 1 3は、 C P U 3によって行なわれる視差量の算出方法を示している。
第 1の正規化手段 4 0 1は、 各視差算出領域 E 1〜E 1 2ごとの高周波成分の 積算値を 0〜1 0の範囲の値に正規化する。 第 2の正規化手段 4 0 2は、 各視差 算出領域 E 1〜E 1 2ごとの輝度コントラストを 0〜 1 0の範囲の値に正規化す る。 第 3の正規化手段 4 0 3は、 各視差算出領域 E 1〜E 1 2ごとの輝度積算値 を 0〜1 0の範囲の値に正規化する。 第 4の正規化手段 4 0 4は、 各視差算出領 域 E 1〜E 1 2ごとの彩度積算値を 0〜 1 0の範囲の値に正規化する。
正規化された各視差算出領域 E 1〜E 1 2ごとの高周波成分の積算値には、 乗 算手段 4 0 5によって係数 K 1が積算された後、 加算手段 4 0 9に送られる。 正 規化された各視差算出領域 E 1〜E 1 2ごとの輝度コントラストには、 乗算手段 4 0 6によって係数 K 2が積算された後、 加算手段 4 0 9に送られる。 正規化さ れた各視差算出領域 E 1〜E 1 2ごとの輝度積算値には、 乗算手段 4 0 7によつ て係数 K 3が積算された後、 加算手段 4 0 9に送られる。 正規化された各視差算 出領域 E 1〜E 1 2ごとの彩度積算値には、 乗算手段 4 0 8によって係数 K 4が 積算された後、 加算手段 4 0 9に送られる。
係数 K l、 Κ 2、 Κ 3、 Κ 4の具体例としては、 Κ 1 = 0 . 6、 Κ 2 = 0 . 2 71
3 1
、 K 3 = 0 . 1、 K 4 = 0 . 1が挙げられる。 また、 Κ 1 = 0 . 7 5 . Κ 2 = 0 . 2 5 . Κ 3 = 0 . 0、 Κ 4 = 0 . 0が挙げられる。
これらの係数 Κ 1〜Κ 4の設定値を制御することにより、 高周波成分の積算値 、 輝度コントラスト、 輝度積算値および彩度積算値のうちから選択された任意の 1つまたは任意の組み合わせを、 映像の遠近に関する画像特徴量として用いるこ とができる。
したがって、 映像の遠近に関する画像特徴量として、 高周波成分の積算値のみ を用いることもできる。 映像の遠近に関する画像特徴量として、 輝度コントラス トのみを用いることもできる。 映像の遠近に関する画像特徴量として、 高周波成 分の積算値および輝度コントラストを用いることもできる。 映像の遠近に関する 画像特徴量として、 高周波成分の積算値、 輝度コン トラストおよび輝度積算値を 用いることもできる。 映像の遠近に関する画像特徴量として、 高周波成分の積算 値、 輝度コン トラストおよび彩度積算値を用いることもできる。 映像の遠近に関 する画像特徴量として、 高周波成分の積算値、 輝度コントラスト、 輝度積算値お よび彩度積算値を用いることもできる。
加算手段 4 0 9では、 各乗算手段 4 0 5〜4 0 8によって得られた各視差算出 領域 Ε 1〜Ε 1 2ごとの値力加算される。 加算手段 4 0 9によって得られた各視 差算出領域 Ε 1〜Ε 1 2ごとの値は、 第 5の正規化手段 4 1 0によって、 0〜1 0の範囲の値 (以下、 奥行き情報という) に正規化される。 図 1 4は、 加算手段 4 0 9の出力値と第 5の正規化手段 4 1 0によって得られる奥行き情報との関係 を示している。 各視差算出領域 Ε 1〜Ε 1 2ごとの奥行き情報が、 視差算出領域 Ε 1〜Ε 1 2ごとの映像の遠近に関する情報である。 第 5の正規化手段 4 1 0に よって、 得られた各視差算出領域 Ε 1〜Ε 1 2ごとの奥行き情報は、 奥行き補正 手段 4 1 1に送られる。
一般的な画像では、 被写体が前方に存在し、 背景が後方に存在している。 また 、 被写体に対してピントが合っている映像が多いため、 近くにある物ほど、 高周 波成分、 コントラスト、 輝度および彩度が高いと考えられる。 そこで、 この実施 の形態では、 高周波成分の積算値、 輝度コン トラスト、 輝度積算値および彩度積 算値が大きい領域ほど、 前方に存在する物体が写っていると仮定している。
したがって、 加算手段 4 0 9によって得られた奥行き情報が大きい領域ほど、 前方に存在する物体が写っている領域であると判断することができる。 最も前方 に存在する物体が写っている領域の立体視位置を立体表示装置の管面位置に設定 すると、 加算手段 4 0 9によって得られた奥行き情報と、 管面位置からの奥行き 量とは反比例する。
以下、 奥行き補正手段 4 1 1による奥行き補正処理について説明する。
奥行き補正処理については、 実際に設定されている視差算出領域を例にとって 説明したほうが理解しゃいすいので、 1 フィールドに対して実際に設定されてい る 6 0個の視差算出領域を例にとって、 奥行き補正手段 4 1 1による奥行き補正 処理を説明する。 図 1 5は、 1フィールドに対して実際に設定されている 6 0個 の視差算出領域 F 1〜F 6 0を示している。
まず、 視差算出領域 F 1〜F 6 0の各行ごとに、 奥行き情報の平均値が算出さ れる。 各視差算出領域 F 1〜F 6 0ごとの奥行き情報が図 1 6に示すような値で あった場合には、 第 1〜第 6行目ごとの奥行き情報の平均値は、 1 . 2、 3 . 6 、 6 . 0、 7 . 2、 4 . 0、 1 . 2となる。
次に、 視差算出領域の各行のうち、 手前位置の物体が多く映っている領域が抽 出される。 つまり、 奥行き情報の平均値が最も大きい行が抽出される。 図 1 6の 例では、 第 4行目の領域が抽出される。
次に、 抽出された行より下段にある行の各領域については、 直上の領域に対し て、 急激に奥行き情報が小さくならないように、 抽出された行より下段にある行 の各領域の奥行き情報が調整される。 具体的には、 抽出された行より下段にある 行の各領域の奥行き情報が直上の領域に対して 3以上小さい領域に対しては、 直 上の領域の奥行き情報より 2だけ小さい値に、 その領域の奥行き情報が変更せし められる。
図 1 6の例では、 図 1 7に示すように、 まず、 第 5行の各領域 F 4 1〜F 5 0 のうち、 その奥行き情報が直上の領域の奥行き情報に対して 3以上小さい領域 F 4 2〜F 4 9に対して、 奥行き情報が補正される。 この後、 第 6行の各領域 F 5 1〜F 6 0のうち、 その奥行き情報が直上の領域の奥行き情報 (補正後の奥行き 情報) に対して 3以上小さい領域 F 5 3〜F 5 8に対して、 奥行き情報が補正さ れ ο
つまり、 任意の水平位置における画面の高さに対する奥行き情報の関係が、 図
1 8に曲線 U 1で示すような関係である場合には、 奥行き補正によって、 画面の 高さに対する奥行き情報の関係が、 図 1 8に曲線 U 2に示すような関係となるよ うに補正される。
このように、 視差算出領域の各行のうち、 手前位置の物体が多く映っている領 域より下段の領域の奥行き情報が補正されているのは次の理由による。
—般的には、 画面の下側には前方に存在する物体が映っていることが多い。 ま た、 画面の下側に映っている物体は、 地面等のように変化の少ない画像であるこ とが多い。 地面等のように変化の少ない画像は、 高周波成分が低いため、 前方に あるにも係わらず、 奥行き情報の値は小さくなる。 そこで、 奥行き補正により、 前方にある物体であって高周波成分が低い映像に対する奥行き情報を、 その直上 の領域の奥行き情報の値より大きくならない程度に大きくしているのである。 奥行き補正手段 4 1 1によって奥行き情報が補正された各領域 (実際は F 1〜 F 6 0であるが、 説明の便宜上 E 1〜E 1 2とする) ごとの奥行き情報は、 再正 規化手段 4 1 2によって、 0〜1 0の範囲内で正規化される。 再正規化手段 4 1 2によって得られた各領域 E 1〜E 1 2ごとの奥行き情報は、 視差情報決定手段 4 1 3によって、 各領域 E 1〜E 1 2ごとの視差情報に変換される。
視差情報決定手段 4 1 3は、 予め設定された奥行き情報に対する視差情報との 関係に基づいて、 各領域 E 1〜E 1 2ごとに、 奥行き情報を視差情報に変換する 。 奥行き情報に対する視差情報との関係は、 図 1 9に直線 S 1または S 2で示さ れるように、 反比例の関係である。
図 1 9において、 直線 S 1で示される奥行き情報に対する視差情報との関係は 、 立体感が比較的強い立体映像を得たい場合に用いられる。 直線 S 2で示される 奥行き情報に対する視差情報との関係は、 立体感が比較的弱い立体映像を得たい 場合に用いられる。 奥行き情報に対する視差情報との関係を、 直線 S 1 と直線 S 2との間で調整することにより、 立体感を調整することが可能である。
このようにして得られた各領域 E 〜 E 1 2ごとの視差情報は、 視差制御回路 4 (図 1参照) に送られる。 なお、 奥行き補正手段 4 1 1による奥行き補正を省 略してもよい。
図 2 0は、 主として、 図 1の視差制御回路および任意画素遅延 F〗 F〇の構成 を示している。
図 2 0には、 任意画素遅延 F I F〇 1 1〜1 3、 2 1〜2 3のうち、 Y信号に 対する左映像用任意画素遅延 F I F O 1 1および右映像用任意画素遅延 F I F O 2 1 しか示されていないが、 他の任意画素遅延 F I F O 1 2、 1 3、 2 2、 2 3 も同様な構成でありかつ同様な制御が行なわれるので、 他の任意画素遅延 F I F 0 1 2、 1 3、 2 2、 2 3の構成および制御方法については、 その説明を省略す る。
ところで、 C P U 3によって算出された視差情報は、 各視差算出領域 E 1〜E 1 2の中心位置に対する視差情報である。 視差制御回路 4では、 各視差算出領域 E 1〜E 1 2の中心位置に対する視差情報に基づいて、 1フィールド画面の各画 素位置に対する視差情報が求められる。 そして、 各画素位置に対する 2次元映像 信号から、 その画素位置に対する視差情報に応じた視差を有する左映像と右映像 とを生成するために、 各画素位置に対する視差情報に基づいて、 左映像用任意画 素遅延 F I F O 1 1〜1 3および右映像用任意画素遅延 F〗 F〇 2 1〜2 3の読 み出しァドレスが制御される。
1フィ一ルド画面の各画素位置に対する視差情報は、 タイミング信号発生回路 5 し 視差補間係数発生回路 5 2、 視差情報記憶手段 6 0、 視差選択回路 8 0、 第 1〜第 4乗算器 8 1〜8 4および加算回路 8 5によって、 生成される。
入力映像信号の水平同期信号 H s y n cおよび垂直同期信号 V s y n cは、 夕 イミング信号発生回路 5 1に入力している。 また、 各水平期間の水平アドレスを 検出するためのクロック信号 CLKもタイミング信号発生回路 5 1に入力してい 。
タイミング信号発生回路 5 1は、 水平同期信号 H s yn c, 垂直同期信号 V s yn cおよびクロック信号 CLKに基づいて、 入力映像信号の絶対的水平位置を 表す水平ァドレス信号 HAD、 入力映像信号の絶対的垂直位置を表す垂直ァドレ ス信号 VAD、 入力映像信号の相対的水平位置を表す相対的水平位置信号 HP 0 Sおよび入力映像信号の相対的垂直位置を表す相対的垂直位置信号 V P 0 Sを生 成して出力する。
入力映像信号の相対的水平位置および相対的垂直位置について説明する。 図 2 1に示すように、 図 2の視差算出領域 E 1〜E 1 2は、 次のように設定さ れている。 画面全体が図 2 1に点線で示すように、 4行 5列の 20個の領域 (以 下、 第 1分割領域という) に分割されている。 そして、 左上端の第 1分割領域の 中心、 右上端の第 1分割領域の中心、 左下端の第 1分割領域の中心および右下端 の第 1分割領域の中心を 4頂点とする四角形領域が 3行 4列の 1 2個の領域 (以 下、 第 2分割領域という) に分割され、 各第 2分割領域が視差算出領域 E 1〜E
1 2として設定されている。
第 1分割領域および第 2分割領域の水平方向の画素数が mで表され、 第 1分割 領域および第 2分割領域の垂直方向の画素数が nとして表されている。 入力映像 信号の相対的水平位置は、 各第 1分割領域の左端を 0とし、 右端を mとして、 0
〜 (! n - 1 ) で表される。 入力映像信号の相対的垂直位置は、 各第 1分割領域の 上端を 0とし、 下端を nとして、 0〜 (n— 1 ) で表される。
入力映像信号の相対的水平位置信号 H POSおよび相対的垂直位置 V P〇 Sは
、 視差補間係数発生回路 52に送られる。 視差補間係数発生回路 52は、 相対的 水平位置信号 HPOS、 相対的垂直位置 VP OSおよび次式 (4) に基づいて、 第 1視差補間係数 KUL、 第 2視差補間係数 KUR、 第 3視差補間係数 KDLお よび第 4視差補間係数 K D Rを生成して出力する。 KUL= { (m-HPOS) /m) x { (n-VPOS) /n}
KUR= {HPOS/m} x { (n-VPOS) /n}
KDL= { (m-HPOS) /m} x {VPOS) /n}
KDR= {HPOS/m} x (VPOS) /n}
… (4)
1 フィールド画面の各画素位置に対する視差情報を生成する方法の基本的な考 え方について、 図 2 2を用いて説明する。 水平アドレス信号 HADおよび垂直ァ ドレス信号 VADによって表されている水平垂直位置 (以下、 注目位置という) が図 2 2の Pxyであるとする。 注目位置 Pxyに対する視差情報を求める場合 について説明する。
( 1 ) まず、 CPU 3によって算出された各視差算出領域 E 1〜E 1 2に対する 視差情報のうちから、 注目位置 Pxyが含まれる第 1分割領域の 4頂点、 この例 では PEし PE 2、 PE 5、 PE 6を中心とする視差算出領域 E 1、 E 2、 E 5、 E 6に対する視差情報が、 それぞれ UL、 UR、 DL、 DRとして抽出され る。 つまり、 注目位置 Pxyが含まれる第 1分割領域の 4頂点のうち、 左上の頂 点を中心とする領域 E 1の視差情報が第 1視差情報 U Lとして、 右上の頂点を中 心とする領域 E 2の視差情報が第 2視差情報 URとして、 左下の頂点を中心とす る領域 E 5の視差情報が第 3視差情報 D Lとして、 右下の頂点を中心とする領域 E 6の視差情報が第 4視差情報 DRとして抽出される。
ただし、 注目位置が含まれる第 1分割領域が、 左上端の第 1分割領域である場 合のように、 注目位置が含まれる第 1分割領域の 4頂点のうち 1つの頂点のみが 視差検出領域の中心に該当するような場合には、 その視差算出領域の視差情報が 、 第 1〜第 4の視差情報 UL、 UR、 DL、 DRとして抽出される。
また、 注目位置が含まれる第 1分割領域が、 左上端の第 1分割領域の右隣の第 1分割領域である場合のように、 注目位置が含まれる第 1分割領域の 4頂点のう ち下側の 2つの頂点のみが視差算出領域の中心に該当するような場合には、 注目 位置が含まれる第 1分割領域の 4頂点のうち上側の 2つの頂点に対応する視差情 報 UL、 URとしては、 その下側の頂点を中心とする視差算出領域の視差情報が 抽出される。
また、 注目位置が含まれる第 1分割領域が、 左上端の第 1分割領域の下隣の第 1分割領域である場合のように、 注目位置が含まれる第 1分割領域の 4頂点のう ち右側の 2つの頂点のみが視差算出領域の中心に該当するような場合には、 注目 位置が含まれる第 1分割領域の 4頂点のうち左側の 2つの頂点に対応する視差情 報 UL、 DLとしては、 その右側の頂点を中心とする視差算出領域の視差情報が 抽出される。
また、 注目位置が含まれる第 1分割領域が、 右下端の第 1分割領域の左隣の第 1分割領域である場合のように、 注目位置が含まれる第 1分割領域の 4頂点のう ち上側の 2つの頂点のみが視差算出領域の中心に該当するような場合には、 注目 位置が含まれる第 1分割領域の 4頂点のうち下側の 2つの頂点に対応する視差情 報 DL、 DRとしては、 その上側の頂点を中心とする視差算出領域の視差情報が 抽出される。
また、 注目位置が含まれる第 1分割領域が、 右下端の第 1分割領域の上隣の第 1分割領域である場合のように、 注目位置が含まれる第 1分割領域の 4頂点のう ち左側の 2つの頂点のみが視差算出領域の中心に該当するような場合には、 注目 位置が含まれる第 1分割領域の 4頂点のうち右側の 2つの頂点に対応する視差情 報 UR、 DRとしては、 その左側の頂点を中心とする視差算出領域の視差情報が 抽出される。
(2) 次に、 第 1〜第 4の視差補間係数 KUL、 KUR、 KDLおよび KDRが 求められる。
第 1の視差補間係数 KULは、 注目位置 Pxyを含む第 1分割領域 eの水平方 向幅 mに対する、 注目位置 P X yから第 1分割領域 eの右辺までの距離 Δ X Rと の比 { (m-HPOS) /m) と、 第 1分割領域 eの垂直方向幅 nに対する、 注 目位置 Pxyから第 1分割領域 eの下辺までの距離 Δ YDとの比 { (n-VPO S) /n\ との積によって求められる。 すなわち、 第 1の視差補間係数 KULは 、 注目位置 Pxyを含む第 1分割領域 eの左上頂点 PE 1と注目位置 Pxyとの 距離が小さいほど大きくなる。
第 2の視差補間係数 KURは、 注目位置 Pxyを含む第 1分割領域 eの水平方 向幅 mに対する、 注目位置 P X yから第 1分割領域 eの左辺までの距離△ X Lと の比 (HPOSZm} と、 第 1分割領域 eの垂直方向幅 nに対する、 注目位置 P xyから第 1分割領域 eの下辺までの距離 AYDとの比 { (n-VPOS) /n } との積によって求められる。 すなわち、 第 2の視差補間係数 KURは、 注目位 置 P X yを含む第 1分割領域 eの右上頂点 P E 2と注目位置 P x yとの距離が小 さいほど大きくなる。
第 3の視差補間係数 K D Lは、 注目位置 P X yを含む第 1分割領域 eの水平方 向幅 mに対する、 注目位置 Pxyから第 1分割領域 eの右辺までの距離 AXRと の比 { (m-HPOS) /m} と、 第 1分割領域 eの垂直方向幅 nに対する、 注 目位置 Pxyから第 1分割領域 eの上辺までの距離 ΔΥυとの比 (VPOS/n ) との積によって求められる。 すなわち、 第 3の視差補間係数 KDLは、 注目位 置 P X yを含む第 1分割領域 eの左下頂点 P E 5と注目位置 P x yとの距離が小 さいほど大きくなる。
第 4の視差補間係数 K D Rは、 注目位置 P X yを含む第 1分割領域 eの水平方 向幅 mに対する、 注目位置 Pxyから第 1分割領域 eの左辺までの距離 AXLと の比 (HPOSZm) と、 第 1分割領域 eの垂直方向幅 nに対する、 注目位置 P xyから第 1分割領域 eの上辺までの距離 AYUとの比 (VPOSZn) との積 によって求められる。 すなわち、 第 4の視差捕間係数 KDRは、 注目位置 Pxy を含む第 1分割領域 eの右下頂点 P E 6と注目位置 P X yとの距離が小さレ、ほど 大きくなる。
(3) 上記 ( 1) で抽出された第 1〜第 4の視差情報 UL、 UR、 DL、 DRに 、 それぞれ上記 (2) で算出された第 1〜第 4の視差補間係数 KUL、 KUR、 KDL、 KDRがそれぞれ乗算される。 そして、 得られた 4つの乗算値が加算さ れることにより、 注目位置 Pxyに対する視差情報が生成される。
視差情報記憶手段 60は、 領域 E 1〜E 1 2にそれぞれ対応して設けられた第 1〜第 1 2の視差レジスタ 6 1〜72を備えている。 第 1〜第 1 2の視差レジス 夕 6 1〜72には、 CPU 3によって生成された各領域 E 1〜E 1 2に対する視 差情報が格納される。
視差情報記憶手段 60の後段には、 視差選択回路 80が設けられている。 視差 選択回路 80には、 各視差レジスタ 6 1〜72から視差情報がそれぞれ送られる 。 さらに、 視差選択回路 8 0には、 タイミング信号発生回路 5 1から水平アドレ ス信号 HADおよび垂直ァ ドレス信号 VADが送られている。
視差選択回路 80は、 図 23 (a) に示されている規則にしたがって、 水平ァ ドレス信号 HADおよび垂直アドレス信号 VADに対応する領域 (図 22の例で は、 注目位置を含む第 1領域の左上頂点を中心とする視差算出領域) に対する視 差情報を、 第 1視差情報 ULとして選択して出力する。 さらに、 視差選択回路 8 0は、 図 23 (b) に示されている規則にしたがって、 水平アドレス信号 HAD および垂直アドレス信号 VADに対応する領域 (図 22の例では、 注目位置を含 む第 1領域の右上頂点を中心とする視差算出領域) に対する視差情報を、 第 2視 差情報 URとして選択して出力する。
さらに、 視差選択回路 80は、 図 23 (c) に示されている規則にしたがって 、 水平アドレス信号 HADおよび垂直アドレス信号 VADに対応する領域 (図 2 2の例では、 注目位置を含む第 1領域の左下頂点を中心とする視差算出領域) に 対する視差情報を、 第 3視差情報 DLとして選択して出力する。 さらに、 視差選 択回路 80は、 図 23 (d) に示されている規則にしたがって、 水平アドレス信 号 HADおよび垂直アドレス信号 VADに対応する領域 (図 22の例では、 注目 位置を含む第 1領域の右下頂点を中心とする視差算出領域) に対する視差情報を 、 第 4視差情報 DRとして選択して出力する。 図 23において、 たとえば、 0〜 mのように、 a〜bで表現されている記号" 〜" は、 a以上 b未満を意味する記 号として用いられている。
視差選択回路 80によって選択された第 1視差情報 UL、 第 2視差情報 UR、 第 3視差情報 DLおよび第 4視差情報 DRは、 それぞれ第し 第 2、 第 3および 第 4の乗算器 8 1、 82、 83、 84に入力する。
第し 第 2、 第 3および第 4の乗算器 8 1、 82、 83、 84には、 それぞれ 視差捕間係数発生回路 52からの第 1視差補間係数 KUL、 第 2視差補間係数 K U R、 第 3視差補間係数 K D Lおよび第 4視差補間係数 K D Rも入力している。 第 1乗算器 8 1は、 第 1視差情報 ULに第 1視差補間係数 KULを乗算する。 第 2乗算器 82は、 第 2視差情報 URに第 2視差補間係数 KURを乗算する。 第 3乗算器 83は、 第 3視差情報 DLに第 3視差補間係数 KDLを乗算する。 第 4 乗算器 84は、 第 4視差情報 DRに第 4視差補間係数 KDRを乗算する。
各乗算器 8 1、 82、 83、 84の出力は、 加算回路 85によって加算される 。 これにより、 注目位置に対する視差情報 PRが得られる。
各任意画素遅延 F I F 01 1、 2 1は、 1画素より小さい単位での水平位相制 御を行なうために、 それぞれ 2つのラインメモリ 1 1 a、 l l b、 2 1 a、 2 1 bを備えている。 各任意画素遅延 F I FO 1 し 2 1内の 2つのラインメモリ 1 1 a、 1 1 b、 2 1 a、 2 1 bには、 それぞれ Y信号が入力されているとともに クロック信号 CLKが入力している。
タイミング信号発生回路 5 1から出力されている水平ァドレス信号 HADは、 標準アドレス発生回路 90にも入力している。 標準アドレス発生回路 90は、 各 任意画素遅延 F I FO 1 2 1内の 2つのラインメモリ 1 1 a、 l l b、 2 1 a、 2 1 bに対する標準書き込みアドレス WADおよび標準読み出しアドレス R ADを生成して出力する。 また、 標準アドレス発生回路 90は、 2DZ3D変換 装置によって得られる左映像信号および右映像信号に付加される同期信号 C s y n cをも出力する。 この同期信号 C s yn cによって表される水平同期信号は、 入力映像信号の水平同期信号 H s y n cより、 所定クロック数分遅れた信号とな る。 標準読み出しァドレス RADは、 標準読み出しァドレスによって規定される基 準水平位相に対して、 各任意画素遅延 F】 FO 1 し 2 1に入力される映像信号 の水平位相を進めたり遅らしたりできるようにするために、 標準書き込みァドレ ス WADに対して、 所定クロック数分遅れている。 標準アドレス発生回路 90か ら出力される標準書き込みアドレス WADは、 各任意画素遅延 F I FO 1 1、 2 1内の 2つのラインメモリ 1 1 a、 1 1 b、 2 1 a、 2 1 bに、 書き込みァドレ スを示す書き込み制御信号として入力する。
標準ァドレス発生回路 90から出力される標準読み出しァドレス RADは、 加 算器 9 1および減算器 92にそれぞれ入力する。 加算器 9 1および減算器 92に は、 加算回路 85から出力される注目位置の視差情報 PRも入力している。 加算器 9 1では、 標準読み出しアドレス RADに視差情報 PRが加算される。 これにより、 左映像用読み出しアドレス PRLが得られる。
左映像用読み出しアドレス PR Lの整数部 PR L 1は、 左映像用任意画素遅延 F I FO 1 1内の第 1のラインメモリ 1 1 aに読み出しァドレス RADL 1とし て入力する。 したがって、 第 1のラインメモリ 1 1 aのアドレス RADL 1に対 応するアドレスから Y信号が読み出される。 読み出された Y信号は、 第 1の左映 像用乗算器 1 0 1に入力する。
左映像用読み出しァドレス PRLの整数部 PRL 1に 1が加算されたァドレス 値は、 左映像用任意画素遅延 F I FO 1 1内の第 2のラインメモリ 1 1 bに読み 出しアドレス RADL 2として入力する。 したがって、 第 2のラインメモリ 1 1 bのァドレス RADL 2に対応するァドレスから Y信号が読み出される。 読み出 された Y信号は、 第 2の左映像用乗算器 1 02に入力する。
第 1のラインメモリ 1 1 aに対する読み出しァドレス RADL 1 と、 第 2のラ インメモリ 1 1 bに対する読み出しアドレス RADL 2とは、 1だけ異なってい るので、 第 1のラインメモリ 1 1 aから読み出された Y信号と、 第 2のラインメ モリ 1 1 bから読み出された Y信号とは、 水平位置が 1だけずれた信号となる。 左映像用読み出しアドレス PRLの小数部 P R L 2は、 第 2の左映像補間係数 として第 2の左映像用乗算器 1 02に入力する。 左映像用読み出しアドレス PR Lの小数部 PRL 2を 1から減算した値 ( 1— PRL 2) は、 第 1の左映像補間 係数として第 1の左映像用乗算器 1 0 1に入力する。
したがって、 第 1の左映像用乗算器 1 0 1では、 第 1のラインメモリ 1 1 aか ら読み出された Y信号に第 1の左映像補間係数 ( 1— PRL 2) が乗算される。 第 2の左映像用乗算器 1 02では、 第 2のラインメモリ 1 1 bから読み出された Y信号に第 2の左映像補間係数 PR L 2が乗算される。 そして、 各乗算器 1 0 1 、 1 02によって得られた Y信号は加算器 1 03で加算された後、 左映像用 Y信 号 YL— OUTとして、 出力される。
これにより、 標準読み出しアドレス RADによって規定される基準水平位相に 対して、 水平位相量が注目位置に対する視差情報に応じた量だけ遅れた左映像用 Y信号が得られる。
減算器 92では、 標準読み出しアドレス RADから視差情報 PRが減算される 。 これにより、 右映像用読み出しアドレス PRRが得られる。
右映像用読み出しアドレス PR Rの整数部 PR R 1は、 右映像用任意画素遅延 F I FO 2 1内の第 1のラインメモリ 2 1 aに読み出しァドレス RADR 1とし て入力する。 したがって、 第 1のラインメモリ 2 1 aのァドレス RADR 1に対 応するアドレスから Y信号が読み出される。 読み出された Y信号は、 第 1の右映 像用乗算器 1 1 1に入力する。
右映像用読み出しァドレス PRRの整数部 PRR 1に 1が加算されたァドレス 値は、 右映像用任意画素遅延 F I FO 2 1内の第 2のラインメモリ 2 1 bに読み 出しアドレス RADR 2として入力する。 したがって、 第 2のラインメモリ 2 1 bのァドレス RADR 2に対応するァドレスから Y信号が読み出される。 読み出 された Y信号は、 第 2の右映像用乗算器 1 1 2に入力する。
第 1のラインメモリ 2 1 aに対する読み出しァドレス RADR 1と、 第 2のラ インメモリ 2 1 bに対する読み出しァドレス RADR 2とは、 1だけ異なってい るので、 第 1のラインメモリ 2 1 aから読み出された Y信号と、 第 2のラインメ モリ 2 1 bから読み出された Y信号とは、 水平位置が 1だけずれた信号となる。 右映像用読み出しアドレス PRRの小数部 P R R 2は、 第 2の右映像補間係数 として第 2の右映像用乗算器 1 1 2に入力する。 右映像用読み出しアドレス PR Rの小数部 PRR 2を 1から減算した値 ( 1— PRR 2) は、 第 1の右映像補間 係数として第 1の右映像用乗算器 1 1 1に入力する。
したがって、 第 1の右映像用乗算器 1 1 1では、 第 1のラインメモリ 2 1 aか ら読み出された Y信号に第 1の右映像補間係数 ( 1一 PRR 2) が乗算される。 第 2の右映像用乗算器 1 1 2では、 第 2のラインメモリ 2 1 bから読み出された Y信号に第 2の右映像補間係数 PRR 2が乗算される。 そして、 各乗算器 1 1 1 、 1 1 2によって得られた Y信号は加算器 1 1 3で加算された後、 右映像用 Y信 号 YR— OUTとして、 出力される。
これにより、 標準読み出しァドレス RADによって規定される基準水平位相に 対して、 水平位相量が注目位置に対する視差情報に応じた量だけ進んだ右映像用 Y信号が得られる。
図 24は、 注目位置に対する視差情報が 0の場合の、 各部の信号を示している o
視差情報が 0の場合には、 加算器 9 1から出力される左映像用読み出しァドレ ス PRLと、 減算器 92から出力される右映像用読み出しアドレス PRRは、 と もに標準読み出しァドレス RADと等しい小数部のない整数部のみからなるァド レスとなる。
したがって、 左映像用任意画素遅延 F I FO 1 1内の第 1のラインメモリ 1 1 aに対する読み出しアドレス RADL 1と、 右映像用任意画素遅延 F I F02 1 内の第 1のラインメモリ 2 1 aに対する読み出しァドレス RADR 1は、 標準読 み出しァドレス RADと等しいァドレスとなる。
また、 左映像用任意画素遅延 F I FO 1 1内の第 2のラインメモリ 1 1 bに対 する読み出しァドレス RADL 2と、 右映像用任意画素遅延 F I FO 2 1内の第 2のラインメモリ 2 1 bに対する読み出しァドレス RADR 2は、 標準読み出し ァドレス RADより 1だけ大きい値となる。
また、 第 1の左映像補間係数 ( 1 一 P R L 2 ) および第 1の右映像補間係数 ( 1 -PRR 2) は 1となり、 第 2の左映像補間係数 PR L 2および第 2の右映像 補間係数 PRR 2は 0となる。
この結果、 左映像用任意画素遅延 F I FO 1 1内の第 1のラインメモリ 1 1 a の標準ァドレス RADに対応するァドレスから読み出された Y信号が加算器 1 0 3から左映像用 Y信号 YL- OUTとして出力され、 右映像用任意画素遅延 F I FO 2 1内の第 1のラインメモリ 2 1 aの標準ァドレス RADに対応するァドレ スから読み出された Y信号が加算器 1 1 3から右映像用 Y信号 YR— OUTとし て出力される。 つまり、 水平方向の位相ずれ量が同じ 2つの Y信号、 すなわち視 差のない 2つの Y信号が左映像用 Y信号および右映像用 Y信号として出力される ο
図 2 5は、 ある注目位置に対する標準書き込みァドレス WADが 20であり、 上記注目位置に対する標準読み出しアドレス RADが 1 0であり、 上記注目位置 に対する視差情報が 1. 2の場合の、 各アドレス値の具体例を示している。 図 2 6は、 その際の各部の信号を示している。
この場合には、 加算器 9 1から出力される左映像用読み出しアドレス PR Lは 、 1 1. 2となり、 その整数部 PRL 1は 1 1 となり、 その小数部 PRL 2は 0 . 2となる。
したがって、 左映像用任意画素遅延 F I FO 1 1内の第 1のラインメモリ 1 1 aに対する読み出しァドレス RADL 1は 1 1 となり、 第 2のラインメモリ 1 1 bに対する読み出しアドレス RADL 2は 1 2となる。 また、 第 1の左映像補間 係数 KL 1 {= ( 1 -PRL 2) } は 0. 8となり、 第 2の左映像補間係数 KL 2 (=PRL 2) は 0. 2となる。
したがって、 左映像用任意画素遅延 F I FO 1 1内の第 1のラインメモリ 1 1 aのアドレス 1 1から Y信号(Υι,) が読み出され、 第 1乗算器 1 0 1からは読 み出された Υ信号 (ΥΗ) の 0. 8倍の信号 (0. 8 ΧΥ ) が出力される。 一方、 左映像用任意画素遅延 F I F01 1内の第 2のラインメモリ 1 1 bのァ ドレス 1 2から Y信号 (Y12) が読み出され、 第 2乗算器 1 02からは読み出さ れた Υ信号 (Υ12) の 0. 2倍の信号 (0. 2 xYI2) が出力される。 そして、 加算器 1 03からは、 0. 8 XYU+ 0. 2 xY12に相当する左映像用 Υ信号 Υ L一 OUTが出力される。 つまり、 読み出しアドレス 1 1. 2に相当する Y信号 が、 左映像用 Y信号 YL— OUTとして出力される。
減算器 92から出力される右映像用読み出しアドレス PRRは、 8. 8となり 、 その整数部 PRR 1は 8となり、 その小数部 PRR 2は 0. 8となる。
したがって、 右映像用任意画素遅延 F I FO 2 1内の第 1のラインメモリ 2 1 aに対する読み出しァドレス RADR 1は 8となり、 第 2のラインメモリ 2 1 b に対する読み出しアドレス RADR 2は 9となる。 また、 第 1の右映像補間係数 KR 1 {= ( 1一 PRR 2) } は 0. 2となり、 第 2の右映像補間係数 KR 2 ( 二 PRR 2) は 0. 8となる。
したがって、 右映像用任意画素遅延 F I F02 1内の第 1のラインメモリ 2 1 aのアドレス 8から Y信号(Y8 ) が読み出され、 第 1乗算器 1 1 1からは読み 出された Υ信号 (Υ8 ) の 0. 2倍の信号 (0. 2 xY8 ) が出力される。
一方、 右映像用任意画素遅延 F I FO 2 1内の第 2のラインメモリ 2 1 bのァ ドレス 9から Y信号 (Y3 ) が読み出され、 第 2乗算器 1 1 2からは読み出され た Υ信号 (Ys ) の 0. 8倍の信号 (0. 8 xY9 ) が出力される。 そして、 加 算器 1 1 3からは、 0. 2 XY8 +0. 8 xY9 に相当する右映像用 Y信号 Y R — OUTが出力される。 つまり、 読み出しアドレス 8. 8に相当する Y信号が、 右映像用 Y信号 YR— OUTとして出力される。
この結果、 1 1. 2— 8. 8 = 2. 4の視差、 つまり、 視差情報 1. 2の 2倍 の視差を互いに有する左映像および右映像が得られる。
上記実施の形態による 2 DZ 3 D映像変換装置では、 元の 2次元映像信号に対 して時間的に遅延された映像信号を生成するためのフィールドメモリが不要であ るため、 コストの低廉化が図れる。 また、 上記実施の形態による 2 DZ 3D映像 変換装置では、 元の 2次元映像信号によって表される映像が静止映像であつても 立体映像を得ることができる。
〔 2〕 第 2の実施の形態の説明
図 2、 図 1 5、 図 2 7〜図 4 2を参して、 この発明の第 2の実施の形態にっレ、 て説明する。
図 2 7は、 2次元映像を 3次元映像に変換するための 2 D / 3 D映像変換装置 の全体的な構成を示している。 図 2 7において、 図 1と対応する部分には、 同じ 符号を付してある。
2次元映像信号を構成する輝度信号 Y、 色差信号 R - Yおよび色差信号 B - Y は、 A D変換回路 I (A D C ) によってそれぞれディジタルの Y信号、 R— Y信 号および B— Y信号に変換される。
Y信号は、 高周波成分積算回路 8および輝度コントラスト算出回路 9に送られ るとともに、 第 1の左映像用任意画素遅延 F I F O 1 1および第 1の右映像用任 意画素遅延 F I F O 2 1に送られる。 R - Y信号は、 R - Y成分積算回路 3 1に 送られるとともに、 第 2の左映像用任意画素遅延 F I F O 1 2および第 2の右映 像用任意画素遅延 F I F O 2 2に送られる。 B— Y信号は、 B— Y成分積算回路 3 2に送られるとともに、 第 3の左映像用任意画素遅延 F I F O 1 3および第 3 の右映像用任意画素遅延 F I F O 2 3に送られる。
高周波成分積算回路 8は、 図 1の高周波成分積算回路 8と同じ構成であり、 1 フィールド毎に、 図 2に示すように、 1 フィールド画面内に予め設定された複数 個の視差算出領域 E 1〜E 1 2それぞれに対する高周波成分の積算値を算出する o
輝度コントラスト算出回路 9は、 図 1の輝度コントラスト算出回路 9と同じ構 成であり、 1 フィールド毎に、 各視差算出領域 E 1〜E 1 2それぞれに対する輝 度コントラストを算出する。
R - Y成分積算回路 3 1は、 1 フィールド毎に、 各視差算出領域 E 1〜E i 2 それぞれに対する R - Y成分の積算値を算出する。 Β - Υ成分積算回路 3 2は、 1フィールド毎に、 各視差算出領域 E 1〜E 1 2それぞれに対する B - Y成分の 積算値を算出する。 R - Υ成分積算回路 3 1の構成および Β - Υ成分積算回路 3 2は、 基本的には図 3に示されている輝度積算回路の構成と同様である。 つまり 、 図 3の輝度積算回路と同様な回路に R - Υ成分を入力すれば R - Υ成分積算回 路 3 1が構成される。 また、 図 3の輝度積算回路と同様な回路に Β— Υ成分を入 力すれば Β— Υ成分積算回路 3 2が構成される。
各視差算出領域 Ε 1〜Ε 1 2それぞれに対する高周波成分の積算値、 各視差算 出領域 Ε 1〜Ε 1 2それぞれに対する輝度コントラスト、 各視差算出領域 Ε 1〜 Ε 1 2それぞれに対する R - Y成分の積算値および各視差算出領域 Ε 1〜Ε 1 2 それぞれに対する Β - Υ成分の積算値は、 視差算出領域 Ε 1〜Ε 1 2ごとの映像 の遠近に関する画像特徴量として用いられる。
なお、 1フィールド画面内には、 実際には、 図 1 5に示すように 6行 1 0列の 計 6 0個の視差算出領域が設定されているが、 説明の便宜上、 図 2に示すように 、 1 フィールド画面内に、 3行 4列の計 1 2個の視差算出領域 Ε 1〜Ε 1 2が設 定されているものとする。
C P U 3は、 高周波成分積算回路 8、 輝度コントラスト算出回路 9、 R - Y成 分積算回路 3 1および B - Y成分積算回路 3 2から送られてきた情報に基づいて 、 各視差算出領域 E 1〜E 1 2に対する視差情報を生成する。 この例では、 被写 体のように前側にある物体ほど視差量が少なく、 背景のように後ろ側にある物体 ほど視差量が大きくなるように視差情報が生成される。 この視差情報の生成方法 の詳細については、 後述する。
C P U 3によって算出された各視差算出領域 E 1〜E 1 2に対する視差情報は 、 視差制御回路 4に送られる。 視差制御回路 4は、 各視差算出領域 E 1〜E 1 2 に対する視差情報に基づいて、 各フィールドの各画素位置ごとの視差情報を生成 する。 そして、 得られた各画素位置ごとの視差情報に基づいて、 各 F I F O 1 1 〜1 3、 2 1〜2 3から映像信号 (Y信号、 R - Y信号、 B - Y信号) を読み出 す際の読み出しァドレスが左映像用任意画素遅延 F I F O 1 1〜 1 3と右映像用 任意画素遅延 F I FO 21〜23との間でずれるように、 各 F〗 FO 1 1〜1 3 、 21〜23の読み出しアドレスを制御する。 したがって、 左映像用任意画素遅 延 F I FO 1 1〜1 3から読み出された左映像信号の水平位相と、 右映像用任意 画素遅延 F I F021〜23から読み出された右映像信号の水平位相が異なるよ うになる。
左映像用任意画素遅延 F I FO 1 1〜13から読み出された左映像信号 (YL 信号、 (R - Y) L信号、 (B— Y) L信号) は、 DA変換回路 (DAC) 5に よってアナログ信号に変換された後、 図示しない立体表示装置に送られる。 右映 像用任意画素遅延 F I F021〜23から読み出された右映像信号 (YR信号、 (R-Y) R信号、 (B - Y) R信号) は、 DA変換回路 (DAC) 6によって アナログ信号に変換された後、 図示しない立体表示装置に送られる。
左呋像信号の水平位相と、 右映像信号の水平位相は異なっているので、 左映像 と右映像との間に視差が発生する。 この結果、 左映像を左目のみで観察し、 右映 像を右目のみで観察すると、 被写体が背景に対して前方位置にあるような立体映 像が得られる。
図 28は、 C P U 3によって行なわれる視差算出領域毎の視差情報生成処理手 順を示している。
分割領域毎の視差情報生成処理においては、 グループ分け処理 (ステップ 1) 、 空間分離処理 (ステップ 2)、 特異点処理 (ステップ 3)、 グループ間結合処 理 (ステップ 4)、 グループ毎の奥行き情報生成処理 (ステップ 5)、 全領域に 対する奥行き情報補正処理 (ステップ 6)、 グループ境界に対する奥行き情報補 正処理 (ステップ 7)、 グループ内部に対する奥行き情報補正処理 (ステップ 8 ) および視差情報算出処理 (ステップ 9) が行なわれる。
1フィールドに対して実際に設定されている 60個の視差算出領域を例にとつ て、 視差情報生成処理を説明する。 図 1 5は、 1フィールドに対して実際に設定 されている 60個の視差算出領域 F 1〜F 60を示している。
(1) グループ分け処理の説明 ステップ 1のグループ分け処理は、 1枚の画像を構成する全領域を、 その画像 に含まれている物体ごとにグループ分けすることを目的として行なわれる最初の 処理である。
グループ分けの方法には次に述べるように 2つの方法がある。
( 1 一 1 ) 第 1方法
まず、 視差算出領域 F 1〜F 6 0毎に得られた高周波積算値を、 所定範囲 (た とえば、 0〜2 0 ) の値に正規化する。 そして、 高周波積算値の各正規化値に属 する視差算出領域の数の分布 (ヒストグラム) を生成する。 図 2 9に、 生成され たヒストグラムの一例を示す。 そして、 ヒストグラムの谷と谷との間の山に含ま れている視差算出領域どうしを、 1つのグループとする。 高周波積算値の代わり に輝度コン トラストを用いてもよい。 図 3 0は、 このようにして各視差算出領域 F 1〜F 6 0力、 グループ分けされた結果を示している。 図 3 0において、 G 1 〜G 4の数字は、 グループ番号を示している。
( 1 - 2 ) 第 2方法
視差算出領域 F 1〜F 6 0毎に得られた R— Y成分の積算値を、 0〜 2 0の範 囲の値に正規化する。 そして、 R - Y成分積算値の各正規化値に属する視差算出 領域の数の分布 (ヒストグラム) を生成する。 このヒストグラムに基づいて、 R - Y成分積算値の正規化値の中から、 グループ間の境界値を求める。
また、 視差算出領域 F 1〜F 6 0毎に得られた B— Y成分の積算値を、 0〜1 0の範囲の値に正規化する。 そして、 B - Y成分積算値の各正規化値に属する視 差算出領域の数の分布 (ヒストグラム) を生成する。 このヒストグラムに基づい て、 B— Y成分積算値の正規化値の中から、 グループ間の境界値を求める。 そして、 図 3 1に示すように、 このようにして得られた 2種類の境界値を用い て、 全視差算出領域をグループ化する。 図 3 2および図 3 3は、 このようにして 各視差算出領域 F 1〜F 6 0が、 グループ分けされた結果を示している。 図 3 2 および図 3 3において、 G 1〜G 5は、 グループ番号を示している。
この実施の形態では、 第 2方法によってグループ分け処理が行なわれたものと する。
( 2 ) 空間分離処理の説明
ステップ 2の空間分離処理では、 ステップ 1の処理によって同一のグループに 属している視差算出領域のうち、 空間的に隣接している視差算出領域どうしが 1 つのグループとされる。 つまり、 ステップ 1の処理によって同一のグループに属 している視差算出領域であっても、 空間的に他のグループによって分離されてい る視差算出領域どうしは、 別々のグループとされる。
具体的には、 図 3 4に示すように、 ステップ 1において、 グループ 3 ( G 3 ) に属するとされた視差算出領域は、 グループ 3 1 ( G 3 1 ) 、 グループ 3 2 ( G 3 2 ) およびグループ 3 3 ( G 3 3 ) の 3つのグループに分離される。
( 3 ) 特異点処理の説明
この特異点処理では、 1つの視差算出領域のみで構成されているグループが存 在する場合に、 その 1つの視差算出領域が隣接する他のグループとは別の物体に 対応しているのか、 隣接する他のグループの物体と同じ物体に対応しているのか が判定される。
たとえば、 図 3 5に示すように、 あるグループが 1つの視差算出領域 Aのみで 構成されているグループであるとする。 視差算出領域 Aの上方向にある 2つの視 差算出領域を、 視差算出領域 Aに近いものから U l、 U 2とする。 視差算出領域 Aの下方向にある 2つの視差算出領域を、 視差算出領域 Aに近いものから D 1、 D 2とする。 視差算出領域 Aの左方向にある 2つの視差算出領域を、 視差算出領 域 Aに近いものから L l、 L 2とする。 視差算出領域 Aの右方向にある 2つの視 差算出領域を、 視差算出領域 Aに近いものから R 1、 R 2とする。
この場合に、 領域 Aを中心とする上下左右のそれぞれの方向について、 領域 A とそれの 1つ外側の領域 U K D 1、 L K R 1との色距離が、 領域 Aより 1つ 外側の領域 U l、 D l、 L l、 R 1とさらにその 1つ外側の領域 U 2、 D 2、 L 2、 R 2との色距離より大きい場合には、 領域 Aのみで構成されているグループ は単独で 1つのグループを形成すると判別される。 そうでない場合には、 領域 A はその周囲のグループに属すると判別される。 つまり、 グループ分けが修正され 色距離の定義について説明する。 ある視差算出領域 F aに対する B一 Y成分積 算値、 R— Y成分積算値をそれぞれ Fa (B-Y)、 Fa (R - Y) で表し、 あ る視差算出領域 F bに対する B - Y成分積算値、 R― Y成分積算値をそれぞれ F b (B-Y)、 Fb (R-Y) で表すと、 領域 Faと領域 Fbとの間の色距離 di stは、 次式 (5) で定義される。 dist= I Fa(B-Y) -Fb(B-Y) I + I Fa (R-Y) -Fb(R-Y) I -" (5) 例えば、 図 35の領域 Aの (B - Y成分積算値、 R - Y成分積算値) 力 (一 4 , 5) で、 領域 U 1の (B— Y成分積算値、 R— Y成分積算値) (一 5, 4) で、 領域 U2の (B - Y成分積算値、 R - Y成分積算値) 力 (ー 7, 2) である とする。 領域 Aと領域 U 1との色距離 distは" 2" となり、 領域 U 1と領域 U2 との色距離 distは" 4" となる。
図 34のグループ 3 1 (G3 1 ) が 1つの視差算出領域のみで構成されており 、 上記のような特異点処理により、 グループ 1 (G 1 ) に属すると判別されたと すると、 図 3 6に示すようにグループ分けが修正される。
(4) グループ間結合処理の説明
ステップ 4のグループ間結合処理では、 まず、 各グループ毎に、 そのグループ を構成する視差算出領域の R - Y成分積算値の平均値および B - Y成分積算値の 平均値が算出される。
次に、 隣接している 2つのグループどうし間の色距離が算出される。 つまり、 隣接している 2つのグループを Ga、 Gbとする。 グループ G aが n個の視差算 出領域 a し a 2、 a nで構成されているとすると、 グループ Gaの B— Y成 分積算値の平均値 *Ga (B - Y) および R— Y成分積算値の平均値 *Ga (R 一 Y) は、 次式 (6) で求められる。 *Ga(B-Y) = {al(B-Y) +a2(B - Y) 十… +an(B - Y) } ÷n
*Ga(R - Y) = {al(R-Y) +a2(R- Y) 十… +an(R_Y) } ÷n
(6) また、 グループ Gbが m個の視差算出領域 b し b 2、 一bmで構成されてい るとすると、 グループ Gbの B— Y成分積算値の平均値 *Gb (B-Y) および R— Y成分積算値の平均値 *Gb (R-Y) は、 次式 (7) で求められる。
*Gb(B-Y) - {bl(B-Y) 十 b2(B-Y) 十… + bm(B- Y) } ÷m
*Gb(R-Y) = {bl(R-Y) +b2(R - Y) +…十 bm(R- Y) } +m
…(7) グループ G aとグループ Gbとの間の色距離 d i s tは、 次式 (8) によって fedれる o dist= I *Ga(B-Y) -*Gb(B-Y) I + I *Ga(R- Y) 一 *Gb(R - Y) I
… (8) そして、 隣り合う 2つのグループ間の色距離がしきい値より小さいか否かが判 別され、 色距離がしきい値より小さいときには、 これらの 2つのグループが結合 される。 つまり、 これらの 2つのグループが 1つのグループにまとめられる。 (5) グループ毎の奥行き情報生成処理の説明
ステップ 5のグループ毎の奥行き情報生成処理では、 まず、 視差算出領域 F 1 〜F 60毎に得られた高周波成分の積算値が、 0〜! 0の範囲の値に正規化され る。 また、 視差算出領域 F 1〜F 60毎に得られた輝度コントラストが、 0〜1 0の範囲の値に正規化される。
そして、 得られた高周波成分の積算値の正規化値と、 輝度コントラストの正規 化値と、 図 37に示すように各視差算出領域 F 1〜F 6 0毎に予め与えられた背 景重み成分に基づいて、 グループ毎の奥行き情報が生成される。
任意の 1つのグループに対する奥行き情報の生成方法について説明する。 まず 、 当該グループに属している視差算出領域数 nが求められる。 また、 当該グルー プに属している視差算出領域に対する高周波成分の積算値の正規化値 aの総和∑ aが算出される。 また、 当該グループに属している視差算出領域に対する輝度コ ントラストの正規化値 bの総和∑bが算出される。 また、 当該グループに属して いる視差算出領域に対する背景重み成分 cの総和∑ cが算出される。
そして、 次式(9) に基づいて、 当該グループに対する奥行き情報 Hが生成さ れる。
H =( K1 ·∑a +K2 -∑b +K3 ·∑c ) ÷n - (9) 上記の式 (9) において、 Kし K 2および K 3は係数であり、 たとえば、 K 1 = 3/8、 K2= l/8、 Κ 3 = 4 8に設定されている。
(6) 全領域に対する奥行き情報補正処理の説明
ステップ 5のグループ毎の奥行き情報補正処理では、 まず、 視差算出領域 F 1 〜F 6 0の各行ごとに、 奥行き情報の平均値が算出される。 各視差算出領域 F 1 〜F 6 0ごとの奥行き情報が、 たとえば、 図 3 8に示すような値であった場合に は、 第 1〜第 6行目ごとの奥行き情報の平均値は、 1. 2、 3. 6、 6. 0、 7 . 2、 4. 0、 1. 2となる。
次に、 視差算出領域の各行のうち、 手前位置の物体が多く映っている領域が抽 出される。 つまり、 奥行き情報の平均値が最も大きい行が抽出される。 図 3 8の 例では、 第 4行目の領域が抽出される。
次に、 抽出された行より下段にある行の各領域については、 直上の領域に対し て、 急激に奥行き情報が小さくならないように、 抽出された行より下段にある行 の各領域の奥行き情報が調整される。 具体的には、 抽出された行より下段にある 行の各領域の奥行き情報が直上の領域に対して 3以上小さい領域に対しては、 直 上の領域の奥行き情報より 2だけ小さい値に、 その領域の奥行き情報が変更せし められる。
図 3 8の例では、 図 3 9に示すように、 まず、 第 5行の各領域 F 4 1〜F 5 0 のうち、 その奥行き情報が直上の領域の奥行き情報に対して 3以上小さい領域 F 4 2〜F 4 9に対して、 奥行き情報が補正される。 この後、 第 6行の各領域 F 5 1〜F 6 0のうち、 その奥行き情報が直上の領域の奥行き情報 (補正後の奥行き 情報) に対して 3以上小さい領域 F 5 3〜F 5 8に対して、 奥行き情報が補正さ れる。
つまり、 任意の水平位置における画面の高さに対する奥行き情報の関係が、 図 2 5に曲線 U 1で示すような関係である場合には、 奥行き補正によって、 画面の 高さに対する奥行き情報の関係力 図 4 0に曲線 U 2に示すような関係となるよ うに補正される。
このように、 視差算出領域の各行のうち、 手前位置の物体が多く映っている領 域より下段の領域の奥行き情報が補正されているのは次の理由による。
一般的には、 画面の下側には前方に存在する物体が映っていることが多い。 ま た、 画面の下側に映っている物体は、 地面等のように変化の少ない画像であるこ とが多い。 地面等のように変化の少ない画像は、 高周波成分が低いため、 前方に あるにも係わらず、 奥行き情報の値は小さくなる。 そこで、 奥行き補正により、 前方にある物体であって高周波成分が低い映像に対する奥行き情報を、 その直上 の領域の奥行き情報の値より大きくならない程度に大きくしているのである。 ( 7 ) グループ境界に対する奥行き情報補正処理の説明
隣り合う 2つのグループ間の境界部においては、 正しくグループ分けが行なわ れていないことがある。 また、 隣り合う 2つのグループ間の境界部において、 グ ループ毎の奥行き推定値が大きく異なると、 画像歪みが顕著となる。
そこで、 ステップ 7のグループ境界に対する奥行き情報補正処理では、 まず、 隣り合う 2つのグループ間の境界部毎に、 一方のグループの視差算出領域の奥行 き情報と、 他方のグループの視差算出領域の奥行き情報との差が、 予め定められ た所定値以上か否かが判別される。 そして、 両者の奥行き情報の差が所定値以上 である場合には、 両者の奥行き情報の差が所定値より小さくなるように、 奥行き 情報が小さい方 (つまり、 後方に位置している方) の視差算出領域に対する奥行 き情報を増加させる。
( 8 ) グループ内部に対する奥行き情報補正処理の説明
上記ステップ 6および 7の補正処理によって、 同一グループ内においても領域 によって奥行き情報に差が生じる。 この差が大きくなると、 画像歪みが顕著とな る。 そこで、 ステップ 8のグループ内部に対する奥行き情報補正処理では、 各グ ループ毎に、 グループ内の奥行き推定値が平滑化される。
つまり、 図 4 1に示すように、 同じグループ内において、 注目領域を A、 それ に対する奥行き情報を H Aとし、 それに隣接する 4つの領域を U、 D、 L、 R、 それらに対する奥行き情報を H U、 H D、 H L、 H Rとすると、 注目領域 Aに対 する奥行き推定値 H Aは次式 ( 1 0 ) により、 補正される。
HA= (HA /2) + HU + HD + HL + HR)/8 } - ( 1 0 ) このようにして得られた各視差算出領域 F 1〜F 6 0ごとの奥行き情報は、 再 度、 0〜1 0の範囲内で正規化される。
( 9 ) 視差情報算出処理の説明
ステップ 9の視差情報算出処理では、 各視差算出領域 F 1〜F 6 0ごとの奥行 き情報が各領域 F 1〜F 6 0ごとの視差情報に変換される。
つまり、 予め設定された奥行き情報に対する視差情報との関係に基づいて、 各 領域 F 1〜F 6 0ごとに、 奥行き情報を視差情報に変換する。 奥行き情報に対す る視差情報との関係は、 図 4 2に直線 S 1または S 2で示されるように、 反比例 の関係である。
図 4 2において、 直線 S 1で示される奥行き情報に対する視差情報との関係は 、 立体感が比較的強い立体映像を得たい場合に用いられる。 直線 S 2で示される 奥行き情報に対する視差情報との関係は、 立体感が比較的弱い立体映像を得たい 場合に用いられる。 奥行き情報に対する視差情報との関係を、 直線 S 1 と直線 S 2との間で調整することにより、 立体感を調整することが可能である。
このようにして得られた各視差算出領域ごとの視差情報は、 視差制御回路 4 ( 図 2 7参照) に送られる。
第 2の実施の形態における視差制御回路 4の構成および動作は、 第 1の実施の 形態における図 1および図 2 0に示されている視差制御回路と同じであるので、 その構成および動作の説明を省略する。
上記実施の形態による 2 D/ 3 D映像変換装置では、 元の 2次元映像信号に対 して時間的に遅延された映像信号を生成するためのフィールドメモリが不要であ るため、 コストの低廉化が図れる。 また、 上記実施の形態による 2 DZ 3 D映像 変換装置では、 元の 2次元映像信号によって表される映像が静止映像であつても 立体映像を得ることができる。
また、 1フィールド画面内の全領域をその画面に含まれている物体毎にグルー プ分けを行なって、 各グループ毎の映像の遠近に関する情報を生成しているので 、 同じ物体内の各部の視差変動が抑圧される。 この結果、 同じ物体内で画像歪み が軽減化され、 良好な立体視が可能となる。
〔3〕 第 3の実施の形態の説明
以下、 図 2 1、 図 4 3〜図 4 5を参照して、 この発明の第 3の実施の形態らに ついて説明する。
図 4 3は、 2 D/ 3 D映像変換装置の構成を示している。 図 4 3において、 図 1と対応する部分には、 同じ符号を付してある。
2次元映像信号を構成する輝度信号 Y、 色差信号 R - Yおよび色差信号 B - Y は、 A D変換回路 1 ( A D C ) によってそれぞれディジタルの Y信号、 R— Y信 号および B— Y信号に変換される。
Y信号は、 動きベクトル検出回路 2に送られるとともに、 第 1の左映像用任意 画素遅延 F I F O 1 1および第 1の右映像用任意画素遅延 F I F O 2 1に送られ る。 R - Y信号は、 第 2の左映像用任意画素遅延 F I F O 1 2および第 2の右映 像用任意画素遅延 F I F O 2 2に送られる。 B - Y信号は、 第 3の左映像用任意 画素遅延 F I F O 1 3および第 3の右映像用任意画素遅延 F I F 0 2 3に送られ る。
動きべクトル検出回路 2は、 1フィールド毎に、 図 2 1に示すように 1フィー ルド画面内に設定された 1 2個の動きべクトル検出領域 (以下、 視差算出領域と いう) E 1〜E 1 2それぞれに対する動きべクトルを算出する。 そして、 動きべ クトル検出回路 2は、 算出された動きべクトルの信頼性が低い領域 (以下、 N G 領域という) を示すデータ、 N G領域以外の各領域 E 1〜E 1 2ごとの X方向の 動きべクトル、 N G領域以外の各領域 E 1〜E 1 2の X方向の動きべクトルのう ちの最大値 (X方向の動きべクトルが最大値である領域のデータを含む) 、 N G 領域以外の各領域 E 1〜E 1 2の X方向の動きべクトルのうちの最小値 (X方向 の動きべクトルが最小値である領域のデ一夕を含む) ならびに N G領域以外の各 領域 E 1〜E 1 2の X方向の動きべクトルの絶対値の積算値を、 各フィールドご とに C P U 3に送る。
C P U 3は、 動きベクトル検出回路 2から送られてきた情報に基づいて、 各視 差算出領域 E 1〜E 1 2に対する奥行き量または飛び出し量を算出し、 算出され た奥行き量または飛び出し量に基づいて各視差算出領域 E 1〜E 1 2ごとに視差 情報を生成する。 この例では、 背景が存在する領域については奥行き量が大きく なり、 被写体が存在する領域では奥行き量が小さくなるように、 各視差算出領域 E 1〜E 1 2に対する奥行き量が算出される。 この奥行き量の算出方法の詳細に ついては、 後述する。
C P U 3によって算出された各視差算出領域 E 1〜E 1 2ごとの視差情報は、 視差制御回路 4に送られる。 視差制御回路 4は、 各視差算出領域 E 1〜E 1 2ご との視差情報に基づいて、 各フィールドの各画素位置ごとの視差情報を生成する 。 そして、 得られた各画素位置ごとの視差情報に基づいて、 各 F I F O 1 1〜 1 3、 21〜23から映像信号 (Y信号、 R - Υ信号、 Β - Υ信号) を読み出す際 の読み出しァドレスが左映像用任意画素遅延 F I FO 1 〜 1 3と右映像用任意 画素遅延 F I FO 21〜23との間でずれるように、 各 F I FO 1 1〜 1 3、 2 1〜23の読み出しアドレスを制御する。 したがって、 左映像用任意画素遅延 F I F〇 1 〜 1 3から読み出された左映像信号の水平位相と、 右映像用任意画素 遅延 F I F021〜23から読み出された右映像信号の水平位相が異なるように る。
左映像用任意画素遅延 F I FO 1 1〜1 3から読み出された左映像信号 (YL 信号、 (R— Y) L信号、 (B— Y) L信号) は、 DA変換回路 (DAC) 5に よってアナログ信号に変換された後、 図示しない立体表示装置に送られる。 右映 像用任意画素遅延 F I F021〜23から読み出された右映像信号 (YR信号、 (R-Y) R信号、 (B— Y) R信号) は、 DA変換回路 (DAC) 6によって アナログ信号に変換された後、 図示しない立体表示装置に送られる。
左映像信号の水平位相と、 右映像信号の水平位相は異なっているので、 左映像 と右映像との間に視差が発生する。 この結果、 左映像を左目のみで観察し、 右映 像を右目のみで観察すると、 被写体が背景に対して前方位置にあるような立体映 像が得られる。
図 44は、 CPU 3によって行なわれる視差情報の生成方法を示している。 被写体/背景判別手段 1 31は、 NG領域以外の各視差算出領域 E i〜E 12 の X方向の動きべクトルに基づいて、 NG領域以外の各視差算出領域ごとにその 領域の映像が被写体であるか背景であるかを判別する。 この判別方法としては、 たとえば、 特開平 8— 1495 1 7号公報に示されている方法が用いられる。 奥行き情報生成手段 1 32は、 NG領域以外の各視差算出領域 E 1〜E 12ご との X方向の動きべクトル、 NG領域以外の各視差算出領域 E 1〜E 1 2の X方 向の動きべクトルのうちの最大値 (X方向の動きべクトルが最大値である領域の データを含む) 、 NG領域以外の各視差算出領域 E 1〜E 1 2の X方向の動きべ クトルのうちの最小値 (X方向の動きべクトルが最小値である領域のデータを含 む) および N G領域を示すデータに基づいて、 各視差算出領域 E 1〜E 1 2ごと に奥行き量 (奥行き情報) を決定する。
つまり、 被写体/背景判別手段 1 3 1による NG領域以外の各視差算出領域 E 1〜E 1 2ごとの判別結果と、 N G領域以外の各視差算出領域 E 1〜E 1 2の X 方向の動きべクトルのうちの最大値(X方向の動きべクトルが最大値である領域 のデータを含む) と、 N G領域以外の各視差算出領域 E 1〜E 1 2の X方向の動 きべクトルのうちの最小値 (X方向の動きべクトルが最小値である領域のデータ を含む) とに基づいて、 X方向の動きベクトルが最大値である視差算出領域およ び X方向の動きべクトルが最小値である視差算出領域のうちの一方の立体視位置 を管面位置 P P Fに決定し、 他方の視差算出領域の立体視位置を最も奥の位置 P P Rに決定する。
たとえば、 X方向の動きべクトルが最大値である視差算出領域の映像が被写体 であり、 X方向の動きべクトルが最小値である視差算出領域の映像が背景である 場合には、 図 4 5に示すように、 X方向の動きべクトルが最大値である視差算出 領域の立体視位置が管面位置 P P Fに決定され、 X方向の動きベクトルが最小値 である視差算出領域の立体視位置が最も奥の位置 P P Rに決定される。
X方向の動きべクトルが最大値である視差算出領域の映像が背景であり、 X方 向の動きべクトルが最小値である視差算出領域の映像が被写体である場合には、 X方向の動きべクトルが最大値である視差算出領域の立体視位置が最も奥の位置 P P Rに決定され、 X方向の動きベクトルが最小値である視差算出領域の立体視 位置が管面位置 P P Fに決定される。
ここでは、 X方向の動きべクトルが最大値である視差算出領域の映像が被写体 であり、 X方向の動きべクトルが最小値である視差算出領域の映像が背景であり 、 図 4 5に示すように、 X方向の動きベクトルが最大値である視差算出領域の立 体視位置が管面位置 P P Fに決定され、 X方向の動きべクトルが最小値である視 差算出領域の立体視位置が最も奥の位置 P p Rに決定されたとして、 各視差算出 領域 E 1〜E 1 2の奥行き量の決定方法について説明する。 X方向の動きべクトルが最大値の視差算出領域および最小値の視差算出領域以 外の視差算出領域のうち、 NG領域以外の各視差算出領域の立体視位置は、 管面 位置 P P Fと最も奥の位置 P P Rの間において、 その視差算出領域の X方向の動 きベクトルに応じた位置に決定される。 この例では、 X方向の動きベクトルが大 きい領域ほど、 その立体視位置が管面位置 PPFに近い位置に決定され、 X方向 の動きべクトルが小さい領域ほど、 その立体視位置が最も奥の位置 P PRに近い 位置に決定される。
各 NG領域の立体視位置は、 その NG領域が画面の上段 (領域 E 1〜E 4) に ある力、、 中段 (領域 E 5〜E 8) にある力、、 画面の下段 (領域 E 9〜E 1 2) に あるかに応じて決定される。
画面の下段にある NG領域の立体視位置は、 管面位置 P P Fと最も奥の位置 P PRとの間の中央位置 P aに決定される。 画面の上段にある NG領域の立体視位 置は、 最も奥の位置 P PRと同じ位置 P cに決定される。 画面の中段にある NG 領域の立体視位置は、 画面の下段にある NG領域の立体視位置 P aと、 画面の上 段にある NG領域の立体視位置 P cとの間の中央位置 Pbに決定される。
NG領域の立体視位置を上記のようにして決定している理由について説明する 。 NG領域は、 その映像が背景であると推定される。 そして、 通常、 背景は画面 下側にあるものほど近い背景であり、 画面上側にあるものほど遠い背景である。 したがつて、 画面の上側の N G領域ほどその立体視位置が管面位置 P P Fからよ り奥の位置となるように、 各 NG位置の立体視位置が決定されているのである。 また、 NG領域の映像が背景であると推定しているため、 画面の下側の NG領域 の立体視位置が、 被写体が存在する領域の立体視位置より奥の位置に決定されて いるのである。
このようにして、 各視差算出領域 E 1〜E 1 2の立体視位置が決定されること により、 各視差算出領域 E 1〜E 1 2の管面位置 PPFからの奥行き量 (奥行き 情報) が決定される。
奥行き情報選択手段 1 3 3には、 奥行き情報生成手段 1 3 2によって生成され た現フィールドの各視差算出領域 E 1〜E 1 2に対する奥行き情報と、 前回にお いて奥行き情報選択手段 1 3 3によって選択された前フィールドの各視差算出領 域 E 1〜E 1 2に対する奥行き情報とが入力している。 また、 奥行き情報選択手 段 1 3 3には、 N G領域以外の各視差算出領域 E 1〜E 1 2の X方向の動きべク トルの絶対値の積算値を示すデー夕が送られている。
奥行き情報選択手段 1 3 3は、 N G領域以外の各視差算出領域 E 1〜E 1 2の X方向の動きベク トルの絶対値の積算値が所定値以上である場合、 つまり、 前フ ィールドに対する現フィールドの映像の動きが大きい場合には、 現フィ一ルドの 奥行き情報を選択して出力する。 N G領域以外の各視差算出領域 E 1〜E 1 2の X方向の動きべク トルの絶対値の積算値が所定値より小さい場合、 つまり、 前フ ィールドに対する現フィールドの映像の動きが小さい場合には、 奥行き情報選択 手段 1 3 3は、 前フィールドの奥行き情報を選択して出力する。
奥行き情報選択手段 1 3 3から出力された各視差算出領域 E 1〜E 1 2ごとの 奥行き情報 (以下、 各領域 E 1〜E 1 2ごとの第 1奥行き情報という) は、 奥行 き情報が隣接するフィールド間において急激に変化するのを防止するための平滑 化処理手段 1 4 0に送られ、 平滑化される。 平滑化処理手段 1 4 0は、 第 1乗算 手段 1 3 4、 加算手段 1 3 5および第 2乗算手段 1 3 6から構成されている。 各視差算出領域 E 1〜E 1 2ごとの第 1奥行き情報は、 第 1乗算手段 1 3 4に よって係数ひが乗算される。 係数ひは、 通常はたとえば 1 Z 8に設定されている 。 ただし、 現フィールドのシーンが、 前フィールドのシーンから変化 (シーンチ ェンジ) したときには、 係数ひは 1に設定される。 このようなシーンチェンジの 検出方法としては、 たとえば、 特開平 8— 1 4 9 5 1 4号公報に開示されている 方法が用いられる。
第 1乗算手段 1 3 4の出力 (以下、 各領域 E 1〜E 1 2ごとの第 2奥行き情報 という) は、 加算手段 1 3 5に送られる。 加算手段 1 3 5には、 第 2乗算手段 1 3 6の出力 (以下、 各領域 E 1〜E 1 2ごとの第 4奥行き情報という) も送られ ており、 各視差算出領域 E 1〜E 1 2ごとの第 1奥行き情報と、 対応する視差算 出領域の第 4奥行き情報との和が算出される。
第 2乗算手段 1 3 6では、 前回の加算手段 1 3 5の出力 (以下、 各領域 E 1〜 E 1 2ごとの第 3奥行き情報という) に係数/ Sが乗算される。 係数5は、 通常は たとえば 7 8に設定されている。 ただし、 現フィールドのシーンが、 前フィー ルドのシーンから変化 (シーンチェンジ) したときには、 係数 は 0に設定され る。
したがって、 現フィールドのシーンが、 前フィールドのシーンから変化してい ない場合には、 第 1乗算手段 1 3 4によって、 奥行き情報選択手段 1 3 3から出 力された各視差算出領域 E 1〜E 1 2ごとの第 1奥行き情報に 1ノ8がそれぞれ 乗算される。 これにより、 各視差算出領域 E 1〜E 1 2ごとの第 2奥行き情報が 得られる。
各視差算出領域 E 1〜E 1 2ごとの第 2奥行き情報は、 加算手段 1 3 5に送ら れる。 加算手段 1 3 5には、 さらに、 加算手段 1 3 5から前回出力された各視差 算出領域 E 1〜E 1 2ごとの第 3奥行き情報に第 2乗算手段 1 3 6によって 7 Z 8が乗算されることによって得られた各視差算出領域 E 1〜E 1 2ごとの第 4奥 行き情報も入力している。
加算手段 1 3 5では、 各視差算出領域 E 1〜E 1 2の第 2奥行き情報と、 対応 する視差算出領域の第 4奥行き情報との和がそれぞれ算出される。 これにより、 各視差算出領域 E 1〜E 1 2ごとの第 3奥行き情報か得られる。 この各視差算出 領域 E 1〜E 1 2ごとの第 3奥行き情報が、 視差情報として、 視差制御回路 4 ( 図 4 3参照) に送られる。
現フィ一ルドのシーンが、 前フィールドのシーンから変化している場合には、 第 1乗算手段 1 3 4によって、 奥行き情報選択手段 1 3 3から出力された各視差 算出領域 E 1〜E 1 2ごとの奥行き情報に 1がそれぞれ乗算される。 したがって 、 第 1乗算手段 1 3 4からは、 奥行き情報選択手段 1 3 3から出力された各視差 算出領域 E 1〜E 1 2ごとの奥行き情報がそのまま出力される。
第 2乗算手段 1 3 6の係数は 0であるので、 第 2乗算手段 1 3 6の出力は 0で ある。 したがって、 加算手段 1 3 5からは、 奥行き情報選択手段 1 3 3から出力 された各視差算出領域 E 1〜E 1 2ごとの奥行き情報がそのまま出力される。 つ まり、 現フィールドのシーンが、 前フィールドのシーンから変化している場合に は、 奥行き情報選択手段 1 3 3から出力された各視差算出領域 E 〜 E 1 2ごと の奥行き情報が、 視差情報として、 視差制御回路 4 (図 4 3参照) に送られる。 第 3の実施の形態における視差制御回路 4の構成および動作は、 第 1の実施の 形態における図 1および図 2 0に示されている視差制御回路と同じであるので、 その構成および動作の説明を省略する。
上記 2 DZ 3 D映像変換装置では、 元の 2次元映像信号に対して時間的に遅延 された映像信号を生成するためのフィールドメモリが不要であるため、 コストの 低廉化が図れる。
〔 4〕 第 4の実施の形態の説明
図 4 6〜図 5 1を参照して、 この発明の第 4の実施の形態について説明する。 〔4 一 1〕 この発明を 2 D/ 3 D映像変換システムに適用した場合の実施の形態 について説明する。
図 4 6は、 2 D/ 3 D映像変換システムの構成を示している。
この 2 DZ 3 D映像変換システムは、 2次元映像を 3次元映像に変換するため の 2 D / 3 D映像変換装置 5 0 1および 2 DZ 3 D映像変換装置 5 0 1によって 得られた 3次元映像信号に対して立体感を調整する立体感調整回路 5 0 2とを備 元ている。
2 DZ 3 D映像変換装置 5 0 1には、 2次元映像信号を構成する輝度信号 Y - I N、 色差信号 (R - Y) - I Nおよび色差信号 (B— Y) - I Nが入力される 。 2 DZ 3 D映像変換装置 5 0 1からは、 左映像信号を構成する輝度信号 Y L、 色差信号 (R - Y) Lおよび色差信号 (B - Y) しと、 右映像信号を構成する輝 度信号 Y R、 色差信号 (R— Y) Rおよび色差信号 (B— Y) 尺と、 各画素ごと の視差情報 P Rとを出力する。
2 D/ 3 D映像変換装置 5 0 1の各出力信号は立体感調整回路 5 0 2に送られ る。 立体感調整回路 502からは、 立体感調整後の左映像信号を構成する輝度信 号 YL—〇UT、 色差信号 (R— Y) L— OUTおよび色差信号 (B— Y) L - OUTと、 立体感調整後の右映像信号を構成する輝度信号 YR—〇UT、 色差信 号 (R— Y) R— OUTおよび色差信号 (B— Y) R— OUTとが出力される。
2 DZ 3D映像変換装置 50 1としては、 たとえば、 第 1の実施の形態で説明 した 2 Ό/ 3 D映像変換装置 (図 1参照) 、 第 2の実施の形態で説明した 2 DZ 3D映像変換装置 (図 27照) または第 3の実施の形態で説明した 2DZ3D映 像変換装置 (図 4 3参照) が用いられる。
図 4 6は、 立体感調整回路 502の構成を示している。
立体感調整回路 502は、 係数生成回路 60 1、 左映像信号に対して立体感調 整処理を行なう左映像用立体感調整回路 602および右映像信号に対して立体感 調整処理を行なう右映像用立体感調整回路 603を備えている。
左映像用立体感調整回路 602の構成と、 右映像用立体感調整回路 6 0 3の構 成とは同じであるので、 左映像用立体感調整回路 6 02についてのみ説明する。 係数生成回路 60 1は、 2 DZ 3 D映像変換装置 50 1から送られてくる画素 ごとの視差情報 PR (映像の遠近に関する情報) に基づいて、 第 1係数 KL、 第 2係数 KHおよび第 3係数 KCを生成する。 第 1係数 KLは、 0以上 1以下の範 囲内 (0≤KL 1 ) で生成され、 映像の低周波成分の割合を調整するための係 数である。 つまり、 第 1係数 KLは、 映像の輪郭をぼやかすための係数、 すなわ ち映像の輪郭の鲜明度を低下させるための係数であり、 第 1係数 KLの値が大き くなるほど、 輪郭がぼやけた映像が得られるようになる。
係数生成回路 60 1は、 前方にある映像が映っている画素に対しては、 第 1係 数 KLを小さくし、 後方にある映像が映っている画素に対しては、 第 1係数 KL を大きくする。 上述したように、 この実施の形態では、 前方にある映像が映って レ、る画素に対する視差情報 PRは小さく、 後方にある映像が映っている画素に対 する視差情報 PRは大きい。 このため、 図 48に示すように、 係数生成回路 60 1は、 視差情報 PRが所定値以下の範囲では、 第 1係数 KLの値を 0にさせ、 視 差情報 PRが所定値より大きい範囲では、 視差情報 PRが大きくなるほど、 第 1 係数 KLの値を大きくさせる。
第 2係数 KHは、 0以上 1以下の範囲内 (O ^KH 1 ) で生成され、 映像の 高周波成分の割合を調整するための係数である。 つまり、 第 2係数 KHは、 映像 の輪郭をくつきりさせるための係数、 すなわち映像の輪郭の鲜明度を高めるため の係数であり、 第 2係数 KHの値が大きくなるほど輪郭がくつくりした映像が得 られるようになる。
係数生成回路 6 0 1は、 前方にある映像が映っている画素に対しては、 第 2係 数 KHを大きくし、 後方にある映像が映っている画素に対しては、 第 2係数 KH を小さくする。 上述したように、 この実施の形態では、 前方にある映像が映って いる画素に対する視差情報 PRは小さく、 後方にある映像が映っている画素に対 する視差情報 PRは大きい。 このため、 図 4 9に示すように、 係数生成回路 6 0 1は、 視差情報 PRが所定値以下の範囲では、 視差情報 PRが大きくなるほど第 2係数 KHの値を小さくさせ、 視差情報 PRが所定値より大きい範囲では、 第 2 係数 KHの値を 0にさせる。
第 3係数 KCは、 映像の彩度を調整するための係数であり、 第 3係数 KCが大 きくなるほど映像の彩度が強調される。 係数生成回路 60 1は、 前方にある映像 が映っている画素に対しては、 第 3係数 KCを大きくし、 後方にある映像が映つ ている画素に対しては、 第 3係数 KCを小さくする。 上述したように、 この実施 の形態では、 前方にある映像が映っている画素に対する視差情報 PRは小さく、 後方にある映像が映っている画素に対する視差情報 PRは大きい。 このため、 図 50に示すように、 係数生成回路 60 1は、 視差情報 PRが大きくなるほど第 3 係数 KCの値を小さくさせる。
左映像用立体感調整回路 602には、 2 D/ 3 D映像変換装置 50 1から送ら れてくる左映像を構成する輝度信号 YL、 色差信号 (R - Y) Lおよび色差信号 (B-Y) Lが入力される。
左映像用立体感調整回路 602には、 映像の輪郭の鲜明度を調整する回路 6 1 0および映像の彩度を調整する回路 6 2 0とが設けられている。
映像の輪郭の鮮明度を調整する回路 6 1 0について説明する。 映像の輪郭の鮮 明度を調整する回路 6 1 0は、 映像の低周波成分の割合を調整する回路 6 1 し 映像の高周波成分の割合を調整する回路 6 1 2およびそれらの出力を加算する加 算回路 6 1 3と力、らなる。
映像の低周波成分の割合を調整する回路 6 1 1は、 輝度信号 YLの低周波成分 を抽出する口一パスフィル夕 (L PF) 70 K ローパスフィル夕 70 1によつ て抽出された輝度信号 YLの低周波成分に第 1係数 KLを乗算する第 1乗算器 7 0 2、 1一 KLの演算を行なう演算器 7 0 3、 輝度信号 YLに演算器 7 0 3の出 力である ( 1 一 KL) を乗算する第 2乗算器 7 04ならびに第 1乗算器 7 0 2の 出力と第 2乗算器 7 04の出力を加算する第 1加算器 7 0 5を備えている。 映像の高周波成分の割合を調整する回路 6 1 2は、 輝度信号 YLの高周波成分 を抽出するハイパスフィル夕 (HPF) 7 1 1およびハイパスフィル夕 7 1 1に よって抽出された輝度信号 YLの高周波成分に第 2係数 KHを乗算する第 3乗算 器 7 1 2を備えている。
映像の低周波成分の割合を調整する回路 6 1 1の出力 (第 1加算器 7 0 5の出 力) と、 映像の高周波成分の割合を調整する回路 6 1 2の出力 (第 3乗算器 7 1 2の出力) とは、 加算回路 6 1 3によって加算される。 この加算回路 6 1 3の出 力 YL— OUTが、 図示しない立体表示装置に送られる。
上述したように、 前方にある映像が映っている画素に対しては、 第 1係数 KL は小さくなり、 第 2係数 KHは大きくなる。 したかって、 前方にある映像が映つ ている画素に対しては、 輝度信号 YLの低周波成分の割合は低く、 輝度信号 YL の高周波成分の割合が高くなる。 このため、 前方にある映像が映っている画素に 対する映像は、 輪郭がくっきりした映像となる。
一方、 後方にある映像が映っている画素に対しては、 第 1係数 KLは大きくな り、 第 2係数 KHは小さくなる。 したがって、 後方にある映像が映っている画素 に対しては、 輝度信号 YLの低周波成分の割合は高く、 輝度信号 YLの高周波成 分の割合が低くなる。 このため、 後方にある映像が映っている画素に対する映像 は、 輪郭がぼやけた映像となる。 このように、 前方にある映像が映っている画素 に対する映像は輪郭がくつきりした映像となり、 後方にある映像が映っている画 素に対する映像は輪郭がぼやけた映像となるため、 立体感が強調される。
映像の彩度を調整する回路 6 2 0について説明する。 映像の彩度を調整する回 路 6 2 0は、 色差信号 (R - Y) Lに第 3係数 K Cを乗算する第 5乗算器 7 2 1 および色差信号 (B— Y) Lに第 3係数 K Cを乗算する第 6乗算器 7 2 2を備え ている。 第 5乗算器 7 2 1の出力 (R— Y) L - O U Tおよび第 6乗算器 7 2 2 の出力 (B— Y) L— O U Tが、 図示しない立体表示装置に送られる。
上述したように、 前方にある映像が映っている画素に対しては、 第 3係数 K C は大きくなる。 したがって、 前方にある映像が映っている画素に対しては、 色差 信号 (R - Y) Lおよび (B - Y) Lの値が大きくなり、 彩度が高くなる。 一方 、 後方にある映像が映っている画素に対しては、 第 3係数 K Cは小さくなる。 し たがって、 後方にある映像が映っている画素に対しては、 色差信号 (R— Y ) L および (B— Y) Lの値が小さくなり、 彩度が低下する。 このように、 前方にあ る映像が映っている画素に対する映像の彩度が高くなり、 後方にある映像が映つ ている画素に対する映像の彩度が低くなるので、 立体感が強調される。
〔4— 2〕 この発明を、 2台のカメラを用いて撮像した左映像信号と右映像信号 からなる 3次元映像信号の立体感を調整するシステムに対して適用した場合の実 施の形態について説明する。
図 5 1は、 立体感調整システムの構成を示している。
この立体感調整システムは、 3次元映像信号から、 1フィールド毎に、 画素ご との視差情報 P Rを検出するための視差検出回路 8 0 1および視差検出回路 8 0 1によって得られた画素ごとの視差情報 P Rに基づいて、 3次元映像信号に対し て立体感を調整する立体感調整回路 8 0 2とを備えている。
視差検出回路 8 0 1は、 選択回路 9 0 K 動きべクトル検出回路 9 0 2、 べク トル補正回路 9 0 3および視差情報生成回路 9 0 4を備えている。 選択回路 9 0 1には、 3次元映像を構成する左映像の輝度信号 Y L— I Nと、 3次元映像を構成する右映像の輝度信号 Y R - I Nとが入力している。 また、 選 択回路には、 フィールド識別信号 F L Dが制御信号として入力している。
選択回路 9 0 1は、 フィールド識別信号 F L Dに基づいて、 左映像における輝 度信号 Y L— I Nと右映像における輝度信号 Y R - 1 1^とを 1 フィールド単位で 切り替えて出力する。 この例では、 フィールド識別信号 F L Dは、 入力映像信号 のフィールドが奇数フィールドである場合には Hレベルとなり、 入力映像信号の フィールドが偶数フィールドである場合には Lレベルとなる。 そして、 選択回路 9 0 1は、 フィールド識別信号 F L Dが Hレベル (奇数フィールド) である場合 には、 左映像における輝度信号 Y L _ I Nを選択して出力し、 フィールド識別信 号 F L Dが Lレベル (偶数フィールド) である場合には、 右呋像における輝度信 号 Y R— I Nを選択して出力する。
動きべク トル検出回路 9 0 2は、 選択回路 9 0 1から出力される映像信号から 、 1 フィールド毎に、 図 2 1に示すように 1 フィールド画面内に設定された 1 2 個の動きべクトル検出領域 (以下、 視差算出領域という) E 1〜E 1 2それぞれ に対する X方向動きべク トルを算出する。
動きべク トル検出回路 9 0 2によって得られた各視差算出領域 E 1〜E 1 2そ れぞれに対する X方向動きべク トルは、 べクトル補正回路 9 0 3に送られる。 動 きべクトル検出回路 9 0 2によって得られた各視差算出領域 E 1〜E 1 2それぞ れに対する X方向動きべク トルは、 各視差算出領域 E 1〜E 1 2ごとの左映像と 右映像との間の映像の水平方向の動きを表している。 左映像と右映像とは視差を 有しているので、 同じ物体であっても、 カメラからの距離に応じて両映像間で水 平位置が異なっている。 したがって、 各視差算出領域 E 1〜E 1 2ごとの X方向 動きべクトルは、 各視差算出領域 E 1〜E 1 2毎の両映像間の視差に相当する。 しかしなから、 同じ方向に物体が移動している場合でも、 左の映像から右映像 に変化した場合に得られる X方向べクトルと、 右映像から左映像に変化した場合 に得られる X方向べクトルとでは、 X方向の動きべク トルの符号が反対方向にな る。 そこで、 同じ方向に物体が移動している場合に、 得られる X方向ベク トルの 符号を一致させるために、 べク トル補正回路 9 0 3が設けられている。
べク トル補正回路 9 0 3は、 フィールド識別信号 F L Dが Hレベル (奇数フィ 一ルド) である場合には、 動きベクトル検出回路 9 0 2から送られてきた視差算 出領域 E 1〜E 1 2それぞれに対する X方向動きべクトルを視差情報生成回路 9 0 4にそのまま送る。
フィールド識別信号 F L Dが Lレベル (偶数フィールド) である場合には、 ベ クトル補正回路 9 0 3は、 動きべクトル検出回路 9 0 2から送られてきた視差算 出領域 E 1〜E 1 2それぞれに対する X方向動きべクトルの符号を反転させて、 視差情報生成回路 9 0 4に送る。
視差情報生成回路 9 0 4では、 ベタ トル補正回路 9 0 3から送られてきた各視 差算出領域 E 1〜E 1 2ごとの X方向動きべクトルに基づいて、 各画素ごとの視 差情報 P Rを生成する。
つまり、 ベクトル補正回路 9 0 3から送られてきた各視差算出領域 E 1〜E 1 2ごとの X方向動きべクトルを、 各視差算出領域 E 1〜E 1 2に対する視差情報 とし、 図 2 1を用いて説明したと同様にして、 各視差算出領域 E 1〜E 1 2に対 する視差情報から各画素ごとの視差情報 P Rを生成する。
立体感調整回路 8 0 2は、 視差検出回路 8 0 1によって得られた画素ごとの視 差情報 P Rに基づレ、て、 3次元映像信号に対して立体感を補正するための処理を 行なう。 この立体感補正回路 8 0 2は、 図 4 6の立体感調整回路 5 0 2と同じで あるので、 その構成および動作の説明を省略する。
上記第 4の実施の形態によれば、 3次元映像信号によって得られる立体映像の 立体感を調整することができるようになる。
〔5〕 第 5の実施の形態の説明
図 5 2〜図 5 5を参照して、 この発明の第 5の実施の形態について説明する。 図 5 2は、 2次元 / 3次元映像変換装置の構成を示している。
2次元 Z 3次元映像変換装置は、 2次元映像信号を 3次元映像信号に変換する ための集積回路 (L S I ) 1 0 1 0と、 集積回路 1 0 1 0に接続された複数の遅 延用フィールドメモリ 1 0 2 0とから構成されている。
図 5 2においては、 集積回路 1 0 1 0の構成要素としては、 遅延用フィールド メモリ 1 0 2 0へのデータの書き込みおよび遅延用フィールドメモリ 1 0 2 0力、 らのデ一夕の読み出しに関係する部分のみが図示されている。 つまり、 集積回路 1 0 1 0の構成要素としては、 ライ ト側デ一夕パス 1 0 1 1、 ライ ト系タイミン グ発生部 1 0 1 2、 リード側データパス 1 0 1 3およびリード系タイミング発生 部 1 0 1 4が図示されている。 集積回路 1 0 1 0は、 これらの構成要素の他、 動 きべクトル検出部、 C P Uに接続されるインタフェース等を備えている。
集積回路 1 0 1 0には、 2次元映像信号を構成する輝度信号 (Y信号) ならび に色差信号 (R - Y信号および B - Y信号) とか人力する。 集積回路 1 0 1 0か らは、 相対的に時間差を有する右目用映像信号および左目用映像信号が出力され る。 右目用映像信号は、 右目用輝度信号 Y ( R ) と右目用色差信号 R - Y ( R ) および右目用色差信号 B— Y ( R ) とからなる。 左目用映像信号は、 左目用輝度 信号 Y ( L ) と左目用色差信号 R— Y ( L ) および左目用色差信号 B— Y ( L ) と力、らなる。
この 2次元 Z 3次元映像変換装置には、 2次元ノ 3次元映像変換モー ドとして 、 次の 3つのモードがある。
( 1 ) 第 1通常速度変換モード
第 1通常速度変換モードは、 2次元映像信号と水平、 垂直周波数が同じ 3次元 映像信号を生成するためのモ—ドであり、 かつ右目用映像信号および左目用映像 信号のうちの一方が、 フィールドメモリを介さずにリード側データパス 1 0 1 3 に送られた 2次元映像信号に基づいて生成されるモードである。
( 2 ) 第 2通常速度変換モード
第 2通常速度変換モ一ドは、 2次元映像信号と水平、 垂直周波数が同じ 3次元 映像信号を生成するためのモードであり、 かつ右目用映像信号および左目用映像 信号の両方がフィールドメモリを介してリード側データパス 1 0 1 3に送られた 2次元映像信号に基づいて生成されるモ一ドである。
(3) 倍速変換モード
倍速変換モードは、 2次元映像信号に対して水平、 垂直周波数が 2倍の 3次元 映像信号を生成するためのモードである。 この場合には、 右目用映像信号および 左目用映像信号の両方がフィールドメモリを介してリード側デ一夕パス 1 0 1 3 に送られた 2次元映像信号に基づレ、て生成される。
集積回路 1 0 1 0には、 2次元映像信号の水平同期信号 H SYNCに基づいて 生成された第 1基準クロック信号 C L Kし 2次元映像信号の水平同期信号 H S YNCに基づ 、て生成された第 2基準クロック信号 C L K 2、 2次元映像信号の 垂直同期信号 VSYNC:、 2次元映像信号の水平同期信号 H SYNCに基づいて 第 1基準クロック信号 CLK 1で生成された第 1水平同期信号 HD 1および 2次 元映像信号の水平同期信号 H S Y N Cに基づし、て第 2基準クロック信号 C L K 2 で生成された第 2水平同期信号 H D 2が入力している。
図 5 3は、 第 1基準クロック信号 CLK 1および第 1水平同期信号 HD 1を発 生するための位相同期回路 (PLL回路) を示している。
位相同期回路の入力は 2次元映像信号の水平同期信号 H S YN Cであり、 位相 同期回路の出力は第 1水平同期信号 HD 1である。 位相同期回路の入力である水 平同期信号 HSYNCと、 位相同期回路の出力である第 1水平同期信号 HD 1 と の位相比較結果が位相比較部 1 0 3 1によって電圧に変換される。 位相比較部 1 0 3 1の出力電圧は、 低域通過フィルタ (LPF) 1 0 3 2で平滑化された後、 電圧制御発振器 (VCO) 1 0 33に送られる。 電圧制御発振器 1 0 3 3では、 その入力電圧に応じた周波数の信号を出力する。
電圧制御発振器 1 033の出力 (信号 a) は、 第 1基準クロック信号 CLK 1 として取り出されるとともに 2分周回路 1 0 34に送られる。 2分周回路 1 0 3 4からは、 電圧制御発振器 1 0 3 3の出力信号 aの周波数が 1 Z2にされた信号 bが出力される。 2分周回路 1 0 34の出力信号 bは、 9 1 0分周回路 1 0 3 5 に送られる。 9 1 0分周回路 1 0 3 5からは、 2分周回路 1 0 3 4の出力信号 b の周波数が 1/9 1 0にされた信号 HD 1が出力される。
電圧制御発振器 1 033から出力される信号 (第 1基準クロック信号 CLK 1
) の周波数 f CLK1は、 位相同期回路の入出力の位相差が 0である場合には、 水平 同期信号 H SYNCの周波数 f H ( 1 5. 75 〔kHz〕 ) の 1 820倍である 。 つまり、 第 1基準クロック信号 CLK 1の周波数 f CLK1は、 1 820 f H であ り、 約 28. 6 (MHz) となる。
第 1基準クロック信号 CLK 1は、 2次元映像信号の水平同期信号 H SYNC の 1周期が 1 820クロックに分割された信号となる。 2次元映像信号が VTR で再生された映像である場合には、 水平同期信号 H SYNCの周波数が変動する ことがある。 第 1基準クロック信号 CLK 1の周波数は、 水平同期信号 HSYN
Cの周波数の変動に応じて変動する。
第 2基準クロック信号 CLK2および第 2水平同期信号 HD2も、 図 5 3と同 様な位相同期回路によって生成される。 第 2基準クロック信号 CLK2の周波数 f CLK2は、 位相同期回路の入出力の位相差が 0である場合には、 水平同期信号 H 3丫1^(:の周波数 „ ( 1 5. 75 〔kHz〕 ) の 1 820倍である。 つまり、 第 2基準クロック信号 CLK2の周波数 f CLK2は、 1 820 f H であり、 約 28
. 6 〔MHz〕 となる。
第 2基準クロック信号 C L K 2および第 2水平同期信号 H D 2を生成するため の位相同期回路では、 低域通過フィルタ (LPF) のカツ トオフ周波数が、 図 5 3の低域通過フィル夕 (LPF) 1 032のカッ トオフ周波数より低く設定され ている。 このため、 第 2基準クロック信号 CLK 2は、 水平同期信号 H SYNC の周波数が変動しても、 周波数変動の少なレ、信号となる。
図 52に示すように、 第 1基準クロック信号 CLK 1は、 2分周回路 1 0 1 5 によって 2分周される。 2分周回路 1 0 1 5から出力される第 3クロック信号 C LK 3は、 ライト系夕イミング発生部 1 0 1 2および第 1セレクタ 1 0 1 6に送 られる。 第 3クロック信号 CLK 3の周波数 f CLK3は、 第 1基準ク□ック信号 C
LK 1の周波数 f CLKlの 1/2である。 73 第 2基準クロック信号 CLK 2は、 第 1セレクタ 1 0 1 6に送られるとともに 、 2分周回路 1 0 1 7に送られる。 2分周回路 1 0 1 7から出力される第 4クロ ック信号 CLK4は、 第 1セレクタ 1 0 1 6に送られる。 第 4クロック信号 CL K4の周波数 f CLK4は、 第 2基準クロック信号 CLK2の周波数 f CLK2の 1Z2 垂直同期信号 VSYNCは、 ライト系タイミング発生部 1 0 1 2およびリード 系タイミング発生部 1 0 1 に送られる。 第 1水平同期信号 HD 1は、 ライト系 タイミング発生部 1 0 1 2に送られるとともに第 2セレクタ 1 0 1 8に送られる 。 第 2水平同期信号 HD 2は第 2セレクタ 1 0 1 8に送られる。
第 1セレクタ 1 0 1 6は、 設定されている 2次元ノ 3次元映像変換モードに応 じて、 第 3クロック信号 CLK 3、 第 2基準クロック信号 CLK 2および第 4ク 口ック信号 CLK 4のうちから、 一つを選択してリ一ド系夕イミング発生部 1 0 1 4に送る。
第 2セレクタ 1 0 1 8は、 設定されている 2次元 / 3次元映像変換モードに応 じて、 第 1水平同期信号 HD 1および第 2水平同期信号 HD 2のうちから、 一つ を選択してリード系タイミング発生部 1 0 1 4に送る。
2次元 Z 3次元映像変換モードとして第 1通常速度変換モードが設定されてい る場合には、 第 1セレクタ 1 0 1 6は、 第 3クロック i 号 CLK 3を選択してリ 一ド系タイミング発生部 1 0 1 4に送る。 この場合には、 フィールドメモリ 1 0 20の書き込みクロックおよび読み出しクロックは、 第 1基準クロック信号 CL K 1が 2分周された第 3クロック信号 CLK 3となる。 したがって、 集積回路 1 0 1 0の動作は、 図 5 5の集積回路 1 1 0 0の動作と全く同じとなる。
2次元ノ3次元映像変換モードとして第 2通常速度変換モードが設定されてい る場合には、 第 1セレクタ 1 0 1 6は、 第 4クロック信号 CLK 4を選択してリ —ド系タイミング発生部 1 0 1 4に送る。 この場合には、 フィールドメモリ 1 0 20の書き込みクロックは、 第 1基準クロック信号 CLK 1が 2分周された第 3 クロック信号 CLK 3となり、 フィールドメモリ 1 0 2 0の読み出しクロックは 第 2基準クロック信号 CLK 2が 2分周された第 4クロック信号 CLK 4となる 。 したがって、 2次元映像信号の水平同期信号 H SYNCの周波数が変動しても 、 ジッターが吸収される。
2次元 3次元映像変換モードとして倍速変換モ一ドが設定されている場合に は、 第 1セレクタ 1 0 1 6は、 第 2基準クロック信号 CLK 2を選択してリード 系タイミング発生部 1 0 1 4に送る。 この場合には、 フィールドメモリ 1 020 の書き込みクロックは、 第 1基準クロック信号 CLK 1が 2分周された第 3クロ ック信号 CLK 3となり、 フィールドメモリ 1 0 2 0の読み出しクロックは第 2 基準クロック信号 CLK2となる。
つまり、 2次元 Z3次元映像変換モードとして倍速変換モードが設定されてい る場合には、 フィールドメモリ 1 0 2 0の読み出しクロックの周波数は、 書き込 みクロックの周波数の 2倍となっている。 したかって、 集積回路 1 0 1 0から出 力される 3次元映像信号は、 2次元映像信号に対して水平、 垂直周波数が 2倍の 信号となる。 また、 2次元映像信号の水平同期信号 HSYNCの周波数が変動し ても、 ジッターが吸収される。
図 5 4は、 2次元 /3次元映像変換モードとして倍速変換モードが設定されて いる場合の各部の信号を示している。 なお、 この図 5 4は、 遅延用フィールドメ モリが 4つ設けられており、 かつ左目用映像信号が右目用映像信号に対して、 2 フィールド遅延している場合の例を示している。
この実施の形態では、 図 5 5に示す従来の 2次元 Z 3次元映像変換装置に比べ て倍速化回路が不要となるため、 回路の単純化が図れるとともにコストの低廉化 が図れる。

Claims

請 求 の 範 囲
1 . 2次元入力映像信号に基づいて、 各フィールドごとに、 1フィールド画面 内に設定された複数の視差算出領域のそれぞれに対して、 映像の遠近に関する画 像特徴量を抽出する特徵量抽出手段、
各視差算出領域ごとに抽出された画像特徴量に基づいて、 1 フィ一ルド画面内 の所定単位領域ごとの視差情報を生成する視差情報生成手段、 ならびに
2次元入力映像信号の各所定単位領域内の信号から、 その所定単位領域に対応 する視差情報に応じた水平位相差を有する第 1映像信号と第 2映像信号とをそれ ぞれ生成する位相制御手段、
を備えている 2次元映像を 3次元映像に変換する装置。
2 . 視差情報生成手段は、
視差算出領域ごとの映像の遠近に関する画像特徴量に基づいて、 各視差算出領 域ごとに映像の遠近に関する情報を生成する手段、 および
各視差算出領域ごとの映像の遠近に関する情報を、 各視差算出領域ごとの視差 情報に変換する手段、
を備えている請求項 1に記載の 2次元映像を 3次元映像に変換する装置。
3 . 視差情報生成手段は、
視差算出領域ごとの映像の遠近に関する画像特徴量に基づいて、 各視差算出領 域ごとに映像の遠近に関する情報を生成する手段、
画面の高さ位置のうち、 映像の遠近に関する情報によって表される遠近位置が 最も近い高さ位置より下側の各視差算出領域のうち、 その視差算出領域に対する 映像の遠近に関する情報によって表される遠近位置が、 その直上の視差算出領域 に対する映像の遠近に関する情報によって表される遠近位置より所定値以上遠い 位置である視差算出領域については、 その視差算出領域に対する映像の遠近に関 する情報によって表される遠近位置がその直上の視差算出領域に対する映像の遠 近に関する情報によって表される遠近位置に接近するように、 その視差算出領域 に対する映像の遠近に関する情報を補正する手段、 および
補正後の各視差算出領域ごとの映像の遠近に関する情報を、 各視差算出領域ご との視差情報に変換する手段、
を備えていることを特徴とする請求項 1に記載の 2次元映像を 3次元映像に変 換する装置。
4 . 視差情報生成手段は、 視差算出領域ごとの映像の遠近に関する画像特徴量 に基づいて、 1フィールド画面内の全領域をその画面に含まれている物体毎にグ ループ分けを行なう第 1手段、
第 1手段によるグループ分け結果と、 視差算出領域ごとの映像の遠近に関する 画像特徴量とに基づいて、 各グループ毎の映像の遠近に関する情報を生成する第 2手段、
各グループ毎の映像の遠近に関する情報に基づいて、 各視差算出領域毎の映像 の遠近に関する情報を生成する第 3手段、 ならびに
各視差算出領域毎の映像の遠近に関する情報を、 各視差算出領域ごとの視差情 報に変換する第 4手段、
を備えている請求項 1に記載の 2次元映像を 3次元映像に変換する装置。
5 . 第 1手段は、 映像の遠近に関する画像特徴量の大きさに対する視差算出領 域数を表す度数分布に基づいて、 映像の遠近に関する画像特徴量の大きさの近似 している領域が同一グループとなるように 1フィールド画面内の全領域をグルー プ分けするものである請求項 4に記載の 2次元映像を 3次元映像に変換する装置 ο
6 . 第 1手段は、
映像の遠近に関する画像特徴量の大きさに対する視差算出領域数を表す度数分 布に基づいて、 映像の遠近に関する画像特徴量の大きさの近似している領域が同 一グループとなるように 1フィールド画面内の全領域をグループ分けする手段、 および
同じグループ内に互いに空間的に離れてぃ ^数の領域が存在する場合には、 それらの領域がそれぞれ異なるグループとなるように、 グループ分けを行なう手 段、
を備えてレ、る請求項 4に記載の 2次元映像を 3次元映像に変換する装置。
7 . 第 1手段は、
映像の遠近に関する画像特徴量の大きさに対する視差算出領域数を表す度数分 布に基づいて、 映像の遠近に関する画像特徴量の大きさの近似している領域が同 一グループとなるように 1フィールド画面内の全領域をグル一プ分けする手段、 同じグループ内に互いに空間的に離れている複数の領域が存在する場合には、 それらの領域がそれぞれ異なるグループとなるように、 グループ分けを行なう手 段、 および
所定数以下の視差算出領域から構成されているグループが存在する場合には、 そのグループ内のおよびその周辺の視差算出領域に対する映像の遠近に関する画 像特徴量に基づいて、 そのグループを周囲のグループに属させるべきか否かを判 別し、 そのグループを周囲のグループに属させるべきと判別した場合には、 その グループを周囲のグループに属させる手段、
を備えてレ、る請求項 4に記載の 2次元映像を 3次元映像に変換する装置。
8 . 第 1手段は、
映像の遠近に関する画像特徴量の大きさに対する視差算出領域数を表す度数分 布に基づいて、 映像の遠近に関する画像特徴量の大きさの近似している領域が同 一グループとなるように 1フィールド画面内の全領域をグループ分けする手段、 同じグループ内に互いに空間的に離れている複数の領域が存在する場合には、 それらの領域がそれぞれ異なるグループとなるように、 グループ分けを行なう手 段、
所定数以下の視差算出領域から構成されているグループが存在する場合には、 そのグループ内のおよびその周辺の視差算出領域に対する映像の遠近に関する画 像特徴量に基づいて、 そのグループを周囲のグループに属させるべきか否かを判 別し、 そのグループを周囲のグループに属させるべきと判別した場合には、 その グループを周囲のグループに属させる手段、 および
隣接する 2つのグループのうち、 一方のグループ内および他方のグループ内の 視差算出領域に対する映像の遠近に関する画像特徴量に基づいて、 両グループを 結合させるべきか否かを判別し、 両グループを結合させるべきと判別した場合に は、 両グループを結合させる手段、
を備えている請求項 4に記載の 2次元映像を 3次元映像に変換する装置。
9 . 第 2手段は、
各グループ内の視差算出領域ごとの映像の遠近に関する画像特徴量および各視 差算出領域毎に予め設定された重み係数に基づいて、 各グループ毎に映像の遠近 に関する情報を算出するものである請求項 4に記載の 2次元映像を 3次元映像に 変換する装置。
1 0 . 第 3手段は、 画面の高さ位置のうち、 映像の遠近に関する情報によって 表される遠近位置が最も近い高さ位置より下側の各視差算出領域のうち、 その視 差算出領域に対する映像の遠近に関する情報によって表される遠近位置が、 その 直上の視差算出領域に対する映像の遠近に関する情報によって表される遠近位置 より所定値以上遠い位置である視差算出領域については、 その視差算出領域に対 する映像の遠近に関する情報によって表される遠近位置がその直上の視差算出領 域に対する映像の遠近に関する情報によって表される遠近位置に接近するように 、 その視差算出領域に対する映像の遠近に関する情報を補正する手段を備えてい る請求項 4に記載の 2次元映像を 3次元映像に変換する装置。
1 1 . 第 3手段は、
画面の高さ位置のうち、 映像の遠近に関する情報によって表される遠近位置が 最も近い高さ位置より下側の各視差算出領域のうち、 その視差算出領域に対する 映像の遠近に関する情報によって表される遠近位置が、 その直上の視差算出領域 に対する映像の遠近に関する情報によって表される遠近位置より所定値以上遠い 位置である視差算出領域については、 その視差算出領域に対する映像の遠近に関 する情報によって表される遠近位置がその直上の視差算出領域に対する映像の遠 近に関する情報によって表される遠近位置に接近するように、 その視差算出領域 に対する映像の遠近に関する情報を補正する手段、 および
隣合う 2つのグループの境界部において、 映像の遠近に関する情報が両グルー プ間で所定範囲以内となるように、 隣合う 2つのグループの境界部の視差算出領 域に対する映像の遠近に関する情報を補正する手段、
を備えている請求項 4に記載の 2次元映像を 3次元映像に変換する装置。
1 2 . 第 3手段は、
画面の高さ位置のうち、 映像の遠近に関する情報によって表される遠近位置が 最も近い高さ位置より下側の各視差算出領域のうち、 その視差算出領域に対する 映像の遠近に関する情報によって表される遠近位置が、 その直上の視差算出領域 に対する映像の遠近に関する情報によって表される遠近位置より所定値以上遠い 位置である視差算出領域については、 その視差算出領域に対する映像の遠近に関 する情報によって表される遠近位置がその直上の視差算出領域に対する映像の遠 近に関する情報によって表される遠近位置に接近するように、 その視差算出領域 に対する映像の遠近に関する情報を補正する手段、
隣合う 2つのグループの境界部において、 映像の遠近に関する情報が両グルー プ間で所定範囲以内となるように、 隣合う 2つのグループの境界部の視差算出領 域に対する映像の遠近に関する情報を補正する手段、 および
同じグループ内の各視差算出領域間において、 映像の遠近に関する情報の差が 所定範囲以内となるように、 各グループ内の映像の遠近に関する情報を平滑化さ せる手段、
を備えている請求項 4に記載の 2次元映像を 3次元映像に変換する装置。
1 3 . 位相制御手段は、
2次元入力映像信号を 1水平ライン分以下の複数画素数分記憶できる容量を有 し、 かつ 2次元入力映像信号を一次的に記憶する第 1の記憶手段、
2次元入力映像信号を 1水平ライン分以下の複数画素数分記憶できる容量を有 し、 かつ 2次元入力映像信号を一次的に記憶する第 2の記憶手段、 第 1の記憶手段の読み出しァドレスを、 2次元入力映像信号の水平垂直位置に 応じて決定された標準読み出しァドレスに対して、 2次元入力映像信号の水平垂 直位置が属する所定単位領域に対応する視差情報に基づいて制御することにより 、 上記標準読み出しァドレスによって規定される基準水平位相に対して上記視差 情報に応じた量だけ水平位相が進んだ第 1映像信号を生成する第 1の読み出しァ ドレス制御手段、 ならびに
第 2の記憶手段の読み出しァドレスを、 上記標準読み出しァドレスに対して、 2次元入力映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に 基づ 、て制御することにより、 上記標準読み出しアドレスによつて規定される基 準水平位相に対して上記視差情報に応じた量だけ水平位相が遅れた第 2映像信号 を生成する第 2の読み出しァドレス制御手段、
を備えている請求項 1に記載の 2次元映像を 3次元映像に変換する装置。
1 4 . 映像の遠近に関する画像特徴量が、 輝度高周波成分の積算値、 輝度コン トラスト、 輝度積算値、 R - Y成分の積算値、 B - Y成分の積算値および彩度積 算値のうちから選択された任意の 1つまたは任意の組み合わせである請求項 1に 記載の 2次元映像を 3次元映像に変換する装置。
1 5 . 所定単位領域が 1画素単位の領域である請求項 1に記載の 2次元映像を 3次元映像に変換する装置。
1 6 . 2次元入力映像信号に基づいて、 各フィールドごとに、 1 フィールド画面 内に設定された複数の視差算出領域のそれぞれに対して、 映像の遠近に関する画 像特徴量を抽出する第 1ステップ、
各視差算出領域ごとに抽出された画像特徴量に基づいて、 1フィールド画面内 の所定単位領域ごとの視差情報を生成する第 2ステップ、 ならびに
2次元入力映像信号の各所定単位領域内の信号から、 その所定単位領域に対応 する視差情報に応じた水平位相差を有する第 1映像信号と第 2映像信号とをそれ ぞれ生成する第 3ステップ、 を備えている 2次元映像を 3次元映像に変換する方法。
1 7 . 第 2ステップは、
視差算出領域ごとの映像の遠近に関する画像特徴量に基づいて、 各視差算出領 域ごとに映像の遠近に関する情報を生成するステップ、 および
各視差算出領域ごとの映像の遠近に関する情報を、 各視差算出領域ごとの視差 情報に変換するステップ、
を備えている請求項 1 6に記載の 2次元映像を 3次元映像に変換する方法。
1 8 . 第 2ステップは、
視差算出領域ごとの映像の遠近に関する画像特徴量に基づいて、 各視差算出領 域ごとに映像の遠近に関する情報を生成するステップ、
画面の高さ位置のうち、 映像の遠近に関する情報によって表される遠近位置が 最も近い高さ位置より下側の各視差算出領域のうち、 その視差算出領域に対する 映像の遠近に関する情報によって表される遠近位置が、 その直上の視差算出領域 に対する映像の遠近に関する情報によって表される遠近位置より所定値以上遠い 位置である視差算出領域については、 その視差算出領域に対する映像の遠近に関 する情報によって表される遠近位置がその直上の視差算出領域に対する映像の遠 近に関する情報によって表される遠近位置に接近するように、 その視差算出領域 に対する映像の遠近に関する情報を補正するステップ、 および
補正後の各視差算出領域ごとの映像の遠近に関する情報を、 各視差算出領域ご との視差情報に変換するステツプ、
を備えていることを特徴とする請求項 1 6に記載の 2次元映像を 3次元映像に 変換する方法。
1 9 . 第 3ステップは、
2次元入力映像信号を 1水平ライン分以下の複数画素数分記憶できる容量を有 する第 1の記憶手段および第 2の記憶手段に、 2次元入力映像信号を一次的に記 憶するステップ、
第 1の記憶手段の読み出しァドレスを、 2次元入力映像信号の水平垂直位置に 応じて決定された標準読み出しァドレスに対して、 2次元入力映像信号の水平垂 直位置が属する所定単位領域に対応する視差情報に基づいて制御することにより 、 上記標準読み出しァドレスによって規定される基準水平位相に対して上記視差 情報に応じた量だけ水平位相が進んだ第 1映像信号を生成するステップ、 ならび に
第 2の記憶手段の読み出しァドレスを、 上記標準読み出しァドレスに対して、 2次元入力映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に 基づいて制御することにより、 上記標準読み出しァドレスによって規定される基 準水平位相に対して上記視差情報に応じた量だけ水平位相が遅れた第 2映像信号 を生成するステップ、
を備えている請求項 1 6に記載の 2次元映像を 3次元映像に変換する方法。
2 0 . 映像の遠近に関する画像特徴量か、 輝度高周波成分の積算値、 輝度コン トラスト、 輝度積算値および彩度積算値のうちから選択された任意の 1つまたは 任意の組み合わせである請求項 1 6に記載の 2次元映像を 3次元映像に変換する 方法。
2 1 . 所定単位領域が 1画素単位の領域である請求項 1 6に記載の 2次元映像を 3次元映像に変換する装置。
2 2 . 2次元入力映像信号に基づいて、 各フィールドごとに、 1フィールド画 面内に設定された複数の動きべクトル検出領域のそれぞれに対する動きべクトル を検出する動きべクトル検出手段、
各動きべクトル検出領域ごとに検出された動きべクトルの水平方向成分に基づ いて、 1フィ—ルド画面内の所定単位領域ごとの視差情報を生成する視差情報生 成手段、 ならびに
2次元人力映像信号の各所定単位領域内の信号から、 その所定単位領域に対応 する視差情報に応じた水平位相差を有する第 1映像信号と第 2映像信号とをそれ ぞれ生成する位相制御手段、
を備えている 2次元映像を 3次元映像に変換する装置。
2 3 . 視差情報生成手段は、 各動きべクトル検出領域ごとに検出された動きべ クトルの水平方向成分、 水平方向成分の最大値、 水平方向成分が最大値である動 きベクトル検出領域、 水平方向成分の最小値、 水平方向成分が最小値である動き べクトル検出領域および各動きべクトル検出領域の映像が背景であるか被写体で あるかを示す情報に基づいて、 1フィ一ルド画面内の所定単位領域ごとの視差情 報を生成するものである請求項 2 2に記載の 2次元映像を 3次元映像に変換する
2 4 . 位相制御手段は、
2次元入力映像信号を 1水平ラィン分以下の複数画素数分記憶できる容量を有 し、 かつ 2次元入力映像信号を一次的に記憶する第 1の記憶手段、
2次元入力映像信号を 1水平ラィン分以下の複数画素数分記憶できる容量を有 し、 かつ 2次元入力映像信号を一次的に記憶する第 2の記憶手段、
第 1の記憶手段の読み出しァドレスを、 2次元入力映像信号の水平垂直位置に 応じて決定された標準読み出しァドレスに対して、 2次元入力映像信号の水平垂 直位置が属する所定単位領域に対応する視差情報に基づいて制御することにより 、 上記標準読み出しァドレスによって規定される基準水平位相に対して上記視差 情報に応じた量だけ水平位相が進んだ第 1映像信号を生成する第 1の読み出しァ ドレス制御手段、 ならびに
第 2の記憶手段の読み出しァドレスを、 上記標準読み出しァドレスに対して、 2次元入力映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に 基づレ、て制御することにより、 上記標準読み出しアドレスによつて規定される基 準水平位相に対して上記視差情報に応じた量だけ水平位相が遅れた第 2映像信号 を生成する第 2の読み出しァドレス制御手段、
を備えている請求項 2 2に記載の 2次元映像を 3次元映像に変換する装置。
2 5 . 所定単位領域が 1画素単位の領域である請求項 2 2に記載の 2次元映像 を 3次元映像に変換する装置。
2 6 . 2次元入力映像信号に基づいて、 各フィールドごとに、 1 フィールド画 面内に設定された複数の動きべクトル検出領域のそれぞれに対する動きべクトル を検出する第 1ステップ、
各動きべクトル検出領域ごとに検出された動きべクトルの水平方向成分に基づ いて、 1フィールド画面内の所定単位領域ごとの視差情報を生成する第 2ステツ プ、 ならびに
2次元入力映像信号の各所定単位領域内の信号から、 その所定単位領域に対応 する視差情報に応じた水平位相差を有する第 1映像信号と第 2映像信号とをそれ ぞれ生成する第 3ステップ、
を備えている 2次元映像を 3次元映像に変換する方法。
2 7 . 第 2ステップでは、 各動きべクトル検出領域ごとに検出された動きべク トルの水平方向成分、 水平方向成分の最大値、 水平方向成分が最大値である動き ベクトル検出領域、 水平方向成分の最小値、 水平方向成分が最小値である動きべ クトル検出領域および各動きべクトル検出領域の映像が背景であるか被写体であ るかを示す情報に基づいて、 1フィールド画面内の所定単位領域ごとの視差情報 が生成される請求項 2 6に記載の 2次元映像を 3次元映像に変換する方法。
2 8 . 第 3ステップは、
2次元入力映像信号を 1 7K平ライン分以下の複数画素数分記憶できる容量を有 する第 1の記憶手段および第 2の記憶手段に、 2次元入力映像信号を一次的に記 憶するステップ、
第 1の記憶手段の読み出しアドレスを、 2次元入力映像信号の水平垂直位置に 応じて決定された標準読み出しァドレスに対して、 2次元入力映像信号の水平垂 直位置が属する所定単位領域に対応する視差情報に基づいて制御することにより 、 上記標準読み出しァドレスによって規定される基準水平位相に対して上記視差 情報に応じた量だけ水平位相が進んだ第 1映像信号を生成するステップ、 ならび に
第 2の記憶手段の読み出しァドレスを、 上記標準読み出しァドレスに対して、 2次元入力映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に 基づいて制御することにより、 上記標準読み出しァドレスによって規定される基 準水平位相に対して上記視差情報に応じた量だけ水平位相が遅れた第 2映像信号 を生成するステップ、
を備えている請求項 2 6に記載の 2次元映像を 3次元映像に変換する方法。
2 9 . 所定単位領域が 1画素単位の領域である請求項 2 6に記載の 2次元映像 を 3次元映像に変換する方法。
3 0 . 3次元映像の 1フィ一ルド画面内の所定単位領域ごとの映像の遠近に 関する情報に基づレ、て、 3次元映像の各所定単位領域ごとに映像の輪郭の鲜明度 を制御することにより、 3次元映像の立体感を調整する立体感調整方法。
3 1 . 3次元映像の 1フィールド画面内の所定単位領域ごとの映像の遠近に関 する情報に基づいて、 3次元映像の各所定単位領域ごとに映像の彩度を制御する ことにより、 3次元映像の立体感を調整する立体感調整方法。
3 2 . 3次元映像の 1フィールド画面内の所定単位領域ごとの映像の遠近に関 する情報に基づレ、て、 3次元映像の各所定単位領域ごとに映像の輪郭の鮮明度を 制御するとともに映像の彩度を制御することにより、 3次元映像の立体感を調整 する立体感調整方法。
3 3 . 近い映像が映っている領域に対しては、 映像の輪郭の鮮明度が高くなる ように、 遠い映像が映っている領域に関しては映像の輪郭の鮮明度が低くなるよ うに、 映像の輪郭の鮮明度が制御される請求項 3 0に記載の 3次元映像の立体感 を調整する立体感調整方法。
3 4 . 近い映像が映っている領域に対しては、 块像の彩度が高くなるように、 遠い映像が映っている領域に関しては映像の彩度が低くなるように、 映像の彩度 が制御される請求項 3 1に記載の 3次元映像の立体感を調整する立体感調整方法 3 5 . 近い映像が映っている領域に対しては、 映像の輪郭の鲜明度が高くなる ように、 遠い映像が映っている領域に関しては映像の輪郭の鲜明度が低くなるよ うに、 映像の輪郭の鮮明度が制御され、 近い映像が映っている領域に対しては映 像の彩度が高くなるように、 遠 、映像が映っている領域に関しては映像の彩度が 低くなるように、 映像の彩度が制御される請求項 3 2に記載の 3次元映像の立体 感を調整する立体感調整方法。
3 6 . 3次元映像の 1フィールド画面内の所定単位領域ごとの映像の遠近に関 する情報に基づいて、 3次元映像の各所定単位領域ごとに映像の輪郭の鮮明度を 制御する輪郭制御手段を備えている立体感調整装置。
3 7 . 3次元映像の 1フィ一ルド画面内の所定単位領域ごとの映像の遠近に関 する情報に基づいて、 3次元映像の各所定単位領域ごとに映像の彩度を制御する 彩度制御手段を備えてレ、る立体感調整装置。
3 8 . 3次元映像の 1フィールド画面内の所定単位領域ごとの映像の遠近に関 する情報に基づレ、て、 3次元映像の各所定単位領域ごとに映像の輪郭の鲜明度を 制御する輪郭制御手段、 および
3次元映像の 1フィ一ルド画面内の所定単位領域ごとの映像の遠近に関する情 報に基づいて、 3次元映像の各所定単位領域ごとに映像の彩度を制御する彩度制 御手段、
を備えている立体感調整装置。
3 9 . 輪郭制御手段は、 近い映像が映っている領域に対しては、 映像の輪郭の 鲜明度が高くなるように、 遠レ、映像が映つている領域に関しては映像の輪郭の鲜 明度が低くなるように、 映像の輪郭の鮮明度を制御するものである請求項 3 6に 記載の立体感調整装置。
4 0 . 彩度制御手段は、 近い映像が映っている領域に対しては、 映像の彩度が 高くなるように、 遠レ、映像が映つている領域に関しては映像の彩度が低くなるよ うに、 映像の彩度を制御するものである請求項 3 7に記載の立体感調整装置。
4 1 . 輪郭制御手段は、 近い映像が映っている領域に対しては、 映像の輪郭の 鮮明度が高くなるように、 遠レ、映像が映つている領域に関しては映像の輪郭の鲜 明度が低くなるように、 映像の輪郭の鮮明度を制御するものであり、
彩度制御手段は、 近い映像が映っている領域に対しては、 映像の彩度が高くな るように、 遠レ、映像が映つてし、る領域に関しては映像の彩度が低くなるように、 映像の彩度を制御するものである請求項 3 8に記載の立体感調整装置。
4 2. 輪郭制御手段は、 近い映像が映っている領域に対しては、 映像の低周波 成分の割合を減少させるとともに映像の高周波成分の割合を増加させ、 遠い映像 が映っている領域に関しては映像の低周波成分の割合を増加させるとともに映像 の高周波成分の割合を減少させるものである請求項 3 6に記載の立体感調整装置 ο
4 3 . 輪郭制御手段は、 近い映像が映っている領域に対しては、 映像の低周波 成分の割合を減少させるとともに映像の高周波成分の割合を増加させ、 遠い映像 が映っている領域に関しては映像の低周波成分の割合を増加させるとともに映像 の高周波成分の割合を減少させるものである請求項 4 1に記載の立体感調整装置
4 4 . 入力された 2次元映像信号を、 最新フィールドから過去所定フィールド 数分記憶するための複数のフィールドメモリと、 複数のフィールドメモリから、 相対的に時間差を有する 2つの映像信号をそれぞれ読み出して、 一方を左目用映 像信号として出力し、 他方を右目用映像信号として出力する手段とを備えた 2次 元 Z 3次元映像変換装置にぉレ、て、
各フィールドメモリの読み出しクロックの周波数が、 各フィールドメモリの書 き込みクロックの周波数の 2倍に設定されていることを特徴とする 2次元/ 3次 元映像変換装置。
PCT/JP1997/002471 1996-07-18 1997-07-16 Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels WO1998004087A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US09/147,518 US6445833B1 (en) 1996-07-18 1997-07-16 Device and method for converting two-dimensional video into three-dimensional video
DE69739179T DE69739179D1 (de) 1996-07-18 1997-07-16 Eidimensionale bilder
EP97930812A EP0918439B1 (en) 1996-07-18 1997-07-16 Device for converting two-dimensional video into three-dimensional video

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP18962996A JP3957343B2 (ja) 1996-07-18 1996-07-18 2次元映像を3次元映像に変換する装置および方法
JP8/189629 1996-07-18
JP8/208172 1996-08-07
JP8208173A JP3005474B2 (ja) 1996-08-07 1996-08-07 2次元映像を3次元映像に変換する装置および方法
JP20817296A JP3235776B2 (ja) 1996-08-07 1996-08-07 立体感調整方法および立体感調整装置
JP8/208173 1996-08-07
JP8/240408 1996-09-11
JP8240408A JP2846858B2 (ja) 1996-09-11 1996-09-11 2次元/3次元映像変換装置
JP9159949A JP2951291B2 (ja) 1997-06-17 1997-06-17 2次元映像を3次元映像に変換する装置および方法
JP9/159949 1997-06-17

Publications (1)

Publication Number Publication Date
WO1998004087A1 true WO1998004087A1 (fr) 1998-01-29

Family

ID=27528218

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/002471 WO1998004087A1 (fr) 1996-07-18 1997-07-16 Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels

Country Status (5)

Country Link
US (1) US6445833B1 (ja)
EP (1) EP0918439B1 (ja)
KR (1) KR100445619B1 (ja)
DE (1) DE69739179D1 (ja)
WO (1) WO1998004087A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6906762B1 (en) 1998-02-20 2005-06-14 Deep Video Imaging Limited Multi-layer display and a method for displaying images on such a display
US9137525B2 (en) 2002-07-15 2015-09-15 Pure Depth Limited Multilayer video screen
US9721378B2 (en) 2001-10-11 2017-08-01 Pure Depth Limited Display interposing a physical object within a three-dimensional volumetric space

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1131495C (zh) * 1996-08-29 2003-12-17 三洋电机株式会社 特征信息赋予方法及装置
WO1998012879A1 (en) * 1996-09-17 1998-03-26 Imard Kabushikigaisha Image signal processor
KR100381817B1 (ko) * 1999-11-17 2003-04-26 한국과학기술원 제트버퍼를 이용한 입체영상 생성방법 및 기록매체
DE10016074B4 (de) * 2000-04-01 2004-09-30 Tdv Technologies Corp. Verfahren und Vorrichtung zur Erzeugung von 3D-Bildern
KR100372177B1 (ko) * 2000-04-26 2003-02-14 이승현 2차원 영상을 3차원 영상으로 변환하는 방법
US6965379B2 (en) * 2001-05-08 2005-11-15 Koninklijke Philips Electronics N.V. N-view synthesis from monocular video of certain broadcast and stored mass media content
KR100450836B1 (ko) * 2001-12-11 2004-10-01 삼성전자주식회사 이차원 영상의 입체화 장치 및 방법
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US7081892B2 (en) * 2002-04-09 2006-07-25 Sony Computer Entertainment America Inc. Image with depth of field using z-buffer image data and alpha blending
KR100430528B1 (ko) * 2002-07-09 2004-05-10 한국전자통신연구원 오버샘플링 및 가변 어드레싱에 의한 주시각 제어 장치 및그 방법과, 그를 이용한 평행축 입체 카메라 시스템
JP4061305B2 (ja) 2002-08-20 2008-03-19 一成 江良 立体視用画像を作成する方法および装置
EP1548648A4 (en) * 2002-08-27 2008-04-16 Sharp Kk CONTENT REPRODUCTION DEVICE FOR REPRODUCING CONTENT ACCORDING TO THE OPTIMAL REPRODUCTION MODE
US7880784B2 (en) * 2003-03-14 2011-02-01 Trident Microsystems (Far East) Ltd. Arrangement for generating a 3D video signal
US7428329B2 (en) * 2003-05-28 2008-09-23 Fuji Machine Mfg. Co., Ltd. Pickup image processing device of electronic part mounting device and pickup image processing method
JP2005110010A (ja) * 2003-09-30 2005-04-21 Toshiba Corp 立体画像生成方法および立体画像表示装置
KR100607072B1 (ko) * 2004-06-21 2006-08-01 최명렬 2차원 영상신호를 3차원 영상신호로 변환하는 장치 및 방법
JP4523368B2 (ja) * 2004-09-10 2010-08-11 株式会社マーキュリーシステム 立体視画像生成装置およびプログラム
US20060087556A1 (en) * 2004-10-21 2006-04-27 Kazunari Era Stereoscopic image display device
JP2006178900A (ja) * 2004-12-24 2006-07-06 Hitachi Displays Ltd 立体画像生成装置
US9532038B2 (en) * 2005-11-04 2016-12-27 Koninklijke Philips N.V. Rendering of image data for multi-view display
KR100745982B1 (ko) * 2006-06-19 2007-08-06 삼성전자주식회사 자발광형 디스플레이의 전력 저감을 위한 영상 처리 장치및 방법
US8970680B2 (en) * 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
KR20080059937A (ko) * 2006-12-26 2008-07-01 삼성전자주식회사 3d영상 디스플레이 장치 및 그의 3d영상신호 처리방법과3d영상 처리시스템
JP2008209885A (ja) * 2007-02-23 2008-09-11 Samsung Sdi Co Ltd 低電力駆動制御部及びこれを備える有機電界発光表示装置
KR100928523B1 (ko) * 2008-02-04 2009-11-26 (주)레드로버 입체 프리젠테이션 시스템
US11119396B1 (en) 2008-05-19 2021-09-14 Spatial Cam Llc Camera system with a plurality of image sensors
US9171221B2 (en) 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
US10354407B2 (en) 2013-03-15 2019-07-16 Spatial Cam Llc Camera for locating hidden objects
US9736368B2 (en) 2013-03-15 2017-08-15 Spatial Cam Llc Camera in a headframe for object tracking
US10585344B1 (en) 2008-05-19 2020-03-10 Spatial Cam Llc Camera system with a plurality of image sensors
US10896327B1 (en) 2013-03-15 2021-01-19 Spatial Cam Llc Device with a camera for locating hidden object
US20110098083A1 (en) * 2008-05-19 2011-04-28 Peter Lablans Large, Ultra-Thin And Ultra-Light Connectable Display For A Computing Device
JP5347717B2 (ja) * 2008-08-06 2013-11-20 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5012729B2 (ja) * 2008-08-08 2012-08-29 ソニー株式会社 表示パネルモジュール、半導体集積回路、画素アレイ部の駆動方法及び電子機器
KR101520620B1 (ko) * 2008-08-18 2015-05-18 삼성전자주식회사 2차원/3차원 재생 모드 결정 방법 및 장치
JP4636149B2 (ja) * 2008-09-09 2011-02-23 ソニー株式会社 画像データ解析装置、および画像データ解析方法、並びにプログラム
JP5170249B2 (ja) * 2008-09-29 2013-03-27 パナソニック株式会社 立体画像処理装置および立体画像処理装置のノイズ低減方法
JP5321011B2 (ja) * 2008-11-25 2013-10-23 ソニー株式会社 画像信号処理装置、画像信号処理方法および画像投射装置
US9172940B2 (en) 2009-02-05 2015-10-27 Bitanimate, Inc. Two-dimensional video to three-dimensional video conversion based on movement between video frames
KR20100093638A (ko) * 2009-02-17 2010-08-26 삼성전자주식회사 디스플레이 시스템과, 디스플레이장치 및 그 제어 방법
KR20100099896A (ko) 2009-03-04 2010-09-15 삼성전자주식회사 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치
US8436893B2 (en) 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US8508580B2 (en) 2009-07-31 2013-08-13 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
JP2011053554A (ja) * 2009-09-03 2011-03-17 Toshiba Mobile Display Co Ltd 有機el表示装置
EP2494785A1 (en) * 2009-10-27 2012-09-05 Worth Keeping APS Method for creating a 3d presentation
JP5521913B2 (ja) 2009-10-28 2014-06-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5387377B2 (ja) 2009-12-14 2014-01-15 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US20110149021A1 (en) * 2009-12-17 2011-06-23 Samir Hulyalkar Method and system for sharpness processing for 3d video
WO2011115142A1 (ja) * 2010-03-19 2011-09-22 Okiセミコンダクタ株式会社 画像処理装置、方法、プログラム及び記録媒体
JP5227993B2 (ja) * 2010-03-31 2013-07-03 株式会社東芝 視差画像生成装置、及びその方法
JP5556386B2 (ja) * 2010-05-31 2014-07-23 ソニー株式会社 表示装置、表示方法およびコンピュータプログラム
RU2010123652A (ru) * 2010-06-10 2011-12-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." (KR) Система и способ визуализации стереоизображений и многовидовых изображений для управления восприятием глубины стереоскопического изображения, создаваемого телевизионным приемником
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
JP5238767B2 (ja) * 2010-07-26 2013-07-17 株式会社東芝 視差画像生成方法及び装置
EP2416578A3 (en) 2010-08-02 2014-09-24 Trdimize Ltd Multiclass clustering with side information from multiple sources and the application of converting 2D video to 3D
US9100640B2 (en) * 2010-08-27 2015-08-04 Broadcom Corporation Method and system for utilizing image sensor pipeline (ISP) for enhancing color of the 3D image utilizing z-depth information
JP5150698B2 (ja) * 2010-09-30 2013-02-20 株式会社東芝 デプス補正装置及び方法
JP4997327B2 (ja) * 2010-10-01 2012-08-08 株式会社東芝 多視差画像受信装置
US9185388B2 (en) 2010-11-03 2015-11-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US20120120190A1 (en) * 2010-11-16 2012-05-17 Hung-Chia Lee Display device for use in a frame sequential 3d display system and related 3d display system
US20120120191A1 (en) * 2010-11-17 2012-05-17 Hung-Chia Lee Image processor for use in a frame sequential 3d display system and related 3d display system
JP2012120057A (ja) * 2010-12-02 2012-06-21 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
JP5909704B2 (ja) * 2011-01-13 2016-04-27 パナソニックIpマネジメント株式会社 立体画像処理装置、立体画像処理方法およびプログラム
WO2012150680A1 (ja) 2011-05-03 2012-11-08 オリンパスイメージング株式会社 立体画像処理装置および立体画像処理方法
CN103535030B (zh) * 2011-05-16 2016-04-13 富士胶片株式会社 视差图像显示装置、视差图像生成方法、视差图像打印
JP2012249038A (ja) * 2011-05-27 2012-12-13 Hitachi Consumer Electronics Co Ltd 画像信号処理装置、画像信号処理方法
CN103037236A (zh) * 2011-08-22 2013-04-10 联发科技股份有限公司 图像处理方法以及装置
US9113140B2 (en) 2011-08-25 2015-08-18 Panasonic Intellectual Property Management Co., Ltd. Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector
JPWO2013054454A1 (ja) 2011-10-14 2015-03-30 パナソニックIpマネジメント株式会社 映像信号処理装置
US8687470B2 (en) 2011-10-24 2014-04-01 Lsi Corporation Optical disk playback device with three-dimensional playback functionality
CN102630029A (zh) * 2012-03-31 2012-08-08 彩虹集团公司 一种基于对比度统计实现2d 转3d 的方法
KR20140063272A (ko) * 2012-11-16 2014-05-27 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
JP6544978B2 (ja) * 2015-04-15 2019-07-17 キヤノン株式会社 画像出力装置およびその制御方法、撮像装置、プログラム
US10404963B1 (en) * 2016-05-03 2019-09-03 David Gerald Kenrick System for processing 2D content for 3D viewing
US10887573B1 (en) 2016-05-03 2021-01-05 Erin Sanaa Kenrick System for processing 2D content for 3D viewing
CN112188181B (zh) * 2019-07-02 2023-07-04 中强光电股份有限公司 图像显示设备、立体图像处理电路及其同步信号校正方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63232790A (ja) * 1987-03-20 1988-09-28 Sanyo Electric Co Ltd 立体映像信号変換回路
JPH07107518A (ja) * 1993-10-01 1995-04-21 Seiko Epson Corp 疑似立体表示装置
JPH07182533A (ja) * 1993-12-22 1995-07-21 Sanyo Electric Co Ltd 2次元画像の3次元化方法
JPH07222201A (ja) * 1994-02-04 1995-08-18 Sanyo Electric Co Ltd 2次元画像から3次元画像への変換方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5510832A (en) * 1993-12-01 1996-04-23 Medi-Vision Technologies, Inc. Synthesized stereoscopic imaging system and method
KR100358021B1 (ko) * 1994-02-01 2003-01-24 산요 덴키 가부시키가이샤 2차원영상을3차원영상으로변환시키는방법및입체영상표시시스템
EP0703716B1 (en) * 1994-09-22 2002-11-27 Sanyo Electric Co. Ltd Method of converting two-dimensional images into three-dimensional images
KR100381348B1 (ko) * 1995-04-17 2003-07-07 산요 덴키 가부시키가이샤 2차원 영상을 3차원 영상으로 변환하는 방법
US5963664A (en) * 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US5748199A (en) * 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
US5891030A (en) * 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63232790A (ja) * 1987-03-20 1988-09-28 Sanyo Electric Co Ltd 立体映像信号変換回路
JPH07107518A (ja) * 1993-10-01 1995-04-21 Seiko Epson Corp 疑似立体表示装置
JPH07182533A (ja) * 1993-12-22 1995-07-21 Sanyo Electric Co Ltd 2次元画像の3次元化方法
JPH07222201A (ja) * 1994-02-04 1995-08-18 Sanyo Electric Co Ltd 2次元画像から3次元画像への変換方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0918439A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6906762B1 (en) 1998-02-20 2005-06-14 Deep Video Imaging Limited Multi-layer display and a method for displaying images on such a display
US9721378B2 (en) 2001-10-11 2017-08-01 Pure Depth Limited Display interposing a physical object within a three-dimensional volumetric space
US10262450B2 (en) 2001-10-11 2019-04-16 Pure Depth Limited Display interposing a physical object within a three-dimensional volumetric space
US9137525B2 (en) 2002-07-15 2015-09-15 Pure Depth Limited Multilayer video screen

Also Published As

Publication number Publication date
DE69739179D1 (de) 2009-02-05
EP0918439B1 (en) 2008-12-24
KR20000067890A (ko) 2000-11-25
KR100445619B1 (ko) 2004-08-25
EP0918439A4 (en) 1999-09-08
US6445833B1 (en) 2002-09-03
EP0918439A1 (en) 1999-05-26

Similar Documents

Publication Publication Date Title
WO1998004087A1 (fr) Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels
JP5347717B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5587894B2 (ja) 深さマップを生成するための方法及び装置
US9525858B2 (en) Depth or disparity map upscaling
US6466255B1 (en) Stereoscopic video display method and apparatus, stereoscopic video system, and stereoscopic video forming method
US10095953B2 (en) Depth modification for display applications
US9313473B2 (en) Depth video filtering method and apparatus
WO2001039512A1 (en) Device and method for converting two-dimensional video to three-dimensional video
WO2010113859A1 (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
Lee et al. Discontinuity-adaptive depth map filtering for 3D view generation
JP3005474B2 (ja) 2次元映像を3次元映像に変換する装置および方法
MX2013013313A (es) Dispositivo de captura de imagenes en movimiento, sistema de procesamiento de informacion, dispositivo de procesamiento de unformacion y metodo de procesamiento de datos de imagenes.
JP2013534742A (ja) デプスマップ情報を利用した立体映像変換方法及び装置
Schmeing et al. Depth image based rendering: A faithful approach for the disocclusion problem
KR20130137000A (ko) 화상 처리 장치 및 화상 처리 방법, 및 프로그램
KR20120012874A (ko) 외삽 뷰 생성을 위한 장치 및 방법
Lin et al. Stereoscopic 3D experience optimization using cropping and warping
JP2951291B2 (ja) 2次元映像を3次元映像に変換する装置および方法
KR101511315B1 (ko) 스테레오스코픽 컨텐츠를 위한 다이나믹 플로팅 윈도우 생성 방법 및 시스템
Gangwal et al. Real-time implementation of depth map post-processing for 3D-TV in dedicated hardware
JP3540626B2 (ja) 2次元映像を3次元映像に変換する装置および方法
US8976175B2 (en) Depth estimation data generating device, computer readable recording medium having depth estimation data generating program recorded thereon, and pseudo-stereo image display device
JP3957343B2 (ja) 2次元映像を3次元映像に変換する装置および方法
KR100297831B1 (ko) 2차원 연속영상의 3차원 영상변환장치
JP3485764B2 (ja) 2次元映像を3次元映像に変換する装置および方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09147518

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1019997000337

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 1997930812

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1997930812

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019997000337

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019997000337

Country of ref document: KR