WO2012032997A1 - 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 - Google Patents

立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 Download PDF

Info

Publication number
WO2012032997A1
WO2012032997A1 PCT/JP2011/069887 JP2011069887W WO2012032997A1 WO 2012032997 A1 WO2012032997 A1 WO 2012032997A1 JP 2011069887 W JP2011069887 W JP 2011069887W WO 2012032997 A1 WO2012032997 A1 WO 2012032997A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
image data
information set
disparity
stereoscopic image
Prior art date
Application number
PCT/JP2011/069887
Other languages
English (en)
French (fr)
Inventor
塚越 郁夫
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to RU2012118689/07A priority Critical patent/RU2012118689A/ru
Priority to EP11823473.1A priority patent/EP2485492A4/en
Priority to CA2779687A priority patent/CA2779687A1/en
Priority to MX2012005359A priority patent/MX2012005359A/es
Priority to CN2011800060755A priority patent/CN102714746A/zh
Priority to AU2011300020A priority patent/AU2011300020B2/en
Priority to KR1020127011600A priority patent/KR20130098132A/ko
Priority to BR112012010777A priority patent/BR112012010777A2/pt
Priority to US13/505,631 priority patent/US20120262546A1/en
Publication of WO2012032997A1 publication Critical patent/WO2012032997A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/081Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division the additional information signals being transmitted by means of a subcarrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/083Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical and the horizontal blanking interval, e.g. MAC data signals

Definitions

  • the present invention relates to a stereoscopic image data transmitting apparatus, a stereoscopic image data transmitting method, and a stereoscopic image data receiving apparatus, and more particularly to a stereoscopic image data transmitting apparatus that can satisfactorily display graphics information such as OSD on the receiving side.
  • Patent Document 1 proposes a transmission method using a television broadcast radio wave of stereoscopic image data.
  • stereoscopic image data including left-eye image data and right-eye image data is transmitted, and stereoscopic image display using binocular parallax is performed in the television receiver.
  • FIG. 68 shows the relationship between the display position of the left and right images of an object (object) on the screen and the playback position of the stereoscopic image in stereoscopic image display using binocular parallax.
  • object object
  • FIG. 68 shows the relationship between the display position of the left and right images of an object (object) on the screen and the playback position of the stereoscopic image in stereoscopic image display using binocular parallax.
  • the right and left lines of sight intersect on the screen surface. It becomes on the surface.
  • the left image Lc is shifted to the left side and the right image Rc is shifted to the right side, the right and left lines of sight intersect at the back of the screen surface.
  • the playback position is behind the screen.
  • stereoscopic image display it is common for a viewer to recognize the perspective of a stereoscopic image using binocular parallax.
  • Superimposition information to be superimposed on an image for example, graphics information such as OSD (On Screen Display) can be rendered in conjunction with stereoscopic image display not only in two-dimensional space but also in three-dimensional depth. Be expected.
  • OSD On Screen Display
  • An object of the present invention is to maintain perspective consistency with each object in an image in displaying superimposition information in displaying a stereoscopic image, for example, graphics information such as OSD.
  • the concept of this invention is An image data output unit for outputting stereoscopic image data of a predetermined program having left-eye image data and right-eye image data; A disparity information set output unit that outputs a disparity information set at a predetermined pixel position corresponding to the stereoscopic image data of the predetermined program output from the image data output unit; A transmission unit for transmitting stereoscopic image data output from the image data output unit and a disparity information set output from the disparity information set output unit;
  • the parallax information set is in a stereoscopic image data transmission device including position data indicating a relative position of the predetermined pixel position with respect to the entire image and parallax data of the predetermined pixel position.
  • the image data output unit outputs stereoscopic image data of a predetermined program having left-eye image data and right-eye image data. Further, the disparity information set output unit outputs a disparity information set at a predetermined pixel position corresponding to the stereoscopic image data of the predetermined program. Then, stereoscopic image data and a parallax information set are transmitted by the transmission unit.
  • the parallax information set includes position data indicating a relative position of the predetermined pixel position with respect to the entire image, and parallax data of the predetermined pixel position.
  • the parallax information set is spatially synchronized with the stereoscopic image data.
  • this disparity information set is independent of the resolution of the stereoscopic image and is also independent of the display resolution and monitor size of the monitor.
  • the position data includes direction data indicating the direction from the origin of the predetermined pixel position and distance data indicating the distance from the origin of the predetermined pixel position.
  • the parallax data is data indicating the ratio of the value of the parallax information at a predetermined pixel position to the distance from the origin, or the parallax information at a specific display resolution, for example, full HD, at a predetermined pixel position. It may be a value.
  • the position data includes horizontal distance data indicating the horizontal distance from the origin of the predetermined pixel position and vertical distance data indicating the vertical distance from the origin of the predetermined pixel position.
  • data indicating the ratio of the value of the parallax information at a predetermined pixel position to a specific display resolution, or the value of the parallax information at a specific display resolution at a predetermined pixel position may be used.
  • the predetermined pixel position is not limited to one, but may be plural.
  • the predetermined pixel position is a first pixel position where the parallax information value is the maximum and a second pixel position where the parallax information value is the minimum.
  • the receiving side can know the maximum and minimum width of the parallax information value and can adjust the depth of the stereoscopic image.
  • the disparity information set output unit outputs a disparity information set of each divided period obtained by equally dividing a predetermined program period hierarchically.
  • the parallax information set becomes temporally synchronized with the stereoscopic image data.
  • the transmission unit transmits a transport stream including stereoscopic image data of a predetermined program output from the image data transmission unit, and is placed at a predetermined position of PSI information or SI information inserted into the transport stream.
  • the descriptor including the disparity information set output from the disparity information set output unit is inserted.
  • the transmission unit transmits a disparity information set included in an elementary stream for transmitting predetermined information.
  • the other information is stereoscopic image data
  • the disparity information set may be inserted into the user data area of the header portion of the elementary stream.
  • the predetermined information may be subtitle data or independent data
  • the elementary stream may include a segment or a packet in which a disparity information set is inserted.
  • the disparity information set of the predetermined pixel position corresponding to the stereoscopic image data of the predetermined program is transmitted together with the stereoscopic image data of the predetermined program having the left eye image data and the right eye image data. Therefore, on the receiving side, parallax adjustment is performed according to the perspective of each object in the image as superimposition information superimposed on the left eye image and the right eye image, for example, graphics information such as OSD, by using the parallax information set. What was given can be used. Thereby, for example, in the display of graphics information such as OSD, it is possible to maintain perspective consistency with each object in the image.
  • the disparity information set includes position data indicating a relative position of the predetermined pixel position with respect to the entire image, and disparity data of the predetermined pixel position. Therefore, the parallax information set is independent of the resolution of the stereoscopic image and also independent of the display resolution and monitor size of the monitor. Therefore, parallax adjustment can be easily performed using the parallax information set on the receiving side regardless of the display resolution and monitor size of the monitor.
  • a receiving unit that receives stereoscopic image data of a predetermined program having left-eye image data and right-eye image data and a disparity information set at a predetermined pixel position corresponding to the stereoscopic image data of the predetermined program;
  • Left-eye superimposition information data corresponding to left-eye image data included in stereoscopic image data received by the receiving unit and right-eye superimposition corresponding to right-eye image data included in stereoscopic image data received by the receiving unit
  • a superimposed information data output unit for outputting information data;
  • the left-eye superimposition information data and the right-eye superimposition information data output from the superimposition information data output unit are added to the left-eye image data and right-eye image data included in the stereoscopic image data received by the reception unit.
  • the parallax information set includes position data indicating a relative position of the predetermined pixel position with respect to the entire image, and parallax data of the predetermined pixel position,
  • the superimposition information data output unit The stereoscopic image data receiving apparatus provides a parallax between the left-eye superimposing information and the right-eye superimposing information based on the parallax information set received by the receiving unit. This concept can be realized in a general file format other than the transport stream, and can also be inserted inside the stream.
  • the receiving unit receives stereoscopic image data of a predetermined program having left-eye image data and right-eye image data, and a disparity information set at a predetermined pixel position corresponding to the stereoscopic image data of the predetermined program.
  • the disparity information set includes position data indicating a relative position of a predetermined pixel position with respect to the entire image, and disparity data of the predetermined pixel position.
  • the parallax information set is spatially synchronized with the stereoscopic image data.
  • this disparity information set is independent of the resolution of the stereoscopic image and is also independent of the display resolution and monitor size of the monitor.
  • the superimposition information data output unit converts the left-eye superimposition information data corresponding to the left-eye image data included in the stereoscopic image data received by the reception unit and the right-eye image data included in the stereoscopic image data received by the reception unit. Corresponding right eye superimposition information data is output. Then, the data superimposing information and the left eye superimposing information output from the superimposing information data output unit are added to the left eye image data and the right eye image data included in the stereoscopic image data received by the receiving unit by the data superimposing unit. Are superimposed. Thereby, graphics information such as OSD can be superimposed and displayed on the stereoscopic image.
  • parallax is given between the left eye superimposition information and the right eye superimposition information based on the parallax information set received by the reception unit. For this reason, in the present invention, it is possible to maintain perspective consistency with each object in the image, for example, in displaying graphics information such as OSD.
  • the disparity information set includes position data indicating a relative position of the predetermined pixel position with respect to the entire image and disparity information of the predetermined pixel position. Therefore, the parallax information set is independent of the resolution of the stereoscopic image and also independent of the display resolution and monitor size of the monitor. Therefore, it is possible to easily perform parallax adjustment using this parallax information set regardless of the display resolution and monitor size of the monitor.
  • a receiving unit that receives stereoscopic image data of a predetermined program having left-eye image data and right-eye image data and a disparity information set at a predetermined pixel position corresponding to the stereoscopic image data of the predetermined program;
  • a transmission unit that transmits the left-eye image data and the right-eye image data, and the parallax information set received by the reception unit to an external device via a transmission path;
  • the parallax information set is in a stereoscopic image data receiving device including position data indicating a relative position of the predetermined pixel position with respect to the entire image and parallax data of the predetermined pixel position.
  • the receiving unit receives the parallax information set at a predetermined pixel position corresponding to the stereoscopic image data of the predetermined program, together with the stereoscopic image data of the predetermined program having the left eye image data and the right eye image data.
  • the disparity information set includes position data indicating a relative position of a predetermined pixel position with respect to the entire image, and disparity data of the predetermined pixel position.
  • the parallax information set is spatially synchronized with the stereoscopic image data.
  • this disparity information set is independent of the resolution of the stereoscopic image and is also independent of the display resolution and monitor size of the monitor.
  • the transmission unit transmits the image data to the external device via a transmission path using a differential signal with a plurality of channels, and inserts a disparity information set during the blanking period of the image data.
  • the parallax information is transmitted to an external device.
  • the transmission unit generates a transmission data generating unit that transmits transmission data in units of video field intervals including a horizontal blanking period, a vertical blanking period, and an active video period, which are separated by a vertical synchronization signal. And a transmission data transmission unit that transmits the transmission data generated by the transmission data generation unit to the external device through a transmission path using a plurality of channels and a differential signal.
  • the transmission data generation unit distributes the image data in the main video region, and distributes the parallax information set related to the image data distributed in the main video region to the auxiliary video region, To be done.
  • the left-eye image data and the right-eye image data together with the disparity information set at a predetermined pixel position corresponding to the stereoscopic image data of the predetermined program is transmitted to the external device via the transmission path. Is done. Therefore, in an image display device such as an external device, for example, a television receiver, by using a parallax information set, superimposition information to be superimposed on the left eye image and the right eye image, for example, graphics information such as OSD, can be obtained. What has been subjected to parallax adjustment according to the perspective of the object can be used. Thereby, for example, in the display of graphics information such as OSD, it is possible to maintain perspective consistency with each object in the image.
  • graphics information such as OSD
  • the disparity information set includes position data indicating a relative position of the predetermined pixel position with respect to the entire image, and disparity data of the predetermined pixel position. Therefore, the parallax information set is independent of the resolution of the stereoscopic image and also independent of the display resolution and monitor size of the monitor. Accordingly, parallax adjustment can be easily performed using the parallax information set in an external device, for example, an image display device such as a television receiver, regardless of the display resolution and monitor size of the monitor.
  • An image data output unit for outputting stereoscopic image data of a predetermined program having left-eye image data and right-eye image data;
  • a disparity information output unit that outputs disparity information corresponding to the stereoscopic image data of the predetermined program output from the image data output unit;
  • a transmission unit for transmitting stereoscopic image data output from the image data output unit and parallax information output from the parallax information output unit;
  • the transmission unit inserts a segment or packet including the disparity information into an elementary stream for transmitting predetermined information, and the segment or packet further includes timing information indicating a use timing of the disparity information. It is in the data transmission device.
  • the image data output unit outputs stereoscopic image data of a predetermined program having left-eye image data and right-eye image data. Further, the parallax information output unit outputs the parallax information corresponding to the stereoscopic image data of the predetermined program.
  • the disparity information includes, for example, position data indicating a position or area and disparity data of the position or area. In this case, the position data may indicate a relative position with respect to the entire image, or may indicate an absolute position within the image.
  • the transmission unit transmits stereoscopic image data output from the image data output unit and disparity information output from the disparity information output unit.
  • the transmission unit inserts a segment or packet including disparity information into an elementary stream for transmitting predetermined information such as subtitles and independent data.
  • This segment or packet further includes timing information indicating the use timing of the disparity information.
  • the stereoscopic image data of the predetermined program having the left eye image data and the right eye image data is transmitted together with the parallax information corresponding to the stereoscopic image data of the predetermined program and the use timing information of the parallax information.
  • parallax information corresponding to the stereoscopic image data of the predetermined program and the use timing information of the parallax information.
  • the segment or packet may further include flag information indicating whether or not the segment or packet exists continuously.
  • the receiving side can know whether or not there are continuous segments or packets including disparity information based on the flag information, and can know in advance the possibility of updating the disparity information. Can do.
  • HDMI transmission part HDMI transmission part
  • HDMI receiving part HDMI receiving part
  • FIG. 4 is a diagram illustrating an example of a detailed structure of “z-OSD_Metadata_set ()”.
  • z-OSD_Metadata_set In a stereoscopic image display using binocular parallax, it is a figure which shows the relationship between the display position of the right-and-left image of the object on a screen, and the reproduction
  • FIG. 1 shows a configuration example of a stereoscopic image display system 10 as an embodiment.
  • the stereoscopic image transmission / reception system 10 includes a broadcasting station 100, a set top box (STB) 200, and a television receiver (TV) 300.
  • STB set top box
  • TV television receiver
  • the set top box 200 and the television receiver 300 are connected via an HDMI (High Definition Multimedia Interface) cable 400.
  • the set top box 200 is provided with an HDMI terminal 202.
  • the television receiver 300 is provided with an HDMI terminal 302.
  • One end of the HDMI cable 400 is connected to the HDMI terminal 202 of the set top box 200, and the other end of the HDMI cable 400 is connected to the HDMI terminal 302 of the television receiver 300.
  • the broadcasting station 100 transmits the bit stream data BSD on a broadcast wave.
  • the broadcast station 100 includes a transmission data generation unit 110 that generates bit stream data BSD.
  • the bit stream data BSD includes stereoscopic image data, audio data, a parallax information set, and the like.
  • the stereoscopic image data is stereoscopic image data of a predetermined program having left-eye image data and right-eye image data.
  • the audio data is audio data corresponding to the stereoscopic image data.
  • the disparity information set is a disparity information set at a predetermined pixel position corresponding to stereoscopic image data.
  • FIG. 2 shows a configuration example of the transmission data generation unit 110 that generates transmission data in the broadcast station 100.
  • the transmission data generation unit 110 includes cameras 111L and 111R, a video framing unit 112, a disparity map generation unit 113, a microphone 114, a data extraction unit 115, and changeover switches 116 to 118.
  • the transmission data generation unit 110 includes a video encoder 119, an audio encoder 120, a parallax information set creation unit 122, and a multiplexer 126.
  • the camera 111L captures a left eye image and obtains left eye image data for stereoscopic image display.
  • the camera 111R captures the right eye image and obtains right eye image data for stereoscopic image display.
  • the video framing unit 112 processes the left eye image data obtained by the camera 111L and the right eye image data obtained by the camera 111R into stereoscopic image data (3D image data) corresponding to the transmission format.
  • the video framing unit 112 constitutes an image data output unit.
  • the first transmission method is a top-and-bottom method. As shown in FIG. 4A, in the first half of the vertical direction, the data of each line of the left eye image data is transmitted, and the vertical direction In the latter half of the method, the data of each line of the left eye image data is transmitted. In this case, since the lines of the left eye image data and the right eye image data are thinned out to 1 ⁇ 2, the vertical resolution is halved with respect to the original signal.
  • the second transmission method is a side-by-side (Side By Side) method.
  • pixel data of the left eye image data is transmitted, and in the second half in the horizontal direction.
  • the pixel data of the right eye image data is transmitted.
  • the pixel data in the horizontal direction is thinned out to 1/2.
  • the horizontal resolution is halved with respect to the original signal.
  • the third transmission method is a frame sequential method in which left-eye image data and right-eye image data are sequentially switched and transmitted for each frame as shown in FIG.
  • This frame sequential method may be referred to as a full frame method or a backward compatible method.
  • the disparity map generation unit 113 detects, for example, a disparity vector (disparity information) for each pixel constituting the image based on the left eye image data and the right eye image data. Create a map. For example, the value of the parallax information increases as the pixel (pixel) is located in front.
  • disparity vector detection An example of disparity vector detection will be described.
  • an example in which the parallax vector of the right eye image with respect to the left eye image is detected will be described.
  • the left eye image is a detected image
  • the right eye image is a reference image.
  • the disparity vectors at the positions (xi, yi) and (xj, yj) are detected.
  • a case where a disparity vector at the position of (xi, yi) is detected will be described as an example.
  • a 4 ⁇ 4, 8 ⁇ 8, or 16 ⁇ 16 pixel block (parallax detection block) Bi is set in the left eye image with the pixel at the position (xi, yi) at the upper left. Then, a pixel block matching the pixel block Bi is searched in the right eye image.
  • a search range centered on the position of (xi, yi) is set in the right eye image, and each pixel in the search range is sequentially set as a pixel of interest, for example, 4 ⁇ 4 similar to the above-described pixel block Bi. 8 ⁇ 8 or 16 ⁇ 16 comparison blocks are sequentially set.
  • the sum of the absolute differences for each corresponding pixel is obtained.
  • the pixel block Bi when the pixel value of the pixel block Bi is L (x, y) and the pixel value of the comparison block is R (x, y), the pixel block Bi, a certain comparison block, The sum of absolute differences between the two is represented by ⁇
  • n pixels are included in the search range set in the right eye image, n total sums S1 to Sn are finally obtained, and the minimum sum Smin is selected. Then, the position of the upper left pixel (xi ′, yi ′) is obtained from the comparison block from which the sum Smin is obtained. Thus, the disparity vector at the position (xi, yi) is detected as (xi′ ⁇ xi, yi′ ⁇ yi).
  • the left eye image has the pixel at the position (xj, yj) at the upper left, for example, 4 ⁇ 4, 8 ⁇ 8, or 16
  • a x16 pixel block Bj is set and detected in the same process.
  • the microphone 114 detects sound corresponding to the images photographed by the cameras 111L and 111R, and obtains sound data.
  • the data extraction unit 115 is used in a state where the data recording medium 115a is detachably mounted.
  • the data recording medium 115a is a disk-shaped recording medium, a semiconductor memory, or the like.
  • audio data and disparity maps are recorded in association with stereo image data including left eye image data and right eye image data.
  • the data extraction unit 115 extracts and outputs stereoscopic image data, audio data, and a disparity map from the data recording medium 115a.
  • the data extraction unit 115 constitutes an image data output unit.
  • the stereoscopic image data recorded on the data recording medium 115 a corresponds to the stereoscopic image data obtained by the video framing unit 112.
  • the audio data recorded on the data recording medium 115 a corresponds to the audio data obtained by the microphone 114.
  • the disparity map recorded on the data recording medium 115a corresponds to a disparity vector generated by the disparity map generation unit 113.
  • the changeover switch 116 selectively extracts the stereoscopic image data obtained by the video framing unit 112 or the stereoscopic image data output from the data extraction unit 115.
  • the changeover switch 116 is connected to the a side in the live mode and takes out the stereoscopic image data obtained by the video framing unit 112, and is connected to the b side in the playback mode and is output from the data extraction unit 115. Extract stereo image data.
  • the changeover switch 117 selectively extracts the disparity map generated by the disparity map generation unit 113 or the disparity map output from the data extraction unit 115.
  • the changeover switch 117 is connected to the a side in the live mode and takes out the disparity map generated by the disparity map generation unit 113, and is connected to the b side in the reproduction mode and the data extraction unit 115.
  • the disparity map output from is taken out.
  • the changeover switch 118 selectively takes out the voice data obtained by the microphone 114 or the voice data output from the data fetch unit 115.
  • the changeover switch 118 is connected to the a side in the live mode and takes out the audio data obtained by the microphone 114, and is connected to the b side in the playback mode, and the audio data output from the data extraction unit 115 is taken out. Take out.
  • the video encoder 119 performs encoding such as MPEG4-AVC, MPEG2, or VC-1 on the stereoscopic image data extracted by the changeover switch 116 to generate a video data stream (video elementary stream).
  • the audio encoder 120 performs encoding such as AC3 or AAC on the audio data extracted by the changeover switch 118 to generate an audio data stream (audio elementary stream).
  • the disparity information set creation unit 122 creates a disparity information set at a predetermined pixel position corresponding to stereoscopic image data of a predetermined program output from the changeover switch 116 based on the disparity map extracted by the changeover switch 117.
  • the predetermined pixel position is, for example, a pixel position where the parallax information value is maximum, that is, a pixel (pixel) position recognized in the forefront.
  • the disparity information set includes position data indicating a relative position of the predetermined pixel position with respect to the entire image, and disparity data of the predetermined pixel position.
  • the parallax information set is spatially synchronized with the stereoscopic image data.
  • this disparity information set is independent of the resolution of the stereoscopic image and is also independent of the display resolution and monitor size of the monitor.
  • the disparity information set creation unit 122 creates a disparity information set for each divided period obtained by equally dividing a program period of a predetermined program etc. hierarchically. Thereby, the parallax information set is synchronized with the stereoscopic image data in terms of time.
  • FIG. 7A shows a state where the program period is equally divided into three periods a, b, and c.
  • FIG. 7B shows a state in which the period b is further equally divided into four periods. Note that the equally divided layers are not limited to two layers. Details of the disparity information set creation in the disparity information set creation unit 122 will be described later.
  • the multiplexer 126 multiplexes each data stream from the video encoder 119 and the audio encoder 120 to obtain a multiplexed data stream as bit stream data (transport stream) BSD. Also, the multiplexer 126 inserts the disparity information set created by the disparity information set creation unit 122 into this bit stream data BSD. Specifically, the multiplexer 126 inserts a descriptor (z-OSD descriptor) including a disparity information set at a predetermined position of PSI information or SI information inserted into the bit stream data BSD. Details of this descriptor will be described later.
  • z-OSD descriptor z-OSD descriptor
  • the operation of the transmission data generation unit 110 shown in FIG. 2 will be briefly described.
  • the camera 111L captures a left eye image.
  • the left eye image data for stereoscopic image display obtained by the camera 111L is supplied to the video framing unit 112.
  • the camera 111R captures a right eye image.
  • Right-eye image data for stereoscopic image display obtained by the camera 111R is supplied to the video framing unit 112.
  • the left-eye image data and the right-eye image data are processed into a state corresponding to the transmission format, and stereoscopic image data is obtained (see FIGS. 4A to 4C).
  • the stereoscopic image data obtained by the video framing unit 112 is supplied to the fixed terminal on the a side of the changeover switch 116.
  • the stereoscopic image data obtained by the data extraction unit 115 is supplied to the fixed terminal on the b side of the changeover switch 116.
  • the changeover switch 116 is connected to the a side, and the stereoscopic image data obtained by the video framing unit 112 is taken out from the changeover switch 116.
  • the selector switch 116 is connected to the b side, and the stereoscopic image data output from the data extracting unit 115 is extracted from the selector switch 116.
  • the stereoscopic image data extracted by the changeover switch 116 is supplied to the video encoder 119.
  • the stereoscopic image data is encoded by MPEG4-AVC, MPEG2, VC-1, or the like, and a video data stream including the encoded video data is generated. This video data stream is supplied to the multiplexer 126.
  • the audio data obtained by the microphone 114 is supplied to the fixed terminal on the a side of the changeover switch 118. Also, the audio data obtained by the data extraction unit 115 is supplied to the fixed terminal on the b side of the changeover switch 118.
  • the changeover switch 118 In the live mode, the changeover switch 118 is connected to the a side, and the audio data obtained by the microphone 114 is extracted from the changeover switch 118.
  • the changeover switch 118 is connected to the b side, and the audio data output from the data extraction unit 115 is taken out from the changeover switch 118.
  • the audio data extracted by the changeover switch 118 is supplied to the audio encoder 120.
  • the audio encoder 120 performs encoding such as MPEG-2Audio AAC or MPEG-4 AAC on the audio data, and generates an audio data stream including the encoded audio data. This audio data stream is supplied to the multiplexer 126.
  • Left eye image data and right eye image data obtained by the cameras 111L and 111R are supplied to the disparity map generation unit 113 through the video framing unit 112.
  • the disparity map generation unit 113 detects a disparity vector for each pixel (pixel) based on the left eye image data and the right eye image data, and generates a disparity map.
  • This disparity map is supplied to the fixed terminal on the a side of the changeover switch 117.
  • the disparity map output from the data extraction unit 115 is supplied to the fixed terminal on the b side of the changeover switch 117.
  • the changeover switch 117 In the live mode, the changeover switch 117 is connected to the a side, and the disparity map generated by the disparity map generation unit 113 is extracted from the changeover switch 117. In the reproduction mode, the changeover switch 117 is connected to the b side, and the disparity map output from the data extraction unit 115 is taken out from this changeover switch 117.
  • the disparity map extracted by the changeover switch 117 is supplied to the disparity information set creation unit 122.
  • the disparity information set creation unit 122 the disparity information set at a predetermined pixel position corresponding to the stereoscopic image data of the predetermined program output from the changeover switch 116 is hierarchically divided based on the disparity map. It is created corresponding to the divided period.
  • This disparity information set includes position data indicating a relative position of the predetermined pixel position with respect to the entire image, and disparity information of the predetermined pixel position. This disparity information set is supplied to the multiplexer 126.
  • the data streams from the video encoder 119 and the audio encoder 120 are multiplexed, and a multiplexed data stream as bit stream data (transport stream) BSD is obtained.
  • the disparity information set created by the disparity information set creation unit 122 is inserted into this bit stream data BSD. That is, in the multiplexer 126, a descriptor (z-OSD descriptor) including a disparity information set is inserted at a predetermined position of PSI information or SI information inserted into the bit stream data BSD.
  • This transport stream includes PES packets obtained by packetizing each elementary stream.
  • PES packets obtained by packetizing each elementary stream.
  • a PES packet “Video PES” of the video elementary stream and a PES packet “AudioPES” of the audio elementary stream are included.
  • the transport stream includes a PMT (Program Map Table) as PSI (Program Specific Information).
  • PSI Program Specific Information
  • This PSI is information describing to which program each elementary stream included in the transport stream belongs.
  • the transport stream includes an EIT (EventInformation Table) as SI (Serviced Information) for managing each event.
  • SI Serviced Information
  • the PMT has a program descriptor (ProgramDescriptor) that describes information related to the entire program.
  • the PMT includes an elementary loop having information related to each elementary stream. In this configuration example, there are a video elementary loop and an audio elementary loop.
  • information such as a packet identifier (PID) is arranged for each stream, and a descriptor (descriptor) describing information related to the elementary stream is also arranged, although not shown.
  • PID packet identifier
  • descriptor descriptor
  • a descriptor (z-OSD descriptor) including a disparity information set is inserted under the EIT.
  • a descriptor (z-OSDdescriptor) including a disparity information set is inserted into a program descriptor (Program Descriptor) in the PMT.
  • program Descriptor Program Descriptor
  • disparity information set creation unit Details of disparity information set creation in the disparity information set creation unit 122 (see FIG. 2) will be described.
  • the disparity information set creation unit 122 creates a disparity information set in the following cases 1 to 6.
  • the disparity information set creation unit 122 creates a disparity information set at a predetermined pixel position corresponding to stereoscopic image data of a predetermined program.
  • This disparity information set includes position data of a predetermined pixel position and disparity data of the predetermined pixel position.
  • the predetermined pixel position is arbitrarily set or automatically set by the user's setting operation, and the number thereof is not limited.
  • the predetermined pixel position (x, y) is represented by coordinates with the image center O as the origin (0, 0). In “Case 1”, the origin (0, 0) is excluded from the definition area of a predetermined pixel position.
  • the position data includes direction data indicating the direction of a predetermined pixel position from the origin (0, 0) and distance data indicating a distance from the origin (0, 0) to the predetermined pixel position. It consists of.
  • the distance data (Line) Scale) of the pixel position (x, y) is a ratio to the length of the line segment passing through the pixel position (x, y) from the origin (0, 0) to the end of the image area. It shall be shown.
  • the distance from the origin (0, 0) to the pixel position (x, y) is L
  • the disparity data at the pixel position (x, y) is the pixel position (x, y) from the origin (0, 0) of the value of the disparity information (disparity vector) at the pixel position (x, y).
  • Data indicating the ratio to the distance to y). That is, in the disparity data (Disparity Gradient: tan ⁇ ), the distance from the origin (0, 0) to the pixel position (x, y) is L, and the value of the disparity information (disparity vector) at the pixel position (x, y) Where D is tan ⁇ D / L.
  • a first pixel position where the parallax information value is maximum (Max) and a pixel position (second pixel position) where the parallax information value is minimum (Min) are set.
  • the pixel position where the value of the parallax information is maximum means a position where the image is recognized closest.
  • the pixel position where the value of the parallax information is minimum means a position where the image is recognized the farthest.
  • the receiving side can know the maximum and minimum width of the parallax information value and can adjust the depth of the stereoscopic image.
  • 11 and 12 show an example of a two-dimensional position (2D Direction) of the first pixel position (x ⁇ , y ⁇ ) and the second pixel position (x ⁇ , y ⁇ ) in the entire image.
  • the coordinates (x ⁇ , y ⁇ ) and coordinates (x ⁇ , y ⁇ ) indicate the coordinates of each pixel position when the image center is the origin (0, 0).
  • the parallax information set of the first pixel position (x ⁇ , y ⁇ ) will be described.
  • the position data is composed of direction data and distance data (Line Scale_ ⁇ ).
  • the direction data is composed of tangent data (tan ⁇ ) and a zone identifier (Zone_id_ ⁇ ).
  • L ⁇ ⁇ (x ⁇ 2 + y ⁇ 2 )
  • LineFull_ ⁇ ⁇ ((E_h) 2 + (PV / 2) 2 ).
  • the position data is composed of direction data and distance data (Line Scale_ ⁇ ).
  • the direction data is composed of tangent data (tan ⁇ ) and a zone identifier (Zone_id_ ⁇ ).
  • L ⁇ ⁇ (x ⁇ 2 + y ⁇ 2 )
  • LineFull_ ⁇ ⁇ ((PH / 2) 2 + (E_v) 2 ).
  • the flowchart of FIG. 13 shows a processing procedure for creating a disparity information set in “Case 1” in the disparity information set creating unit 122.
  • PV SourcePictureVerticalSize
  • PH SourcePictureHorizontalSize
  • aspect ratio PictureAspectRatio
  • step ST2 the disparity information set creation unit 122 scans the disparity map and marks the value of predetermined disparity information (disparity vector) and its coordinates (x1, y1).
  • the coordinates (x1, y1) are obtained by setting the top-left of the image as the origin (0, 0).
  • step ST3 the disparity information set creation unit 122 converts the coordinates (x1, y1) to coordinates (x, y) having the image center O as the origin (0, 0).
  • a 2-bit zone identifier (Zone_id) for identifying the quadrant to be executed is obtained.
  • LineFull is obtained as follows from the relationship with the aspect ratio.
  • a case where the aspect ratio is 9/16 is shown, but the same applies to cases where the aspect ratio is other.
  • the disparity information set creation unit 122 creates a disparity information set at a predetermined pixel position corresponding to stereoscopic image data of a predetermined program.
  • This disparity information set includes position data of a predetermined pixel position and disparity data of the predetermined pixel position.
  • the predetermined pixel position is arbitrarily set or automatically set by the user's setting operation, and the number thereof is not limited.
  • the predetermined pixel position (x, y) is represented by the origin (0, 0) and coordinates with respect to the image center O. In “Case 2”, the origin (0, 0) is removed from the definition area of a predetermined pixel position.
  • the position data includes the direction data indicating the direction of the predetermined pixel position from the origin (0, 0) and the predetermined data from the origin (0, 0), as in “Case 1” described above. And distance data indicating the distance to the pixel position.
  • the distance data (Line) Scale) of the pixel position (x, y) is a ratio to the length of the line segment passing through the pixel position (x, y) from the origin (0, 0) to the end of the image area. It shall be shown.
  • the distance from the origin (0, 0) to the pixel position (x, y) is L ⁇
  • the parallax data at the pixel position (x, y) is a value of parallax information (parallax vector) at a specific display resolution at the pixel position (x, y).
  • the disparity information set creation unit 122 creates position data (direction data, distance data) similar to the above “case 1” as the position data of the predetermined pixel position.
  • the disparity information set creation unit 122 creates disparity information (disparity vector) at a specific display resolution of the pixel position (x, y) as the disparity data of the predetermined pixel position.
  • the specific display resolution is, for example, a full HD resolution of 1920 ⁇ 1080.
  • the disparity information set creation processing procedure in “Case 2” in the disparity information set creation unit 122 is performed in the same manner as the processing procedure shown in the flowchart of FIG. 13 described above, except for the processing of obtaining disparity data in step ST5. That is, in the disparity information set creation processing procedure in “Case 2”, disparity information (disparity vector) at a specific display resolution of the coordinates (x, y) is obtained as the disparity data of the coordinates (x, y).
  • the disparity information set creation unit 122 creates a disparity information set at a predetermined pixel position corresponding to stereoscopic image data of a predetermined program.
  • This disparity information set includes position data of a predetermined pixel position and disparity data of the predetermined pixel position.
  • the predetermined pixel position is arbitrarily set or automatically set by the user's setting operation, and the number thereof is not limited.
  • the predetermined pixel position (x, y) is represented by the origin (0, 0) and coordinates with respect to the image center O. In “Case 3”, the origin (0, 0) is excluded from the definition area of the predetermined pixel position.
  • the position data includes direction data indicating the direction of a predetermined pixel position from the origin (0, 0) and distance data indicating the distance from the origin (0, 0) to the predetermined pixel position. It consists of.
  • the direction of the pixel position (x, y) is selected from preset up and down, left and right, 8 directions between them, and 16 directions including them. That is, the direction data of the pixel position (x, y) is data indicating the direct direction.
  • the 3-bit data can selectively specify any one of up, down, left, and right and eight directions therebetween as shown in FIG.
  • the distance data (Line) Scale) of the pixel position (x, y) passes through the pixel position (x, y) from the origin (0, 0) as in the case of “Case 1” described above.
  • the ratio to the length of the line segment reaching the end of the region is shown.
  • the distance from the origin (0, 0) to the pixel position (x, y) is L
  • the disparity data at the pixel position (x, y) is the pixel position (x, y) from the origin (0, 0) of the value of the disparity information (disparity vector) at the pixel position (x, y).
  • Data indicating the ratio to the distance to y). That is, in the disparity data (Disparity Gradient: tan ⁇ ), the distance from the origin (0, 0) to the pixel position (x, y) is L, and the value of the disparity information (disparity vector) at the pixel position (x, y) Where D is tan ⁇ D / L.
  • this pixel position is a pixel position where the value of the parallax information (disparity vector) is maximum (Max).
  • the pixel position where the value of the parallax information is maximum means a position where the image is recognized closest.
  • 15 and 16 show an example of the two-dimensional position (2D Direction) of the pixel position (xa, ya) in the entire image.
  • (Xa, ya) indicates the coordinates of the pixel position when the image center is the origin (0, 0).
  • the disparity information set at the pixel position (xa, ya) will be described.
  • the position data is composed of direction data (Direction_a) and distance data (Line Scale_a).
  • La ⁇ (xa 2 + ya 2 )
  • LineFull_a ⁇ ((PH / 2) 2 + (PV / 2) 2 ).
  • the flowchart of FIG. 17 shows a processing procedure for creating a disparity information set in “Case 3” in the disparity information set creating unit 122.
  • PV SourcePictureVerticalSize
  • PH SourcePictureHorizontalSize
  • aspect ratio PictureAspectRatio
  • step ST12 the disparity information set creation unit 122 scans the disparity map and marks the value of predetermined disparity information (disparity vector) and its coordinates (x1, y1).
  • the coordinates (x1, y1) are obtained by setting the top-left of the image as the origin (0, 0).
  • the parallax information set creation unit 122 converts the coordinates (x1, y1) to coordinates (x, y) having the image center O as the origin (0, 0).
  • the coordinate (x, y) after conversion is on any line such as the 8 direction or 16 direction set in advance from the origin (0, 0), and not on that line. There is. If it is not on the line, for example, the coordinate on the nearest line is set as the new coordinate (x, y) instead of the coordinate (x, y) after conversion.
  • LineFull is obtained as follows from the relationship with the aspect ratio.
  • a case where the aspect ratio is 9/16 is shown, but the same applies to cases where the aspect ratio is other.
  • E_v satisfies 0 ⁇ E_v ⁇ PH / 2
  • E_h satisfies 0 ⁇ E_h ⁇ PV / 2 (see FIG. 12).
  • the disparity information set creation unit 122 creates a disparity information set at a predetermined pixel position corresponding to stereoscopic image data of a predetermined program.
  • This disparity information set includes position data of a predetermined pixel position and disparity data of the predetermined pixel position.
  • the predetermined pixel position is arbitrarily set or automatically set by the user's setting operation, and the number thereof is not limited.
  • the predetermined pixel position (x, y) is represented by the origin (0, 0) and coordinates with respect to the image center O. In “Case 4”, the origin (0, 0) is excluded from the definition area of a predetermined pixel position.
  • the position data includes direction data indicating the direction of a predetermined pixel position from the origin (0, 0) and distance data indicating the distance from the origin (0, 0) to the predetermined pixel position. It consists of.
  • the direction of the pixel position (x, y) is selected from preset up and down, left and right, 8 directions between them, and 16 directions including them. That is, the direction data of the pixel position (x, y) is data indicating the direct direction.
  • the distance data (Line) Scale) of the pixel position (x, y) passes through the pixel position (x, y) from the origin (0, 0) as in the case of “Case 1” described above.
  • the ratio to the length of the line segment reaching the end of the region is shown.
  • the distance from the origin (0, 0) to the pixel position (x, y) is L
  • the parallax data of the pixel position (x, y) is a value of parallax information (parallax vector) at a specific display resolution of the pixel position (x, y).
  • the disparity information set creation unit 122 creates the same position data (direction data and distance data) as the above “case 3” as the position data of the predetermined pixel position.
  • the disparity information set creation unit 122 creates disparity information (disparity vector) at a specific display resolution of the pixel position (x, y) as the disparity data of a predetermined pixel position.
  • the specific display resolution is, for example, a full HD resolution of 1920 ⁇ 1080.
  • the disparity information set creation processing procedure in “Case 4” in the disparity information set creation unit 122 is performed in the same manner as the processing procedure shown in the flowchart of FIG. 17 described above, except for the processing of obtaining disparity data in step ST15. That is, in the disparity information set creation processing procedure in “Case 4”, disparity information (disparity vector) at a specific display resolution of coordinates (x, y) is obtained as disparity data of coordinates (x, y).
  • the disparity information set creation unit 122 creates a disparity information set at a predetermined pixel position corresponding to stereoscopic image data of a predetermined program.
  • This disparity information set includes position data of a predetermined pixel position and disparity data of the predetermined pixel position.
  • the predetermined pixel position is arbitrarily set or automatically set by the user's setting operation, and the number thereof is not limited.
  • the predetermined pixel position (x, y) is represented by coordinates with the image center O as the origin (0, 0) in the coordinate mode 0.
  • the predetermined pixel position (x, y) is represented by coordinates with the origin (0, 0) as the top-left of the image in the coordinate mode 1.
  • the position data is obtained from horizontal distance data (Rxa) indicating the horizontal distance from the origin (0, 0) and vertical distance data (Rya) indicating the vertical distance from the origin (0, 0).
  • the horizontal distance data Rxa is indicated as a ratio to the horizontal size of the image.
  • Rxa x / (PH / 2) * 100”.
  • PH represents the horizontal size of the image.
  • the vertical distance data Rya is indicated by a ratio to the vertical size of the image.
  • PV represents the vertical size of the image.
  • the parallax data at the pixel position (x, y) is the value of the parallax information (parallax vector) at a specific display resolution at the pixel position (x, y).
  • the specific display resolution is, for example, a 1920 ⁇ 1080 full HD resolution.
  • a first pixel position where the parallax information value is maximum (Max) and a pixel position (second pixel position) where the parallax information value is minimum (Min) are set.
  • the pixel position where the value of the parallax information is maximum means a position where the image is recognized closest.
  • the pixel position where the value of the parallax information is minimum means a position where the image is recognized the farthest.
  • the receiving side can know the maximum and minimum width of the parallax information value and can adjust the depth of the stereoscopic image.
  • FIG. 18 shows an example of the two-dimensional position (2D Direction) of the first pixel position (x ⁇ , y ⁇ ) and the second pixel position (x ⁇ , y ⁇ ) in the entire image image in the coordinate mode 0.
  • coordinates (x ⁇ , y ⁇ ) and coordinates (x ⁇ , y ⁇ ) indicate the coordinates of each pixel position when the image center O is the origin (0, 0).
  • FIG. 19 shows an example of the two-dimensional position (2D Direction) of the first pixel position (x ⁇ , y ⁇ ) and the second pixel position (x ⁇ , y ⁇ ) in the entire image image in the coordinate mode 1.
  • the coordinates (x ⁇ , y ⁇ ) and the coordinates (x ⁇ , y ⁇ ) indicate the coordinates of each pixel position when the top-left is the origin (0, 0).
  • the position data is composed of the horizontal distance data (Rxa) and the vertical distance data (Rya).
  • the disparity information set creation unit 122 uses, as the disparity data (Disparity) of the first pixel position (x ⁇ , y ⁇ ), disparity information (disparity vector) at the specific display resolution of the first pixel position (x ⁇ , y ⁇ ). )
  • the position data is composed of the horizontal distance data (Rxa) and the vertical distance data (Rya).
  • the disparity information set creation unit 122 uses, as the disparity data (Disparity) of the second pixel position (x ⁇ , y ⁇ ), disparity information (disparity vector) at the specific display resolution of the second pixel position (x ⁇ , y ⁇ ). )
  • the flowchart in FIG. 20 illustrates a processing procedure for creating a disparity information set in “Case 5” in the disparity information set creating unit 122.
  • PV SourcePictureVerticalSize
  • PH SourcePictureHorizontalSize
  • aspect ratio PictureAspectRatio
  • step ST22 the disparity information set creation unit 122 scans the disparity map and marks the value of predetermined disparity information (disparity vector) and its coordinates (x1, y1).
  • the coordinates (x1, y1) are obtained by setting the top-left of the image as the origin (0, 0).
  • step ST23 the parallax information set creation unit 122 converts the coordinates (x1, y1) into coordinates (x, y) having the image center O as the origin (0, 0).
  • step ST24 the disparity information set creation unit 122 obtains horizontal distance data (Rxa) and vertical distance data (Rya) of the pixel position (x, y).
  • Rxa x ⁇ / (PH / 2) * 100”
  • Rya y ⁇ / (PV / 2) * 100”.
  • the disparity information set creation unit 122 obtains disparity data (Disparity) in step ST25.
  • disparity information (disparity vector) at a specific display resolution of coordinates (x, y) is obtained as disparity data (Disparity).
  • the parallax information set creation unit 122 proceeds to the process of step ST26 when the coordinate mode is 1 after the process of step ST22.
  • the coordinates (x1, y1) are used as coordinates (x, y) as they are.
  • the parallax information set creation unit 122 obtains horizontal distance data (Rxa) and vertical distance data (Rya) of the pixel position (x, y).
  • Rxa x ⁇ / (PH) * 100”
  • the disparity information set creation unit 122 obtains disparity data (Disparity) in step ST27.
  • disparity information (disparity vector) at a specific display resolution of coordinates (x, y) is obtained as disparity data (Disparity).
  • the disparity information set creation unit 122 creates a disparity information set at a predetermined pixel position corresponding to stereoscopic image data of a predetermined program.
  • This disparity information set includes position data of a predetermined pixel position and disparity data of the predetermined pixel position.
  • the predetermined pixel position is arbitrarily set or automatically set by the user's setting operation, and the number thereof is not limited.
  • the predetermined pixel position (x, y) is represented by coordinates with the image center O as the origin (0, 0) in the coordinate mode 0.
  • the predetermined pixel position (x, y) is represented by coordinates with the origin (0, 0) as the top-left of the image in the coordinate mode 1.
  • the position data is obtained from horizontal distance data (Rxa) indicating the horizontal distance from the origin (0, 0) and vertical distance data (Rya) indicating the vertical distance from the origin (0, 0).
  • the horizontal distance data Rxa is indicated as a ratio to the horizontal size of the image.
  • Rxa x / (PH / 2) * 100”.
  • PH represents the horizontal size of the image.
  • the vertical distance data Rya is indicated by a ratio to the vertical size of the image.
  • PV represents the vertical size of the image.
  • the disparity information set creation unit 122 creates position data (horizontal distance data and vertical distance data) similar to “Case 5” described above as the position data of a predetermined pixel position. To do. Further, in “Case 6”, the disparity information set creation unit 122, as the disparity data at a predetermined pixel position, data (Relative_Disparity_ratio) indicating the ratio of the disparity information value at the pixel position (x, y) to the horizontal display resolution PH. ).
  • the disparity information set creation processing procedure in “Case 6” in the disparity information set creation unit 122 is the processing procedure shown in the flowchart of FIG. 20 described above except that the contents of the disparity data obtained in step ST25 and step ST27 are different. Done in the same way.
  • FIGS. 27 to 28 show examples of contents of the disparity information set.
  • FIG. 26 and FIG. 29 show main data defining contents (semantics) in the contents example.
  • FIG. 22 shows an example of the content of the disparity information set created in “Case 1” described above.
  • TS Time segment
  • FIG. 23 illustrates an example of the content of the disparity information set created in “Case 2” described above.
  • the content example of the disparity information set in FIG. 23 is the same as the content example of the disparity information set in FIG. 22 described above except that “Disparity_gradient_phai” is replaced with “Disparity”.
  • “Disparity” is 12-bit data indicating the value of disparity information (disparity vector).
  • FIG. 24 shows an example of the content of the disparity information set created in “Case 3” described above.
  • the content example of the disparity information set in FIG. 24 is the same as the content example of the disparity information set in FIG. 22 described above, except that “Zone_idD” and “2D_direction_theta” are replaced with “Direction”.
  • “Direction” is 8-bit data indicating the direction of the pixel position (x, y) from the origin (0, 0).
  • FIG. 25 illustrates an example of the content of the disparity information set created in “Case 4” described above.
  • the content example of the disparity information set in FIG. 25 is the same as the content example of the disparity information set in FIG. 24 described above except that “Disparity_gradient_phai” is replaced with “Disparity”.
  • “Disparity” is 12-bit data indicating the value of disparity information (disparity vector) at the pixel position (x, y).
  • FIG. 27 shows an example of the content of the disparity information set created in “Case 5” described above.
  • TS Time segment
  • “Relative_x” is 11-bit data indicating the horizontal distance (Rxa) from the origin (0, 0) to the pixel position (x, y). This horizontal distance (Rxa) is indicated by a ratio to the horizontal size of the image.
  • “Relative_y” is 11-bit data indicating the vertical distance (Rya) from the origin (0, 0) to the pixel position (x, y). This vertical distance (Rya) is expressed as a ratio to the vertical size of the image.
  • “Disparity” is 12-bit data indicating the value of disparity information (disparity vector) at the pixel position (x, y).
  • FIG. 28 shows an example of the content of the disparity information set created in “Case 6” described above.
  • the content example of the disparity information set in FIG. 28 is the same as the content example of the disparity information set in FIG. 27 described above except that “Disparity” is replaced with “Relative_Disparity_ratio”.
  • “Relative_Disparity_ratio” is 12-bit data indicating the ratio of the value of the disparity information (disparity vector) at the pixel position (x, y) to the horizontal resolution PH.
  • FIGS. 30 to 35 show an example of a descriptor (z-OSDOSDescriptor) including the disparity information set created by the disparity information set creation unit 122 in “Case 1” to “Case 6” described above.
  • “Descriptor_tag” is 8-bit data indicating the type of descriptor.
  • a descriptor (z-OSDzDescriptor) including a disparity information set is indicated.
  • “Descriptor_length” is 8-bit data indicating the length (size) of this information. The disparity information set described above is inserted as information on this descriptor.
  • FIGS. 30 to 35 show descriptors (z-OSDscriptDescriptors) including the disparity information sets created in “Case 1” to “Case 6” described above, respectively.
  • the bit stream data BSD output from the multiplexer 126 includes the stereoscopic image data of the predetermined program having the left eye image data and the right eye image data, and the stereoscopic image data of the predetermined program.
  • a disparity information set corresponding to a predetermined pixel position is included. Therefore, on the receiving side, parallax adjustment is performed according to the perspective of each object in the image as superimposition information superimposed on the left eye image and the right eye image, for example, graphics information such as OSD, by using the parallax information set. What was given can be used. Thereby, for example, in the display of graphics information such as OSD, it is possible to maintain perspective consistency with each object in the image.
  • the disparity information set included in the bit stream data BSD output from the multiplexer 122 includes position data indicating a relative position of the predetermined pixel position with respect to the entire image, And parallax data of a predetermined pixel position. Therefore, the parallax information set is independent of the resolution of the stereoscopic image and also independent of the display resolution and monitor size of the monitor. Therefore, parallax adjustment can be easily performed using the parallax information set on the receiving side regardless of the display resolution and monitor size of the monitor.
  • the set-top box 200 receives bit stream data (transport stream) BSD transmitted from the broadcast station 100 on broadcast waves.
  • the bit stream data BSD includes stereoscopic image data including left eye image data and right eye image data, audio data, and a disparity information set.
  • the set top box 200 has a bit stream processing unit 201.
  • the bit stream processing unit 201 extracts stereoscopic image data, audio data, a disparity information set, and the like from the bit stream data.
  • the bit stream processing unit 201 appropriately generates left eye image data and right eye image data on which graphics information such as OSD is superimposed.
  • graphics information such as OSD is superimposed.
  • parallax is given between the left-eye graphics information superimposed on the left-eye image and the right-eye graphics information superimposed on the right-eye image.
  • the user can recognize the graphics information superimposed on the stereoscopic image, for example, in front of the image. .
  • FIG. 36 shows a configuration example of the set top box 200.
  • the set top box 200 includes a bit stream processing unit 201, an HDMI terminal 202, an antenna terminal 203, a digital tuner 204, a video processing circuit 205, an HDMI transmission unit 206, and an audio processing circuit 207.
  • the set top box 200 includes a CPU 211, a flash ROM 212, a DRAM 213, an internal bus 214, a remote control receiving unit 215, and a remote control transmitter 216.
  • the antenna terminal 203 is a terminal for inputting a television broadcast signal received by a receiving antenna (not shown).
  • the digital tuner 204 processes the television broadcast signal input to the antenna terminal 203 and outputs predetermined bit stream data (transport stream) BSD corresponding to the user's selected channel.
  • the bit stream processing unit 201 extracts and outputs stereoscopic image data, audio data, and the like from the bit stream data BSD.
  • the bit stream processing unit 201 appropriately synthesizes display data of graphics information such as OSD with stereoscopic image data.
  • the bit stream processing unit 201 assigns parallax between the left-eye graphics information superimposed on the left-eye image and the right-eye graphics information superimposed on the right-eye image based on the disparity information set.
  • the video processing circuit 205 performs image quality adjustment processing on the stereoscopic image data output from the bit stream processing unit 201 as necessary, and supplies the processed stereoscopic image data to the HDMI transmission unit 206.
  • the audio processing circuit 207 performs a sound quality adjustment process or the like on the audio data output from the bit stream processing unit 201 as necessary, and supplies the processed audio data to the HDMI transmission unit 206.
  • the HDMI transmitting unit 206 transmits, for example, uncompressed image data and audio data from the HDMI terminal 202 by communication conforming to HDMI.
  • image data and audio data are packed and transmitted from the HDMI transmission unit 206 to the HDMI terminal 202 for transmission via the HDMI TMDS channel.
  • the CPU 211 controls the operation of each part of the set top box 200.
  • the flash ROM 212 stores control software and data.
  • the DRAM 213 constitutes a work area for the CPU 211.
  • the CPU 211 develops software and data read from the flash ROM 212 on the DRAM 213 to activate the software, and controls each part of the set top box 200.
  • the remote control receiving unit 215 receives the remote control signal (remote control code) transmitted from the remote control transmitter 216 and supplies it to the CPU 211.
  • the CPU 211 controls each part of the set top box 200 based on the remote control code.
  • the CPU 211, flash ROM 212 and DRAM 213 are connected to the internal bus 214.
  • the bit stream processing unit 201 includes a demultiplexer 220, a video decoder 221, an audio decoder 224, an OSD display data generation unit 226, and a video superimposition unit 228.
  • the demultiplexer 220 extracts video and audio packets from the bit stream data BSD and sends them to each decoder. Further, the demultiplexer 220 extracts a disparity information set from the bit stream data BSD, and sends it to the OSD display data generation unit 226 and the HDMI transmission unit 206 described above.
  • the video decoder 221 reconstructs a video elementary stream from the video packet extracted by the demultiplexer 220, performs decoding processing, and obtains stereoscopic image data including left-eye image data and right-eye image data.
  • the audio decoder 224 reconstructs an audio elementary stream from the audio packet extracted by the demultiplexer 220, performs decoding processing, obtains audio data, and outputs the audio data to the outside of the bit stream processing unit 201.
  • the OSD display data generation unit 226 generates left-eye graphics information data corresponding to left-eye image data included in stereoscopic image data and right-eye graphics information data corresponding to right-eye image data included in stereoscopic image data. . In this case, the OSD display data generation unit 226 gives disparity between the left eye graphics information and the right eye graphics information based on the disparity information set extracted by the demultiplexer 220.
  • the OSD display data generation unit 226 determines the position in the image region to which the disparity information set corresponds based on the position data and the disparity data included in the disparity information set, by processing opposite to the processing on the transmission side. Further, the parallax information value at that position is reproduced.
  • the video superimposing unit 228 uses the left eye and left eye graphics information data generated by the OSD display data generating unit 226 for the stereoscopic image data (left eye image data and right eye image data) obtained by the video decoder 221. To obtain stereoscopic image data for display.
  • the video superimposing unit 228 outputs the stereoscopic image data for display to the outside of the bit stream processing unit 201D.
  • a television broadcast signal input to the antenna terminal 203 is supplied to the digital tuner 204.
  • the digital tuner 204 processes the television broadcast signal and outputs predetermined bit stream data (transport stream) BSD corresponding to the user's selected channel.
  • the bit stream data BSD output from the digital tuner 204 is supplied to the bit stream processing unit 201.
  • stereoscopic image data, audio data, a disparity information set, and the like are extracted from the bit stream data BSD.
  • display data of graphics information such as OSD is appropriately combined with the stereoscopic image data.
  • the bit stream processing unit 201 assigns parallax between the left-eye graphics information superimposed on the left-eye image and the right-eye graphics information superimposed on the right-eye image based on the parallax information set. This makes it possible to maintain the perspective consistency with each object in the image in the optimum state with respect to the graphics information superimposed and displayed on the stereoscopic image.
  • the stereoscopic image data for display obtained by the bit stream processing unit 201 is supplied to the video processing circuit 205.
  • image quality adjustment processing or the like is performed on the display stereoscopic image data as necessary.
  • the processed stereoscopic image data output from the video processing circuit 205 is supplied to the HDMI transmission unit 206.
  • the audio data obtained by the bit stream processing unit 201 is supplied to the audio processing circuit 207.
  • the sound processing circuit 207 processing such as sound quality adjustment processing is performed on the sound data as necessary.
  • the processed audio data output from the audio processing circuit 207 is supplied to the HDMI transmission unit 206.
  • the stereoscopic image data and audio data supplied to the HDMI transmission unit 206 are transmitted from the HDMI terminal 202 to the HDMI cable 400 via the HDMI TMDS channel.
  • the television receiver 300 receives stereoscopic image data sent from the set top box 200 via the HDMI cable 400.
  • the television receiver 300 includes a 3D signal processing unit 301.
  • the 3D signal processing unit 301 performs processing (decoding processing) corresponding to the transmission method on the stereoscopic image data to generate left-eye image data and right-eye image data.
  • the 3D signal processing unit 301 acquires left-eye image data and right-eye image data that form stereoscopic image data.
  • FIG. 37 shows a configuration example of the television receiver 300.
  • the television receiver 300 includes a 3D signal processing unit 301, an HDMI terminal 302, an HDMI receiving unit 303, an antenna terminal 304, a digital tuner 305, and a bit stream processing unit 306.
  • the television receiver 300 also includes an OSD display data generation unit 313, a video superimposition unit 314, a video processing circuit 307, a panel drive circuit 308, a display panel 309, an audio processing circuit 310, and an audio amplification circuit 311. And a speaker 312.
  • the television receiver 300 includes a CPU 321, a flash ROM 322, a DRAM 323, an internal bus 324, a remote control receiving unit 325, and a remote control transmitter 326.
  • the antenna terminal 304 is a terminal for inputting a television broadcast signal received by a receiving antenna (not shown).
  • the digital tuner 305 processes the television broadcast signal input to the antenna terminal 304 and outputs predetermined bit stream data (transport stream) corresponding to the user's selected channel.
  • the bit stream processing unit 306 has the same configuration as the bit stream processing unit 201 of the set top box 200 shown in FIG.
  • the bit stream processing unit 306 extracts stereoscopic image data (left eye image data, right eye image data), audio data, a parallax information set, and the like from the bit stream data.
  • the HDMI receiving unit 303 receives uncompressed image data and audio data supplied to the HDMI terminal 302 via the HDMI cable 400 by communication conforming to HDMI.
  • the HDMI receiving unit 303 has a version of, for example, HDMI 1.4, and can handle stereoscopic image data. Details of the HDMI receiving unit 303 will be described later.
  • the 3D signal processing unit 301 performs decoding processing on the stereoscopic image data received by the HDMI receiving unit 303 or obtained by the bit stream processing unit 306 to generate left eye image data and right eye image data. To do. In this case, the 3D signal processing unit 301 performs a decoding process corresponding to the transmission method format on the stereoscopic image data obtained by the bit stream processing unit 306. Further, the 3D signal processing unit 301 performs a decoding process corresponding to a TMDS transmission data structure described later on the stereoscopic image data received by the HDMI receiving unit 303.
  • the OSD display data generation unit 313 generates left-eye graphics information data corresponding to left-eye image data included in stereoscopic image data and right-eye graphics information data corresponding to right-eye image data included in stereoscopic image data. .
  • This graphics information is superimposition information for OSD display such as menus and program guides.
  • the OSD display data generation unit 313 performs the interval between the left eye graphics information and the right eye graphics information based on the disparity information set obtained by the bit stream processing unit 306 or received by the HDMI receiving unit 303. Add parallax.
  • the OSD display data generation unit 313 determines the position in the image area to which the disparity information set corresponds based on the position data and the disparity data included in the disparity information set, by a process opposite to the process on the transmission side. Further, the value of the parallax information at that position is obtained.
  • the video superimposing unit 314 performs left eye and left eye graphics information generated by the OSD display data generating unit 313 on the stereoscopic image data (left eye image data and right eye image data) obtained by the 3D signal processing unit 301. Are superimposed on each other to obtain display stereoscopic image data.
  • the video processing circuit 307 generates image data for displaying a stereoscopic image based on the left eye image data and the right eye image data generated by the 3D signal processing unit 301.
  • the video processing circuit 307 performs image quality adjustment processing on the image data as necessary.
  • the panel drive circuit 308 drives the display panel 309 based on the image data output from the video processing circuit 307.
  • the display panel 309 includes, for example, an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), and the like.
  • the audio processing circuit 310 performs necessary processing such as D / A conversion on the audio data received by the HDMI receiving unit 303 or obtained by the bit stream processing unit 306.
  • the audio amplifier circuit 311 amplifies the audio signal output from the audio processing circuit 310 and supplies it to the speaker 312.
  • the CPU 321 controls the operation of each unit of the television receiver 300.
  • the flash ROM 322 stores control software and data.
  • the DRAM 323 constitutes a work area for the CPU 321.
  • the CPU 321 develops software and data read from the flash ROM 322 on the DRAM 323 to activate the software, and controls each unit of the television receiver 300.
  • the remote control receiving unit 325 receives the remote control signal (remote control code) transmitted from the remote control transmitter 326 and supplies it to the CPU 321.
  • the CPU 321 controls each part of the television receiver 300 based on the remote control code.
  • the CPU 321, flash ROM 322, and DRAM 323 are connected to the internal bus 324.
  • the HDMI receiving unit 303 receives stereoscopic image data and audio data transmitted from the set top box 200 connected to the HDMI terminal 302 via the HDMI cable 400.
  • the stereoscopic image data received by the HDMI receiving unit 303 is supplied to the 3D signal processing unit 301.
  • the audio data received by the HDMI receiving unit 303 is supplied to the audio processing circuit 310.
  • the TV broadcast signal input to the antenna terminal 304 is supplied to the digital tuner 305.
  • the digital tuner 305 processes the television broadcast signal and outputs predetermined bit stream data (transport stream) corresponding to the user's selected channel.
  • the bit stream data output from the digital tuner 305 is supplied to the bit stream processing unit 306.
  • the bit stream processing unit 306 extracts stereoscopic image data (left eye image data, right eye image data), audio data, a disparity information set, and the like from the bit stream data.
  • the stereoscopic image data obtained by the bit stream processing unit 306 is supplied to the 3D signal processing unit 301.
  • the audio data obtained by the bit stream processing unit 306 is supplied to the audio processing circuit 310.
  • the 3D signal processing unit 301 performs decoding processing on the stereoscopic image data received by the HDMI receiving unit 303 or obtained by the bit stream processing unit 306 to generate left eye image data and right eye image data. Is done.
  • the left eye image data and right eye image data are supplied to the video superimposing unit 314.
  • the OSD display data generation unit 313 generates left-eye graphics information data corresponding to left-eye image data included in stereoscopic image data and right-eye graphics information data corresponding to right-eye image data included in stereoscopic image data.
  • the stereoscopic image data (left-eye image data, right-eye image data) obtained by the 3D signal processing unit 301.
  • This display stereoscopic image data is supplied to the video processing circuit 307.
  • image data for displaying a stereoscopic image is generated based on the left eye image data and the right eye image data, and image quality adjustment processing is also performed as necessary.
  • Image data obtained by the video processing circuit 307 is supplied to the panel drive circuit 308. Therefore, a stereoscopic image is displayed on the display panel 309.
  • the left eye image based on the left eye image data and the right eye image based on the right eye image data are alternately displayed on the display panel 309 in a time division manner.
  • the viewer can see only the left-eye image with the left eye and the right eye with the right eye by wearing shutter glasses that alternately open the left-eye shutter and the right-eye shutter in synchronization with the display on the display panel 309. Only images can be seen, and stereoscopic images can be perceived.
  • the audio processing circuit 310 necessary processing such as D / A conversion is performed on the audio data received by the HDMI receiving unit 303 or obtained by the bit stream processing unit 306.
  • the audio data is amplified by the audio amplification circuit 311 and then supplied to the speaker 312. Therefore, sound corresponding to the display image on the display panel 309 is output from the speaker 312.
  • the disparity information set includes tangent data (tan ⁇ ) and zone identifier (Zone_id) constituting the direction data.
  • the disparity information set includes distance data (Line (Scale) and disparity data (Disparity Gradient: tan ⁇ ).
  • step ST41 the OSD display data generation unit 313 determines the configuration of the display image (vertical and horizontal resolution, inter-pixel distance), and investigates the image center O and the distance from the image center O to the end in terms of the number of pixels. .
  • the OSD display data generating unit 313 confirms in which quadrant the position is in the zone identifier (Zone_id), and extends from the image center O with the tangent data (tan ⁇ ) as shown in FIG. Find the slope of the straight line “direction line”. Also, the OSD display data generation unit 313 calculates the distances L ⁇ (OA) and L ⁇ (OB) from the distance data (Line Scale) and the length to the display end point of the line “direction ⁇ line ”as shown in FIG. Ask. As a result, the OSD display data generation unit 313 recognizes the position (x ⁇ , y ⁇ ) with the largest parallax information value and the position (x ⁇ , y ⁇ ) with the smallest parallax information value.
  • step ST43 the OSD display data generation unit 313 uses the parallax data (tan ⁇ , tan ⁇ ) and the distances L ⁇ (OA), L ⁇ (OB), as shown in FIG. , D ⁇ is reproduced.
  • the disparity information set includes coordinate mode data, horizontal distance data Rxa, vertical distance data Rya, and disparity data (Relative_Disparity_ratio).
  • step ST51 the OSD display data generation unit 313 determines the configuration of the display image (vertical and horizontal resolution, inter-pixel distance). Then, if the coordinate mode is 1, the OSD display data generation unit 313 calculates a relative position from the upper left end in a two-dimensional plane (see FIG. 19). On the other hand, if the coordinate mode is 0, the OSD display data generation unit 313 calculates the distance from the image center O to the end in terms of the number of pixels and specifies the device position (see FIG. 18).
  • step ST52 the OSD display data generation unit 313 obtains a parallax shift position from the distance data Rxa and Rya and the parallax data (Relative_Disparity_ratio), reproduces the parallax amount, and assigns it to the display plane.
  • the relationship between the disparity information and the position depending on the monitor size will be described.
  • a small size monitor and a large size monitor are considered. If the resolutions of these monitors are the same, the pixel (pixel) interval of the small monitor is narrow and the pixel (pixel) interval of the large monitor is wide.
  • the disparity information position is appropriately obtained on the display monitor.
  • the received parallax information value is converted into an appropriate parallax information value that matches the depth of the stereoscopic image on the display monitor.
  • the relationship between the disparity information due to the difference in resolution and its position will be described.
  • a high resolution monitor and a low resolution monitor are considered. If the sizes of these monitors are the same, the pixel interval between the high resolution monitors is narrow, and the pixel interval between the low resolution monitors is wide.
  • the disparity information position is appropriately obtained on the display monitor. Then, the received parallax information value is converted into an appropriate parallax information value that matches the depth of the stereoscopic image on the display monitor.
  • the calculated disparity information position or disparity information value may be decimal.
  • the OSD display data generation unit 226 performs shift adjustment for providing a parallax based on the parallax information between the left-eye graphics information superimposed on the left-eye image and the right-eye graphics information superimposed on the right-eye image. Interpolation processing is used. As a result, shift adjustment with subpixel accuracy can be performed.
  • FIG. 44 schematically shows an example of interpolation processing in the case of shifting by 1/2 pixel (pixel) in the horizontal direction.
  • the black circles in FIG. 44 (a) indicate received data.
  • the white circles in FIG. 44B indicate a state where the received data is simply shifted by 1 ⁇ 2 pixel in the horizontal direction.
  • the shift adjustment unit 225 performs interpolation processing on the data indicated by the white circles, generates data at the pixel positions indicated by the hatched circles in FIG. 44B, and sets the data after the shift adjustment.
  • FIG. 45 illustrates a configuration example of the HDMI transmission unit (HDMI source) 206 of the set-top box 200 and the HDMI reception unit (HDMI sink) 303 of the television receiver 300 in the stereoscopic image display system 10 of FIG.
  • the HDMI transmission unit 206 transmits, in a plurality of channels, a differential signal corresponding to pixel data of an uncompressed image for one screen in an effective image section (hereinafter, also referred to as an active video section as appropriate) using a plurality of channels.
  • the effective image section is a section obtained by removing the horizontal blanking section and the vertical blanking section from the section from one vertical synchronization signal to the next vertical synchronization signal.
  • the HDMI transmission unit 206 receives at least a plurality of channels of differential signals corresponding to audio data, control data, and other auxiliary data associated with an image in a horizontal blanking interval or a vertical blanking interval. Transmit to the unit 303 in one direction.
  • the transmission channels of the HDMI system including the HDMI transmission unit 206 and the HDMI reception unit 303 include the following transmission channels. That is, three TMDS channels # 0 to ## as transmission channels for serially transmitting pixel data and audio data in one direction in synchronization with the pixel clock from the HDMI transmission unit 206 to the HDMI reception unit 303. There are two. There is also a TMDS clock channel as a transmission channel for transmitting a pixel clock.
  • the HDMI transmission unit 206 includes an HDMI transmitter 81.
  • the transmitter 81 converts, for example, pixel data of an uncompressed image into a corresponding differential signal, and is connected via the HDMI cable 400 with three TMDS channels # 0, # 1, and # 2 that are a plurality of channels. Serial transmission in one direction to the HDMI receiving unit 303.
  • the transmitter 81 converts audio data accompanying uncompressed images, further necessary control data and other auxiliary data, etc. into corresponding differential signals, and converts them into three TMDS channels # 0, # 1, #. 2 serially transmits to the HDMI receiving unit 303 in one direction.
  • the transmitter 81 transmits the pixel clock synchronized with the pixel data transmitted through the three TMDS channels # 0, # 1, and # 2 to the HDMI receiving unit 303 connected via the HDMI cable 400 using the TMDS clock channel. Send.
  • the HDMI receiving unit 303 receives a differential signal corresponding to the pixel data transmitted from the HDMI transmitting unit 206 in one direction through a plurality of channels in the active video section. Further, the HDMI receiving unit 303 receives differential signals corresponding to audio data and control data transmitted in one direction from the HDMI transmitting unit 206 through a plurality of channels in a horizontal blanking interval or a vertical blanking interval. Receive.
  • the HDMI receiving unit 303 has an HDMI receiver 82.
  • This HDMI receiver 82 uses TMDS channels # 0, # 1, and # 2 to transmit a differential signal corresponding to pixel data and a difference corresponding to audio data and control data transmitted from the HDMI transmission unit 206 in one direction. Receive a motion signal. In this case, reception is performed in synchronization with the pixel clock transmitted from the HDMI transmission unit 206 via the TMDS clock channel.
  • the transmission channels of the HDMI system include transmission channels called DDC (Display Data Channel) 83 and CEC line 84 in addition to the above-described TMDS channels # 0 to # 2 and the TMDS clock channel.
  • the DDC 83 includes two signal lines (not shown) included in the HDMI cable 400.
  • the DDC 83 is used by the HDMI transmitting unit 206 to read E-EDID (Enhanced Extended Display Identification Data) from the HDMI receiving unit 303.
  • E-EDID Enhanced Extended Display Identification Data
  • the HDMI receiving unit 303 has an EDID ROM (Read Only Memory) 85 that stores E-EDID that is performance information related to its own performance (Configuration / capability). .
  • the HDMI transmission unit 206 reads the E-EDID from the HDMI reception unit 303 connected via the HDMI cable 400 via the DDC 83.
  • the HDMI transmission unit 206 sends the read E-EDID to the CPU 211.
  • the CPU 211 stores this E-EDID in the flash ROM 212 or the DRAM 213.
  • the CPU 211 can recognize the performance setting of the HDMI receiving unit 303 based on the E-EDID. For example, the CPU 211 recognizes whether or not the television receiver 300 having the HDMI receiving unit 303 can handle stereoscopic image data, and if so, what kind of TMDS transmission data structure can be supported.
  • the CEC line 84 is made up of one signal line (not shown) included in the HDMI cable 400, and is used for bidirectional communication of control data between the HDMI transmission unit 206 and the HDMI reception unit 303.
  • the CEC line 84 constitutes a control data line.
  • the HDMI cable 400 includes a line (HPD line) 86 connected to a pin called HPD (Hot Plug Detect).
  • HPD line 86 is also used as a HEAC-line constituting a bidirectional communication path.
  • the HDMI cable 400 includes a line (power line) 87 used for supplying power from the source device to the sink device.
  • the HDMI cable 400 includes a utility line 88.
  • the utility line 88 is also used as a HEAC + line constituting a bidirectional communication path.
  • FIG. 46 shows an example of the structure of TMDS transmission data.
  • FIG. 46 shows sections of various transmission data when image data of horizontal ⁇ vertical 1920 pixels ⁇ 1080 lines is transmitted in TMDS channels # 0, # 1, and # 2.
  • Video Field In a video field (Video Field) in which transmission data is transmitted through the three TMDS channels # 0, # 1, and # 2 of HDMI, there are three types of sections according to the type of transmission data. These three types of sections are a video data period (Video Data period), a data island period (Data Islandperiod), and a control period (Control period).
  • the video field period is a period from a rising edge (active edge) of a certain vertical synchronizing signal to a rising edge of the next vertical synchronizing signal.
  • This video field period is divided into a horizontal blanking period (horizontal blanking), a vertical blanking period (verticalblanking), and an active video period (Active Video).
  • This active video section is a section obtained by removing the horizontal blanking period and the vertical blanking period from the video field section.
  • the video data section is assigned to the active video section.
  • 1920 pixels (pixels) ⁇ 1080 lines of effective pixel (Active pixel) data constituting uncompressed image data for one screen is transmitted.
  • Data island section and control section are assigned to horizontal blanking period and vertical blanking period.
  • auxiliary data (Auxiliary data) is transmitted. That is, the data island period is assigned to a part of the horizontal blanking period and the vertical blanking period.
  • audio data packets which are data not related to control, of auxiliary data are transmitted.
  • the control section is assigned to other parts of the horizontal blanking period and the vertical blanking period.
  • this control period for example, vertical synchronization signals, horizontal synchronization signals, control packets, and the like, which are data related to control, of auxiliary data are transmitted.
  • FIG. 47 shows an example of the pin arrangement of the HDMI terminal.
  • the pin arrangement shown in FIG. 47 is called type A (type-A).
  • TMDS Data # i + and TMDS Data # i ⁇ which are differential signals of TMDS channel #i, are transmitted by two lines which are differential lines. These two lines consist of pins assigned TMDS Data # i + (pin numbers 1, 4, and 7) and pins assigned TMDS Data # i- (pin numbers 3, 6, and 7). 9 pin).
  • the CEC line 84 through which the CEC signal, which is control data, is transmitted is connected to a pin whose pin number is 13.
  • a line for transmitting an SDA (Serial Data) signal such as E-EDID is connected to a pin having a pin number of 16.
  • a line for transmitting an SCL (Serial Clock) signal, which is a clock signal used for synchronization at the time of transmission / reception of the SDA signal, is connected to a pin having a pin number of 15.
  • the above-described DDC 83 includes a line for transmitting the SDA signal and a line for transmitting the SCL signal.
  • the HPD line (HEAC-line) 86 for the source device to detect the connection of the sink device is connected to a pin having a pin number of 19.
  • the utility line (HEAC + line) 88 is connected to a pin having a pin number of 14.
  • the line 87 for supplying power is connected to a pin having a pin number of 18.
  • the HDMI transmission unit 206 receives the E-EDID from the HDMI reception unit 303 connected via the HDMI cable 400 in response to a request from the CPU 211 (see FIG. 36) via the DDC 83, for example. Read out. Then, based on this E-EDID, the CPU 211 recognizes the setting of the performance of the HDMI receiving unit 303, for example, whether or not stereoscopic image data can be handled.
  • FIG. 48 shows an example of the data structure of E-EDID.
  • This E-EDID is composed of a basic block and an extended block.
  • data defined in the E-EDID1.3 standard represented by “E-EDID1.3 Basic Structure” is arranged at the head.
  • timing information for maintaining compatibility with the conventional EDID represented by “Preferred timing” is arranged.
  • timing information different from “Preferredtiming” for maintaining compatibility with the conventional EDID represented by “2nd timing” is arranged.
  • information indicating the name of the display device represented by “Monitor NAME” is arranged after “2nd timing”.
  • information indicating the number of displayable pixels when the aspect ratio is 4: 3 and 16: 9, which is expressed by “Monitor Range Limits”, is subsequently arranged.
  • “Short Video Descriptor” is placed at the beginning of the extension block. This is information indicating the image size (resolution) that can be displayed, the frame rate, and whether it is interlaced or progressive. Subsequently, “Short Audio Descriptor” is arranged. This is information such as a reproducible audio codec system, a sampling frequency, a cutoff band, and the number of codec bits. Subsequently, information on left and right speakers represented by “Speaker Allocation” is arranged.
  • “Speaker Allocation” is followed by data uniquely defined for each manufacturer represented by “Vender Specific”. Subsequently, timing information for maintaining compatibility with the conventional EDID represented by “3rd timing” is arranged in the extension block. In the extended block, subsequently, timing information for maintaining compatibility with the conventional EDID represented by “4th timing” is arranged.
  • Vender Specific area 49 shows an example of the data structure of a Vender Specific area (HDMI Vendor Specific Data Block).
  • Vender Specific area a 0th block to an Nth block, which are 1-byte blocks, are provided.
  • information indicating the number “0x000C03” registered for HDMI (R) represented by “24bit IEEE Registration Identifier (0x000C03) LSB first” is arranged.
  • information indicating the physical address of the 24-bit sink device represented by “A”, “B”, “C”, and “D” is arranged.
  • a flag indicating a function supported by the sink device which is represented by “Supports-AI”, is arranged.
  • information specifying the number of bits per pixel represented by “DC-48 bit”, “DC-36 bit”, and “DC-30 bit” is arranged.
  • DVI Digital Visual Interface
  • the seventh block information indicating the maximum frequency of the TMDS pixel clock represented by “Max-TMDS-Clock” is arranged.
  • a flag indicating the presence / absence of video and audio delay information represented by “Latency” is arranged in the sixth and seventh bits of the eighth block.
  • a flag indicating whether or not the additional HDMI video format (3D, 4k ⁇ 2k) represented by “HDMI_Video_present” can be handled is arranged in the fifth bit of the eighth block.
  • the delay time data of progressive video represented by “Video Latency” is arranged in the ninth block, and the audio accompanying the progressive video represented by “Audio Latency” is arranged in the tenth block.
  • the delay time data is arranged.
  • delay time data of an interlaced video represented by “Interlaced Video Latency” is arranged.
  • audio delay time data associated with interlaced video represented by “Interlaced Audio Latency” is arranged.
  • a flag indicating whether or not 3D image data represented by “3D_present” can be handled is arranged in the seventh bit of the thirteenth block.
  • the 7th to 5th bits of the 14th block in addition to the mandatory 3D data structure represented by “HDMI_VIC_LEN”, which is arranged after the 15th block (not shown), it can be handled.
  • the block size information indicating Also, in the 4th to 0th bits of the 14th block, there is block size information indicating a 4k ⁇ 2k video format that can be handled after the 15th block (not shown) represented by “HDMI_3D_LEN”. Has been placed.
  • FIG. 50 shows a 3D video format (Frame Packing) 3D video format, which is one of the TMDS transmission data structures of stereoscopic image data.
  • This 3D video format is a format for transmitting progressive left-eye (L) and right-eye (R) image data as stereoscopic image data.
  • image data of 1920 ⁇ 1080p, 1080 ⁇ 720p pixel format is transmitted as image data of the left eye (L) and right eye (R).
  • FIG. 50 shows an example in which the left eye (L) image data and the right eye (R) image data are 1920 lines ⁇ 1080 pixels, respectively.
  • transmission data is generated in units of a video field section including a horizontal blanking period (Hblank), a vertical blanking period (Vblank), and an active video section (Hactive ⁇ Vactive) divided by a vertical synchronization signal. Is done.
  • the active video section has two active video areas (Active video) and one active space area (Activespace) between them. Left eye (L) image data is arranged in the first active video area, and right eye (R) image data is arranged in the second active video area.
  • HDMI 1.4 defines a 3D video format as a TMDS transmission data structure of stereoscopic image data in addition to the 3D video format shown in FIG.
  • a line alternative method a side-bay-side (full) method, a frame packing (for packing interlaced format) method, or the like.
  • the television receiver 300 is configured to transmit baseband stereoscopic image data and audio data to the television receiver 300 through the HDMI interface. Then, all or a part of the disparity information set used in the bit stream processing unit 201 is transmitted from the set top box 200 to the television receiver 300 through the HDMI interface.
  • the disparity information set is supplied from the bit stream processing unit 201 to the HDMI transmission unit 206 in the set top box 200 shown in FIG. Then, the disparity information set is transmitted from the HDMI terminal 202 to the HDMI cable 400 together with the stereoscopic image data and the audio data by the HDMI transmitting unit 206.
  • the disparity information set received by the HDMI receiving unit 303 is supplied to the OSD display data generating unit 313 and used as described above.
  • 3D_Metadata_type is defined as unused, for example, “010”, and information on a disparity information set (Disparrity Set) is designated.
  • FIG. 51 shows a packet structure of HDMI “Vendor” Specific “InfoFrame”. Since this HDMI Vendor Specific InfoFrame is defined in CEA-861-D, detailed description is omitted.
  • 3 bits information “HDMI_Video_Format” indicating the type of image data is arranged from the 7th bit to the 5th bit of the 4th byte (PB4).
  • the 3-bit information is “010”.
  • 4-bit information “3D_Structure” indicating the TMDS transmission data structure is arranged from the 7th bit to the 4th bit of the 5th byte (PB5). For example, in the case of the frame packing method (see FIG. 50), this 4-bit information is “0000”.
  • 3D_Meta_present is arranged in the third bit of the fifth byte (PB5) and Vendor Specific InfoFrame extension is specified, this one bit is set to “1”. Further, “3D_Metadata_type” is arranged from the 7th bit to the 5th bit of the 7th byte (PB7). When information of a disparity information set (DisparritySet) is specified, this 3-bit information is unused, for example, “010”.
  • 3D_Metadata_length is arranged from the 4th byte to the 0th byte of the 7th byte (PB7).
  • This 5-bit information indicates the length of the 3D_Metadata area to be arranged thereafter.
  • ActiveSpaceEnable is defined in the second bit of the fifth byte (PB5) which is currently reserved bit, as shown in FIG. 52, which shows the packet structure of HDMI “Vendor” specific “InfoFrame”. Information is set to “1”.
  • an information area is newly defined using an active space area that is currently reserved, and a disparity information set is arranged there.
  • the active space area constitutes an active video section together with the active video area where the left eye image data and the right eye image data are arranged.
  • the active video area constitutes a main video area
  • the active space area constitutes an auxiliary video area.
  • the active space area varies depending on the image size of the video, but in the case of an image size of 1920 ⁇ 1080, it has a capacity of 45 lines (86400 bytes) per frame.
  • FIG. 53 illustrates an example of arrangement of disparity information sets in the active space area.
  • 3-bit “Active_space_info_Type”, 3-bit “Block_Size”, and 2-bit “Connect_Info” information are arranged.
  • upper 8 bits and lower 8 bits of 16-bit “Data_Length” indicating the length of an area in which the subsequent disparity information sets are arranged are arranged.
  • a predetermined program having left-eye image data and right-eye image data from the broadcasting station 100 (transmission data generation unit 201) to the set-top box 200 or the television receiver 300.
  • a parallax information set at a predetermined pixel position corresponding to the stereoscopic image data of the predetermined program is transmitted together with the stereoscopic image data. Therefore, on the receiving side, by using this parallax information set, parallax adjustment is performed according to the perspective of each object in the image as superimposition information superimposed on the left eye image and the right eye image, for example, graphics information such as OSD. What was given can be used. Thereby, for example, in the display of graphics information such as OSD, it is possible to maintain perspective consistency with each object in the image.
  • the disparity information set transmitted from the broadcast station 100 (transmission data generation unit 201) to the set top box 200 or the television receiver 300 is relative to the entire image at a predetermined pixel position.
  • the position data indicating the position and the parallax data of the predetermined pixel position are included. Therefore, the parallax information set is independent of the resolution of the stereoscopic image and also independent of the display resolution and monitor size of the monitor. Therefore, parallax adjustment can be easily performed using the parallax information set on the receiving side regardless of the display resolution and monitor size of the monitor.
  • a set of stereoscopic image data of a predetermined program and a disparity information set corresponding to a predetermined pixel position are transmitted from the set top box 200 to the television receiver 300 via the HDMI cable 400.
  • Sent. therefore, by using the parallax information set in the image display device in the television receiver 300, the perspective of each object in the image as superimposition information to be superimposed on the left eye image and the right eye image, for example, graphics information such as OSD.
  • graphics information such as OSD.
  • the stereoscopic image display system 10 includes the broadcasting station 100, the set top box 200, and the television receiver 300.
  • the television receiver 300 includes a bit stream processing unit 306 that functions in the same manner as the bit stream processing unit 201 in the set-top box 200, as shown in FIG. Therefore, as shown in FIG. 55, a stereoscopic image display system 10A including a broadcasting station 100 and a television receiver 300 is also conceivable.
  • FIG. 56 shows a configuration example of the transport stream (bit stream data) in that case.
  • metadata z-OSD metadata
  • the metadata is embedded as user data.
  • FIG. 57 schematically shows a structural example of a video elementary stream (Video Elementary Stream).
  • a sequence header portion including parameters in sequence units is arranged at the head.
  • a picture header including parameters and user data in units of pictures is arranged.
  • a payload portion including picture data is arranged.
  • the picture header part and the payload part are repeatedly arranged.
  • FIG. 58 shows a configuration example of user data.
  • FIG. 58A shows the structure of user data when the encoding method is MPEG2.
  • FIG. 58B shows that the encoding method is H.264.
  • the structure of user data in the case of H.264 AVC (MPEG4-AVC) is shown.
  • FIG. 58 (c) shows the configuration of user data when the encoding method is VC-1.
  • FIG. 59 shows an example of a structure (Syntax) of user data including a disparity information set.
  • This structure includes the disparity information set created in “Case 5” described above, similarly to the descriptor (z-OSD Descriptor) shown in FIG.
  • the main data defining contents (Semantics) of this structural example are shown in FIG.
  • “Relative_x” is 11-bit data indicating the horizontal distance (Rxa) from the origin (0, 0) to the pixel position (x, y). This horizontal distance (Rxa) is indicated by a ratio to the horizontal size of the image.
  • “Relative_y” is 11-bit data indicating the vertical distance (Rya) from the origin (0, 0) to the pixel position (x, y). This vertical distance (Rya) is expressed as a ratio to the vertical size of the image.
  • “Disparity” is 12-bit data indicating the value of disparity information (disparity vector) at the pixel position (x, y).
  • FIG. 61 shows a configuration example of the transport stream (bit stream data) in that case.
  • a segment (zOSD: z-OSD segment) including a newly defined disparity information set is inserted into the subtitle elementary stream.
  • the subtitle elementary stream includes known segments such as DDS (display definition segment), PCS (page composition segment), RCS (region composition segment), ODS (object data segment). Further, the subtitle elementary stream includes a segment (zOSD) including a disparity information set. For example, as shown in FIG. 62, the segment type of zOSD is “0x50”.
  • FIG. 63 shows a structural example (syntax) of zOSD (z-OSD segment).
  • the main data definition (semantics) of this zOSD is shown in FIG.
  • “Segment_continued_flag” is 1-bit flag information indicating whether or not this zOSD segment exists after the current segment.
  • “Segment_continued_flag 0” indicates that it does not exist.
  • this flag information it is possible to know whether or not there are continuous segments or packets including the disparity information set, and it is possible to know in advance the possibility of updating the disparity information. it can.
  • “Delta_PTS [32..0] is 32-bit data indicating a difference (change) with respect to the PTS (time information) included in the header part that specifies the display timing of the subtitle.“ Disparity_position_id ”is disparity information. This is 16-bit data indicating the pixel position to which the set corresponds. The 32-bit data is divided into three parts.
  • “Relative_x” is 11-bit data indicating the horizontal distance (Rxa) from the origin (0, 0) to the pixel position (x, y). This horizontal distance (Rxa) is indicated by a ratio to the horizontal size of the image.
  • “Relative_y” is 11-bit data indicating the vertical distance (Rya) from the origin (0, 0) to the pixel position (x, y). This vertical distance (Rya) is expressed as a ratio to the vertical size of the image.
  • “Disparity” is 12-bit data indicating the value of disparity information (disparity vector) at the pixel position (x, y).
  • FIG. 64 (a) shows a configuration example of a conventional subtitle data stream.
  • the PES header includes time information (PTS).
  • PES time information
  • each segment of DDS, PCS, RCS, ODS, and EOS is included as PES payload data.
  • FIG. 64B shows a configuration example of a subtitle data stream including the above-described zOSD.
  • the PES header includes time information (PTS).
  • each segment of DDS, PCS, RCS, ODS, zOSD, and EOS is included as PES payload data.
  • each segment of DDS, PCS, RCS, ODS, and zOSD is transmitted as PES payload data. Thereafter, a predetermined number of zOSD segments in which the contents of the time difference value (delta_PTS) and the disparity information set are updated can be transmitted. Finally, the EOS segment is also transmitted to the zOSD segment.
  • FIG. 65 shows a configuration example of the transport stream (bit stream data) in that case.
  • metadata z-OSD metadata
  • FIG. 66 shows a structural example (syntax) of a metadata elementary stream in which metadata (z-OSD metadata) including a disparity information set is inserted.
  • the main data defining contents (Semantics) of this structural example are shown in FIG. “Z-OSD_Metadata_stream_id” indicates a metadata elementary stream in which metadata (z-OSDmetadata) is inserted.
  • Z-OSD_Metadata_set ()” indicates metadata including a disparity information set.
  • FIG. 67 shows an example of a detailed structure of “z-OSD_Metadata_set ()”.
  • Segment_continued_flag is 1-bit flag information indicating whether or not this zOSD segment exists after the current segment.
  • On the receiving side based on this flag information, it is possible to know whether or not there are continuous segments or packets including the disparity information set, and it is possible to know in advance the possibility of updating the disparity information. it can.
  • “Delta_PTS [32..0] is 32-bit data indicating a difference (change) with respect to the PTS (time information) included in the header part that specifies the display timing of the subtitle.“ Disparity_position_id ”is disparity information. This is 16-bit data indicating the pixel position to which the set corresponds. The 32-bit data is divided into three parts.
  • “Relative_x” is 11-bit data indicating the horizontal distance (Rxa) from the origin (0, 0) to the pixel position (x, y). This horizontal distance (Rxa) is indicated by a ratio to the horizontal size of the image.
  • “Relative_y” is 11-bit data indicating the vertical distance (Rya) from the origin (0, 0) to the pixel position (x, y). This vertical distance (Rya) is expressed as a ratio to the vertical size of the image.
  • “Disparity” is 12-bit data indicating the value of disparity information (disparity vector) at the pixel position (x, y).
  • this disparity information set can be transmitted by inserting a segment or packet including the disparity information set into the subtitle elementary stream or the independent metadata stream.
  • the parallax information set includes position data indicating a relative position of the predetermined pixel position with respect to the entire image, and parallax data of the predetermined pixel position.
  • the present invention is not limited to this disparity information set, and other types of disparity information can of course be transmitted in the same manner. That is, the disparity information to be transmitted only needs to include position data indicating a position or region and disparity data of the position or region, and the position data is limited to a case where the position data indicates a relative position with respect to the entire image. Alternatively, the absolute position in the image may be indicated.
  • a method of transmitting a disparity information set from the set top box 200 to the television receiver 300A a method of using HDMI “Vendor” specific “InfoFrame” and a method of using active space (Active Space) have been described.
  • the set-top box 200 and the television receiver 300 are connected by an HDMI digital interface.
  • the present invention can be applied even when these are connected by a digital interface similar to the HDMI digital interface (including wireless as well as wired).
  • the technique for transmitting the disparity information set through the HDMI interface can be applied to other combinations of source devices and sink devices.
  • the source device may be a disc player such as a BD or a DVD, or a game machine
  • the sink device may be a monitor device or a projector device.
  • the present invention can satisfactorily display superimposition information at the time of stereoscopic image display, for example, graphics information such as OSD, and can be applied to a stereoscopic image display system or the like.
  • STB Set Top Box

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】立体画像表示の際の重畳情報、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性の維持を容易に図る。 【解決手段】視差情報セット作成部122は、ディスパリティ・マップに基づいて、所定の画素位置の視差情報セットを作成する。例えば、視差情報値が最大となる画素位置、つまり最も手前に認識するピクセル(画素)位置などである。視差情報セットは、画像全体に対する相対位置を示す位置データと、その位置の視差データとを含む。視差情報セットは、立体画像データに対して空間的に同期したものとなる。この視差情報セットは、立体画像の解像度とは独立で、モニタの表示解像度やモニタサイズにも独立したものとなる。視差情報セット作成部122は、所定番組の番組期間等を階層的に等分割した各期間で視差情報セットを作成する。視差情報セットは、立体画像データに対して時間的に同期したものとなる。

Description

立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
 この発明は、立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置に関し、特に、受信側において、OSD等のグラフィクス情報の表示を良好に行い得る立体画像データ送信装置等に関する。
 例えば、特許文献1には、立体画像データのテレビ放送電波を用いた伝送方式について提案されている。この場合、左眼用画像データおよび右眼用画像データを含む立体画像データが送信され、テレビ受信機において、両眼視差を利用した立体画像表示が行われる。
 図68は、両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクト(物体)の左右像の表示位置と、その立体像の再生位置との関係を示している。例えば、スクリーン上に図示のように左像Laが右側に右像Raが左側にずれて表示されているオブジェクトAに関しては、左右の視線がスクリーン面より手前で交差するため、その立体像の再生位置はスクリーン面より手前となる。
 また、例えば、スクリーン上に図示のように左像Lbおよび右像Rbが同一位置に表示されているオブジェクトBに関しては、左右の視線がスクリーン面で交差するため、その立体像の再生位置はスクリーン面上となる。さらに、例えば、スクリーン上に図示のように左像Lcが左側に右像Rcが右側にずれて表示されているオブジェクトCに関しては、左右の視線がスクリーン面より奥で交差するため、その立体像の再生位置はスクリーン面より奥となる。
特開2005-6114号公報
 上述したように、立体画像表示において、視聴者は、両眼視差を利用して、立体画像の遠近感を認知することが普通である。画像に重畳される重畳情報、例えばOSD(On Screen Display)等のグラフィクス情報に関しても、2次元空間的のみならず、3次元の奥行き感としても、立体画像表示と連動してレンダリングされることが期待される。
 例えば、立体画像にOSD等のグラフィクス情報を重畳表示(オーバーレイ表示)する場合、遠近感でいうところの最も近い画像内の物体(オブジェクト)よりも手前に表示されないと、視聴者は、遠近感の矛盾を感じる場合がある。つまり、画像にOSD等のグラフィクス情報を重畳表示する場合、画像内の各物体の遠近感に応じて視差調整を施し、遠近感の整合性を維持することが期待される。
 この発明の目的は、立体画像表示の際の重畳情報、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性の維持を図ることにある。
 この発明の概念は、
 左眼画像データおよび右眼画像データを有する所定番組の立体画像データを出力する画像データ出力部と、
 上記画像データ出力部から出力される上記所定番組の立体画像データに対応した所定の画素位置の視差情報セットを出力する視差情報セット出力部と、
 上記画像データ出力部から出力される立体画像データおよび上記視差情報セット出力部から出力される視差情報セットを送信する送信部とを備え、
 上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含む
 立体画像データ送信装置にある。
 この発明において、画像データ出力部により、左眼画像データおよび右眼画像データを有する所定番組の立体画像データが出力される。また、視差情報セット出力部により、所定番組の立体画像データに対応した所定の画素位置の視差情報セットが出力される。そして、送信部により、立体画像データおよび視差情報セットが送信される。
 視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。これにより、視差情報セットは、立体画像データに対して空間的に同期したものとなっている。また、この視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。
 この発明において、例えば、位置データは、所定の画素位置の原点からの方向を示す方向データと、所定の画素位置の原点からの距離を示す距離データとからなる、ものとされる。この場合、例えば、視差データは、所定の画素位置の視差情報の値の、原点からの距離に対する割合を示すデータ、あるいは、所定の画素位置の、特定の表示解像度、例えばフルHDにおける視差情報の値とされてもよい。
 この発明において、例えば、位置データは、所定の画素位置の原点からの水平距離を示す水平距離データと、所定の画素位置の原点からの垂直距離を示す垂直距離データとからなる、ものとされる。この場合、例えば、所定の画素位置の視差情報の値の、特定の表示解像度に対する割合を示すデータ、あるいは、所定の画素位置の、特定の表示解像度における視差情報の値とされてもよい。
 この発明において、例えば、所定の画素位置は、1個に限定されるものではなく、複数個であってもよい。例えば、所定の画素位置は、視差情報値が最大となる第1の画素位置と、視差情報値が最小となる第2の画素位置とされる。この場合、受信側では、視差情報値の最大最小の幅を知ることができ、立体画像の深さ(depth)調整を行うことが可能となる。
 この発明において、例えば、視差情報セット出力部は、所定番組の期間を階層的に等分割して得られた各分割期間の視差情報セットを出力する、ものとされる。これにより、視差情報セットは、立体画像データに対して時間的に同期したものとなる。
 この発明において、例えば、送信部は、画像データ送信部から出力される所定番組の立体画像データを含むトランスポートストリームを送信し、このトランスポートストリームに挿入されるPSI情報またはSI情報の所定位置に、視差情報セット出力部から出力される視差情報セットを含むデスクリプタを挿入する、ようにされる。これにより、受信側においては、画像データのデコーダとは関係なく、視差情報セットを取得することが可能となる。
 この発明において、例えば、送信部は、視差情報セットを、所定の情報を送信するためのエレメンタリーストリームに含めて送信する、ようにされる。この場合、例えば、他の情報は立体画像データであり、視差情報セットは、エレメンタリーストリームのヘッダ部のユーザデータ領域に挿入されてもよい。また、この場合、例えば、所定の情報はサブタイトルデータあるいは独立データであり、エレメンタリーストリームは、視差情報セットが挿入されたセグメントあるいはパケットを有するようにされてもよい。
 このように、この発明においては、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと共に、所定番組の立体画像データに対応した所定の画素位置の視差情報セットが送信される。そのため、受信側において、視差情報セットを用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
 また、この発明においては、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。そのため、視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。したがって、受信側において、モニタの表示解像度やモニタサイズによらずに、この視差情報セットを用いて容易に視差調整を行うことが可能となる。
 また、この発明の他の概念は、
 左眼画像データおよび右眼画像データを有する所定番組の立体画像データと該所定番組の立体画像データに対応した所定の画素位置の視差情報セットを受信する受信部と、
 上記受信部で受信された立体画像データに含まれる左眼画像データに対応した左眼重畳情報のデータおよび上記受信部で受信された立体画像データに含まれる右眼画像データに対応した右眼重畳情報のデータを出力する重畳情報データ出力部と、
 上記受信部で受信された立体画像データに含まれる左眼画像データおよび右眼画像データに、上記重畳情報データ出力部から出力される上記左眼重畳情報のデータおよび上記右眼重畳情報のデータを重畳するデータ重畳部とを備え、
 上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含み、
 上記重畳情報データ出力部は、
 上記受信部で受信された上記視差情報セットに基づいて、上記左眼重畳情報と上記右眼重畳情報との間に視差を付与する
 立体画像データ受信装置にある。
 この概念は、トランスポートストリーム以外の一般的なファイルフォーマットでの実現が可能であり、また、ストリームの内部においても挿入し得るものである。
 この発明において、受信部により、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと、この所定番組の立体画像データに対応した所定の画素位置の視差情報セットが受信される。ここで、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。これにより、視差情報セットは、立体画像データに対して空間的に同期したものとなっている。また、この視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。
 重畳情報データ出力部により、受信部で受信された立体画像データに含まれる左眼画像データに対応した左眼重畳情報のデータおよび受信部で受信された立体画像データに含まれる右眼画像データに対応した右眼重畳情報のデータが出力される。そして、データ重畳部により、受信部で受信された立体画像データに含まれる左眼画像データおよび右眼画像データに、重畳情報データ出力部から出力される左眼重畳情報のデータおよび右眼重畳情報のデータが重畳される。これにより、立体画像にOSD等のグラフィクス情報を重畳表示できる。
 重畳情報データ出力部では、受信部で受信された視差情報セットに基づいて、左眼重畳情報と右眼重畳情報との間に視差が付与される。そのため、この発明においては、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
 また、この発明においては、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差情報とを含んでいる。そのため、視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。したがって、モニタの表示解像度やモニタサイズによらずに、この視差情報セットを用いて容易に視差調整を行うことが可能となる。
 この発明のさらに他の概念は、
 左眼画像データおよび右眼画像データを有する所定番組の立体画像データおよび上記所定番組の立体画像データに対応した所定の画素位置の視差情報セットを受信する受信部と、
 上記受信部で受信された、上記左眼画像データおよび上記右眼画像データと、上記視差情報セットとを、伝送路を介して、外部機器に送信する送信部とを備え、
 上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含む
 立体画像データ受信装置にある。
 この発明においては、受信部により、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと共に、この所定番組の立体画像データに対応した所定の画素位置の視差情報セットが受信される。ここで、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。これにより、視差情報セットは、立体画像データに対して空間的に同期したものとなっている。また、この視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。
 そして、送信部により、この受信された左眼画像データおよび右眼画像データと、視差情報セットとが、伝送路を介して、外部機器に送信される。この発明において、例えば、送信部は、画像データを、複数チャネルで、差動信号により、伝送路を介して、外部機器に送信し、画像データのブランキング期間に視差情報セットを挿入することで、この視差情報を外部機器に送信する、ようにされる。
 また、この発明において、例えば、送信部は、垂直同期信号により区切られる、水平ブランキング期間、垂直ブランキング期間およびアクティブビデオ区間を含むビデオフィールド区間を単位とする伝送データを生成する伝送データ生成部と、伝送データ生成部で生成された伝送データを、複数チャネルで、差動信号により、伝送路を介して、外部機器に送信する伝送データ送信部とを有し、アクティブビデオ区間は、主映像領域および補助映像領域を有し、伝送データ生成部は、主映像領域に画像データを配し、補助映像領域に、主映像領域に配される画像データに関連した上記視差情報セットを配する、ようにされる。
 このように、この発明においては、左眼画像データおよび右眼画像データと共に、この所定番組の立体画像データに対応した所定の画素位置の視差情報セットが、伝送路を介して、外部機器に送信される。そのため、外部機器、例えばテレビ受信機等の画像表示装置において、視差情報セットを用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
 また、この発明においては、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含んでいる。そのため、視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。したがって、外部機器、例えばテレビ受信機等の画像表示装置において、モニタの表示解像度やモニタサイズによらずに、この視差情報セットを用いて容易に視差調整を行うことが可能となる。
 また、この発明の他の概念は、
 左眼画像データおよび右眼画像データを有する所定番組の立体画像データを出力する画像データ出力部と、
 上記画像データ出力部から出力される上記所定番組の立体画像データに対応した視差情報を出力する視差情報出力部と、
 上記画像データ出力部から出力される立体画像データおよび上記視差情報出力部から出力される視差情報を送信する送信部とを備え、
 上記送信部は、所定の情報を送信するためのエレメンタリーストリームに、上記視差情報を含むセグメントあるいはパケットを挿入し
 上記セグメントあるいはパケットは、上記視差情報の使用タイミングを示すタイミング情報をさらに含む
 立体画像データ送信装置にある。
 この発明において、画像データ出力部により、左眼画像データおよび右眼画像データを有する所定番組の立体画像データが出力される。また、視差情報出力部により、所定番組の立体画像データに対応した視差情報が出力される。この視差情報は、例えば、位置あるいは領域を示す位置データと、その位置あるいは領域の視差データとからなる。この場合、位置データは、画像全体に対する相対位置を示す場合、あるいは画像内の絶対位置を示す場合などがある。
 送信部により、画像データ出力部から出力される立体画像データおよび視差情報出力部から出力される視差情報が送信される。この場合、送信部では、所定の情報、例えばサブタイトル、独立データ等を送信するためのエレメンタリーストリームに、視差情報を含むセグメントあるいはパケットが挿入される。このセグメントあるいはパケットには、視差情報の使用タイミングを示すタイミング情報がさらに含まれている。
 このように、この発明においては、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと共に、所定番組の立体画像データに対応した視差情報、その視差情報の使用タイミング情報と共に送信される。そのため、受信側において、視差情報を用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
 また、この発明において、例えば、セグメントあるいはパケットは、このセグメントあるいはパケットが連続して存在するか否かを示すフラグ情報をさらに含む、ようにしてもよい。これにより、受信側においては、フラグ情報に基づいて、視差情報が含まれるセグメントあるいはパケットが連続して存在するか否かを知ることができ、視差情報の更新の可能性などを事前に知ることができる。
 この発明によれば、立体画像表示の際の重畳情報、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性の維持を容易に図ることができる。
この発明の実施の形態としての立体画像表示システムの構成例を示すブロック図である。 放送局における送信データ生成部の構成例を示すブロック図である。 1920×1080pのピクセルフォーマットの画像データを示す図である。 立体画像データ(3D画像データ)の伝送方式である「Top &Bottom」方式、「Side By Side」方式、「FrameSequential」方式を説明するための図である。 左眼画像に対する右眼画像の視差ベクトルを検出する例を説明するための図である。 視差ベクトルをブロックマッチング方式で求めることを説明するための図である。 番組期間を階層的に等分割して得られた各分割期間で視差情報セットを作成することを説明するための図である。 トランスポートストリームの構成例(EITの配下に視差情報セットを含むデスクリプタ挿入)を示す図である。 トランスポートストリームの構成例(PMT中のプログラム・デスクリプタに視差情報セットを含むデスクリプタを挿入)を示す図である。 トランスポートストリームの構成例(ビデオ・エレメンタリ・ループのデスクリプタ部分に視差情報セットを含むデスクリプタを配置)を示す図である。 「ケース1」で作成される視差情報セットを説明するための図である。 「ケース1」で作成される視差情報セットを説明するための図である。 「ケース1」における視差情報セット作成の処理手順を示すフローチャートである。 「ケース3」で作成される視差情報セットに含まれる方向データを説明するための図である。 「ケース3」で作成される視差情報セットを説明するための図である。 「ケース3」で作成される視差情報セットを説明するための図である。 「ケース3」における視差情報セット作成の処理手順を示すフローチャートである。 「ケース5」で作成される視差情報セット(座標モード0)を説明するための図である。 「ケース5」で作成される視差情報セット(座標モード1)を説明するための図である。 「ケース5」における視差情報セット作成の処理手順を示すフローチャートである。 「ケース6」で作成される視差情報セットに含まれる視差データ(Relative_Disparity_ratio)を説明するための図である。 「ケース1」で作成される視差情報セットの内容例を示す図である。 「ケース2」で作成される視差情報セットの内容例を示す図である。 「ケース3」で作成される視差情報セットの内容例を示す図である。 「ケース4」で作成される視差情報セットの内容例を示す図である。 視差情報セットの内容例における主要なデータ規定内容(semantics)を示す図である。 「ケース5」で作成される視差情報セットの内容例を示す図である。 「ケース6」で作成される視差情報セットの内容例を示す図である。 視差情報セットの内容例における主要なデータ規定内容(semantics)を示す図である。 「ケース1」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 「ケース2」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 「ケース3」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 「ケース4」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 「ケース5」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 「ケース6」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 セットトップボックスの構成例を示すブロック図である。 テレビ受信機の構成例を示すブロック図である。 「ケース1」で作成された視差情報セットに対する受信側の再現処理の手順を示すフローチャートである。 「ケース1」で作成された視差情報セットに対する受信側の再現処理を説明するための図である。 「ケース1」で作成された視差情報セットに対する受信側の再現処理を説明するための図である。 「ケース6」で作成された視差情報セットに対する受信側の再現処理の手順を示すフローチャートである。 モニタサイズの違いによる視差情報とその位置との関係について説明するための図である。 解像度の違いによる視差情報とその位置との関係について説明するための図である。 水平方向に1/2画素(ピクセル)分のシフトをする場合の補間処理例を概略的に示す図である。 HDMI送信部(HDMIソース)とHDMI受信部(HDMIシンク)の構成例を示すブロック図である。 TMDS伝送データの構造例(横×縦が1920ピクセル×1080ラインの画像データが伝送される場合)を示す図である。 ソース機器およびシンク機器のHDMIケーブルが接続されるHDMI端子のピン配列(タイプA)を示す図である。 E-EDIDのデータ構造例を示す図である。 Vender Specific領域(HDMI Vendor Specific Data Block)のデータ構造例を示す図である。 立体画像データのTMDS伝送データ構造の一つであるフレームパッキング方式の3Dビデオフォーマットを示す図である。 視差情報セットの送信にHDMI Vendor SpecificInfoFrame を利用する場合における、HDMI Vendor Specific InfoFrame のパケット構造例を示す図である。 視差情報セットの送信にアクティブスペース領域を利用する場合における、HDMI Vendor Specific InfoFrame のパケット構造例を示す図である。 アクティブスペース領域に配置される視差情報セットの構造を示す図である。 視差情報セット構造の各情報の内容を示す図である。 立体画像表示システムの他の構成例を示す図である。 視差情報セットをビデオエレメンタリーストリーム(ビデオデータストリーム)に挿入して送信する場合におけるトランスポートストリームの構成例を示す図である。 ビデオエレメンタリーストリーム(Video ElementaryStream)の構造例を概略的に示す図である。 ピクチャヘッダ部のユーザデータ領域に埋め込まれるユーザデータの構成例を示す図である。 視差情報セットを含むユーザデータの構造(Syntax)の一例を示す図である。 差情報セットを含むユーザデータの構造(Syntax)等の各種構造例の主要なデータ規定内容(Semantics)を示す図である。 視差情報セットをサブタイトルエレメンタリーストリーム(サブタイトルデータストリーム)に挿入して送信する場合におけるトランスポートストリームの構成例を示す図である。 サブタイトルエレメンタリーストリームに含まれる各種セグメントのセグメントタイプを示す図である。 zOSD(z-OSD segment)の構造例(syntax)を示す図である。 サブタイトルデータストリームのPESヘッダおよびPESペイロードデータの構成を説明するための図である。 視差情報セットを独立したメタデータ(Metadata)ストリームで送信する場合におけるトランスポートストリームの構成例を示す図である。 視差情報セットを含むメタデータ(z-OSD metadata)が挿入されているメタデータエレメンタリーストリームの構造例(syntax)を示す図である。 「z-OSD_Metadata_set()」の詳細構造の一例を示す図である。 両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクトの左右像の表示位置と、その立体像の再生位置との関係を示す図である。
 以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
 1.実施の形態
 2.変形例
 <1.実施の形態>
 [立体画像表示システムの構成例]
 図1は、実施の形態としての立体画像表示システム10の構成例を示している。この立体画像送受信システム10は、放送局100と、セットトップボックス(STB)200と、テレビ受信機(TV)300を有している。
 セットトップボックス200およびテレビ受信機300は、HDMI(HighDefinition Multimedia Interface)ケーブル400を介して接続されている。セットトップボックス200には、HDMI端子202が設けられている。テレビ受信機300には、HDMI端子302が設けられている。HDMIケーブル400の一端はセットトップボックス200のHDMI端子202に接続され、このHDMIケーブル400の他端はテレビ受信機300のHDMI端子302に接続されている。
 [放送局の説明]
 放送局100は、ビットストリームデータBSDを、放送波に載せて送信する。放送局100は、ビットストリームデータBSDを生成する送信データ生成部110を備えている。このビットストリームデータBSDには、立体画像データ、音声データ、視差情報セットなどが含まれる。ここで、立体画像データは、左眼画像データおよび右眼画像データを有する所定番組の立体画像データである。音声データは、この立体画像データに対応した音声データである。視差情報セットは、立体画像データに対応した所定の画素位置の視差情報セットである。
 「送信データ生成部の構成例」
 図2は、放送局100において送信データを生成する送信データ生成部110の構成例を示している。この送信データ生成部110は、カメラ111L,111Rと、ビデオフレーミング部112と、ディスパリティ・マップ生成部113と、マイクロホン114と、データ取り出し部115と、切換スイッチ116~118を有している。また、この送信データ生成部110は、ビデオエンコーダ119と、オーディオエンコーダ120と、視差情報セット作成部122と、マルチプレクサ126を有している。
 カメラ111Lは、左眼画像を撮影して立体画像表示のための左眼画像データを得る。カメラ111Rは、右眼画像を撮影して立体画像表示のための右眼画像データを得る。ビデオフレーミング部112は、カメラ111Lで得られた左眼画像データおよびカメラ111Rで得られた右眼画像データを、伝送フォーマットに応じた立体画像データ(3D画像データ)に加工処理する。このビデオフレーミング部112は、画像データ出力部を構成している。
 立体画像データの伝送フォーマット例を説明する。ここでは、以下の第1~第3の伝送フォーマットを挙げるが、これら以外の伝送フォーマットであってもよい。また、ここでは、図3に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、決められた解像度、例えば、1920×1080のピクセルフォーマットの画像データである場合を例にとって説明する。
 第1の伝送方式は、トップ・アンド・ボトム(Top & Bottom)方式で、図4(a)に示すように、垂直方向の前半では左眼画像データの各ラインのデータを伝送し、垂直方向の後半では左眼画像データの各ラインのデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データのラインが1/2に間引かれることから原信号に対して垂直解像度は半分となる。
 第2の伝送方式は、サイド・バイ・サイド(Side By Side)方式で、図4(b)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。原信号に対して、水平解像度は半分となる。
 第3の伝送方式は、フレーム・シーケンシャル(FrameSequential)方式で、図4(c)に示すように、左眼画像データと右眼画像データとをフレーム毎に順次切換えて伝送する方式である。なお、このフレーム・シーケンシャル方式は、フル・フレーム(Full Frame)方式、あるいはバックワード・コンパチブル(BackwardCompatible)方式と称される場合もある。
 図2に戻って、ディスパリティ・マップ生成部113は、左眼画像データおよび右眼画像データに基づき、例えば、画像を構成するピクセル毎の視差ベクトル(視差情報)を検出して、ディスパリティ・マップを作成する。例えば、手前に位置するピクセル(画素)ほど、その視差情報の値は大きくなる。
 視差ベクトルの検出例について説明する。ここでは、左眼画像に対する右眼画像の視差ベクトルを検出する例について説明する。図5に示すように、左眼画像を検出画像とし、右眼画像を参照画像とする。この例では、(xi,yi)および(xj,yj)の位置における視差ベクトルが検出される。
 (xi,yi)の位置における視差ベクトルを検出する場合を例にとって説明する。この場合、左眼画像に、(xi,yi)の位置の画素を左上とする、例えば4×4、8×8、あるいは16×16の画素ブロック(視差検出ブロック)Biが設定される。そして、右眼画像において、画素ブロックBiとマッチングする画素ブロックが探索される。
 この場合、右眼画像に、(xi,yi)の位置を中心とする探索範囲が設定され、その探索範囲内の各画素を順次注目画素として、上述の画素ブロックBiと同様の例えば4×4、8×8、あるいは16×16の比較ブロックが順次設定されていく。
 画素ブロックBiと順次設定される比較ブロックとの間で、対応する画素毎の差分絶対値の総和が求められる。ここで、図6に示すように、画素ブロックBiの画素値をL(x,y)とし、比較ブロックの画素値をR(x,y)とするとき、画素ブロックBiと、ある比較ブロックとの間における差分絶対値の総和は、Σ|L(x,y)-R(x,y)|で表される。
 右眼画像に設定される探索範囲にn個の画素が含まれているとき、最終的にn個の総和S1~Snが求められ、その中で最小の総和Sminが選択される。そして、この総和Sminが得られた比較ブロックから左上の画素の位置が(xi′,yi′)が得られる。これにより、(xi,yi)の位置における視差ベクトルは、(xi′-xi,yi′-yi)のように検出される。詳細説明は省略するが、(xj,yj)の位置における視差ベクトルについても、左眼画像に、(xj,yj)の位置の画素を左上とする、例えば4×4、8×8、あるいは16×16の画素ブロックBjが設定されて、同様の処理過程で検出される。
 マイクロホン114は、カメラ111L,111Rで撮影された画像に対応した音声を検出して、音声データを得る。
 データ取り出し部115は、データ記録媒体115aを着脱自在に装着した状態で使用される。このデータ記録媒体115aは、ディスク状記録媒体、半導体メモリ等である。このデータ記録媒体115aには、左眼画像データおよび右眼画像データを含む立体画像データと共に、音声データ、ディスパリティ・マップが対応付けて記録されている。データ取り出し部115は、データ記録媒体115aから、立体画像データ、音声データおよびディスパリティ・マップを取り出して出力する。このデータ取り出し部115は、画像データ出力部を構成している。
 ここで、データ記録媒体115aに記録されている立体画像データは、ビデオフレーミング部112で得られる立体画像データに相当するものである。また、データ記録媒体115aに記録されている音声データは、マイクロホン114で得られる音声データに相当するものである。また、データ記録媒体115aに記録されているディスパリティ・マップは、ディスパリティ・マップ生成部113で生成される視差ベクトルに相当するものである。
 切り換えスイッチ116は、ビデオフレーミング部112で得られた立体画像データまたはデータ取り出し部115から出力された立体画像データを選択的に取り出す。この場合、切り換えスイッチ116は、ライブモードでは、a側に接続され、ビデオフレーミング部112で得られた立体画像データを取り出し、再生モードでは、b側に接続され、データ取り出し部115から出力された立体画像データを取り出す。
 切り換えスイッチ117は、ディスパリティ・マップ生成部113で生成されたディスパリティ・マップまたはデータ取り出し部115から出力されたディスパリティ・マップを選択的に取り出す。この場合、切り換えスイッチ117は、ライブモードでは、a側に接続され、ディスパリティ・マップ生成部113で生成されたディスパリティ・マップを取り出し、再生モードでは、b側に接続され、データ取り出し部115から出力されたディスパリティ・マップを取り出す。
 切り換えスイッチ118は、マイクロホン114で得られた音声データまたはデータ取り出し部115から出力された音声データを選択的に取り出す。この場合、切り換えスイッチ118は、ライブモードでは、a側に接続され、マイクロホン114で得られた音声データを取り出し、再生モードでは、b側に接続され、データ取り出し部115から出力された音声データを取り出す。
 ビデオエンコーダ119は、切り換えスイッチ116で取り出された立体画像データに対して、MPEG4-AVC、MPEG2、VC-1等の符号化を施し、ビデオデータストリーム(ビデオエレメンタリーストリーム)を生成する。オーディオエンコーダ120は、切り換えスイッチ118で取り出された音声データに対して、AC3、AAC等の符号化を施し、オーディオデータストリーム(オーディオエレメンタリーストリーム)を生成する。 
 視差情報セット作成部122は、切り換えスイッチ117で取り出されたディスパリティ・マップに基づいて、切り換えスイッチ116から出力される所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。所定の画素位置は、例えば、視差情報値が最大となる画素位置、つまり最も手前に認識するピクセル(画素)位置などである。
 この視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含んでいる。これにより、視差情報セットは、立体画像データに対して空間的に同期したものとなっている。また、この視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。
 視差情報セット作成部122は、所定番組の番組期間(Program period)等を階層的に等分割して得られた各分割期間の視差情報セットを作成する。これにより、視差情報セットは、立体画像データに対して時間的に同期したものとなっている。図7(1)は、番組期間が、a、b、cの3つの期間に等分割された状態を示している。また、図7(2)は、bの期間がさらに4つの期間に等分割された状態を示している。なお、等分割の階層は2階層に限定されるものではない。視差情報セット作成部122における視差情報セット作成の詳細については、後述する。
 マルチプレクサ126は、ビデオエンコーダ119およびオーディオエンコーダ120からの各データストリームを多重化し、ビットストリームデータ(トランスポートストリーム)BSDとしての多重化データストリームを得る。また、マルチプレクサ126は、このビットストリームデータBSDに、視差情報セット作成部122で作成された視差情報セットを挿入する。具体的には、マルチプレクサ126は、ビットストリームデータBSDに挿入されるPSI情報またはSI情報の所定位置に、視差情報セットを含むデスクリプタ(z-OSD descriptor)を挿入する。このデスクリプタの詳細については、後述する。
 図2に示す送信データ生成部110の動作を簡単に説明する。カメラ111Lでは、左眼画像が撮影される。このカメラ111Lで得られる立体画像表示のための左眼画像データはビデオフレーミング部112に供給される。また、カメラ111Rでは、右眼画像が撮影される。このカメラ111Rで得られる立体画像表示のための右眼画像データはビデオフレーミング部112に供給される。ビデオフレーミング部112では、左眼画像データおよび右眼画像データが、伝送フォーマットに応じた状態に加工処理されて、立体画像データが得られる(図4(a)~(c)参照)。
 ビデオフレーミング部112で得られた立体画像データは、切り換えスイッチ116のa側の固定端子に供給される。また、データ取り出し部115で得られた立体画像データは、切り換えスイッチ116のb側の固定端子に供給される。ライブモードでは、切り換えスイッチ116はa側に接続され、この切り換えスイッチ116からはビデオフレーミング部112で得られた立体画像データが取り出される。再生モードでは、切り換えスイッチ116はb側に接続され、この切り換えスイッチ116からはデータ取り出し部115から出力された立体画像データが取り出される。
 切り換えスイッチ116で取り出された立体画像データは、ビデオエンコーダ119に供給される。このビデオエンコーダ119では、その立体画像データに対してMPEG4-AVC、MPEG2、VC-1等の符号化が施され、符号化ビデオデータを含むビデオデータストリームが生成される。このビデオデータストリームはマルチプレクサ126に供給される。
 マイクロホン114で得られた音声データは、切り換えスイッチ118のa側の固定端子に供給される。また、データ取り出し部115で得られた音声データは、切り換えスイッチ118のb側の固定端子に供給される。ライブモードでは、切り換えスイッチ118はa側に接続され、この切り換えスイッチ118からはマイクロホン114で得られた音声データが取り出される。再生モードでは、切り換えスイッチ118はb側に接続され、この切り換えスイッチ118からはデータ取り出し部115から出力された音声データが取り出される。
 切り換えスイッチ118で取り出された音声データはオーディオエンコーダ120に供給される。このオーディオエンコーダ120では、音声データに対して、MPEG-2Audio AAC、あるいは、MPEG-4 AAC等の符号化が施され、符号化オーディオデータを含むオーディオデータストリームが生成される。このオーディオデータストリームはマルチプレクサ126に供給される。
 カメラ111L,111Rで得られた左眼画像データ、右眼画像データは、ビデオフレーミング部112を通じて、ディスパリティ・マップ生成部113に供給される。このディスパリティ・マップ生成部113では、左眼画像データおよび右眼画像データに基づき、ピクセル(画素)毎の視差ベクトルが検出され、ディスパリティ・マップが生成される。このディスパリティ・マップは、切換スイッチ117のa側の固定端子に供給される。また、データ取り出し部115から出力されたディスパリティ・マップは、切り換えスイッチ117のb側の固定端子に供給される。
 ライブモードでは、切り換えスイッチ117はa側に接続され、この切り換えスイッチ117からはディスパリティ・マップ生成部113で生成されたディスパリティ・マップが取り出される。再生モードでは、切り換えスイッチ117はb側に接続され、この切り換えスイッチ117からはデータ取り出し部115から出力されたディスパリティ・マップが取り出される。
 切り換えスイッチ117で取り出されたディスパリティ・マップは、視差情報セット作成部122に供給される。この視差情報セット作成部122では、ディスパリティ・マップに基づいて、切り換えスイッチ116から出力される所定番組の立体画像データに対応した所定の画素位置の視差情報セットが、階層的に分割された各分割期間に対応して作成される。この視差情報セットには、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差情報とが含まれている。この視差情報セットは、マルチプレクサ126に供給される。
 マルチプレクサ126では、ビデオエンコーダ119およびオーディオエンコーダ120からの各データストリームが多重化され、ビットストリームデータ(トランスポートストリーム)BSDとしての多重化データストリームが得られる。
 また、このマルチプレクサ126では、このビットストリームデータBSDに、視差情報セット作成部122で作成された視差情報セットが挿入される。すなわち、このマルチプレクサ126では、ビットストリームデータBSDに挿入されるPSI情報またはSI情報の所定位置に、視差情報セットを含むデスクリプタ(z-OSD descriptor)が挿入される。
 図8~図10は、トランスポートストリーム(ビットストリームデータ)の構成例を示している。このトランスポートストリームには、各エレメンタリーストリームをパケット化して得られたPESパケットが含まれている。この構成例では、ビデオエレメンタリーストリームのPESパケット「Video PES」、オーディオエレメンタリーストリームのPESパケット「AudioPES」が含まれている。
 また、トランスポートストリームには、PSI(Program SpecificInformation)として、PMT(Program Map Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリーストリームがどのプログラムに属しているかを記した情報である。また、トランスポートストリームには、イベント単位の管理を行うSI(Serviced Information)としてのEIT(EventInformation Table)が含まれている。このEITには、番組単位のメタデータが記載される。
 PMTには、プログラム全体に関連する情報を記述するプログラム・デスクリプタ(ProgramDescriptor)が存在する。また、このPMTには、各エレメンタリーストリームに関連した情報を持つエレメンタリ・ループが存在する。この構成例では、ビデオエレメンタリ・ループ、オーディオエレメンタリ・ループが存在する。各エレメンタリ・ループには、ストリーム毎に、パケット識別子(PID)等の情報が配置されると共に、図示していないが、そのエレメンタリーストリームに関連する情報を記述する記述子(デスクリプタ)も配置される。
 図8に示すトランスポートストリームの構成例では、EITの配下に、視差情報セットを含むデスクリプタ(z-OSD descriptor)が挿入されている。また、図9に示すトランスポートストリームの構成例では、PMT中のプログラム・デスクリプタ(Program Descriptor)に、視差情報セットを含むデスクリプタ(z-OSDdescriptor)が挿入されている。さらに、図10に示すトランスポートストリームの構成例では、ビデオ・エレメンタリ・ループ(Video ES loop)のデスクリプタ(descriptor)部分に、配置されている。
 [視差情報セット作成部]
 視差情報セット作成部122(図2参照)における視差情報セット作成の詳細について説明する。視差情報セット作成部122は、例えば、以下のケース1~ケース6により、視差情報セットを作成する。
 「ケース1」
 視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。ここで、所定の画素位置(x,y)は、画像中心Oを原点(0,0)とした座標で表される。なお「ケース1」において、原点(0,0)は所定の画素位置の定義域から除かれる。
 この「ケース1」において、位置データは、原点(0,0)からの所定の画素位置の方向を示す方向データと、この原点(0,0)から所定の画素位置までの距離を示す距離データとからなる。そして、画素位置(x,y)の方向データは、正接データ(tanθ=y/x)と、その画素位置(x,y)が存在する象限を識別する2ビットのゾーン識別子(Zone_id)により構成される。例えば、“Zone_id=00”は第1象限を示し、“Zone_id=01”は第2象限を示し、“Zone_id=10”は第3象限を示し、“Zone_id=11”は第4象限を示すものとされる。
 また、画素位置(x,y)の距離データ(Line Scale)は、原点(0,0)からの画素位置(x,y)を通過して画像領域の端に至る線分の長さに対する割合を示すものとされる。この場合、原点(0,0)からの画素位置(x,y)までの距離をLとし、原点から画素位置(x,y)を通過して画像領域の端に至る線分の長さをLineFullとするとき、Line Scale=L/LineFullとなる。
 この「ケース1」において、画素位置(x,y)の視差データは、画素位置(x,y)の視差情報(視差ベクトル)の値の、原点(0,0)からの画素位置(x,y)までの距離に対する割合を示すデータとされる。すなわち、視差データ(Disparity Gradient:tanφ)は、原点(0,0)からの画素位置(x,y)までの距離をLとし、画素位置(x,y)の視差情報(視差ベクトル)の値をDとするとき、tanφ=D/Lとなる。
 以下では、所定の画素位置として、視差情報の値が最大(Max)となる第1の画素位置と、視差情報の値が最小(Min)となる画素位置(第2の画素位置)が設定された場合について説明する。視差情報の値が最大となる画素位置とは、画像が最も近くに認識される位置を意味する。また、視差情報の値が最小となる画素位置とは、画像が最も遠くに認識される位置を意味する。この場合、受信側では、視差情報値の最大最小の幅を知ることができ、立体画像の深さ(depth)調整を行うことが可能となる。
 図11、図12は、画像全体における第1の画素位置(xβ,yβ)と第2の画素位置(xα,yα)の二次元位置(2D Direction)の一例を示している。座標(xβ,yβ)および座標(xα,yα)は、画像中心を原点(0,0)としたときの、各画素位置の座標を示している。
 第1の画素位置(xβ,yβ)の視差情報セットについて説明する。位置データは、方向データと、距離データ(Line Scale_β)とからなっている。また、方向データは、正接データ(tanθβ)と、ゾーン識別子(Zone_id_β)により構成されている。視差情報セット作成部122は、図11に示すように、正接データ(tanθβ)を、「tanθβ=yβ/xβ」のように、求める。また、視差情報セット作成部122は、図11に示すように、(xβ,yβ)が第4象限にあるので、ゾーン識別子(Zone_id_β)を、「Zone_id_β=11」とする。
 また、視差情報セット作成部122は、距離データ(Line Scale_β)を、図11に示すように、「Line Scale_β=Lβ/LineFull_β」のように、求める。ここで、Lβ=√(xβ+yβ)であり、LineFull_β=√((E_h)+(PV/2))である。
 また、視差情報セット作成部122は、図12に示すように、視差データ(DisparityGradient:tanφβ)を、「tanφβ=Dβ/Lβ」のように、求める。ここで、Dβは、画素位置(xβ,yβ)の視差情報(視差ベクトル)の値であり、Lβ=√(xβ+yβ)である。
 次に、第2の画素位置(xα,yα)の視差情報セットについて説明する。位置データは、方向データと、距離データ(Line Scale_α)とからなっている。また、方向データは、正接データ(tanθα)と、ゾーン識別子(Zone_id_α)により構成されている。視差情報セット作成部122は、図11に示すように、正接データ(tanθα)を、「tanθα=yα/xα」のように、求める。また、視差情報セット作成部122は、図11に示すように、(xα,yα)が第1象限にあるので、ゾーン識別子(Zone_id_α)を、「Zone_id_α=00」とする。
 また、視差情報セット作成部122は、距離データ(Line Scale_α)を、図11に示すように、「Line Scale_α=Lα/LineFull_α」のように、求める。ここで、Lα=√(xα+yα)であり、LineFull_α=√((PH/2)+(E_v))である。
 また、視差情報セット作成部122は、図12に示すように、視差データ(DisparityGradient:tanφα)を、「tanφα=Dα/Lα」のように、求める。ここで、Dαは、画素位置(xα,yα)の視差情報(視差ベクトル)の値であり、Lα=√(xα+yα)である。
 図13のフローチャートは、視差情報セット作成部122における「ケース1」における視差情報セット作成の処理手順を示している。視差情報セット作成部122は、ステップST1において、ソース画像の、縦サイズ(PV=SourcePictureVerticalSize)、横サイズ(PH=SourcePictureHorizontalSize)、およびアスペクト比(PictureAspectRatio)を調べる。
 次に、視差情報セット作成部122は、ステップST2において、ディスパリティ・マップをスキャンして、所定の視差情報(視差ベクトル)の値と、その座標(x1,y1)をマークする。なお、この座標(x1,y1)は、画像のトップ-レフト(top-left)を原点(0,0)としたものである。
 次に、視差情報セット作成部122は、ステップST3において、座標(x1,y1)を、画像中心Oを原点(0,0)とする座標(x,y)に変換する。この場合の変換式は、x=x1-PH/2、y=y1-PV/2である。
 次に、視差情報セット作成部122は、ステップST4において、画素位置(x,y)の方向データを構成する、正接データ(tanθ=y/x)と、その画素位置(x,y)が存在する象限を識別する2ビットのゾーン識別子(Zone_id)を求める。また、視差情報セット作成部122は、ステップST4において、画素位置(x,y)の距離データ(Line Scale=L/LineFull)を求める。
 ここで、「LineFull」は、アスペクト比との関係から、以下のように求められる。ここでは、アスペクト比が9/16の場合を示すが、アスペクト比が他の場合であっても同様である。|tanθ|<9/16の場合、「LineFull=√((E_v)+(PH/2))」とされる。一方、|tanθ|≧9/16の場合、「LineFull=√((E_h)+(PV/2))」とされる。
 また、「L」は、アスペクト比との関係から、以下のように求められる。|tanθ|<9/16の場合、「L=LineFull*(x/(PH/2))とされる。一方、|tanθ|≧9/16の場合、「L=LineFull*(y/(PV/2))とされる。
 次に、視差情報セット作成部122は、ステップST5において、画素位置(x,y)の視差データ(Disparity Gradient:tanφ=D/L)を求める。
 「ケース2」
 視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。ここで、所定の画素位置(x,y)は、画像中心Oを原点(0,0)と座標で表される。なお「ケース2」において、原点(0,0)は所定の画素位置の定義域から除かれる。
 この「ケース2」において、位置データは、上述の「ケース1」と同様に、原点(0,0)からの所定の画素位置の方向を示す方向データと、この原点(0,0)から所定の画素位置までの距離を示す距離データとからなる。そして、画素位置(x,y)の方向データは、正接データ(tanθ=y/x)と、その画素位置(x,y)が存在する象限を識別する2ビットのゾーン識別子(Zone_id)により構成される。
 また、画素位置(x,y)の距離データ(Line Scale)は、原点(0,0)からの画素位置(x,y)を通過して画像領域の端に至る線分の長さに対する割合を示すものとされる。この場合、原点(0,0)からの画素位置(x,y)までの距離をLαとし、原点から画素位置(x,y)を通過して画像領域の端に至る線分の長さをLineFullとするとき、Line Scale=Lα/LineFullとなる。
 また、この「ケース2」において、画素位置(x,y)の視差データは、その画素位置(x,y)の特定の表示解像度における視差情報(視差ベクトル)の値とされる。
 このように、この「ケース2」において、視差情報セット作成部122は、所定の画素位置の位置データとして、上述の「ケース1」と同様の位置データ(方向データ、距離データ)を作成する。また、この「ケース2」において、視差情報セット作成部122は、所定の画素位置の視差データとして、その画素位置(x,y)の特定の表示解像度における視差情報(視差ベクトル)を作成する。特定の表示解像度は、例えば、1920×1080のフルHDの解像度である。
 そのため、視差情報セット作成部122における「ケース2」における視差情報セット作成の処理手順は、ステップST5の視差データを求める処理を除き、上述の図13のフローチャートで示す処理手順と同様に行われる。すなわち、「ケース2」における視差情報セット作成の処理手順において、座標(x,y)の視差データとして、その座標(x,y)の特定の表示解像度における視差情報(視差ベクトル)を求める。
 「ケース3」
 視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。ここで、所定の画素位置(x,y)は、画像中心Oを原点(0,0)と座標で表される。なお「ケース3」において、原点(0,0)は所定の画素位置の定義域から除かれる。
 この「ケース3」において、位置データは、原点(0,0)からの所定の画素位置の方向を示す方向データと、この原点(0,0)から所定の画素位置までの距離を示す距離データとからなる。画素位置(x,y)の方向は、予め設定されている上下左右およびそれらの間の8方向、さらにはそれらの間を含めた16方向等から選択される。つまり、画素位置(x,y)の方向データは、直接方向を示すデータとされる。
 例えば、方向データが3ビットデータで構成される場合、この3ビットデータにより、図14に示すように、上下左右およびそれらの間の8方向のうち、いずれかの方向を選択的に指定できる。
 また、画素位置(x,y)の距離データ(Line Scale)は、上述の「ケース1」の場合と同様に、原点(0,0)からの画素位置(x,y)を通過して画像領域の端に至る線分の長さに対する割合を示すものとされる。この場合、原点(0,0)からの画素位置(x,y)までの距離をLとし、原点から画素位置(x,y)を通過して画像領域の端に至る線分の長さをLineFullとするとき、Line Scale=L/LineFullとなる。
 この「ケース3」において、画素位置(x,y)の視差データは、画素位置(x,y)の視差情報(視差ベクトル)の値の、原点(0,0)からの画素位置(x,y)までの距離に対する割合を示すデータとされる。すなわち、視差データ(Disparity Gradient:tanφ)は、原点(0,0)からの画素位置(x,y)までの距離をLとし、画素位置(x,y)の視差情報(視差ベクトル)の値をDとするとき、tanφ=D/Lとなる。
 以下では、所定の画素位置として、上方向と右方向との間の方向にある画素位置が設定された場合について説明する。例えば、この画素位置は、視差情報(視差ベクトル)の値が最大(Max)となる画素位置である。視差情報の値が最大となる画素位置とは、画像が最も近くに認識される位置を意味する。
 図15、図16は、画像全体における画素位置(xa,ya)の二次元位置(2D Direction)の一例を示している。(xa,ya)は、画像中心を原点(0,0)としたときの、画素位置の座標を示している。
 画素位置(xa,ya)の視差情報セットについて説明する。位置データは、方向データ(Direction_a)と、距離データ(Line Scale_a)とからなっている。視差情報セット作成部122は、図15に示すように、方向データ(Direction_a)を、「Direction_a=001」とする。
 また、視差情報セット作成部122は、距離データ(Line Scale_β)を、図15に示すように、「Line Scale_a=La/LineFull_a」のように、求める。ここで、La=√(xa+ya)であり、LineFull_a=√((PH/2)+(PV/2))である。
 また、視差情報セット作成部122は、図16に示すように、視差データ(DisparityGradient:tanφa)を、「tanφa=Da/La」のように、求める。ここで、Daは、画素位置(xa,ya)の視差情報(視差ベクトル)の値であり、La=√(xa+ya)である。
 図17のフローチャートは、視差情報セット作成部122における「ケース3」における視差情報セット作成の処理手順を示している。視差情報セット作成部122は、ステップST11において、ソース画像の、縦サイズ(PV=SourcePictureVerticalSize)、横サイズ(PH=SourcePictureHorizontalSize)、およびアスペクト比(PictureAspectRatio)を調べる。
 次に、視差情報セット作成部122は、ステップST12において、ディスパリティ・マップをスキャンして、所定の視差情報(視差ベクトル)の値と、その座標(x1,y1)をマークする。なお、この座標(x1,y1)は、画像のトップ-レフト(top-left)を原点(0,0)としたものである。
 次に、視差情報セット作成部122は、ステップST13において、座標(x1,y1)を、画像中心Oを原点(0,0)とする座標(x,y)に変換する。この場合の変換式は、x=x1-PH/2、y=y1-PV/2である。ここで、変換後の座標(x,y)は、原点(0,0)から予め設定されている8方向、あるいは16方向などのいずれかのライン上にある場合と、そのライン上にない場合とがある。ライン上にない場合には、例えば、変換後の座標(x,y)の代わりに、最も近いライン上の座標を、新たな座標(x,y)とする。
 次に、視差情報セット作成部122は、ステップST14において、画素位置(x,y)の方向データ(Direction)と、画素位置(x,y)の距離データ(Line Scale=L/LineFull)を求める。
 ここで、「LineFull」は、アスペクト比との関係から、以下のように求められる。ここでは、アスペクト比が9/16の場合を示すが、アスペクト比が他の場合であっても同様である。|tanθ|<9/16の場合、「LineFull=√((E_v)+(PH/2))」とされる。一方、|tanθ|≧9/16の場合、「LineFull=√((E_h)+(PV/2))」とされる。なお、E_vは0≦E_v≦PH/2を満たし、E_hは0≦E_h≦PV/2を満たす(図12参照)。
 また、「L」は、アスペクト比との関係から、以下のように求められる。|tanθ|<9/16の場合、「L=LineFull*(x/(PH/2))とされる。一方、|tanθ|≧9/16の場合、「L=LineFull*(y/(PV/2))とされる。
 次に、視差情報セット作成部122は、ステップST15において、画素位置(x,y)の視差データ(Disparity Gradient:tanφ=D/L)を求める。
 「ケース4」
 視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。ここで、所定の画素位置(x,y)は、画像中心Oを原点(0,0)と座標で表される。なお「ケース4」において、原点(0,0)は所定の画素位置の定義域から除かれる。
 この「ケース4」において、位置データは、原点(0,0)からの所定の画素位置の方向を示す方向データと、この原点(0,0)から所定の画素位置までの距離を示す距離データとからなる。画素位置(x,y)の方向は、予め設定されている上下左右およびそれらの間の8方向、さらにはそれらの間を含めた16方向等から選択される。つまり、画素位置(x,y)の方向データは、直接方向を示すデータとされる。
 また、画素位置(x,y)の距離データ(Line Scale)は、上述の「ケース1」の場合と同様に、原点(0,0)からの画素位置(x,y)を通過して画像領域の端に至る線分の長さに対する割合を示すものとされる。この場合、原点(0,0)からの画素位置(x,y)までの距離をLとし、原点から画素位置(x,y)を通過して画像領域の端に至る線分の長さをLineFullとするとき、Line Scale=L/LineFullとなる。
 また、この「ケース4」において、画素位置(x,y)の視差データは、その画素位置(x,y)の特定の表示解像度における視差情報(視差ベクトル)の値とされる。
 このように、この「ケース4」において、視差情報セット作成部122は、所定の画素位置の位置データとして、上述の「ケース3」と同様の位置データ(方向データ、距離データ)を作成する。また、この「ケース4」において、視差情報セット作成部122は、所定の画素位置の視差データとして、その画素位置(x,y)の特定の表示解像度における視差情報(視差ベクトル)を作成する。特定の表示解像度は、例えば、1920×1080のフルHDの解像度である。
 そのため、視差情報セット作成部122における「ケース4」における視差情報セット作成の処理手順は、ステップST15の視差データを求める処理を除き、上述の図17のフローチャートで示す処理手順と同様に行われる。すなわち、「ケース4」における視差情報セット作成の処理手順において、座標(x,y)の視差データとして、その座標(x,y)の特定の表示解像度における視差情報(視差ベクトル)を求める。
 [ケース5]
 視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。
 ここで、所定の画素位置(x,y)は、座標モード0のときは、画像中心Oを原点(0,0)とした座標で表される。また、所定の画素位置(x,y)は、座標モード1のときは、画像のトップ-レフト(top-left)を原点(0,0)とした座標で表される。
 この「ケース5」において、位置データは、原点(0,0)からの水平距離を示す水平距離データ(Rxa)、原点(0,0)からの垂直距離を示す垂直距離データ(Rya)とからなる。水平距離データRxaは、画像の水平方向サイズに対する割合で示される。座標モード0のときは、「Rxa=x/(PH/2)*100」となる。また、座標モード1のときは、「Rxa=x/(PH)*100」となる。ここで、PHは、画像の水平方向サイズを表している。また、垂直距離データRyaは、画像の垂直方向サイズに対する割合で示される。座標モード0のときは、「Rya=y/(PV/2)*100」となる。また、座標モード1のときは、「Rya=y/(PV)*100」となる。ここで、PVは、画像の垂直方向サイズを表している。
 この「ケース5」において、画素位置(x,y)の視差データは、その画素位置(x,y)の特定の表示解像度における視差情報(視差ベクトル)の値とされる。特定の表示解像度は、例えば、1920×1080のフルHDの解像度とされる。
 以下では、所定の画素位置として、視差情報の値が最大(Max)となる第1の画素位置と、視差情報の値が最小(Min)となる画素位置(第2の画素位置)が設定された場合について説明する。視差情報の値が最大となる画素位置とは、画像が最も近くに認識される位置を意味する。また、視差情報の値が最小となる画素位置とは、画像が最も遠くに認識される位置を意味する。この場合、受信側では、視差情報値の最大最小の幅を知ることができ、立体画像の深さ(depth)調整を行うことが可能となる。
 図18は、座標モード0における、画像画像全体における第1の画素位置(xβ,yβ)と第2の画素位置(xα,yα)の二次元位置(2D Direction)の一例を示している。この場合、座標(xβ,yβ)および座標(xα,yα)は、画像中心Oを原点(0,0)としたときの、各画素位置の座標を示している。また、図19は、座標モード1における、画像画像全体における第1の画素位置(xβ,yβ)と第2の画素位置(xα,yα)の二次元位置(2D Direction)の一例を示している。この場合、座標(xβ,yβ)および座標(xα,yα)は、トップ-レフト(top-left)を原点(0,0)としたときの、各画素位置の座標を示している。
 第1の画素位置(xβ,yβ)の視差情報セットについて説明する。位置データは、上述したように、水平距離データ(Rxa)と、垂直距離データ(Rya)とからなって。視差情報セット作成部122は、座標モード0においては、図18に示すように、水平距離データ(Rxa)を「Rxa=xβ/(PH/2)*100」のように求め、垂直距離データ(Rya)を「Rya=yβ/(PV/2)*100」のように求める。また、視差情報セット作成部122は、座標モード1においては、図19に示すように、水平距離データ(Rxa)を「Rxa=xβ/(PH)*100」のように求め、垂直距離データ(Rya)を「Rya=yβ/(PV)*100」のように求める。
 また、視差情報セット作成部122は、第1の画素位置(xβ,yβ)の視差データ(Disparity)として、その第1の画素位置(xβ,yβ)の特定の表示解像度における視差情報(視差ベクトル)を求める。
 次に、第2の画素位置(xα,yα)の視差情報セットについて説明する。位置データは、上述したように、水平距離データ(Rxa)と、垂直距離データ(Rya)とからなって。視差情報セット作成部122は、座標モード0においては、図18に示すように、水平距離データ(Rxa)を「Rxa=xα/(PH/2)*100」のように求め、垂直距離データ(Rya)を「Rya=yα/(PV/2)*100」のように求める。また、視差情報セット作成部122は、座標モード1においては、図19に示すように、水平距離データ(Rxa)を「Rxa=xα/(PH)*100」のように求め、垂直距離データ(Rya)を「Rya=yα/(PV)*100」のように求める。
 また、視差情報セット作成部122は、第2の画素位置(xα,yα)の視差データ(Disparity)として、その第2の画素位置(xα,yα)の特定の表示解像度における視差情報(視差ベクトル)を求める。
 図20のフローチャートは、視差情報セット作成部122における「ケース5」における視差情報セット作成の処理手順を示している。視差情報セット作成部122は、ステップST21において、ソース画像の、縦サイズ(PV=SourcePictureVerticalSize)、横サイズ(PH=SourcePictureHorizontalSize)、およびアスペクト比(PictureAspectRatio)を調べる。
 次に、視差情報セット作成部122は、ステップST22において、ディスパリティ・マップをスキャンして、所定の視差情報(視差ベクトル)の値と、その座標(x1,y1)をマークする。なお、この座標(x1,y1)は、画像のトップ-レフト(top-left)を原点(0,0)としたものである。
 次に、視差情報セット作成部122は、座標モード0であるとき、ステップST23の処理に進む。このステップST23において、視差情報セット作成部122は、座標(x1,y1)を、画像中心Oを原点(0,0)とする座標(x,y)に変換する。この場合の変換式は、x=x1-PH/2、y=y1-PV/2である。
 次に、視差情報セット作成部122は、ステップST24において、画素位置(x,y)の水平距離データ(Rxa)と、垂直距離データ(Rya)とを求める。この場合、「Rxa=xα/(PH/2)*100」とされ、「Rya=yα/(PV/2)*100」とされる。また、視差情報セット作成部122は、ステップST25において、視差データ(Disparity)を求める。この場合、視差データ(Disparity)として、座標(x、y)の特定の表示解像度における視差情報(視差ベクトル)を求める。
 また、視差情報セット作成部122は、ステップST22の処理の後、座標モード1であるとき、ステップST26の処理に進む。この場合、座標(x1,y1)を、そのまま、座標(x,y)として用いる。ステップST26において、視差情報セット作成部122は、画素位置(x,y)の水平距離データ(Rxa)と、垂直距離データ(Rya)とを求める。この場合、「Rxa=xα/(PH)*100」とされ、「Rya=yα/(PV)*100」とされる。また、視差情報セット作成部122は、ステップST27において、視差データ(Disparity)を求める。この場合、視差データ(Disparity)として、座標(x、y)の特定の表示解像度における視差情報(視差ベクトル)を求める。
 [ケース6]
 視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。
 ここで、所定の画素位置(x,y)は、座標モード0のときは、画像中心Oを原点(0,0)とした座標で表される。また、所定の画素位置(x,y)は、座標モード1のときは、画像のトップ-レフト(top-left)を原点(0,0)とした座標で表される。
 この「ケース6」において、位置データは、原点(0,0)からの水平距離を示す水平距離データ(Rxa)、原点(0,0)からの垂直距離を示す垂直距離データ(Rya)とからなる。水平距離データRxaは、画像の水平方向サイズに対する割合で示される。座標モード0のときは、「Rxa=x/(PH/2)*100」となる。また、座標モード1のときは、「Rxa=x/(PH)*100」となる。ここで、PHは、画像の水平方向サイズを表している。また、垂直距離データRyaは、画像の垂直方向サイズに対する割合で示される。座標モード0のときは、「Rya=y/(PV/2)*100」となる。また、座標モード1のときは、「Rya=y/(PV)*100」となる。ここで、PVは、画像の垂直方向サイズを表している。
 この「ケース6」において、画素位置(x,y)の視差データ(Relative_Disparity_ratio)は、その画素位置(x,y)の特定の解像度における視差情報(視差ベクトル)の値そのものではなく、水平解像度PHに対する割合を示すデータとする。例えば、図21に示すように、1920×1080のフルHDの解像度の場合、視差データ(Relative_Disparity_ratio)は、「Relative_Disparity_ratio=視差情報値/1920*Factor」のように、求められる。例えば、視差情報値が+60ピクセルの場合、「Relative_Disparity_ratio=60/1920*Factor」となる。
 このように、この「ケース6」において、視差情報セット作成部122は、所定の画素位置の位置データとして、上述の「ケース5」と同様の位置データ(水平距離データ、垂直距離データ)を作成する。また、この「ケース6」において、視差情報セット作成部122は、所定の画素位置の視差データとして、その画素位置(x,y)の視差情報値の水平表示解像度PHに対する割合を示すデータ(Relative_Disparity_ratio)を作成する。
 そのため、視差情報セット作成部122における「ケース6」における視差情報セット作成の処理手順は、ステップST25およびステップST27で求める視差データの内容が異なることを除き、上述の図20のフローチャートで示す処理手順と同様に行われる。
 [視差情報セットの構造]
 次に、視差情報セット作成部122で作成される視差情報セットの内容例を説明する。図22~図25、図27~図28は、視差情報セットの内容例を示している。図26、図29は、その内容例における主要なデータ規定内容(semantics)を示している。
 図22は、上述の「ケース1」で作成される視差情報セットの内容例を示している。「TS(Timesegment)」は、イベント、プログラム、シーン等の期間の等分割数を示す8ビットのデータである。「TS=1」は、分割されていないことを示す。「subdivision」は、各タイム・セグメントの期間の等分割数を示す8ビットのデータである。「subdivision=1」は、分割されていないことを示す。
 「Number Of Direction Line」は、視差情報セットの総数を示す。例えば、視差情報の値が最大(Max)となる第1の画素位置と、視差情報の値が最小(Min)となる画素位置(第2の画素位置)の2つの視差情報セットがある場合、「Number Of Direction Line=1」とされる。「Zone_id」は、画素位置(x,y)の方向データを構成する2ビットのゾーン識別子である。上述したように、“Zone_id=00”は第1象限を示し、“Zone_id=01”は第2象限を示し、“Zone_id=10”は第3象限を示し、“Zone_id=11”は第4象限を示す。
 「2D_direction_theta」は、画素位置(x,y)の方向データを構成する正接データ(tanθ=y/x)を示す10ビットのデータである。「Line Scale」は、原点(0,0)から画素位置(x,y)までの相対距離(Line Scale=L/LineFull)を示す10ビットデータである。「Disparity_gradient_phai」は、画素位置(x,y)の視差情報(視差ベクトル)の値の、原点(0,0)からの画素位置(x,y)までの距離に対する割合(tanφ=D/L)を示す12ビットデータである。
 図23は、上述の「ケース2」で作成される視差情報セットの内容例を示している。この図23の視差情報セットの内容例は、上述した図22の視差情報セットの内容例と、「Disparity_gradient_phai」が「Disparity」に置き換わっていることを除き、同じある。
「Disparity」は、視差情報(視差ベクトル)の値を示す12ビットデータである。
 図24は、上述の「ケース3」で作成される視差情報セットの内容例を示している。この図24の視差情報セットの内容例は、上述した図22の視差情報セットの内容例と、「Zone_idD」、「2D_direction_theta」が「Direction」に置き換わっていることを除き、同じある。「Direction」は、原点(0,0)からの画素位置(x,y)の方向を示す8ビットデータである。
 図25は、上述の「ケース4」で作成される視差情報セットの内容例を示している。この図25の視差情報セットの内容例は、上述した図24の視差情報セットの内容例と、「Disparity_gradient_phai」が「Disparity」に置き換わっていることを除き、同じある。
「Disparity」は、画素位置(x,y)の視差情報(視差ベクトル)の値を示す12ビットデータである。
 図27は、上述の「ケース5」で作成される視差情報セットの内容例を示している。「TS(Timesegment)」は、イベント、プログラム、シーン等の等分割数を示す8ビットのデータである。「TS=1」は、分割されていないことを示す。「subdivision」は、各タイム・セグメントの等分割数を示す8ビットのデータである。「subdivision=1」は、分割されていないことを示す。
 「Number Of Disparity Point」は、視差情報セットの総数を示す。例えば、視差情報の値が最大(Max)となる第1の画素位置と、視差情報の値が最小(Min)となる画素位置(第2の画素位置)の2つの視差情報セットがある場合、「Number Of Disparity Point =1」とされる。「relative_plain_mode」は、相対プレーンのタイプを示す1ビットデータである。「relative_plain_mode=1」は、座標モード0であって、画像中心Oを原点(0,0)とした座標のプレーンであることを示す。「relative_plain_mode=0」は、座標モード1であって、画像のトップ-レフト(top-left)を原点(0,0)とした座標のプレーンであることを示す。
 「Relative_x」は、原点(0,0)から画素位置(x、y)までの水平距離(Rxa)を示す11ビットデータである。この水平距離(Rxa)は、画像の水平方向サイズに対する割合で示される。「Relative_y」は、原点(0,0)から画素位置(x、y)までの垂直距離(Rya)を示す11ビットデータである。この垂直距離(Rya)は、画像の垂直方向サイズに対する割合で示される。「Disparity」は、画素位置(x、y)の視差情報(視差ベクトル)の値を示す12ビットデータである。
 図28は、上述の「ケース6」で作成される視差情報セットの内容例を示している。この図28の視差情報セットの内容例は、上述した図27の視差情報セットの内容例と、「Disparity」が「Relative_Disparity_ratio」に置き換わっていることを除き、同じある。「Relative_Disparity_ratio」は、画素位置(x,y)の視差情報(視差ベクトル)の値の水平解像度PHに対する割合を示す12ビットデータである。
 図30~図35は、上述した「ケース1」~「ケース6」において視差情報セット作成部122で作成された視差情報セットを含むデスクリプタ(z-OSD Descriptor)の一例を示している。「descriptor_tag」」は、デスクリプタのタイプを示す8ビットのデータである。ここでは、視差情報セットを含むデスクリプタ(z-OSD Descriptor)であることが示される。「descriptor_length」は、この情報の長さ(サイズ)を示す8ビットのデータである。このデスクリプタの情報として、上述した視差情報セットが挿入される。図30~図35は、それぞれ、上述の「ケース1」~「ケース6」で作成される視差情報セットが含まれたデスクリプタ(z-OSD Descriptor)を示している。
 図2に示す送信データ生成部110において、マルチプレクサ126から出力されるビットストリームデータBSDには、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと共に、所定番組の立体画像データに対応した所定の画素位置の視差情報セットが含まれている。そのため、受信側において、視差情報セットを用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
 また、図2に示す送信データ生成部110において、マルチプレクサ122から出力されるビットストリームデータBSDに含まれている視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。そのため、視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。したがって、受信側において、モニタの表示解像度やモニタサイズによらずに、この視差情報セットを用いて容易に視差調整を行うことが可能となる。
 [セットトップボックスの説明]
 図1に戻って、セットトップボックス200は、放送局100から放送波にのせて送信されてくるビットストリームデータ(トランスポートストリーム)BSDを受信する。このビットストリームデータBSDには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、視差情報セットが含まれる。
 セットトップボックス200は、ビットストリーム処理部201を有している。このビットストリーム処理部201は、ビットストリームデータから、立体画像データ、音声データ、視差情報セット等を抽出する。このビットストリーム処理部201は、適宜、OSD等のグラフィクス情報が重畳された左眼画像および右眼画像のデータを生成する。この場合、視差情報セットに基づいて、左眼画像に重畳する左眼グラフィクス情報と右眼画像に重畳する右眼グラフィクス情報との間には視差が付与される。このように左眼グラフィクス情報と右眼グラフィクス情報右眼サブタイトルとの間に視差が付与されることで、ユーザは、立体画像に重畳されるグラフィクス情報を、例えば、画像の手前に認識可能となる。
 [セットトップボックスの構成例]
 セットトップボックス200の構成例を説明する。図36は、セットトップボックス200の構成例を示している。このセットトップボックス200は、ビットストリーム処理部201と、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像処理回路205と、HDMI送信部206と、音声処理回路207を有している。また、このセットトップボックス200は、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216を有している。
 アンテナ端子203は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ204は、アンテナ端子203に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDを出力する。
 ビットストリーム処理部201は、上述したように、ビットストリームデータBSDから立体画像データ、音声データ等を抽出して出力する。このビットストリーム処理部201は、立体画像データに対して、適宜、OSD等のグラフィクス情報の表示データを合成する。その際、ビットストリーム処理部201は、視差情報セットに基づいて、左眼画像に重畳する左眼グラフィクス情報と右眼画像に重畳する右眼グラフィクス情報との間に視差を付与する。
 映像処理回路205は、ビットストリーム処理部201から出力される立体画像データに対して必要に応じて画質調整処理などを行い、処理後の立体画像データをHDMI送信部206に供給する。音声処理回路207は、ビットストリーム処理部201から出力された音声データに対して必要に応じて音質調整処理等を行い、処理後の音声データをHDMI送信部206に供給する。
 HDMI送信部206は、HDMIに準拠した通信により、例えば、非圧縮の画像データおよび音声データを、HDMI端子202から送出する。この場合、HDMIのTMDSチャネルで送信するため、画像データおよび音声データはパッキングされ、HDMI送信部206からHDMI端子202に出力される。
 CPU211は、セットトップボックス200の各部の動作を制御する。フラッシュROM212は、制御ソフトウェアの格納およびデータの保管を行う。DRAM213は、CPU211のワークエリアを構成する。CPU211は、フラッシュROM212から読み出したソフトウェアやデータをDRAM213上に展開してソフトウェアを起動させ、セットトップボックス200の各部を制御する。
 リモコン受信部215は、リモコン送信機216から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU211に供給する。CPU211は、このリモコンコードに基づいて、セットトップボックス200の各部を制御する。CPU211、フラッシュROM212およびDRAM213は内部バス214に接続されている。
 ビットストリーム処理部201について説明する。このビットストリーム処理部201は、デマルチプレクサ220と、ビデオデコーダ221と、オーディオデコーダ224と、OSD表示データ発生部226と、ビデオ重畳部228を有している。デマルチプレクサ220は、ビットストリームデータBSDから、ビデオ、オーディオのパケットを抽出し、各デコーダに送る。また、デマルチプレクサ220は、ビットストリームデータBSDから、視差情報セットを抽出し、OSD表示データ発生部226と、上述したHDMI送信部206に送る。
 ビデオデコーダ221は、デマルチプレクサ220で抽出されたビデオのパケットからビデオのエレメンタリーストリームを再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む立体画像データを得る。オーディオデコーダ224は、デマルチプレクサ220で抽出されたオーディオのパケットからオーディオのエレメンタリーストリームを再構成し、復号化処理を行って、音声データを得て、ビットストリーム処理部201の外部に出力する。
 OSD表示データ発生部226は、立体画像データに含まれる左眼画像データに対応した左眼グラフィクス情報のデータおよび立体画像データに含まれる右眼画像データに対応した右眼グラフィクス情報のデータを発生する。この場合、OSD表示データ発生部226は、デマルチプレクサ220で抽出された視差情報セットに基づいて、左眼グラフィクス情報と右眼グラフィクス情報との間に視差を付与する。
 ここで、OSD表示データ発生部226は、視差情報セットに含まれる位置データおよび視差データに基づいて、送信側での処理とは逆の処理により、視差情報セットが対応する画像領域内の位置を求め、さらに、その位置の視差情報値を再現する。
 ビデオ重畳部228は、ビデオデコーダ221で得られた立体画像データ(左眼画像データ、右眼画像データ)に対し、OSD表示データ発生部226で発生された左眼および左眼のグラフィクス情報のデータを重畳し、表示用立体画像データを得る。そして、このビデオ重畳部228は、表示用立体画像データを、ビットストリーム処理部201Dの外部に出力する。
 セットトップボックス200の動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDが出力される。
 デジタルチューナ204から出力されるビットストリームデータBSDは、ビットストリーム処理部201に供給される。このビットストリーム処理部201では、ビットストリームデータBSDから立体画像データ、音声データ、視差情報セット等が抽出される。ビットストリーム処理部201では、立体画像データに対して、適宜、OSD等のグラフィクス情報の表示データが合成される。
 その際、ビットストリーム処理部201では、視差情報セットに基づいて、左眼画像に重畳する左眼グラフィクス情報と右眼画像に重畳する右眼グラフィクス情報との間に視差が付与される。これにより、立体画像に重畳表示されるグラフィクス情報に関して、画像内の各物体との間の遠近感の整合性を最適な状態に維持することが可能となる。
 ビットストリーム処理部201で得られた表示用立体画像データは、映像処理回路205に供給される。この映像処理回路205では、表示用立体画像データに対して、必要に応じて画質調整処理等が行われる。この映像処理回路205から出力される処理後の表示用立体画像データは、HDMI送信部206に供給される。
 また、ビットストリーム処理部201で得られた音声データは、音声処理回路207に供給される。この音声処理回路207では、音声データに対して、必要に応じて音質調整処理等の処理が行われる。この音声処理回路207から出力される処理後の音声データは、HDMI送信部206に供給される。そして、HDMI送信部206に供給された立体画像データおよび音声データは、HDMIのTMDSチャネルにより、HDMI端子202からHDMIケーブル400に送出される。
 [テレビ受信機の説明]
 図1に戻って、テレビ受信機300は、セットトップボックス200からHDMIケーブル400を介して送られてくる立体画像データを受信する。このテレビ受信機300は、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。この3D信号処理部301は、立体画像データを構成する左眼画像データおよび右眼画像データを取得する。
 [テレビ受信機の構成例]
 テレビ受信機300の構成例を説明する。図37は、テレビ受信機300の構成例を示している。このテレビ受信機300は、3D信号処理部301と、HDMI端子302と、HDMI受信部303と、アンテナ端子304と、デジタルチューナ305と、ビットストリーム処理部306を有している。
 また、このテレビ受信機300は、OSD表示データ発生部313と、ビデオ重畳部314と、映像処理回路307と、パネル駆動回路308と、表示パネル309と、音声処理回路310と、音声増幅回路311と、スピーカ312を有している。また、このテレビ受信機300は、CPU321と、フラッシュROM322と、DRAM323と、内部バス324と、リモコン受信部325と、リモコン送信機326を有している。
 アンテナ端子304は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ305は、アンテナ端子304に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)を出力する。
 ビットストリーム処理部306は、図36に示すセットトップボックス200のビットストリーム処理部201と同様の構成とされている。このビットストリーム処理部306は、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、視差情報セット等を抽出する。
 HDMI受信部303は、HDMIに準拠した通信により、HDMIケーブル400を介してHDMI端子302に供給される非圧縮の画像データおよび音声データを受信する。このHDMI受信部303は、そのバージョンが例えばHDMI1.4とされており、立体画像データの取り扱いが可能な状態にある。このHDMI受信部303の詳細は後述する。
 3D信号処理部301は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対して、デコード処理を行って、左眼画像データおよび右眼画像データを生成する。この場合、3D信号処理部301は、ビットストリーム処理部306で得られた立体画像データに対しては、その伝送方フォーマットに対応したデコード処理を行う。また、3D信号処理部301は、HDMI受信部303で受信された立体画像データに対しては、後述するTMDS伝送データ構造に対応したデコード処理を行う。
 OSD表示データ発生部313は、立体画像データに含まれる左眼画像データに対応した左眼グラフィクス情報のデータおよび立体画像データに含まれる右眼画像データに対応した右眼グラフィクス情報のデータを発生する。このグラフィクス情報は、メニュー、番組表などのOSD表示のための重畳情報である。この場合、OSD表示データ発生部313は、ビットストリーム処理部306で得られた、あるいはHDMI受信部303で受信された視差情報セットに基づいて、左眼グラフィクス情報と右眼グラフィクス情報との間に視差を付与する。
 ここで、OSD表示データ発生部313は、視差情報セットに含まれる位置データおよび視差データに基づいて、送信側での処理とは逆の処理により、視差情報セットが対応する画像領域内の位置を求め、さらに、その位置の視差情報の値を求める。
 ビデオ重畳部314は、3D信号処理部301で得られた立体画像データ(左眼画像データ、右眼画像データ)に対し、OSD表示データ発生部313で発生された左眼および左眼のグラフィクス情報のデータを重畳し、表示用立体画像データを得る。
 映像処理回路307は、3D信号処理部301で生成された左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データを生成する。また、映像処理回路307は、画像データに対して、必要に応じて、画質調整処理を行う。パネル駆動回路308は、映像処理回路307から出力される画像データに基づいて、表示パネル309を駆動する。表示パネル309は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma DisplayPanel)等で構成されている。
 音声処理回路310は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路311は、音声処理回路310から出力される音声信号を増幅してスピーカ312に供給する。
 CPU321は、テレビ受信機300の各部の動作を制御する。フラッシュROM322は、制御ソフトウェアの格納およびデータの保管を行う。DRAM323は、CPU321のワークエリアを構成する。CPU321は、フラッシュROM322から読み出したソフトウェアやデータをDRAM323上に展開してソフトウェアを起動させ、テレビ受信機300の各部を制御する。
 リモコン受信部325は、リモコン送信機326から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU321に供給する。CPU321は、このリモコンコードに基づいて、テレビ受信機300の各部を制御する。CPU321、フラッシュROM322およびDRAM323は、内部バス324に接続されている。
 図37に示すテレビ受信機300の動作を簡単に説明する。HDMI受信部303では、HDMI端子302にHDMIケーブル400を介して接続されているセットトップボックス200から送信されてくる、立体画像データおよび音声データが受信される。このHDMI受信部303で受信された立体画像データは、3D信号処理部301に供給される。また、このHDMI受信部303で受信された音声データは音声処理回路310に供給される。
 アンテナ端子304に入力されたテレビ放送信号はデジタルチューナ305に供給される。このデジタルチューナ305では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)が出力される。
 デジタルチューナ305から出力されるビットストリームデータは、ビットストリーム処理部306に供給される。このビットストリーム処理部306では、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、視差情報セット等が抽出される。ビットストリーム処理部306で得られた立体画像データは、3D信号処理部301に供給される。また、このビットストリーム処理部306で得られた音声データは、音声処理回路310に供給される。
 3D信号処理部301では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対してデコード処理が行われて、左眼画像データおよび右眼画像データが生成される。この左眼画像データおよび右眼画像データは、ビデオ重畳部314に供給される。
 OSD表示データ発生部313では、立体画像データに含まれる左眼画像データに対応した左眼グラフィクス情報のデータおよび立体画像データに含まれる右眼画像データに対応した右眼グラフィクス情報のデータが発生される。この場合、OSD表示データ発生部313では、ビットストリーム処理部306で得られた、あるいはHDMI受信部303で受信された視差情報セットに基づいて、左眼グラフィクス情報と右眼グラフィクス情報との間に視差が付与される。
 ビデオ重畳部314では、3D信号処理部301で得られた立体画像データ(左眼画像データ、右眼画像データ)に対し、OSD表示データ発生部313で発生された左眼および左眼のグラフィクス情報のデータが重畳し、表示用立体画像データが得られる。この表示用立体画像データは、映像処理回路307に供給される。この映像処理回路307では、左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データが生成され、必要に応じて、画質調整処理も行われる。
 映像処理回路307で得られる画像データはパネル駆動回路308に供給される。そのため、表示パネル309により立体画像が表示される。例えば、表示パネル309に、左眼画像データによる左眼画像および右眼画像データによる右眼画像が交互に時分割的に表示される。視聴者は、表示パネル309の表示に同期して左眼シャッタおよび右眼シャッタが交互に開くシャッタメガネを装着することで、左眼では左眼画像のみを見ることができ、右眼では右眼画像のみを見ることができ、立体画像を知覚できる。
 また、音声処理回路310では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理が施される。この音声データは、音声増幅回路311で増幅された後に、スピーカ312に供給される。そのため、スピーカ312から表示パネル309の表示画像に対応した音声が出力される。
 ここで、OSD表示データ発生部313(セットトップボックス200のOSD表示データ発生部226も含む)における、視差情報セットの処理について説明する。例えば、視差情報セットが上述の「ケース1」で作成された場合について説明する。この場合、図38に示すように、視差情報セットには、方向データを構成する正接データ(tanθ)およびゾーン識別子(Zone_id)が含まれている。また、視差情報セットには、距離データ(Line Scale)および視差データ(Disparity Gradient:tanφ)が含まれている。
 OSD表示データ発生部313は、ステップST41において、表示画像の構成(縦横の解像度、画素間距離)を決めると共に、画像中心Oと、この画像中心Oから端までの距離を画素数換算で調査する。
 次に、OSD表示データ発生部313は、ステップST42において、ゾーン識別子(Zone_id)で位置が何象限にあるかを確認し、図39に示すように、正接データ(tanθ)で画像中心Oから延びる直線「direction line」の傾きを求める。また、OSD表示データ発生部313は、距離データ(Line Scale)と直線「direction line」の表示の端点までの長さとから、図39に示すように、距離Lα(OA),Lβ(OB)を求める。これにより、OSD表示データ発生部313は、視差情報値が最大の位置(xβ,yβ)と、視差情報値が最小の位置(xα,yα)を認識する。
 次に、OSD表示データ発生部313は、ステップST43において、視差データ(tanφα,tanφβ)と、距離Lα(OA),Lβ(OB)とを用いて、図40に示すように、視差情報値Dα,Dβを再現する。
 また、例えば、視差情報セットが上述の「ケース6」で作成された場合について説明する。この場合、図41に示すように、視差情報セットには、座標モードデータと、水平距離データRxaと、垂直距離データRyaと、視差データ(Relative_Disparity_ratio)が含まれている。
 OSD表示データ発生部313は、ステップST51において、表示画像の構成(縦横の解像度、画素間距離)を決める。そして、OSD表示データ発生部313は、座標モード1であれば、左上端からの相対位置を2次元平面に計算する(図19参照)。一方、OSD表示データ発生部313は、座標モード0であれば、画像中心Oから端までの距離を画素数換算で計算し、装置位置を特定する(図18参照)。
 次に、OSD表示データ発生部313は、ステップST52において、距離データRxa,Ryaと、視差データ(Relative_Disparity_ratio)とから、視差ずらし位置を求めると共に、視差量を再現し、表示平面に割り当てる。
 ここで、モニタサイズの違いによる視差情報とその位置との関係について説明する。例えば、図42に示すように、小サイズモニタと、大サイズモニタとを考える。これらのモニタの解像度が同じであるとすると、小サイズモニタのピクセル(画素)間隔は狭く、大サイズモニタのピクセル(画素)間隔は広くなる。視差情報位置が表示モニタ上で適切に求められる。そして、受信視差情報値は、表示モニタ上の立体画像の奥行きに合った適切な視差情報値に変換される。
 また、解像度の違いによる視差情報とその位置との関係について説明する。例えば、図43に示すように、高解像度モニタと、低解像度モニタとを考える。これらのモニタのサイズが同じであるとすると、高解像度モニタのピクセル(画素)間隔は狭く、低解像度モニタのピクセル(画素)間隔は広くなる。視差情報位置が、表示モニタ上で適切に求められる。そして、受信視差情報値から、表示モニタ上の立体画像の奥行きに合った適切な視差情報値に変換される。
 計算された視差情報位置あるいは視差情報値が小数になることがある。この場合、OSD表示データ発生部226は、左眼画像に重畳する左眼グラフィクス情報と右眼画像に重畳する右眼グラフィクス情報との間に視差情報に基づいた視差を付与するためのシフト調整において、補間処理を用いる。これにより、サブピクセルの精度でのシフト調整を行うことができる。図44は、水平方向に1/2画素(ピクセル)分のシフトをする場合の補間処理例を概略的に示している。図44(a)の黒丸は、受信データを示している。図44(b)の白丸は、受信データを単純に、水平方向に1/2画素分だけシフトした状態を示している。しかし、この白丸で示すデータは、画素(ピクセル)位置のデータはない。そこで、シフト調整部225は、白丸で示すデータに対して補間処理を施して、図44(b)のハッチング付きの丸で示す画素位置のデータを生成し、シフト調整後のデータとする。
 [HDMI送信部、HDMI受信部の構成例]
 図45は、図1の立体画像表示システム10における、セットトップボックス200のHDMI送信部(HDMIソース)206と、テレビ受信機300のHDMI受信部(HDMIシンク)303の構成例を示している。
 HDMI送信部206は、有効画像区間(以下、適宜、アクティブビデオ区間ともいう)において、非圧縮の1画面分の画像の画素データに対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。ここで、有効画像区間は、一の垂直同期信号から次の垂直同期信号までの区間から、水平帰線区間及び垂直帰線区間を除いた区間である。また、HDMI送信部206は、水平帰線区間または垂直帰線区間において、少なくとも画像に付随する音声データや制御データ、その他の補助データ等に対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。
 HDMI送信部206とHDMI受信部303とからなるHDMIシステムの伝送チャネルには、以下の伝送チャネルがある。すなわち、HDMI送信部206からHDMI受信部303に対して、画素データおよび音声データを、ピクセルクロックに同期して、一方向にシリアル伝送するための伝送チャネルとしての、3つのTMDSチャネル#0乃至#2がある。また、ピクセルクロックを伝送する伝送チャネルとしての、TMDSクロックチャネルがある。
 HDMI送信部206は、HDMIトランスミッタ81を有する。トランスミッタ81は、例えば、非圧縮の画像の画素データを対応する差動信号に変換し、複数のチャネルである3つのTMDSチャネル#0,#1,#2で、HDMIケーブル400を介して接続されているHDMI受信部303に、一方向にシリアル伝送する。
 また、トランスミッタ81は、非圧縮の画像に付随する音声データ、さらには、必要な制御データその他の補助データ等を、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2でHDMI受信部303に、一方向にシリアル伝送する。
 さらに、トランスミッタ81は、3つのTMDSチャネル#0,#1,#2で送信する画素データに同期したピクセルクロックを、TMDSクロックチャネルで、HDMIケーブル400を介して接続されているHDMI受信部303に送信する。ここで、1つのTMDSチャネル#i(i=0,1,2)では、ピクセルクロックの1クロックの間に、10ビットの画素データが送信される。
 HDMI受信部303は、アクティブビデオ区間において、複数のチャネルで、HDMI送信部206から一方向に送信されてくる、画素データに対応する差動信号を受信する。また、このHDMI受信部303は、水平帰線区間または垂直帰線区間において、複数のチャネルで、HDMI送信部206から一方向に送信されてくる、音声データや制御データに対応する差動信号を受信する。
 すなわち、HDMI受信部303は、HDMIレシーバ82を有する。このHDMIレシーバ82は、TMDSチャネル#0,#1,#2で、HDMI送信部206から一方向に送信されてくる、画素データに対応する差動信号と、音声データや制御データに対応する差動信号を受信する。この場合、HDMI送信部206からTMDSクロックチャネルで送信されてくるピクセルクロックに同期して受信する。
 HDMIシステムの伝送チャネルには、上述のTMDSチャネル#0乃至#2およびTMDSクロックチャネルの他に、DDC(Display Data Channel)83やCECライン84と呼ばれる伝送チャネルがある。DDC83は、HDMIケーブル400に含まれる図示しない2本の信号線からなる。DDC83は、HDMI送信部206が、HDMI受信部303から、E-EDID(Enhanced Extended Display Identification Data)を読み出すために使用される。
 すなわち、HDMI受信部303は、HDMIレシーバ81の他に、自身の性能(Configuration/capability)に関する性能情報であるE-EDIDを記憶している、EDID ROM(Read Only Memory)85を有している。HDMI送信部206は、例えば、CPU211(図36参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、E-EDIDを、DDC83を介して読み出す。
 HDMI送信部206は、読み出したE-EDIDをCPU211に送る。CPU211は、このE-EDIDを、フラッシュROM212あるいはDRAM213に格納する。CPU211は、E-EDIDに基づき、HDMI受信部303の性能の設定を認識できる。例えば、CPU211は、HDMI受信部303を有するテレビ受信機300が立体画像データの取り扱いが可能か否か、可能である場合はさらにいかなるTMDS伝送データ構造に対応可能であるか等を認識する。
 CECライン84は、HDMIケーブル400に含まれる図示しない1本の信号線からなり、HDMI送信部206とHDMI受信部303との間で、制御用のデータの双方向通信を行うために用いられる。このCECライン84は、制御データラインを構成している。
 また、HDMIケーブル400には、HPD(Hot Plug Detect)と呼ばれるピンに接続されるライン(HPDライン)86が含まれている。ソース機器は、当該ライン86を利用して、シンク機器の接続を検出することができる。なお、このHPDライン86は双方向通信路を構成するHEAC-ラインとしても使用される。また、HDMIケーブル400には、ソース機器からシンク機器に電源を供給するために用いられるライン(電源ライン)87が含まれている。さらに、HDMIケーブル400には、ユーティリティライン88が含まれている。このユーティリティライン88は双方向通信路を構成するHEAC+ラインとしても使用される。
 図46は、TMDS伝送データの構造例を示している。この図46は、TMDSチャネル#0,#1,#2において、横×縦が1920ピクセル×1080ラインの画像データが伝送される場合の、各種の伝送データの区間を示している。
 HDMIの3つのTMDSチャネル#0,#1,#2で伝送データが伝送されるビデオフィールド(Video Field)には、伝送データの種類に応じて、3種類の区間が存在する。この3種類の区間は、ビデオデータ区間(Video Data period)、データアイランド区間(Data Islandperiod)、およびコントロール区間(Control period)である。
 ここで、ビデオフィールド区間は、ある垂直同期信号の立ち上がりエッジ(activeedge)から次の垂直同期信号の立ち上がりエッジまでの区間である。このビデオフィールド区間は、水平ブランキング期間(horizontal blanking)、垂直ブランキング期間(verticalblanking)、並びに、アクティブビデオ区間(Active Video)に分けられる。このアクティブビデオ区間は、ビデオフィールド区間から、水平ブランキング期間および垂直ブランキング期間を除いた区間である
 ビデオデータ区間は、アクティブビデオ区間に割り当てられる。このビデオデータ区間では、非圧縮の1画面分の画像データを構成する1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータが伝送される。
 データアイランド区間およびコントロール区間は、水平ブランキング期間および垂直ブランキング期間に割り当てられる。このデータアイランド区間およびコントロール区間では、補助データ(Auxiliary data)が伝送される。すなわち、データアイランド区間は、水平ブランキング期間と垂直ブランキング期間の一部分に割り当てられている。このデータアイランド区間では、補助データのうち、制御に関係しないデータである、例えば、音声データのパケット等が伝送される。
 コントロール区間は、水平ブランキング期間と垂直ブランキング期間の他の部分に割り当てられている。このコントロール区間では、補助データのうちの、制御に関係するデータである、例えば、垂直同期信号および水平同期信号、制御パケット等が伝送される。
 図47は、HDMI端子のピン配列の一例を示している。図47に示すピン配列はタイプA(type-A)と呼ばれている。TMDSチャネル#iの差動信号であるTMDS Data#i+とTMDS Data#i-は差動線である2本のラインにより伝送される。この2本のラインは、TMDS Data#i+が割り当てられているピン(ピン番号が1,4,7のピン)と、TMDS Data#i-が割り当てられているピン(ピン番号が3,6,9のピン)に接続される。
 また、制御用のデータであるCEC信号が伝送されるCECライン84は、ピン番号が13であるピンに接続される。また、E-EDID等のSDA(Serial Data)信号が伝送されるラインは、ピン番号が16であるピンに接続される。SDA信号の送受信時の同期に用いられるクロック信号であるSCL(Serial Clock)信号が伝送されるラインは、ピン番号が15であるピンに接続される。上述のDDC83は、SDA信号が伝送されるラインおよびSCL信号が伝送されるラインにより構成される。
 また、上述したようにソース機器がシンク機器の接続を検出するためのHPDライン(HEAC-ライン)86は、ピン番号が19であるピンに接続される。また、ユーティリティライン(HEAC+ライン)88は、ピン番号が14であるピンに接続される。また、上述したように電源を供給するためのライン87は、ピン番号が18であるピンに接続される。
 [E-EDID構造]
 上述したように、HDMI送信部206は、例えば、CPU211(図36参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、E-EDIDを、DDC83を介して読み出す。そして、CPU211は、このE-EDIDに基づき、HDMI受信部303の性能の設定、例えば立体画像データの取り扱いが可能か否か等を認識する。
 図48は、E-EDIDのデータ構造例を示している。このE-EDIDは、基本ブロックと拡張ブロックとからなっている。基本ブロックには、先頭に、“E-EDID1.3 Basic Structure”で表されるE-EDID1.3の規格で定められたデータが配置されている。基本ブロックには、続いて“Preferred timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。また、基本ブロックには、続いて、“2nd timing”で表される従来のEDIDとの互換性を保つための、“Preferredtiming”とは異なるタイミング情報が配置されている。
 また、基本ブロックには、“2nd timing”に続いて、“Monitor NAME”で表される表示装置の名前を示す情報が配置されている。基本ブロックには、続いて、“Monitor Range Limits”で表される、アスペクト比が4:3および16:9である場合についての表示可能な画素数を示す情報が配置されている。
 拡張ブロックの先頭には、“Short Video Descriptor”が配置されている。これは、表示可能な画像サイズ(解像度)、フレームレート、インターレースであるかプログレッシブであるかを示す情報である。続いて、“Short Audio Descriptor”が配置されている。これは、再生可能な音声コーデック方式、サンプリング周波数、カットオフ帯域、コーデックビット数などの情報である。続いて、“Speaker Allocation”で表される左右のスピーカに関する情報が配置されている。
 また、拡張ブロックには、“Speaker Allocation”に続いて、“Vender Specific”で表されるメーカごとに固有に定義されたデータが配置されている。拡張ブロックには、続いて、“3rd timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。拡張ブロックには、さらに続いて、“4th timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。
 図49は、Vender Specific領域(HDMI Vendor Specific Data Block)のデータ構造例を示している。このVender Specific領域には、1バイトのブロックである第0ブロック乃至第Nブロックが設けられている。
 第0ブロックには、“Vendor-Specific tag code(=3)”で表されるデータ“Vender Specific”のデータ領域を示すヘッダが配置される。また、この第0ブロックには、“Length(=N)”で表されるデータ“Vender Specific”の長さを示す情報が配置される。また、第1ブロック乃至第3ブロックには、“24bit IEEE Registration Identifier(0x000C03)LSB first”で表されるHDMI(R)用として登録された番号“0x000C03“を示す情報が配置される。さらに、第4ブロックおよび第5ブロックには、”A“、”B“、”C“、および”D“のそれぞれにより表される、24bitのシンク機器の物理アドレスを示す情報が配置される。
 第6ブロックには、“Supports-AI”で表される、シンク機器が対応している機能を示すフラグが配置されている。また、この第6ブロックには、“DC-48bit”、“DC-36bit”、および“DC-30bit”のそれぞれで表される、1ピクセル当たりのビット数を指定する情報のそれぞれが配置されている。また、この第6ブロックには、“DC-Y444”で表される、シンク機器がYCbCr4:4:4の画像の伝送に対応しているかを示すフラグが配置されている。さらに、この第6ブロックには、“DVI-Dual”で表される、シンク機器がデュアルDVI(Digital VisualInterface)に対応しているかを示すフラグが配置されている。
 また、第7ブロックには、“Max-TMDS-Clock”で表されるTMDSのピクセルクロックの最大の周波数を示す情報が配置される。また、第8ブロックの第6ビット、第7ビットには、“Latency”で表される映像と音声の遅延情報の有無を示すフラグが配置されている。また、第8ブロックの第5ビットには、“HDMI_Video_present”で表される追加のHDMIビデオフォーマット(3D、4k×2k)の取り扱いが可能か否かを示すフラグが配置されている。
 また、第9ブロックには、“Video Latency”で表される、プログレッシブの映像の遅延時間データが配置され、第10ブロックには、“Audio Latency”で表される、プログレッシブの映像に付随する音声の遅延時間データが配置される。また、第11ブロックには、“Interlaced Video Latency”で表されるインターレースの映像の遅延時間データが配置されている。さらに、第12ブロックには、“Interlaced Audio Latency”で表される、インターレースの映像に付随する音声の遅延時間データが配置されている。
 また、第13ブロックの第7ビットには、“3D_present”で表される3D画像データの取り扱いが可能か否かを示すフラグが配置されている。また、第14ブロックの第7ビットから第5ビットには、“HDMI_VIC_LEN”で表される、図示しない第15ブロック以降に配置される必須(mandatory)な3Dデータ構造の他に取り扱い可能なデータ構造を示すブロックのサイズ情報が配置されている。また、第14ブロックの第4ビットから第0ビットには、“HDMI_3D_LEN”で表される、図示しない第15ブロック以降に配置される取り扱い可能な4k×2kのビデオフォーマットを示すブロックのサイズ情報が配置されている。
 [立体画像データのTMDS伝送データ構造]
 図50は、立体画像データのTMDS伝送データ構造の一つであるフレームパッキング(Framepacking)方式の3Dビデオフォーマット(3D Video Format)を示している。この3Dビデオフォーマットは、立体画像データとして、プログレッシブ方式の左眼(L)および右眼(R)の画像データを伝送するためのフォーマットである。
 この3Dビデオフォーマットでは、左眼(L)および右眼(R)の画像データとして、1920×1080p、1080×720pのピクセルフォーマットの画像データの伝送が行われる。なお、図50には、左眼(L)画像データおよび右眼(R)画像データが、それぞれ、1920ライン×1080ピクセルである例を示している。
 この3Dビデオフォーマットにより、垂直同期信号により区切られる、水平ブランキング期間(Hblank)、垂直ブランキング期間(Vblank)およびアクティブビデオ区間(Hactive×Vactive)を含むビデオフィールド区間を単位とする伝送データが生成される。この3Dビデオフォーマットにおいて、アクティブビデオ区間は、2つのアクティブビデオ領域(Active video)と、それらの間に1つのアクティブスペース領域(Activespace)を有している。第1のアクティブビデオ領域に左眼(L)画像データが配され、第2のアクティブビデオ領域に右眼(R)画像データが配される。
 なお、詳細説明は省略するが、HDMI1.4では、上述の図50に示す3Dビデオフォーマットの他にも、立体画像データのTMDS伝送データ構造としての3Dビデオフォーマットが定義されている。例えば、ラインオルタネイティブ(Line alternative)方式、サイド・バイ・サイド(side-bay-side)(Full)方式、フレームパッキング(Frame packing for interlaced format)方式等である。
 図36に示すセットトップボックス200においては、HDMIインタフェースにより、ベースバンドの立体画像データおよび音声データをテレビ受信機300に送信する構成となっている。そして、セットトップボックス200からテレビ受信機300に、ビットストリーム処理部201で使用されている視差情報セットの全部または一部が、HDMIインタフェースにより送信されて使用される。
 図36に示すセットトップボックス200においては、ビットストリーム処理部201より視差情報セットがHDMI送信部206に供給される。そして、HDMI送信部206により、立体画像データおよび音声データと共に、この視差情報セットが、HDMI端子202からHDMIケーブル400に送出される。また、図37に示すテレビ受信機300においては、HDMI受信部303で受信された視差情報セットが、上述したように、OSD表示データ発生部313に供給されて利用される。
 [HDMIでの視差情報セットの送信方法]
 視差情報セットをHDMIインタフェースで送信する方法として、例えば、以下の(1)、(2)の方法が考えられる。
(1)HDMI Vendor Specific InfoFrame を利用する方法
(2)フレームパッキング方式等の3Dビデオフォーマット(3D Video Format)のアクティブスペース(Active Space)を利用する方法
 最初に、(1)のHDMI Vendor Specific InfoFrame を利用する方法について説明する。この方法では、HDMI Vendor Specific InfoFrame paketにおいて、HDMI_Video_Format=“010”かつ3D_Meta_present=1とされて、Vendor SpecificInfoFrame extensionが指定される。その場合、3D_Metadata_typeは、未使用の、例えば、“010”と定義され、視差情報セット(Disparrity Set)の情報が指定される。
 図51は、HDMI Vendor Specific InfoFrame のパケット構造を示している。このHDMI Vendor Specific InfoFrameについては、CEA-861-Dに定義されているので、詳細説明は省略する。
 第4バイト(PB4)の第7ビットから第5ビットに、画像データの種類を示す3ビットの情報「HDMI_Video_Format」が配置されている。画像データが3D画像データである場合、この3ビットの情報は「010」とされる。また、このように画像データが3D画像データである場合、第5バイト(PB5)の第7ビットから第4ビットに、TMDS伝送データ構造を示す4ビットの情報「3D_Structure」が配置される。例えば、フレームパッキング方式(図50参照)の場合、この4ビットの情報は、「0000」とされる。
 また、第5バイト(PB5)の第3ビットに、「3D_Meta_present」が配置され、Vendor Specific InfoFrame extensionを指定する場合、この1ビットは「1」とされる。また、第7バイト(PB7)の第7ビットから第5ビットに、「3D_Metadata_type」が配置されている。視差情報セット(DisparritySet)の情報を指定する場合、この3ビットの情報は、未使用の、例えば、“010”とされる。
 また、第7バイト(PB7)の第4バイトから第0バイトに、「3D_Metadata_length」が配置されている。この5ビットの情報により、以降に配置される3D_Metadata領域の長さが示される。例えば、「3D_Metadata_length=27(0x1B)」とされ、直後のバイト位置から27バイトのサイズをもって、視差情報セットが送信される。例えば、「ケース1」による視差情報セット(図22参照)の5画素位置分が、図示のパターンで配置される。
 次に、(2)のアクティブスペース(Active Space)を利用する方法について説明する。この方法では、図52にHDMI Vendor Specific InfoFrame のパケット構造を示すように、現状ではReserved bitとなっている第5バイト(PB5)の第2ビットに、「ActiveSpaceEnable」が定義され、この1ビットの情報が“1”とされる。その上で、現状ではReservedとされているアクティブスペース領域を用いて、新たに情報エリアが定義され、そこに視差情報セットが配置される。
 アクティブスペース領域は、左眼画像データおよび右眼画像データが配置されるアクティブビデオ領域と共に、アクティブビデオ区間を構成している。ここで、アクティブビデオ領域は主映像領域を構成し、アクティブスペース領域は補助映像領域を構成している。アクティブスペース領域は、ビデオの画サイズにより変動するが、1920×1080の画サイズの場合には、1フレームあたり45ライン分(86400バイト)の容量を持つ。
 例えば、「ケース1」による視差情報セット(図22参照)の最大データサイズは、1+5*256=1281バイトであり、アクティブスペース領域に収まる。図53は、アクティブスペース領域への視差情報セットの配置例を示している。第0バイトに、3ビットの「Active_space_info_Type」と、3ビットの「Block_Size」と、2ビットの「Connect_Info」の情報が配置される。第1バイトおよび第2バイトに、以降の視差情報セットが配置される領域の長さを示す16ビットの「Data_Length」の上位8ビットおよび下位8ビットが配置される。
 上述したように、図1に示す画像送受信システム10において、放送局100(送信データ生成部201)からセットトップボックス200やテレビ受信機300に、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと共に、所定番組の立体画像データに対応した所定の画素位置の視差情報セットが送信される。そのため、受信側において、この視差情報セットを用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
 また、図1に示す画像送受信システム10において、放送局100(送信データ生成部201)からセットトップボックス200やテレビ受信機300に送信される視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。そのため、視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。したがって、受信側において、モニタの表示解像度やモニタサイズによらずに、この視差情報セットを用いて容易に視差調整を行うことが可能となる。
 また、図1に示す画像送受信システム10において、セットトップボックス200からテレビ受信機300に、所定番組の立体画像データと共に、それに対応した所定の画素位置の視差情報セットが、HDMIケーブル400を介して送信される。そのため、テレビ受信機300に画像表示装置において、視差情報セットを用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
 <2.変形例>
 なお、上述実施の形態においては、立体画像表示システム10が、放送局100、セットトップボックス200およびテレビ受信機300で構成されているものを示した。しかし、テレビ受信機300は、図37に示すように、セットトップボックス200内のビットストリーム処理部201と同等に機能するビットストリーム処理部306を備えている。したがって、図55に示すように、放送局100およびテレビ受信機300で構成される立体画像表示システム10Aも考えられる。
 なお、上記実施の形態においては、視差情報セットを含むデスクリプタが、トランスポートストリーム(ビットストリームデータ)のPSI情報またはSI情報の所定位置に挿入される例を示した。しかし、この視差情報セットを、立体画像データを含むビデオエレメンタリーストリーム、サブタイトルデータを含むサブタイトルエレメンタリーストリーム等に挿入して送信することも考えられる。なお、以下では、「ケース5」で視差情報セットが作成される場合で説明する。詳細説明は省略するが、他のケースで視差情報セットが作成される場合にも同様に適用できる。
 最初に、視差情報セットを、立体画像データを含むビデオエレメンタリーストリーム(ビデオデータストリーム)に挿入して送信する場合について説明する。図56は、その場合におけるトランスポートストリーム(ビットストリームデータ)の構成例を示している。この構成例に示すように、視差情報セットを含むメタデータ(z-OSD metadata)が、ビデオエレメンタリーストリームに挿入される。ここで、メタデータはユーザデータとして埋め込まれる。
 図57は、ビデオエレメンタリーストリーム(Video ElementaryStream)の構造例を概略的に示している。ビデオエレメンタリーストリームには、先頭に、シーケンス単位のパラメータを含むシーケンスヘッダ部が配置されている。このシーケンスヘッダ部に続いて、ピクチャ単位のパラメータおよびユーザデータを含むピクチャヘッダが配置されている。このピクチャヘッダ部に続いてピクチャーデータを含むペイロード部が配置される。以下、ピクチャヘッダ部およびペイロード部が繰り返し配置されている。
 上述した視差情報セットは、例えば、ピクチャヘッダ部のユーザデータ領域に埋め込まれる。図58は、ユーザデータの構成例を示している。図58(a)は、符号化方式がMPEG2である場合のユーザデータの構成を示している。図58(b)は、符号化方式がH.264 AVC(MPEG4-AVC)である場合のユーザデータの構成を示している。さらに、図58(c)は、符号化方式がVC-1である場合のユーザデータの構成を示している。
 詳細説明は省略するが、各方式のユーザデータの構成はほぼ同様の構成となっている。すなわち、最初に、ユーザデータの開始を示すコードが配置され、その後に、データの種類を示す識別子「user_identifier」が配置され、さらにその後に、データ本体「user_structure」が配置される。
 図59は、視差情報セットを含むユーザデータの構造(Syntax)の一例を示している。この構造には、図34に示すデスクリプタ(z-OSD Descriptor)と同様に、上述した「ケース5」で作成される視差情報セットが含まれている。この構造例の主要なデータ規定内容(Semantics)が、図60に示されている。
 「Number Of Disparity Points」は、視差情報セットの総数を示す。例えば、視差情報の値が最大(Max)となる第1の画素位置と、視差情報の値が最小(Min)となる画素位置(第2の画素位置)の2つの視差情報セットがある場合、「Number Of Disparity Points=1」とされる。「relative_plain_mode」は、相対プレーンのタイプを示す1ビットデータである。「relative_plain_mode=1」は、座標モード0であって、画像中心Oを原点(0,0)とした座標のプレーンであることを示す。「relative_plain_mode=0」は、座標モード1であって、画像のトップ-レフト(top-left)を原点(0,0)とした座標のプレーンであることを示す。
 「Relative_x」は、原点(0,0)から画素位置(x、y)までの水平距離(Rxa)を示す11ビットデータである。この水平距離(Rxa)は、画像の水平方向サイズに対する割合で示される。「Relative_y」は、原点(0,0)から画素位置(x、y)までの垂直距離(Rya)を示す11ビットデータである。この垂直距離(Rya)は、画像の垂直方向サイズに対する割合で示される。「Disparity」は、画素位置(x、y)の視差情報(視差ベクトル)の値を示す12ビットデータである。
 次に、視差情報セットを、サブタイトルデータを含むサブタイトルエレメンタリーストリーム(サブタイトルデータストリーム)に挿入して送信する場合について説明する。図61は、その場合におけるトランスポートストリーム(ビットストリームデータ)の構成例を示している。この構成例に示すように、新たに定義される視差情報セットを含むセグメント(zOSD:z-OSD segment)が、サブタイトルエレメンタリーストリームに挿入される。
 すなわち、サブタイトルエレメンタリーストリームには、DDS(displaydefinition segment)、PCS(page composition segment)、RCS(region composition segment)、ODS(object datasegment)などの周知のセグメントが含まれる。さらに、このサブタイトルエレメンタリーストリームには、視差情報セットが含まれるセグメント(zOSD)が含まれる。例えば、図62に示すように、zOSDのセグメントタイプは「0x50」とされる。
 図63は、zOSD(z-OSD segment)の構造例(syntax)を示している。このzOSDの主要なデータ規定内容(semantics)が、図60に示されている。「segment_continued_flag」は、このzOSDのセグメントが、現在のセグメントの後に存在するか否かを示す1ビットのフラグ情報である。「segment_continued_flag=1」は、存在することを示す。「segment_continued_flag=0」は、存在しないことを示す。受信側においては、このフラグ情報に基づいて、視差情報セットが含まれるセグメントあるいはパケットが連続して存在するか否かを知ることができ、視差情報の更新の可能性などを事前に知ることができる。
 「delta_PTS[32..0]は、サブタイトルの表示タイミングを特定する、ヘッダ部に含まれるPTS(時間情報)に対する差分(変化分)を示す32ビットのデータである。「Disparity_position_id」は、視差情報セットが対応する画素位置を示す16ビットのデータである。なお、この32ビットのデータは、3分割されて配置されている。
 「relative_plain_mode」は、相対プレーンのタイプを示す1ビットデータである。座標モード0であって、画像中心Oを原点(0,0)とした座標のプレーンであることを示す。「relative_plain_mode=0」は、座標モード1であって、画像のトップ-レフト(top-left)を原点(0,0)とした座標のプレーンであることを示す。
 「Relative_x」は、原点(0,0)から画素位置(x、y)までの水平距離(Rxa)を示す11ビットデータである。この水平距離(Rxa)は、画像の水平方向サイズに対する割合で示される。「Relative_y」は、原点(0,0)から画素位置(x、y)までの垂直距離(Rya)を示す11ビットデータである。この垂直距離(Rya)は、画像の垂直方向サイズに対する割合で示される。「Disparity」は、画素位置(x、y)の視差情報(視差ベクトル)の値を示す12ビットデータである。
 図64(a)は、従来のサブタイトルデータストリームの構成例を示している。PESヘッダには、時間情報(PTS)が含まれている。また、PESペイロードデータとして、DDS、PCS、RCS、ODS、EOSの各セグメントが含まれている。図64(b)は、上述したzOSDが含まれるサブタイトルデータストリームの構成例を示している。PESヘッダには、時間情報(PTS)が含まれている。また、PESペイロードデータとして、DDS、PCS、RCS、ODS、zOSD、EOSの各セグメントが含まれている。
 そして、図64(b)の構成例においては、PESペイロードデータとして、最初に、DDS、PCS、RCS、ODS、zOSDの各セグメントが送信される。その後に、時間差分値(delta_PTS)および視差情報セットの内容が更新された所定個数のzOSDのセグメントを送信できる。最後には、zOSDのセグメントにEOSのセグメントも送信される。この図64(b)の構成例においては、サブタイトルデータストリームの全体を送信することなくzOSDのセグメントを順次送信して、順次更新された視差情報セットを送信できる。なお、この場合、最後のzOSDでは「segment_continued_flag=0」であるが、それ以前のzOSDでは「segment_continued_flag=1」とされる。
 次に、視差情報セットを、独立したメタデータ(Metadata)ストリームで送信する場合について説明する。図65は、その場合におけるトランスポートストリーム(ビットストリームデータ)の構成例を示している。この構成例に示すように、視差情報セットを含むメタデータ(z-OSD metadata)が挿入されているメタデータエレメンタリーストリームが存在する。
 図66は視差情報セットを含むメタデータ(z-OSD metadata)が挿入されているメタデータエレメンタリーストリームの構造例(syntax)を示している。この構造例の主要なデータ規定内容(Semantics)が、図60に示されている。「z-OSD_Metadata_stream_id」は、メタデータ(z-OSDmetadata)が挿入されているメタデータエレメンタリーストリームであることを示す。「z-OSD_Metadata_set()」は、視差情報セットを含むメタデータを示している。
 図67は、「z-OSD_Metadata_set()」の詳細構造の一例を示している。「segment_continued_flag」は、このzOSDのセグメントが、現在のセグメントの後に存在するか否かを示す1ビットのフラグ情報である。「segment_continued_flag=1」は、存在することを示す。「segment_continued_flag=0」は、存在しないことを示す。受信側においては、このフラグ情報に基づいて、視差情報セットが含まれるセグメントあるいはパケットが連続して存在するか否かを知ることができ、視差情報の更新の可能性などを事前に知ることができる。
 「delta_PTS[32..0]は、サブタイトルの表示タイミングを特定する、ヘッダ部に含まれるPTS(時間情報)に対する差分(変化分)を示す32ビットのデータである。「Disparity_position_id」は、視差情報セットが対応する画素位置を示す16ビットのデータである。なお、この32ビットのデータは、3分割されて配置されている。
「relative_plain_mode」は、相対プレーンのタイプを示す1ビットデータである。座標モード0であって、画像中心Oを原点(0,0)とした座標のプレーンであることを示す。「relative_plain_mode=0」は、座標モード1であって、画像のトップ-レフト(top-left)を原点(0,0)とした座標のプレーンであることを示す。
 「Relative_x」は、原点(0,0)から画素位置(x、y)までの水平距離(Rxa)を示す11ビットデータである。この水平距離(Rxa)は、画像の水平方向サイズに対する割合で示される。「Relative_y」は、原点(0,0)から画素位置(x、y)までの垂直距離(Rya)を示す11ビットデータである。この垂直距離(Rya)は、画像の垂直方向サイズに対する割合で示される。「Disparity」は、画素位置(x、y)の視差情報(視差ベクトル)の値を示す12ビットデータである。
 上述したように、サブタイトルエレメンタリーストリームあるいは独立したメタデータストリームに、視差情報セットを含むセグメントあるいはパケットを挿入することで、この視差情報セットを送信することができる。ここで、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものであった。
 しかし、この視差情報セットに限定されることなく、その他の形式の視差情報に関しても、同様にして送信できることは勿論である。すなわち、送信すべき視差情報は、例えば、位置あるいは領域を示す位置データと、その位置あるいは領域の視差データとからなるものであればよく、位置データは、画像全体に対する相対位置を示す場合に限らず、画像内の絶対位置を示す場合などであってもよい。
 また、上述実施の形態においては、セットトップボックス200からテレビ受信機300Aに視差情報セットを送信する方法として、HDMI Vendor Specific InfoFrame を利用する方法、アクティブスペース(Active Space)を利用する方法を説明した。その他に、HPDライン86(HEAC-ライン)およびユーティリティライン88(HEAC+ライン)で構成される双方向通信路を通じて送信することも考えられる。
 また、上述実施の形態においては、セットトップボックス200と、テレビ受信機300とが、HDMIのデジタルインタフェースで接続されるものを示している。しかし、これらが、HDMIのデジタルインタフェースと同様のデジタルインタフェース(有線の他に無線も含む)で接続される場合においても、この発明を適用できることは勿論である。
 また、上述実施の形態においては、セットトップボックス200からテレビ受信機300に、ビットストリーム処理部201で使用されている視差情報セットの全部または一部を、HDMIインタフェースにより送信する例を示した。しかし、このようにHDMIインタフェースを通じて視差情報セットを送信する技術に関しては、その他のソース機器およびシンク機器の組み合わせにも応用できることは勿論である。例えば、ソース機器としてはBDやDVD等のディスクプレーヤ、さらにはゲーム機なども考えられ、シンク機器としてはモニタ装置、プロジェクタ装置なども考えられる。
 この発明は、立体画像表示の際の重畳情報、例えばOSD等のグラフィクス情報の表示を良好に行うことができ、立体画像表示システム等に適用できる。
 10,10A・・・立体画像表示システム 100・・・放送局
 110・・・送信データ生成部
 111L,111R・・・カメラ
 112・・・ビデオフレーミング部
 113・・・ディスパリティ・マップ作成部
 114・・・マイクロホン
 115・・・データ取り出し部
 115a・・・データ記録媒体
 116~118・・・切り換えスイッチ
 119・・・ビデオエンコーダ
 120・・・オーディオエンコーダ
 122・・・視差情報セット作成部
 126・・・マルチプレクサ
 200・・・セットトップボックス(STB)
 201・・・ビットストリーム処理部
 202・・・HDMI端子
 203・・・アンテナ端子
 204・・・デジタルチューナ
 205・・・映像処理回路
 206・・・HDMI送信部
 207・・・音声処理回路
 211・・・CPU
 215・・・リモコン受信部
 216・・・リモコン送信機
 220・・・デマルチプレクサ
 221・・・ビデオデコーダ
 224・・・オーディオデコーダ
 226・・・OSD表示データ発生部
 228・・・ビデオ重畳部
 300・・・テレビ受信機(TV)
 301・・・3D信号処理部
 302・・・HDMI端子
 303・・・HDMI受信部
 304・・・アンテナ端子
 305・・・デジタルチューナ
 306・・・ビットストリーム処理部
 307・・・映像処理回路
 308・・・パネル駆動回路
 309・・・表示パネル
 310・・・音声処理回路
 311・・・音声増幅回路
 312・・・スピーカ
 313・・・OSD表示データ発生部
 314・・・ビデオ重畳部
 321・・・CPU
 325・・・リモコン受信部
 326・・・リモコン送信機
 400・・・HDMIケーブル

Claims (20)

  1.  左眼画像データおよび右眼画像データを有する所定番組の立体画像データを出力する画像データ出力部と、
     上記画像データ出力部から出力される上記所定番組の立体画像データに対応した所定の画素位置の視差情報セットを出力する視差情報セット出力部と、
     上記画像データ出力部から出力される立体画像データおよび上記視差情報セット出力部から出力される視差情報セットを送信する送信部とを備え、
     上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含む
     立体画像データ送信装置。
  2.  上記位置データは、画像中心を原点とし、該原点からの上記所定の画素位置の方向を示す方向データと、上記原点から上記所定の画素位置までの距離を示す距離データとからなる
     請求項1に記載の立体画像データ送信装置。
  3.  上記視差データは、上記所定の画素位置の視差情報の値の、上記原点からの距離に対する割合を示すデータとされる
     請求項2に記載の立体画像データ送信装置。
  4.  上記視差データは、上記所定の画素位置の、特定の表示解像度における視差情報の値とされる
     請求項2に記載の立体画像データ送信装置。
  5.  上記位置データは、上記所定の画素位置の原点からの水平距離を示す水平距離データと、上記所定の画素位置の上記原点からの垂直距離を示す垂直距離データとからなる
     請求項1に記載の立体画像データ送信装置。
  6.  上記視差データは、上記所定の画素位置の視差情報の値の、特定の表示解像度に対する割合を示すデータとされる
     請求項5に記載の立体画像データ送信装置。
  7.  上記視差データは、上記所定の画素位置の、特定の表示解像度における視差情報の値とされる
     請求項5に記載の立体画像データ送信装置。
  8.  上記所定の画素位置は、視差情報の値が最大となる第1の画素位置と、視差情報の値が最小となる第2の画素位置である
     請求項1に記載の立体画像データ送信装置。
  9.  上記視差情報セット出力部は、上記所定番組の期間を階層的に等分割して得られた各分割期間の視差情報セットを出力する
     請求項1に記載の立体画像データ送信装置。
  10.  上記送信部は、
     上記画像データ送信部から出力される所定番組の立体画像データを含むトランスポートストリームを送信し、該トランスポートストリームに挿入されるPSI情報またはSI情報の所定位置に、上記視差情報セット出力部から出力される視差情報セットを含むデスクリプタを挿入する
     請求項1に記載の立体画像データ送信装置。
  11.  上記送信部は、上記視差情報セットを、所定の情報を送信するためのエレメンタリーストリームに含めて送信する
     請求項1に記載の立体画像データ送信装置。
  12.  上記他の情報は上記立体画像データであり、
     上記視差情報セットは、上記エレメンタリーストリームのヘッダ部のユーザデータ領域に挿入される
     請求項11に記載の立体画像データ送信装置。
  13.  上記所定の情報はサブタイトルデータあるいは独立データであり、
     上記エレメンタリーストリームは、上記視差情報セットが挿入されたセグメントあるいはパケットを有する
     請求項11に記載の立体画像データ送信装置。
  14.  左眼画像データおよび右眼画像データを有する所定番組の立体画像データを出力する画像データ出力ステップと、
     上記画像データ出力ステップで出力される上記所定番組の立体画像データに対応した所定の画素位置の視差情報セットを出力する視差情報セット出力ステップと、
     上記画像データ出力ステップで出力される立体画像データおよび上記視差情報セット出力ステップで出力される視差情報セットを送信する送信ステップとを備え、
     上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含む
     立体画像データ送信方法。
  15.  左眼画像データおよび右眼画像データを有する所定番組の立体画像データと該所定番組の立体画像データに対応した所定の画素位置の視差情報セットを受信する受信部と、
     上記受信部で受信された立体画像データに含まれる左眼画像データに対応した左眼重畳情報のデータおよび上記受信部で受信された立体画像データに含まれる右眼画像データに対応した右眼重畳情報のデータを出力する重畳情報データ出力部と、
     上記受信部で受信された立体画像データに含まれる左眼画像データおよび右眼画像データに、上記重畳情報データ出力部から出力される上記左眼重畳情報のデータおよび上記右眼重畳情報のデータを重畳するデータ重畳部とを備え、
     上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含み、
     上記重畳情報データ出力部は、
     上記受信部で受信された上記視差情報セットに基づいて、上記左眼重畳情報と上記右眼重畳情報との間に視差を付与する
     立体画像データ受信装置。
  16.  左眼画像データおよび右眼画像データを有する所定番組の立体画像データおよび上記所定番組の立体画像データに対応した所定の画素位置の視差情報セットを受信する受信部と、
     上記受信部で受信された、上記左眼画像データおよび上記右眼画像データと、上記視差情報セットとを、伝送路を介して、外部機器に送信する送信部とを備え、
     上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含む
     立体画像データ受信装置。
  17.  上記送信部は、
     上記画像データを、複数チャネルで、差動信号により、上記伝送路を介して、上記外部機器に送信し、
     上記画像データのブランキング期間に上記視差情報セットを挿入することで、該視差情報セットを上記外部機器に送信する
     請求項16に記載の立体画像データ受信装置。
  18.  上記送信部は、
     垂直同期信号により区切られる、水平ブランキング期間、垂直ブランキング期間およびアクティブビデオ区間を含むビデオフィールド区間を単位とする伝送データを生成する伝送データ生成部と、
     上記伝送データ生成部で生成された伝送データを、複数チャネルで、差動信号により、上記伝送路を介して、上記外部機器に送信する伝送データ送信部とを有し、
     上記アクティブビデオ区間は、主映像領域および補助映像領域を有し、
     上記伝送データ生成部は、上記主映像領域に画像データを配し、上記補助映像領域に、上記主映像領域に配される画像データに関連した上記視差情報セットを配する
     請求項16に記載の立体画像データ受信装置。
  19.  左眼画像データおよび右眼画像データを有する所定番組の立体画像データを出力する画像データ出力部と、
     上記画像データ出力部から出力される上記所定番組の立体画像データに対応した視差情報を出力する視差情報出力部と、
     上記画像データ出力部から出力される立体画像データおよび上記視差情報出力部から出力される視差情報を送信する送信部とを備え、
     上記送信部は、所定の情報を送信するためのエレメンタリーストリームに、上記視差情報を含むセグメントあるいはパケットを挿入し
     上記セグメントあるいはパケットは、上記視差情報の使用タイミングを示すタイミング情報をさらに含む
     立体画像データ送信装置。
  20.  上記セグメントあるいはパケットは、該セグメントあるいはパケットが連続して存在するか否かを示すフラグ情報をさらに含む
     請求項19に記載の立体画像データ送信装置。
PCT/JP2011/069887 2010-09-06 2011-09-01 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 WO2012032997A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
RU2012118689/07A RU2012118689A (ru) 2010-09-06 2011-09-01 Устройство передачи данных стереоскопического изображения, способ передачи данных стереоскопического изображения и устройство приема данных стереоскопического изображения
EP11823473.1A EP2485492A4 (en) 2010-09-06 2011-09-01 DEVICE FOR TRANSMITTING STEREOSCOPIC IMAGE DATA, METHOD FOR TRANSMITTING STEREOSCOPIC IMAGE DATA AND DEVICE FOR RECEIVING STEREOSCOPIC IMAGE DATA
CA2779687A CA2779687A1 (en) 2010-09-06 2011-09-01 Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device
MX2012005359A MX2012005359A (es) 2010-09-06 2011-09-01 Dispositivo de transmision de datos de imagenes estereoscopicas, metodo de transmision de datos de imagenes estereoscopicas, y dispositivo de recepcion de datos de imagenes estereoscopicas.
CN2011800060755A CN102714746A (zh) 2010-09-06 2011-09-01 立体图像数据传送设备、立体图像数据传送方法、以及立体图像数据接收设备
AU2011300020A AU2011300020B2 (en) 2010-09-06 2011-09-01 Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device
KR1020127011600A KR20130098132A (ko) 2010-09-06 2011-09-01 입체 화상 데이터 송신 장치, 입체 화상 데이터 송신 방법 및 입체 화상 데이터 수신 장치
BR112012010777A BR112012010777A2 (pt) 2010-09-06 2011-09-01 dispositivos de transmissão e de recepção de dados de imagem estereoscópica, e, método de transmissão de dados de imagem estereoscópica
US13/505,631 US20120262546A1 (en) 2010-09-06 2011-09-01 Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010199370A JP5633259B2 (ja) 2010-09-06 2010-09-06 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP2010-199370 2010-09-06

Publications (1)

Publication Number Publication Date
WO2012032997A1 true WO2012032997A1 (ja) 2012-03-15

Family

ID=45810599

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/069887 WO2012032997A1 (ja) 2010-09-06 2011-09-01 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置

Country Status (11)

Country Link
US (1) US20120262546A1 (ja)
EP (1) EP2485492A4 (ja)
JP (1) JP5633259B2 (ja)
KR (1) KR20130098132A (ja)
CN (1) CN102714746A (ja)
AU (1) AU2011300020B2 (ja)
BR (1) BR112012010777A2 (ja)
CA (1) CA2779687A1 (ja)
MX (1) MX2012005359A (ja)
RU (1) RU2012118689A (ja)
WO (1) WO2012032997A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686118A (zh) * 2012-09-19 2014-03-26 珠海扬智电子科技有限公司 影像深度调整方法与装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130099403A (ko) * 2012-02-29 2013-09-06 삼성전자주식회사 이미지 프로세싱 방법 및 이를 이용한 이미지 프로세싱 유닛
JP6307213B2 (ja) * 2012-05-14 2018-04-04 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、画像処理方法およびプログラム
KR101966920B1 (ko) 2012-07-10 2019-04-08 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
US9762889B2 (en) * 2013-05-08 2017-09-12 Sony Corporation Subtitle detection for stereoscopic video contents
EP2814251A1 (en) * 2013-06-14 2014-12-17 Pace Plc Method and system for operating a set-top-box supporting 3D video content
JP5984858B2 (ja) * 2014-01-24 2016-09-06 キヤノン株式会社 画像処理装置及びプログラム
US10979689B2 (en) * 2014-07-16 2021-04-13 Arris Enterprises Llc Adaptive stereo scaling format switch for 3D video encoding
US9699390B2 (en) * 2014-09-02 2017-07-04 Htc Corporation Controlling method for image capturing and image integration
JP7011728B2 (ja) * 2018-09-28 2022-01-27 株式会社ソニー・インタラクティブエンタテインメント 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
CN110853588A (zh) * 2019-10-23 2020-02-28 西安万像电子科技有限公司 数据处理方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP2005006114A (ja) 2003-06-12 2005-01-06 Sharp Corp 放送データ送信装置、放送データ送信方法および放送データ受信装置
WO2010013382A1 (ja) * 2008-07-31 2010-02-04 三菱電機株式会社 映像符号化装置、映像符号化方法、映像再生装置、映像再生方法、映像記録媒体、及び映像データストリーム
WO2010092823A1 (ja) * 2009-02-13 2010-08-19 パナソニック株式会社 表示制御装置
WO2011118215A1 (ja) * 2010-03-24 2011-09-29 パナソニック株式会社 映像処理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11155152A (ja) * 1997-11-21 1999-06-08 Canon Inc 三次元形状情報入力方法及び装置及び画像入力装置
US9769462B2 (en) * 2007-03-16 2017-09-19 Thomson Licensing System and method for combining text with three dimensional content
JP4739291B2 (ja) * 2007-08-09 2011-08-03 富士フイルム株式会社 撮影画角算出装置
CN101589619A (zh) * 2007-11-20 2009-11-25 索尼株式会社 信息处理装置、信息处理方法、显示控制装置、显示控制方法和程序
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR101506219B1 (ko) * 2008-03-25 2015-03-27 삼성전자주식회사 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체
US20090315981A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Ltd. Image processing method and apparatus
CN102150433B (zh) * 2008-09-18 2014-04-09 松下电器产业株式会社 立体视觉影像再现装置及立体视觉影像显示装置
JPWO2010038409A1 (ja) * 2008-09-30 2012-03-01 パナソニック株式会社 再生装置、記録媒体、及び集積回路
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
US8482654B2 (en) * 2008-10-24 2013-07-09 Reald Inc. Stereoscopic image format with depth information
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
JP4737573B2 (ja) * 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
ES2578022T3 (es) * 2009-02-17 2016-07-20 Koninklijke Philips N.V. Combinación de datos de imágenes 3D y gráficos

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP2005006114A (ja) 2003-06-12 2005-01-06 Sharp Corp 放送データ送信装置、放送データ送信方法および放送データ受信装置
WO2010013382A1 (ja) * 2008-07-31 2010-02-04 三菱電機株式会社 映像符号化装置、映像符号化方法、映像再生装置、映像再生方法、映像記録媒体、及び映像データストリーム
WO2010092823A1 (ja) * 2009-02-13 2010-08-19 パナソニック株式会社 表示制御装置
WO2011118215A1 (ja) * 2010-03-24 2011-09-29 パナソニック株式会社 映像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2485492A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686118A (zh) * 2012-09-19 2014-03-26 珠海扬智电子科技有限公司 影像深度调整方法与装置

Also Published As

Publication number Publication date
RU2012118689A (ru) 2013-11-10
EP2485492A1 (en) 2012-08-08
KR20130098132A (ko) 2013-09-04
CA2779687A1 (en) 2012-03-15
AU2011300020A1 (en) 2012-05-31
EP2485492A4 (en) 2014-07-02
MX2012005359A (es) 2012-06-08
JP5633259B2 (ja) 2014-12-03
US20120262546A1 (en) 2012-10-18
JP2012060267A (ja) 2012-03-22
AU2011300020B2 (en) 2014-09-18
CN102714746A (zh) 2012-10-03
BR112012010777A2 (pt) 2019-09-24

Similar Documents

Publication Publication Date Title
JP5446913B2 (ja) 立体画像データ送信装置および立体画像データ送信方法
JP5531972B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5633259B2 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP5402715B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
TWI437873B (zh) Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data receiving device and three-dimensional image data receiving method
JP5521486B2 (ja) 立体画像データ送信装置および立体画像データ送信方法
WO2011001854A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2011001858A1 (ja) 立体画像データ送信装置および立体画像データ受信装置
WO2011001859A1 (ja) 立体画像データ送信装置および立体画像データ受信装置
WO2011001852A1 (ja) 画像データ送信装置、制御方法およびプログラム
WO2013108531A1 (ja) 受信装置、受信方法および電子機器
JP2011166757A (ja) 送信装置、送信方法および受信装置
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012063675A1 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP2011010255A (ja) 立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2013176141A (ja) 立体画像データ受信装置および立体画像データ受信方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180006075.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11823473

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2779687

Country of ref document: CA

Ref document number: 2011823473

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20127011600

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2011300020

Country of ref document: AU

Ref document number: 2012118689

Country of ref document: RU

WWE Wipo information: entry into national phase

Ref document number: 3988/DELNP/2012

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: MX/A/2012/005359

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 2011300020

Country of ref document: AU

Date of ref document: 20110901

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13505631

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112012010777

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112012010777

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20120507