WO2011062015A1 - 画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システム - Google Patents

画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システム Download PDF

Info

Publication number
WO2011062015A1
WO2011062015A1 PCT/JP2010/068243 JP2010068243W WO2011062015A1 WO 2011062015 A1 WO2011062015 A1 WO 2011062015A1 JP 2010068243 W JP2010068243 W JP 2010068243W WO 2011062015 A1 WO2011062015 A1 WO 2011062015A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
additional information
image
information
normal viewing
Prior art date
Application number
PCT/JP2010/068243
Other languages
English (en)
French (fr)
Inventor
秀敏 永野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP10831411A priority Critical patent/EP2381690A1/en
Priority to US13/143,670 priority patent/US20110268194A1/en
Priority to BRPI1006063A priority patent/BRPI1006063A2/pt
Priority to CN2010800041302A priority patent/CN102273211A/zh
Publication of WO2011062015A1 publication Critical patent/WO2011062015A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Definitions

  • the present invention relates to an image transmission method, an image reception method, an image transmission device, an image reception device, and an image transmission system.
  • a liquid crystal shutter that supplies a left-eye image and a right-eye image having parallax alternately to a display at a predetermined cycle and is driven in synchronization with the predetermined cycle.
  • a method of observing with spectacles equipped with the above is known.
  • a video with added value (hereinafter referred to as additional information moving image) is transmitted separately from a normal video (hereinafter referred to as normal viewing moving image), and the receiving side Then, it is conceivable to present a moving image with high added value using a normal viewing moving image and an additional information moving image.
  • the normal viewing moving image and the additional information moving image are encoded separately.
  • two decodings must be performed on the receiving device side, and if two decoders are installed, the receiving device The price of itself goes up.
  • the normal viewing moving image and the additional information moving image are contained in a single screen, the normal viewing moving image and the additional information moving image are encoded together, so that a single encoder can be used for encoding.
  • the display is different from the normal viewing moving image originally intended by the transmission side.
  • a binocular stereoscopic video is transmitted as a video having a high added value with respect to a normal video.
  • the one-eye image is considered as a normal viewing moving image and the other one-eye moving image is transmitted as the additional information moving image.
  • the conventional receiving apparatus incapable of binocular stereoscopic viewing
  • the normal viewing moving image and the additional information moving image are shrunk vertically or horizontally on the same screen as shown in FIGS. Displayed side by side at the same time. Since there is little difference in content between the left and right moving images in binocular stereoscopic vision, a receiving apparatus that is not capable of binocular stereoscopic viewing has a one-eye moving image (for normal viewing) as shown in FIG. 30 rather than FIGS. It is desirable to be able to view only the (moving image) with the correct aspect ratio.
  • an object of the present invention is to provide a moving image for normal viewing with minimal changes to the current transmission / reception device in moving image transmission.
  • An object is to provide a new and improved image transmission method, image reception method, image transmission device, image reception device, and image transmission system capable of transmitting an additional information moving image together with an image.
  • the presence information may include information specifying the type of additional information moving image.
  • the type of the additional information moving image may include information specifying whether or not the additional information moving image is a moving image used for multi-eye stereoscopic viewing.
  • the presence information may include area information indicating an area of the additional information moving image or an aspect ratio of the additional information moving image.
  • the presence information may include information specifying an image area of the normal viewing moving image when the additional information moving image is used.
  • an integrated image in which a normal viewing moving image and an additional information moving image are sent from the transmission side is expanded on one frame.
  • the presence information indicating that the additional information moving image is present based on the presence information the step of decoding the presence information indicating that the normal viewing moving image is designated, displaying the region of the normal viewing moving image based on the region information, Recognizing and displaying the additional information moving image.
  • a compression unit that compresses an integrated image in which a normal viewing moving image and an additional information moving image are arranged in one frame, and a normal viewing A region information encoding unit that encodes region information indicating a region of an image for use, a presence information encoding unit that encodes presence information indicating the presence of an additional information moving image, and an encoded integrated image and region
  • an image transmission device including a transmission unit that transmits information and presence information.
  • an integrated image in which a normal viewing moving image and an additional information moving image are sent from the transmission side is expanded on one frame.
  • An expansion unit that decodes region information indicating a region of the normal viewing moving image sent from the transmission side together with the integrated image, and the additional information sent from the transmission side together with the integrated image
  • a presence information decoding unit for decoding presence information indicating the presence of an information moving image; and specifying and outputting a region of the normal viewing moving image based on the region information; and based on the presence information
  • An image receiving device comprising: an image output unit that recognizes the presence of the additional information moving image and outputs the additional information moving image.
  • a compression unit that compresses an integrated image in which a normal viewing moving image and an additional information moving image are arranged in one frame, and a normal viewing
  • a region information encoding unit that encodes region information indicating a region of an image for use, a presence information encoding unit that encodes presence information indicating the presence of an additional information moving image, and an encoded integrated image and region
  • An image transmitting apparatus having a transmitting unit that transmits information and presence information, and decompressing an integrated image in which a normal viewing moving image and an additional information moving image that are sent from the transmitting side are arranged on one frame
  • a region information decoding unit that decodes region information indicating a region of the normal viewing moving image transmitted from the transmission side together with the integrated image, and the additional information moving image transmitted from the transmission side together with the integrated image Indicates that the statue exists
  • a presence information decoding unit for decoding the presence information and specifying and outputting a region of the normal viewing moving image based on the region information
  • the moving image transmission it is possible to transmit the additional information moving image together with the moving image for normal viewing while minimizing the change of the current transmission / reception device.
  • FIG. 2 is a schematic diagram showing the contents when an additional information moving image SEI is newly added to H.264.
  • FIG. 10 is a schematic diagram illustrating a state where essential items in information in sei_message are eliminated when a SEI is newly provided for each type of additional information moving image.
  • FIG. 10 is a schematic diagram illustrating information in a descriptor when a descriptor is prepared for each type of additional information moving image. It is a schematic diagram which shows the content of private_data_byte at the time of adding what transmits additional information moving image presence information to the private section of MPEG2-TS.
  • H. 2 is a schematic diagram showing the contents when an additional information moving image SEI is newly added to H.264. It is a block diagram which shows the transmitter which concerns on this embodiment. It is a schematic diagram which shows the existing transmitter. It is a schematic diagram which shows the receiver which concerns on this embodiment. It is a schematic diagram which shows the existing receiver.
  • FIG. 6 is a schematic diagram showing a state in which a normal viewing moving image and an additional information moving image are displayed side by side simultaneously on the same screen after being contracted in the vertical direction or the horizontal direction.
  • FIG. 6 is a schematic diagram showing a state in which a normal viewing moving image and an additional information moving image are displayed side by side simultaneously on the same screen after being contracted in the vertical direction or the horizontal direction.
  • H. 2 is a schematic diagram illustrating a processing flowchart of a transmission apparatus when H.264 is used as an encoder and additional information moving image SEI is used.
  • H. 2 is a schematic diagram illustrating a processing flowchart of a transmission apparatus when H.264 is used as an encoder and an additional information moving image descriptor is used.
  • H. 2 is a schematic diagram illustrating a flowchart of a transmission apparatus when H.264 is used as an encoder and an additional information moving image section is used.
  • H. 2 is a flowchart of a receiving apparatus when additional information moving image SEI added to H.264 is used. It is a flowchart of the receiving apparatus at the time of using the additional information moving image descriptor added to the descriptor of PMT.
  • 10 is a flowchart of a receiving apparatus when an additional information moving image section to be added to MPEG2-TS is used.
  • FIG. 2 is a flowchart of a receiving apparatus when additional information moving image SEI added to H.264 is used. It is a flowchart of the receiving apparatus at the time of using the additional information moving image descriptor added to the descriptor of PMT.
  • 10 is a flowchart of a receiving apparatus when an additional information moving image section to be added to MPEG2-TS is used.
  • H. 2 is a flowchart of a receiving apparatus when additional information moving image SEI added to H.264 is used. It is a flowchart of the receiving apparatus at the time of using the additional information moving image descriptor added to the descriptor of PMT.
  • 10 is a flowchart of a receiving apparatus when an additional information moving image section to be added to MPEG2-TS is used.
  • First Embodiment Example of transmitting a plurality of arbitrary images
  • Second Embodiment Application to Stereoscopic Image
  • FIG. 1 shows a state in which a normal viewing moving image and an additional information moving image are displayed on one screen, and the numbers in the figure indicate the number of pixels.
  • the normal viewing moving image is a moving image performed in a normal golf relay, and is a moving image corresponding to the current program content (main part).
  • the additional information moving image is a moving image that is separate from the normal viewing moving image.
  • the additional information moving image already has a moving image or a hole-out that can show the green inclination or grass.
  • the normal viewing moving image is a video of the player walking on the fairway
  • a configuration in which a reproduction image of the immediately previous driver shot or a moving image showing a gallery is used as the additional information moving image.
  • the normal viewing moving image and the additional information moving image are arranged on one frame (or field), and one moving image (hereinafter referred to as a moving image). , Described as an integrated moving image).
  • FIG. 1 a moving image for normal viewing that reflects a ball on the green, a moving image that reflects the entire hall from above, and a moving image that explains the green inclination are arranged on one frame.
  • One frame of the integrated moving image is shown. Even if the frame is used as a field, the effectiveness of this embodiment does not change.
  • FIG. 2 shows a table of the arrangement information of FIG. FIG. 2 shows arrangement information of each moving image when the size of the integrated moving image is 1920 ⁇ 1080 pixels and the upper left coordinate of the integrated image is (0, 0). Since the normal viewing moving image is pasted from the upper left, the upper left end point is (0, 0). The normal viewing moving image itself is an image reduced in half in the width direction (horizontal direction), and the width ⁇ height is 960 ⁇ 1080 pixels. Due to the reduction, the sample aspect ratio is 2: 1. On the other hand, since the additional information moving image has an image size of 720 ⁇ 480 pixels and is assumed to be a moving image created assuming a 16: 9 screen, the sample aspect ratio is 40:33. Here, the areas / aspect ratios of the two additional information moving images do not have to coincide with each other, and the additional information moving image is not limited to two.
  • FIG. 22 is a block diagram showing the transmission device 100 according to this embodiment.
  • the transmission apparatus 100 includes a moving image compression unit 102, a normal viewing moving image region encoding unit 104, and an additional information moving image presence information encoding unit 106.
  • the input to the transmitting apparatus 100 in FIG. 22 is an integrated moving image obtained by integrating the normal viewing moving image and the additional information moving image, the region and aspect ratio in the integrated moving image of the normal viewing moving image, and the additional information moving image.
  • FIG. 23 shows an existing transmission device, and the existing transmission device is different from the transmission device 100 of FIG. 22 in that the encoded information moving image presence information encoding unit 106 is not provided.
  • the configuration shown in FIGS. 22 and 23 can be configured by hardware such as a circuit, or a central Senzan processing unit (CPU) and a program (software) for causing it to function. The same applies to a receiving apparatus described later.
  • the moving image compression unit 102 compresses the integrated moving image arranged as shown in FIG. Further, the information (left upper end point, width height) indicating the sample / aspect / ratio / region of the normal viewing moving image in the arrangement information of FIG. 2 is stored in the normal viewing moving image region encoding unit 104. Encoding is performed using a codec encoding method.
  • aspect ratio for example, the moving image codec is H.264. If it is H.264, it is specified using aspect_ratio_idc, sar_width, sar_height in the VUI (Video usability information) in the SPS.
  • the sample aspect ratio of the normal viewing moving image is used so that the normal viewing moving image is displayed with the correct aspect ratio.
  • the information of the normal viewing moving image area is encoded as the normal viewing moving image cut-out area in the integrated moving image.
  • the video codec is H.264. If it is H.264, frame_crop_left_offset, frame_crop_right_offset, frame_crop_top_offset, and frame_crop_bottom_offset in the SPS (sequence parameter set) are used to set the normal moving image p as a normal moving image from the integrated moving image.
  • the crop parameter and the rectangular area to be cut out have the following relationship.
  • xe PicWidthInSameles -(SubWidthC * frame_crop_right_offset + 1)
  • ye 16 * FrameHeightInMbs -(SubHeightC * (2-frame_mbs_only_flag) * frame_crop_bottom_offset + 1)
  • chroma_format_idc and frame_mbs_only_flag are H.264. It is a parameter in the H.264 SPS.
  • the frame_mbs_only_flag is a flag indicating whether the moving image compression is performed in units of frames or fields.
  • FIG. 1 illustrates the arrangement within a frame
  • frame_mbs_only_flag 1
  • compression is performed in units of frames.
  • frame_mbs_only_flag 0
  • this embodiment is effective even when compressing in units of fields.
  • the sample, aspect, ratio and arrangement information of the moving image for normal viewing are designated. If the encoding process in H.264 is performed, when the encoded stream is decoded as it is, the normal viewing moving image is cut out from the integrated moving image and displayed with the correct aspect ratio.
  • H.264 normal viewing moving image sample, aspect ratio, and arrangement information are encoded, but MPEG2 VIDEO can be similarly encoded.
  • sample aspect ratio there is aspect_ratio_information in the sequence header, and parameters can be set by the sample aspect ratio or the display aspect ratio.
  • the sample aspect ratio indicates the aspect ratio of the pixel immediately after expansion, and the display aspect ratio indicates the aspect ratio in the display.
  • the width and height to be cut out can be specified by display_vertical_size and display_horizontal_size in the sequence display extension header.
  • An offset between the center of the clipped portion and the center of the original image can be specified by frame_center_horizontal_offset and frame_center_vertical_offset in the picture display extension header.
  • the other codec Even if the other codec has a parameter to cut out after decompression of the moving image, it can be used as the sample, aspect, ratio, and arrangement information of the normal viewing moving image of the present invention.
  • Additional information moving images 1 and 2 are transmitted in addition to the normal viewing moving image.
  • These additional information moving images are effective moving images as supplementary moving images on the program, but may be considered as moving images displayed according to the user's preference rather than being always displayed.
  • a moving image showing the undulation from the same viewpoint and a moving image overlooking the entire hall from the sky are arranged and transmitted as a supplementary moving image to the green of the main screen in the integrated moving image.
  • the additional information moving image presence information includes “whether these supplemental moving images exist”, “if there are, what are the width / height / position, sample / aspect / ratio”, “in addition, these supplemental moving images. When using an image, this is information indicating how to make a cut-out area of a normal viewing moving image.
  • the width, height, sample aspect ratio of the additional information moving image is different from that of the normal viewing moving image.
  • the width and height of the additional information moving image, the sample aspect ratio, and the cutout area of the normal viewing moving image when using the additional information moving image have not been agreed between the sender and the receiver in advance. Assume a case.
  • SEI supplemental enhancement information
  • FIG. 7 shows the hierarchy of the additional information moving image SEI.
  • the sei_message of the SEI the cutout start position, width, height of the normal viewing moving image when using the additional information moving image, the type of the additional information moving image, The number of additional information moving images, the cut start position of each additional information moving image, the width and height, and the sample aspect ratio are designated.
  • FIG. 6 shows a processing flowchart of the transmission apparatus 100 when H.264 is used as an encoder and the additional information moving image SEI is used.
  • H.264 crop parameters and aspect_ratio_idc are set in the encoder (step S100).
  • the additional information video obtained from the start position, width, height, type of additional information moving image, sample aspect ratio, upper left corner point, and width height of the normal viewing moving image when using the additional information moving image The image cutout start position and width / height are set in the encoder as the additional information moving image SEI (step S102). Further, the integrated moving image is encoded after setting the encoder such as the image size of the integrated moving image (step S104).
  • a stream for transmission can be obtained by multiplexing in MPEG2-TS (step S106).
  • the arrangement of the normal viewing moving image and the additional information moving image is designated by the cutout start position, the width, and the height.
  • the layout may be specified using another method such as a H.264 crop area specification method.
  • SEI is H. If the codec has a means for sending auxiliary information for moving picture compression / decompression processing, such as USER_DATA for MPEG2 video, for example, a description for transmitting auxiliary information is newly added. It can respond.
  • the newly added additional information moving image SEI cannot be decoded, but the processing can be continued by skipping.
  • the additional information moving image SEI is skipped by the existing receiving apparatus and the reception process is performed.
  • FIG. 25 is a schematic diagram showing an existing receiving device 400.
  • the encoding of the integrated moving image combining the normal viewing moving image and the additional information moving image and the encoding of the normal viewing moving image area are performed in the same manner as the existing transmission apparatus.
  • the integrated moving image is also decoded in the existing receiving device 400, and the normal viewing moving image is cut out as expected by the already described group information and displayed on the moving image output unit 206. Will be.
  • FIG. 24 is a schematic diagram showing a receiving device 200 according to the present embodiment.
  • the receiving apparatus 200 according to the present embodiment includes a moving image compression unit 202, a normal viewing moving image region encoding unit 204, an additional information moving image presence information encoding unit 208, and a moving image output unit (display panel) 206.
  • the additional information moving image presence information encoding unit 206 can decode the additional information moving image SEI.
  • the receiving apparatus 200 recognizes that the additional information moving image exists outside the area of the normal viewing moving image, and at the same time uses the additional information moving image, starts to extract the normal viewing moving image, the width height, The number of additional information moving images, the cut start position, the width and height of each additional information moving image, and the sample aspect ratio can be obtained.
  • PMT Program Map Table
  • PSI Program System Information
  • the PMT stream information includes PID (Packet ID), stream_type, descriptor, and the like for selecting packets such as audio and video, and what the video codec and audio codec are encoded using. I can know.
  • FIG. 4 shows Dolby AC-3 audio stream information.
  • the stream_type for AC-3 is ITU-T REC. H. It is not defined in 222.0. In Europe, the stream_type of PES private data is used, and in the Americas, the stream_type of User private is used.
  • AC-3 provides an AC-3 descriptor as a PMT descriptor, and it is possible to determine that the stream is an AC-3 stream by detecting this descriptor.
  • PMT there is a usage method in which information regarding the codec of a program program is set through a descriptor.
  • FIG. 5 shows a case where an additional information moving image descriptor is added to the PMT stream information.
  • the integrated moving image is compressed and the additional information moving image is used, and the additional information moving image is used. Notify the parameters for.
  • Compressed integrated video is H.264. If it is performed in H.264, stream_type is set as 0x1B, and if it is performed in MPEG2, stream_type is set as 0x2.
  • the additional information moving image descriptor itself is independent of the codec. The same can be used for H.264. Of course, the existing receiving device 400 cannot interpret the additional information moving image descriptor, and normally operates by ignoring it.
  • the integrated moving image can be decoded. Yes, since the normal viewing moving image is cut out from the normal viewing moving image, the normal viewing moving image can be correctly displayed.
  • the receiving apparatus 200 can decode and interpret the additional information moving image descriptor by the additional information moving image presence information decoding unit 208. Therefore, it can be recognized that the additional information moving image exists outside the normal viewing moving image area.
  • the cutout area of the normal viewing moving image when using the additional information moving image, the width and height of the additional information moving image, and the sample aspect ratio are set in advance between the sender and the receiver. Since it is assumed that no agreement has been made, these parameters are stored in this additional information moving image descriptor and transmitted.
  • FIG. 6 shows an example of the content of the additional information moving image descriptor.
  • FIG. 6 shows a processing flowchart of a transmission apparatus when H.264 is used as an encoder and an additional information moving image descriptor is used.
  • H.264 crop parameters and aspect_ratio_idc (also using sar_width and sar_height if necessary) are set in the encoder (step S200).
  • the additional information moving image obtained from the start position, width and height, the type of additional information moving image, the sample aspect ratio, the upper left end point, and the width and height of the moving image for normal viewing when the additional information moving image is used are prepared as the additional information moving image descriptor of FIG. 6 (step S202). Further, the integrated moving image is encoded after the encoder setting such as the image size of the integrated moving image is performed (step S204). At the time of MPEG2-TS multiplexing necessary for transmission in the digital broadcasting system, the prepared additional information moving image descriptor is set in the PMT, whereby a transmission stream can be obtained (step S206).
  • the additional information moving image type is for non-stereoscopic viewing. After starting position, width, and height of the normal viewing moving image when using the information moving image, the type of additional information moving image, the number of additional information moving images, the starting position and width height of each additional information moving image Specify the sample aspect ratio in order.
  • start position and width / height are used to specify the area for the normal viewing moving image and the additional information moving image, but the purpose is to specify the arrangement in the integrated moving image.
  • the specification may be the same as the H.264 group specification method, or may be specified by another method.
  • a descriptor is prepared for each type of additional information moving image as a non-stereoscopic additional information moving image descriptor, and the additional information moving image type field in the descriptor is omitted. It is also possible to do. Also, a descriptor is prepared for each of the additional information moving image 1 and the additional information moving image 2, and a field for the number of additional information moving images may be omitted as a format for describing a plurality of additional information moving image descriptors in the PMT stream information. Is possible.
  • the present invention is also effective for MPEG2-PS, and by adding a descriptor that stores additional information moving image presence information in the Program stream map (PSM), the additional information moving image descriptor is added to the MPEG2-TS PMT. It works as well as when a new is added.
  • PSM Program stream map
  • auxiliary information for each video data, and any format that can add auxiliary information can be applied in the same manner as the above descriptor addition.
  • section data can be transmitted to the same layer as the PMT layer.
  • a private section is conceived assuming a new addition to this section, and the additional information moving image presence information of the present embodiment may be transmitted as a new private section.
  • FIG. 8 illustrates a case where the additional information moving image presence information is transmitted as a new private section.
  • the start position of the normal viewing moving image when using the additional information moving image, and the width and height the type of additional information moving image and the additional information moving image are added.
  • the start position, width / height, and sample / aspect / ratio of an information moving image are specified in order.
  • FIG. 6 shows a flowchart of a transmission apparatus when H.264 is used as an encoder and an additional information moving image section is used.
  • H.264 crop parameters and aspect_ratio_idc (also using sar_width and sar_height if necessary) are set in the encoder (step S300).
  • PID for packet identification, start position of normal viewing moving image when additional information moving image is used, width and height, type of additional information moving image, sample aspect ratio, upper left end point, width height 6 is prepared as the additional information moving image section shown in FIG. 6 (step S302).
  • the integrated moving image is encoded after setting the encoder such as the image size of the integrated moving image (step S304).
  • the prepared additional information moving image section is also multiplexed to obtain a transmission stream (step S306).
  • the area designation of the normal viewing moving image and the additional information moving image is for specifying the arrangement in the integrated moving image.
  • the layout may be specified using another method such as a H.264 crop area specification method.
  • the type of additional information moving image can be omitted.
  • the additional information moving image presence information is encoded by the additional information moving image presence information encoding unit 106 of the transmission apparatus 100 of the present embodiment. It becomes.
  • H. Video codec H.264 when this stream is obtained, the stream is designated as H.264.
  • the existing receiving apparatus 400 that satisfies the H.264 (ITU-T Rec. H.264) standard, the additional information moving image presence information is ignored and a normal viewing moving image is displayed.
  • the video codec is MPEG2 The same applies to VIDEO (ITU-T Rec. H.262).
  • the additional information moving image presence information is also correctly decoded, and the user can obtain a service of the existing receiving device 400 or more.
  • ⁇ User interaction in receiving device> when a program program with additional information moving images is received, at least the following three types of display can be selected by setting / instruction to the receiving apparatus 200 from the user. 1) Display the normal viewing moving image as usual 2) Display the normal viewing moving image and the additional information moving image simultaneously on the screen, 3) Only the additional information moving image is displayed on the screen.
  • the setting to the receiving apparatus 200 is to set in advance how to display the program program with the additional information moving image by operating the remote controller or the like.
  • the instruction to the receiving apparatus 200 is to immediately change the display method of the program program with the additional information moving image according to the user's instruction.
  • FIG. 36 is a flowchart of the receiving apparatus 200 when using the additional information moving image SEI added to H.264, the additional information moving image descriptor added to the descriptor of the PMT, and the additional information moving image section added to the MPEG2-TS.
  • information on SEI, descriptor, and section is decoded to determine whether there is an additional information moving image, and if there is, the normal viewing moving image and additional information moving image when using the additional information moving image.
  • Get parameters. 36, 37, and 38 differ from each other in that parameters are obtained by decoding PSI / SI when MPEG2-TS is demuxed (FIGS. 37 and 38). As a result of decoding of H.264, parameters are obtained (FIG. 36).
  • the user's setting to the receiving device is read, and the moving image output is changed depending on whether normal display is performed, display using the additional information moving image is performed, or both are displayed.
  • a normal viewing moving image is output (steps S410, S510, S610). If the user setting is to output the normal viewing moving image and the additional information moving image, the normal viewing moving image and the additional information moving image are output (steps S414, S514, S614). If the user setting is not to output the normal viewing moving image and the additional information moving image, the additional information moving image is output (steps S416, S516, and S616).
  • the additional information moving image is exemplified as a moving image that is relatively related to the content of the normal viewing moving image.
  • the present embodiment works effectively even if it is not particularly related.
  • Binocular stereoscopic moving image a case where a left-eye moving image is transmitted as a normal viewing moving image and a right-eye moving image is transmitted as an additional information moving image with respect to a binocular stereoscopic moving image in a multi-eye stereoscopic view.
  • the encoding can be performed in exactly the same manner as described in the first embodiment.
  • the normal viewing moving image and the additional information moving image are a pair of binocular stereoscopic moving images, it is considered that the moving image has the same properties, and the parameters of the normal viewing moving image are used as the additional information moving image parameters. To do is a natural arrangement.
  • the normal viewing moving image and the additional information moving image have the same width and height.
  • the normal viewing moving image and the additional information moving image have the same sample aspect ratio.
  • a left eye moving image is displayed. It is assumed that the displayed area is the same as the area used as the binocular stereoscopic left-eye moving image. That is, (3) The clipping region of the normal viewing moving image when the additional information moving image is used is the same as the clipping region of the normal viewing moving image when the additional information moving image is not used. Will be negotiated.
  • the normal viewing moving image and the additional information moving image are arranged in one frame, but the additional information moving image is arranged below the normal viewing moving image between transmission and reception.
  • the right eye moving image is separated from the left eye moving image as shown in FIG. In some cases, the content of the arrangement is as shown in FIG.
  • the method for specifying the cutout start position in the integrated moving image of the additional information moving image is the one having the closest height above that height if the image size is not in the table. Suppose you use it. Will be negotiated.
  • the function for specifying the cut-out start position and image size of the additional information moving image from the crop parameter of the normal viewing moving image, and the sample aspect ratio of the normal viewing moving image are set as the additional information moving image. This can be dealt with by providing the additional information moving image presence information decoding unit 208 in the receiving apparatus 200 with a function of outputting as a sample aspect ratio.
  • the additional information moving image is essential as the content to be transmitted from the transmitting device side to the receiving device side as additional information moving image presence information. Whether or not the normal viewing moving image and the additional information moving image are a pair of binocular stereoscopic moving images.
  • the additional information moving image may be obtained and used according to (1) to (4). Therefore, even if the transmission information is traditional, it may be used as additional information moving image presence information.
  • FIG. 16 The content when adding additional information moving image SEI to H.264 is shown.
  • the cut-out area of the normal viewing moving image when using the additional information moving image, the area of the additional information moving image in the integrated moving image, and the sample / aspect / ratio are determined in advance between transmission and reception, so sei_message
  • the minimum necessary information is only that the type of additional information moving image has been determined for vertical array binocular viewing. This is shown in FIG. 16 for a predetermined vertical array binocular stereoscopic view. Although it is very good for the default binocular stereoscopic view, in this case, in addition to those arranged vertically, some are arranged horizontally, so a vertical arrangement is included in the name in the sense that they are arranged vertically.
  • SEI related to this embodiment is H.264.
  • H.264 When one is added to H.264, the result is as shown in FIG. 16.
  • a new SEI is provided for each type of additional information moving image, for example, a predetermined vertical array binocular stereoscopic additional information moving image SEI exists.
  • the essential items in the information in sei_message are eliminated as shown in FIG. (Of course, other information can be included.)
  • FIG. 18 shows contents when a new additional information moving image descriptor is added to the PMT.
  • the cutout area of the normal viewing moving image when using the additional information moving image the area of the additional information moving image and the sample / aspect / ratio in the integrated moving image are determined in advance between transmission and reception,
  • the minimum necessary information is only that the type of additional information moving image is for a predetermined vertical array binocular stereoscopic view.
  • FIG. 20 shows the contents of private_data_byte when an additional information moving image presence information transmission is added to the MPEG2-TS private section. Similar to the PMT descriptor, it is necessary to specify the type of the additional information moving image and at the same time specify the PID of the stream with the additional information moving image.
  • the type of the additional information moving image can be omitted if a new method is used for adding the private section for each type of the additional information moving image.
  • the integrated moving image, the normal viewing moving image region and the cutout region of the normal viewing moving image when the additional information moving image is used the sample aspect ratio, and the additional information moving image.
  • a stream in which presence information is encoded can be obtained.
  • H. Video codec H.264 when this stream is obtained, the stream is designated as H.264.
  • the existing receiving apparatus 400 that satisfies the H.264 (ITU-T Rec. H.264) standard, the additional information moving image presence information is ignored and a normal viewing moving image is displayed.
  • Video codec is MPEG2 The same applies to VIDEO (ITU-T Rec. H.262).
  • the additional information moving picture presence information encoding unit 208 correctly decodes the additional information moving picture presence information, and the user can use the existing receiving apparatus as shown below. Get over 400 services.
  • the receiving apparatus 200 When the receiving device cannot present binocular stereoscopic vision, the normal viewing moving image is cut out from the integrated moving image. Since the crop parameter in the H.264 standard is used, a normal viewing moving image is basically presented to the user.
  • the presence, arrangement, sample, aspect, and ratio of the additional information moving image can be specified, so that the additional information moving image can be used instead of the left eye moving image of the normal viewing moving image from the user.
  • the additional information moving image can be used instead of the left eye moving image of the normal viewing moving image from the user.
  • FIG. 42, FIG. 43, and FIG. 26 is a flowchart of the receiving apparatus 200 when using the additional information moving image SEI added to H.264, the additional information moving image descriptor added to the descriptor of the PMT, and the additional information moving image section added to the MPEG2-TS.
  • the additional information moving image presence information encoding unit 208 decodes SEI, descriptor, and section information, and uses the additional information moving image if there is an additional information moving image.
  • the parameters of the normal viewing moving image and the additional information moving image are acquired.
  • 42, 43, and 44 are different from each other in that the parameters are obtained by decoding PSI / SI at the time of MPEG2-TS demux (FIGS. 43 and 44).
  • As a result of decoding of H.264 parameters are obtained (FIG. 42).
  • the user's setting on the receiving device is read out, and it is determined whether normal display or display using an additional information moving image is performed.
  • the type of additional information moving image is stereoscopic
  • a receiving apparatus that cannot perform stereoscopic viewing cannot normally perform stereoscopic viewing using a moving image for viewing and an additional information moving image.
  • the decoding is performed according to the selection situation.
  • the normal viewing moving image and the additional information moving image are cut out from the integrated moving image, and the moving image is output according to the user instruction / setting. As described above, it is possible to switch and display the left eye and the right eye or both.
  • binocular stereoscopic vision can be presented using a normal viewing moving image and an additional information moving image. Since the user does not always desire binocular stereoscopic vision, it is also possible to display not only binocular stereoscopic vision but only normal viewing moving images or only additional information moving images according to user instructions and settings. is there.
  • FIG. 39 is a flowchart of the receiving apparatus when additional information moving image SEI added to H.264, additional information moving image descriptor added to PMT descriptor, and additional information moving image section added to MPEG2-TS are used.
  • the information of SEI, descriptor, and section is decoded to determine whether there is an additional information moving image, and if there is, the normal viewing moving image and additional information moving image when using the additional information moving image.
  • Get parameters. 39, 40, and 41 are different from each other in that the parameters are obtained by decoding PSI / SI when MPEG2-TS is demuxed (FIGS. 40 and 41).
  • As a result of decoding of H.264 parameters are obtained (FIG. 39).
  • the user's setting on the receiving device is read out, and it is determined whether normal display or display using an additional information moving image is performed.
  • the additional information moving image when the stereoscopic information is included in the additional information, whether or not to perform the stereoscopic viewing is determined from the instruction / setting of the user (step S920). If not, a moving image selected from the normal viewing moving image and the additional information moving image is output (steps S722 and S724). In the case of performing stereoscopic viewing, moving image output corresponding to each viewpoint is performed to present stereoscopic viewing (steps S730, S830, and S930). When the type of the additional information moving image is not stereoscopic (NO in steps S712, S812, and S912), the normal viewing moving image / image is displayed in the same manner as the processing shown in the flowcharts of FIGS. 36, 37, and 38.
  • a moving image output selected from the additional information moving image (not only one moving image but also a combination of a plurality of moving images) may be performed.
  • the output moving image presentation surface can be moved back and forth.
  • the normal viewing moving image has been described as the left eye moving image, but it may be a right eye moving image. Even if the vertical relationship between the normal viewing moving image and the additional information moving image is changed, it can be dealt with by changing the parameter for each moving image.
  • the present invention is also effective when an additional information moving image is arranged next to a normal viewing moving image.
  • Multi-eye stereoscopic moving image In the lenticular method or the parallax barrier method, it is possible to handle a moving image of multi-eye stereoscopic.
  • the first and second images can be stereoscopically viewed from the first direction as left-eye and right-eye images, and the third and fourth images can be viewed as left-eye and right-eye images.
  • Stereoscopic viewing is possible from a second direction different from the first direction.
  • the present embodiment is also effective when the moving image output means has an image presentation method of these methods, and uses one image of the multi-eye stereoscopic view as the normal viewing moving image, and the remaining images. May be treated as an additional information moving image.
  • the arrangement of the additional information moving image as a method for making an arrangement between transmission and reception, for example, it is decided to arrange a multi-view stereoscopic moving image in the horizontal direction, It is calculated from the width and the width of the normal viewing moving image.
  • FIG. 13 shows the arrangement state of the integrated images when arranged according to this agreement. Another arrangement is to determine the number of moving images for multi-view stereoscopic viewing (for example, the horizontal direction) and arrange them in the horizontal direction. If there are more moving images, arrange them in the vertical direction. Deploy.
  • FIG. 14 shows the arrangement state of the integrated images when arranged according to this agreement. In FIGS. 13 and 14, it is necessary to make an agreement including whether or not to leave an interval between images.
  • additional information moving images two types of stereoscopic three-dimensional viewing with image intervals and horizontal three-dimensional viewing without image intervals are prepared and transmitted as additional information moving image presence information. For each content, it is possible to select which integrated moving image format.
  • Multi-view stereoscopic vision and another viewpoint stereoscopic moving image Furthermore, as described in the first embodiment, it is also conceivable to transmit a video from another viewpoint as a program program. Since the main video is a stereoscopic moving image, it is preferable for viewing that the video from a different viewpoint is also a stereoscopic moving image. Note that this embodiment is effective even when the different viewpoint video is not a stereoscopic video image.
  • FIG. 15 shows an example of an integrated moving image in which the main stereoscopic video is arranged in the upper stage and the supplementary stereoscopic video is arranged in the lower stage.
  • the normal viewing moving image is expected to be one moving image of the main stereoscopic moving images. All the moving images except the normal viewing moving image are additional information moving images. Note that the normal viewing moving image is not limited to the upper left arrangement.
  • FIG. 13 The content when adding additional information moving image SEI to H.264 is shown.
  • the content of the SEI includes an additional information moving image for a predetermined horizontal array trinocular view, which is a main stereoscopic moving image, This is an additional information moving image for supplementary horizontal array trinocular viewing, which is a supplementary stereoscopic moving image.
  • Supplementary lateral arrangement for trinocular vision means that it is for horizontal arrangement trinocular vision and does not include a normal viewing moving image, and means that it is different from mere horizontal arrangement for trinocular vision To do.
  • sei_message of FIG. 21 the following information can be specified by designating the additional information moving image for the default horizontal arrangement trinocular view. -Clipping area of the normal viewing moving image when using the main additional information moving image, ⁇ Position of main additional information moving image ⁇ Width and height of main additional information moving image ⁇ Sample of main additional information moving image ⁇ Aspect ratio
  • the additional information moving image for supplementary horizontal arrangement trinocular vision is specified, and the position, width, height, sample, aspect, and ratio of the additional information moving image for the three eyes are specified.
  • the width / height / sample / aspect / ratio is the same in FIG. The setting was made so that only the cutout start position was specified for three eyes.
  • FIG. 26 shows the contents when the additional information moving image descriptor is newly added to the PMT descriptor.
  • the additional information moving image for the default horizontal arrangement trinocular view, -Clipping area of the normal viewing moving image when using the main additional information moving image The position of the main additional information moving image
  • the width and height of the main additional information moving image The sample of the main additional information moving image
  • the aspect ratio is specified, and then the additional information for supplementary horizontal array trinocular vision
  • FIG. 27 shows the contents of private_data_byte when an additional information moving picture presence information transmission is added to the MPEG2-TS private section. Except for designating the PID of the stream in which the additional information moving image exists, this is the same as the designated content of the additional information moving image SEI.
  • the following information is specified by designating the additional information moving image for the predetermined horizontal arrangement trinocular view. -Clipping area of the normal viewing moving image when using the main additional information moving image, ⁇ Position of main additional information moving image ⁇ Width and height of main additional information moving image ⁇ Sample of main additional information moving image ⁇ Aspect ratio
  • the main video is a stereoscopic moving image and that a stereoscopic moving image from another viewpoint added as a supplement can be transmitted according to the present embodiment. .
  • the main receiver can be viewed as a normal viewing moving image by the existing receiving apparatus 400.
  • the receiving device 200 to which the present embodiment is applied it is possible to view a favorite single-lens moving image or view a main or supplementary stereoscopic moving image from main / supplementary stereoscopic moving images. Is possible.
  • the binocular stereoscopic view 31 using the additional information moving image having a different image size from the normal viewing moving image is an integrated image with the normal viewing moving image as the left eye moving image 1440x1080 and the additional information moving image as the right eye moving image 480x1080.
  • FIG. 32 shows a case where the normal viewing moving image is arranged as a central moving image 1920x810 and the additional information moving image is arranged as two images (left moving image and right moving image) of 960x270.
  • the enlargement rate of the normal viewing moving image is different from the enlargement rate of the additional information moving image,
  • the presentation size is adjusted to be the same.
  • the additional information moving image is concerned that the reproduced image will be deteriorated as the information amount is reduced.
  • the correction function in human binocular stereoscopic vision is excellent, and a phenomenon occurs in which the other image information is supplemented by one-eye image information with a large amount of information.
  • stereoscopic vision is possible even for people with different left and right eyesight. It has been confirmed that stereoscopic viewing can be performed even when the one-eye image is slightly blurred, and stereoscopic viewing is possible even with the unbalanced left and right moving image of FIG.
  • FIG. 32 shows a moving image for trinocular stereoscopic viewing.
  • a moving image for normal viewing with a large amount of information is an integrated moving image with a central moving image
  • a moving image with a large amount of information is represented as a right-eye moving image.
  • a left eye moving image can be handled.
  • the central moving image that is a normal viewing moving image is used for the right eye
  • the left moving image of the additional information moving image is used for the left eye
  • the central moving image that is a normal viewing moving image is used for the left eye
  • the right moving image of the additional information moving image is used for the right eye. This is because some users can select which of the normal viewing moving images with a large amount of information can be selected by the user's preference, such as left and right eyesight and left and right eye fatigue. .
  • the arrangement and image size of the normal viewing moving image and the additional information moving image in the integrated moving image in FIGS. 31 and 32 are examples, and do not limit the present invention.
  • a normal viewing moving image can be viewed even with an existing receiving apparatus.
  • an existing receiving apparatus can cut out and present a normal viewing moving picture from the integrated moving picture.
  • the present embodiment it is possible to add a new function while maintaining compatibility with an existing receiving device, and if it is not replaced, it becomes impossible to view or a moving image with a sense of incompatibility.
  • the user can receive a new service at a desired switching time.
  • a new service at a desired switching time.
  • the amount of change from the existing transmission device / reception device can be reduced, the development cost can be reduced, and the price of the transmission device / reception device using this embodiment can be reduced.
  • DESCRIPTION OF SYMBOLS 100 Transmitting device 102 Moving image compression unit 104 Normal viewing moving image region encoding unit 106 Additional information moving image presence information encoding unit 200 Receiving device 202 Moving image decompression unit 204 Normal viewing moving image region decoding unit 206 Moving image output 208 Additional information moving image presence information decoding unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 本発明に係る画像送信装置は、通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を符号化する動画像圧縮部(102)と、通常視聴用画像の領域を示す領域情報を符号化する通常視聴用動画像領域符号部(104)と、付加情報動画像が存在することを示す存在情報を符号化する付加情報動画像存在情報符号化部(106)と、符号化された統合画像、領域情報及び存在情報を送信する送信部と、を備える。

Description

画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システム
 本発明は、画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システムに関する。
 従来、例えば下記の特許文献に記載されているように、視差を有する左目用画像及び右目用画像を所定周期で交互にディスプレイに供給し、この画像を所定周期に同期して駆動される液晶シャッターを備える眼鏡で観察する方法が知られている。
 また、現行のデジタル放送では、電子番組表やデータ放送などのサービスが運用されており、ユーザ希望に応じて通常の映像と音声の番組以外のサービスを受けられるようになってきている。
特開平9-138384号公報 特開2000-36969号公報 特開2003-45343号公報
 こうした状況において、通常番組においても、映像と音声に新たな付加価値をつけることで更なるサービスの充実を図ることが要望されている。映像として付加価値をつけるためには、通常の映像(以降、通常視聴用動画像と呼ぶ)とは別に付加価値を持つような映像(以降、付加情報動画像と呼ぶ)を送信し、受信側では、通常視聴用動画像と付加情報動画像を用いた、高付加価値をもつ動画像提示を行うことが考えられる。
 通常視聴を目的として制作された通常視聴用動画像とともに、コンテンツの付加価値向上のために付加情報動画像を送信するためには、通常視聴用動画像と付加情報動画像とを別々に符号化して伝送し、それぞれを別々に復号化して、動画像提示を行う方法もあるが、この場合には、受信装置側で2つのデコードを行わなければならず、2つのデコーダを搭載するとなると受信装置自体の価格が上がってしまう。
 一方、通常視聴用動画像と付加情報動画像を単一画面内に収めれば、通常視聴用動画像と付加情報動画像は一緒に符号化されるため、単一のエンコーダで符号化が可能であるとともに、単一のデコーダにて通常視聴用動画像と付加情報動画像を復号化することが可能となる。しかし、受信装置の出力としては、通常視聴用動画像と付加情報動画像が常に表示されるため、送信側が本来意図する通常視聴用動画像とは異なる表示となってしまう。
 例えば、通常の映像に対して高付加価値をもつ映像として、二眼立体視動画像を伝送する場合を考える。この場合、片眼画像を通常視聴用動画像として考え、付加情報動画像としてもう一方の片眼動画像を送信すると考えればよい。
 この結果、二眼立体視が不可能な従来型の受信装置では、図28、図29のように通常視聴用動画像と付加情報動画像が同一画面上に縦方向あるいは横方向に縮められた上で同時に並んで表示される。二眼立体視における左右の動画像では内容的な差分は少ないので、二眼立体視が不可能な受信装置では、図28、図29よりも図30のように片眼動画像(通常視聴用動画像)のみを正しい縦横比で視聴できる方が望ましい。
  そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、動画像伝送において、現行の送信・受信装置の変更を最小限に抑えて通常視聴用の動画像とともに付加情報動画像を伝送することが可能な、新規かつ改良された画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システムを提供することにある。
 上記課題を解決するために、本発明のある観点によれば、通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を圧縮するステップと、通常視聴用画像の領域を示す領域情報を符号化するステップと、付加情報動画像が存在することを示す存在情報を符号化するステップと、前記統合画像、前記領域情報及び前記存在情報を送信するステップと、を備える、画像送信方法が提供される。
 また、前記存在情報は、付加情報動画像の種類を指定する情報を含むものであってもよい。
 また、前記付加情報動画像の種類として、複数眼立体視用に使用する動画像であるか否かを指定する情報を含むものであってもよい。
 また、前記存在情報は、前記付加情報動画像の領域を示す領域情報、又は前記付加情報動画像のアスペクト・レシオを含むものであってもよい。
 また、前記存在情報は、前記付加情報動画像使用時における前記通常視聴用動画像の画像領域を指定する情報を含むものであってもよい。
 また、上記課題を解決するために、本発明の別の観点によれば、送信側から送られた、通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を伸長するステップと、前記統合画像とともに送信側から送られた前記通常視聴用動画像の領域を示す領域情報を復号化するステップと、前記統合画像とともに送信側から送られた前記付加情報動画像が存在することを示す存在情報を復号化するステップと、前記領域情報に基づいて前記通常視聴用動画像の領域を指定して表示するステップと、前記存在情報に基づいて前記付加情報動画像の存在を認識して前記付加情報動画像を表示するステップと、を備える、画像受信方法が提供される。
 また、上記課題を解決するために、本発明の別の観点によれば、通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を圧縮する圧縮部と、通常視聴用画像の領域を示す領域情報を符号化する領域情報符号化部と、付加情報動画像が存在することを示す存在情報を符号化する存在情報符号化部と、符号化された統合画像、領域情報及び存在情報を送信する送信部と、を備える、画像送信装置が提供される。
 また、上記課題を解決するために、本発明の別の観点によれば、送信側から送られた、通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を伸長する伸長部と、前記統合画像とともに送信側から送られた前記通常視聴用動画像の領域を示す領域情報を復号化する領域情報復号化部と、前記統合画像とともに送信側から送られた前記付加情報動画像が存在することを示す存在情報を復号化する存在情報復号化部と、前記領域情報に基づいて前記通常視聴用動画像の領域を指定して出力するとともに、前記存在情報に基づいて前記付加情報動画像の存在を認識して前記付加情報動画像を出力する画像出力部と、を備える、画像受信装置が提供される。
 また、上記課題を解決するために、本発明の別の観点によれば、通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を圧縮する圧縮部と、通常視聴用画像の領域を示す領域情報を符号化する領域情報符号化部と、付加情報動画像が存在することを示す存在情報を符号化する存在情報符号化部と、符号化された統合画像、領域情報及び存在情報を送信する送信部と、を有する画像送信装置と、送信側から送られた、通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を伸長する伸長部と、前記統合画像とともに送信側から送られた前記通常視聴用動画像の領域を示す領域情報を復号化する領域情報復号化部と、前記統合画像とともに送信側から送られた前記付加情報動画像が存在することを示す存在情報を復号化する存在情報復号化部と、前記領域情報に基づいて前記通常視聴用動画像の領域を指定して出力するとともに、前記存在情報に基づいて前記付加情報動画像の存在を認識して前記付加情報動画像を出力する画像出力部と、を有する、画像受信装置と、を備える画像伝送システムが提供される。
 本発明によれば、動画像伝送において、現行の送信・受信装置の変更を最小限に抑えて通常視聴用の動画像とともに付加情報動画像を伝送することが可能となる。
通常視聴用動画像と付加情報動画像とが1画面に表示された状態を示す模式図である。 図1の配置情報を表にした状態を示す模式図である。 cropパラメータと切り出される領域の矩形領域に係るパラメータを示す模式図である。 Dolby社のAC-3オーディオのストリーム情報を示す模式図である。 PMTのストリーム情報に付加情報動画像descriptorを追加した場合を示す模式図である。 付加情報動画像descriptorの内容例を示す図である。 付加情報動画像SEIの階層を示す図である。 付加情報動画像存在情報を、新規のprivate sectionとして伝送する場合を示す図である。 付加情報動画像の切り出し位置を通常視聴用動画像の直後に配置した場合を示す模式図である。 付加情報動画像の切り出し位置を通常視聴用動画像の直後に配置した場合の取り決め内容を示す模式図である。 左眼動画像に対して間隔をあけて右眼動画像を配置した場合を示す模式図である。 図11の場合の取り決め内容を示す模式図である。 横方向に複数眼立体視の動画像を並べることを取り決めた場合の統合画像の配置状況を示す模式図である。 横方向に入るだけ並べた後、さらに動画像がある場合には縦方向に並べて配置する取り決めで並べた場合の統合画像の配置状況を示す模式図である。 上段にメインの立体視動画像を配置し、下段には補足用の立体視動画像を配置した統合動画像例を示す模式図である。 H.264に付加情報動画像SEIを新規追加する場合の内容を示す模式図である。 付加情報動画像の種類ごとにSEIを新設した場合に、sei_message内の情報での必須項目はなくなった状態を示す模式図である。 PMTに付加情報動画像descriptorを新規追加する場合の内容を示す模式図である。 付加情報動画像の種類ごとにdescriptorを用意した場合に、descriptor内の情報を示す模式図である。 MPEG2-TSのprivate sectionに付加情報動画像存在情報を伝送するものを追加した場合のprivate_data_byteの内容を示す模式図である。 H.264に付加情報動画像SEIを新規追加する場合の内容を示す模式図である。 本実施形態に係る送信装置を示すブロック図である。 既存の送信装置を示す模式図である。 本実施形態に係る受信装置を示す模式図である。 既存の受信装置を示す模式図である。 PMTのdescriptorに付加情報動画像descriptorを新規追加する場合の内容を示す図である。 MPEG2-TSのprivate sectionに付加情報動画像存在情報を伝送するものを追加した場合のprivate_data_byteの内容を示す図である。 通常視聴用動画像と付加情報動画像が同一画面上に縦方向あるいは横方向に縮められた上で同時に並んで表示された状態を示す模式図である。 通常視聴用動画像と付加情報動画像が同一画面上に縦方向あるいは横方向に縮められた上で同時に並んで表示された状態を示す模式図である。 片眼動画像(通常視聴用動画像)のみを正しい縦横比で表示した状態を示す模式図である。 通常視聴用動画像を左眼動画像1440x1080、付加情報動画像を右眼動画像480x1080として統合画像内に配置した場合を示す模式図である。 通常視聴用動画像を中央動画像1920x810、付加情報動画像を960x270の2画像(左動画像、右動画像)として配置した場合を示す模式図である。 H.264をエンコーダとして用い、付加情報動画像SEIを用いる場合の送信装置の処理フローチャートを示す模式図である。 H.264をエンコーダとして用い、付加情報動画像descriptorを用いる場合の送信装置の処理フローチャートを示す模式図である。 H.264をエンコーダとして用い、付加情報動画像sectionを用いる場合の送信装置のフローチャートを示す模式図である。 H.264に追加する付加情報動画像SEIを用いた場合の受信装置のフローチャートである。 PMTのdescriptorに追加する付加情報動画像descriptorを用いた場合の受信装置のフローチャートである。 MPEG2-TSに追加する付加情報動画像sectionを用いた場合の受信装置のフローチャートである。 H.264に追加する付加情報動画像SEIを用いた場合の受信装置のフローチャートである。 PMTのdescriptorに追加する付加情報動画像descriptorを用いた場合の受信装置のフローチャートである。 MPEG2-TSに追加する付加情報動画像sectionを用いた場合の受信装置のフローチャートである。 H.264に追加する付加情報動画像SEIを用いた場合の受信装置のフローチャートである。 PMTのdescriptorに追加する付加情報動画像descriptorを用いた場合の受信装置のフローチャートである。 MPEG2-TSに追加する付加情報動画像sectionを用いた場合の受信装置のフローチャートである。
 以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態(複数の任意の画像を伝送する例)
 2.第2の実施形態(立体視画像への適用)
 [1.第1の実施形態]
 先ず、本実施形態に係るシステムの概念について、図面に基づいて説明する。ここではゴルフ中継のコンテンツを例に、付加情報動画像として二眼立体視には使用しない動画像を伝送する場合について説明する。尚、ゴルフ中継のコンテンツは単なる例示であり、本発明の適用範囲はゴルフ中継に限られるものではない。
 図1は、通常視聴用動画像と付加情報動画像とが1画面に表示された状態を示しており、図中の数字は画素数を示している。ここでは、一例として、グリーン周りでの状況に対して、本実施形態の手法を用いた場合について説明する。通常視聴用動画像は、通常のゴルフ中継で行われる動画像であり、現行の番組内容(本編)に対応する動画像である。一方、付加情報動画像は通常視聴用動画像とは別個の動画像であり、通常視聴用動画像とは異なる観点で作成された動画像を提供することで、番組内容の充実を図るものである。
 例えば、図1に示すように、通常視聴用動画像でグリーン上の映像が映っていたとすれば、付加情報動画像にはそのグリーンの傾斜や芝目などがわかるような動画像や既にホールアウトした別プレーヤーがモニタに見入る表情の動画像などを用い、ユーザが映像の場面を多角的に捉えることができるようにする。また、通常視聴用動画像が、プレーヤーがフェアウェイを歩く映像であれば、付加情報動画像としては直前のドライバーショットの再現画像や、ギャラリーを映した動画像を用いるといった構成が考えられる。
<統合動画像>
 本実施形態では、現行の動画像圧縮伸長手段からの変更を少なくするために、通常視聴用動画像と付加情報動画像を1フレーム(またはフィールド)上に配置して、1つの動画像(以後、統合動画像と記述する)として圧縮伸長処理を行う。
 図1には、グリーン上に乗ったボールを映す通常視聴用の動画像と、ホール全体を上方から映した動画像、及びグリーン傾斜を解説するための動画像が1フレーム上に配置された場合の統合動画像の1フレームを示す。尚、フレームをフィールドとしても本実施形態の有効性は変わらない。
 図2には、図1の配置情報を表にしたものを示す。図2は、統合動画像の大きさを1920x1080ピクセルとして、統合画像の左上の座標を(0,0)とした場合の、それぞれの動画像の配置情報である。通常視聴用動画像は、左上から貼り付けられているので、左上端点は(0,0)である。また、通常視聴用動画像自体は幅方向(水平方向)に半分に縮小した画像であり、幅×高さは960x1080ピクセルである。縮小したことにより、サンプル・アスペクト・レシオは2:1となる。一方、付加情報動画像は720x480ピクセルの画像サイズであり、16:9の画面を想定して作成された動画像をともに想定しているので、サンプル・アスペクト・レシオは40:33となる。ここで、2つの付加情報動画像の領域・アスペクトレシオは特に一致する必要はなく、付加情報動画像は2つに限定されるものでもない。
<現行放送>
 現行のデジタル放送システムで上記の統合動画像を伝送する場合を説明する。現行のデジタル放送システムでは、MPEG2-TS(transport stream)と呼ばれるパケット多重化方式により、動画像も音声も符号化されて伝送される。動画像のコーデックとしてはMPEG2
VIDEO、H.264(AVC)が主流を占めており、動画像はこれらのコーデックによって圧縮されて伝送される。
<送信装置の構成>
 図22は、本実施形態に係る送信装置100を示すブロック図である。図22に示すように、送信装置100は、動画像圧縮部102、通常視聴用動画像領域符号化部104、付加情報動画像存在情報符号化部106を備える。図22の送信装置100への入力は、通常視聴用動画像と付加情報動画像を統合した統合動画像、通常視聴用動画像の統合動画像内での領域とアスペクト・レシオ、付加情報動画像の種類と(送信受信間であらかじめ取り決めがない場合の)領域、付加情報動画像使用時の通常視聴用動画像の統合動画像内での領域(送信受信間であらかじめ取り決めがない場合)であり、出力はこれらが符号化されたストリームである。なお、図23は、既存の送信装置を示しており、既存の送信装置は、符号化情報動画像存在情報符号化部106を備えていない点で図22の送信装置100と相違する。図22及び図23に示す構成は、回路などのハードウェア、又は中央仙山処理装置(CPU)とこれを機能させるためのプログラム(ソフトウェア)によって構成することができる。後述する受信装置についても同様である。
<統合動画像の圧縮と通常視聴用動画像の領域符号化>
 本実施形態では、図1のように配置された統合動画像を動画像圧縮部102にて既存のコーデックにて動画圧縮する。さらに、図2の配置情報のうち、通常視聴用動画像のサンプル・アスペクト・レシオならび領域を示す情報(左上端点、幅高さ)は、通常視聴用動画像領域符号化部104にて既存のコーデックの符号化方法を用いて符号化する。
 まず、通常視聴用動画像のサンプル・アスペクト・レシオについては、たとえば、動画像のコーデックがH.264であれば、SPS内のVUI(Video usability information)内にある、aspect_ratio_idc,sar_width,sar_heightを用いて指定する。
 図2では、複数のサンプル・アスペクト・レシオが存在するが、通常視聴用動画像が正しい縦横比で表示されるように、通常視聴用動画像のサンプル・アスペクト・レシオを使用する。図2の場合、通常視聴用動画像のサンプル・アスペクト・レシオは2:1であるので、上述のsar_width,sar_heightの設定は不要で、aspect_ratio_idc=16を指定すればよい。
 また、通常視聴用動画像の領域の情報は、統合動画像における通常視聴用動画像の切り出し領域として符号化する。例えば、動画像のコーデックがH.264であれば、SPS(シーケンス・パラメータ・セット)内にある、frame_crop_left_offset,frame_crop_right_offset,frame_crop_top_offset,frame_crop_bottom_offsetを用いて、統合動画像内から通常視聴用動画像を切り出すcropパラメータとして設定する。
 cropパラメータと切り出される領域の矩形領域は次の関係を持っている。図3に示すSubWidthC、SubHeightCを用いて、
左上端点の座標(xs,ys)は、
 xs=SubWidthC * frame_crop_left_offset
 ys=SubHeightC * (2-frame_mbs_only_flag) * frame_crop_top_offset
で示される。
 右下端点の座標(xe,ye)は、
 xe=PicWidthInSamles
   - (SubWidthC * frame_crop_right_offset + 1)
 ye=16 * FrameHeightInMbs
   - (SubHeightC * (2-frame_mbs_only_flag) * frame_crop_bottom_offset + 1)
で示される。
 chroma_format_idc、frame_mbs_only_flagは、ともにH.264のSPS内にあるパラメータである。
 現行放送では、chroma_format_idcは1なので、SubWidthC=2、SubHeightC=2である。frame_mbs_only_flagは、動画像圧縮をフレーム単位で行うか、フィールド単位で行うかを示すフラグである。
 図1は、フレーム内での配置を図示したものなので、フレーム単位で圧縮するものとして、frame_mbs_only_flag=1として説明を続ける。フィールド単位で圧縮する場合は、frame_mbs_only_flag=0として計算すれば良く、本実施形態はフィールド単位で圧縮する場合でも有効である。
 以上から、xs,xe,ys,yeは、
 xs=2 * frame_crop_left_offset
 ys=2 * frame_crop_top_offset
 xe=PicWidthInSamles
   - (2 * frame_crop_right_offset + 1)
 ye=16 * FrameHeightInMbs
   - (2 * frame_crop_bottom_offset + 1)
となる。これによって、切り出される画像の幅w、高さhは、
 w=PicWidthInSamles - 2 * frame_crop_left_offset  - 2 * frame_crop_right_offset
 h=16 * FrameHeightInMbs  - 2 * frame_crop_top_offset  - 2 * frame_crop_bottom_offset
となる。
 図1の通常視聴用動画像を切り出すパラメータは、統合動画像の幅より、PicWidthInSamples=1920、統合動画像の高さは1080であり、16の倍数ではないため、16 * FrameHeightInMbs=1088となる。
 さらに、通常視聴用動画像のxs=0、ys=0、w=960、h=1080より、
  frame_crop_left_offset=0
  frame_crop_top_offset=0
  frame_crop_right_offset=480
  frame_crop_bottom_offset=8
として設定すればよい。
 以上のようにして、通常視聴用動画像のサンプル・アスペクト・レシオならび配置情報を指定して、H.264における符号化処理を行えば、符号化されたストリームをそのまま復号すると、通常視聴用動画像が統合動画像から切り出されて、正しい縦横比で表示される。
 上記はH.264における、通常視聴用動画像のサンプル・アスペクト・レシオならび配置情報の符号化であるが、MPEG2 VIDEOにおいても同様に符号化可能である。サンプル・アスペクト・レシオに関しては、シーケンスヘッダ内に、aspect_ratio_informationがあり、サンプル・アスペクト・レシオもしくはディスプレイ・アスペクト・レシオによって、パラメータ設定が可能となっている。
 サンプル・アスペクト・レシオは、伸長直後の画素の縦横比を示しており、ディスプレイ・アスペクト・レシオは、表示での縦横比を示す。
 図2の通常視聴用動画像のサンプル・アスペクト・レシオは2:1であり、画素の幅が高さの2倍であることを示す。したがって、正しく表示するためには、960x1080の画像を横方向に2倍に引き延ばして1920x1080で表示する。ディスプレイ・アスペクト・レシオは表示の1920x1080の縦横比であるので、1920:1080=16:9となる。この16:9は、aspect_ratio_information=3とすることで指定することができる。
 一方の領域切り出しに関しては、シーケンス・ディスプレイ・エクステンションヘッダ内の、display_vertical_size, display_horizontal_sizeにて切り出す幅高さを指定可能である。ピクチャ・ディスプレイ・エクステンションヘッダ内の、frame_centre_horizontal_offset, frame_centre_vertical_offsetによって切り出し部分の中心と元の画像の中心のオフセットを指定可能である。これらのパラメータにて、通常視聴用動画像のサンプル・アスペクト・レシオならび配置情報を符号化可能である。ただし、ITU-T.Rec.H.262の記述で、これらのパラメータがパンスキャンと並んで記述されており、放送規格によっては自由にパラメータ設定できない場合もある。H.264については、cropのパラメータはパンスキャンとは別個に設定可能であり、パンスキャンに絡んだパラメータ制限はない。
 他のコーデックであっても、動画像の伸長後に切り出しを行うパラメータを持っていれば、それを本発明の通常視聴用動画像のサンプル・アスペクト・レシオならび配置情報の指定として用いることができる。
 次に、図22に示す送信装置100の付加情報動画像存在情報符号化部106で符号化する、付加情報動画像存在情報について説明する。
<付加情報動画像存在情報>
 図1の例では、通常視聴用動画像のほかに、付加情報動画像1,2の2つの付加情報動画像を伝送している。これらの付加情報動画像は、番組上の補足動画像として有効な動画像であるが、常に表示されるというよりは、ユーザの好みに応じて表示される動画像と考えてよい。
 図1の例では、メイン画面のグリーンに対して、同じ視点からその起伏を示した動画像と、ホール全体を上空から見渡した動画像を補足動画像として統合動画像に配置して伝送している。
 付加情報動画像存在情報は、「これらの補足動画像が存在するかどうか」、「存在するならば、幅高さ・位置、サンプル・アスペクト・レシオは何か」、「更に、これらの補足動画像を使用する際には、通常視聴用動画像の切り出し領域をどのようにするか」を示す情報である。
 図1及び図2の例では、付加情報動画像の幅、高さ、サンプル・アスペクト・レシオは、通常視聴用動画像のものとは異なっている。
 ここでは、付加情報動画像の幅高さ、サンプル・アスペクト・レシオ、付加情報動画像使用時の通常視聴用動画像の切り出し領域が、あらかじめ送信者と受信者との間で取り決められていなかった場合を想定する。
<H.264規格のSEIとして付加情報動画像存在情報を伝送する場合>
 H.264規格には、Supplemental enhancement information(SEI)という、補助情報の記述方法がある。SEIではデコードの際の入出力バッファ内のデータの保持時間やランダムアクセス時にデコードを行うポイントの提示などの情報を記述する。
 本実施形態では、新規に付加情報動画像SEIを追加することで、本実施形態の付加情報動画像存在情報を伝送可能にする例を説明する。
 図7は、付加情報動画像SEIの階層を示しており、SEIのsei_messageとして、付加情報動画像使用時の通常視聴用動画像の切り出し開始位置、幅、高さと、付加情報動画像の種類、付加情報動画像数、各々の付加情報動画像の切り出し開始位置、幅高さ、サンプル・アスペクト・レシオを指定している。
 本実施形態において新規に追加されたSEIは、文法的にはH.264の文法規則に則って作成される。このため、既存の受信装置では解読できないものの、読み飛ばすことで次の処理を実行できる。図33は、H.264をエンコーダとして用い、付加情報動画像SEIを用いる場合の送信装置100の処理フローチャートを示す。まず、統合動画像上の通常視聴用動画像の位置と幅、高さから、算出したH.264のcrop parameterと、aspect_ratio_idc(必要であればsar_width,sar_heightも用いる)をエンコーダに設定する(ステップS100)。
 次に、付加情報動画像使用時の通常視聴用動画像の切り出し開始位置、幅、高さ、付加情報動画像の種類、サンプル・アスペクト・レシオ、左上端点、幅高さから求めた付加情報動画像の切り出し開始位置、幅高さを付加情報動画像SEIとしてエンコーダに設定する(ステップS102)。更に統合動画像を統合動画像の画像サイズなどのエンコーダ設定を行った上で統合動画像をエンコードする(ステップS104)。デジタル放送システムで伝送する場合には、MPEG2-TSにて多重化を行うことで、伝送用のストリームを得ることができる(ステップS106)。
 尚、図7の指定では、通常視聴用動画像および付加情報動画像の配置を、切り出し開始位置ならびに幅、高さによって指定しているが、配置をH.264のcrop領域の指定方法など、別の方法を用いて配置を指定してもかまわない。
 SEIはH.264規格での伝送記述であり、たとえば、MPEG2 videoであればUSER_DATAを用いるなど、動画像圧縮伸長処理に対する補助情報を送る手段をもつコーデックであれば、新たに補助情報を伝送する記述を追加することで対応できる。
 既存の受信装置(既に市場で販売中あるいは販売済の装置)では、この新規に追加された付加情報動画像SEIは解読できないものの、読み飛ばすことで処理を続行可能である。ここでは、既存の受信装置で付加情報動画像SEIが読み飛ばされて受信処理が行われた場合を想定する。
 図25は既存の受信装置400を示す模式図である。本実施形態における、通常視聴用動画像と付加情報動画像を合わせた統合動画像の符号化、ならびに通常視聴用動画像の領域の符号化は既存の送信装置と同じ処理を行っている。このため、図25に示すように、既存の受信装置400でも統合動画像は復号化され、既に説明したcrop情報によって通常視聴用動画像が期待通りに切り出されて動画像出力部206に表示されることになる。
 一方、図24は、本実施形態に係る受信装置200を示す模式図である。本実施形態に係る受信装置200は、動画像圧縮部202、通常視聴用動画像領域符号化部204、付加情報動画像存在情報符号化部208、動画像出力部(表示パネル)206を備える。本実施形態に係る受信装置200では、付加情報動画像存在情報符号化部206により、付加情報動画像SEIを解読することが可能である。このため、受信装置200は、通常視聴用動画像の領域外に付加情報動画像が存在すること認識するとともに、付加情報動画像使用時の通常視聴用動画像の切り出し開始位置、幅高さ、付加情報動画像数やそれぞれの付加情報動画像の切り出し開始位置、幅高さ、sample aspect ratioを得ることができる。
<PMTのdescriptorとして付加情報動画像存在情報を伝送する場合>
 MPEG2-TSでは、伝送する番組プログラムの、ストリーム情報を記述するPSI(Program System Information)として、PMT(Program map table)がある。
 PMTのストリーム情報には、オーディオやビデオなどのパケットを選択するためのPID(Packet ID)、stream_typeやdescriptorなどが含まれ、ビデオのコーデックやオーディオのコーデックが何を用いて符号化されているかを知ることができる。
 図4は、Dolby社のAC-3オーディオのストリーム情報について示す。AC-3に対してのstream_typeはITU-T REC.H.222.0では規定されておらず、欧州ではPES private dataのstream_typeが用いられており、米州ではUser privateのstream_typeが用いられている。
 したがって、図4のstream_typeのみでは、elementary_PIDで指定されるPIDのパケットがオーディオストリームであるかどうかも特定できない。このため、AC-3ではPMTのdescriptorとして、AC-3 descriptorを用意しており、このdescriptorの検出によりAC-3のストリームであることを判別できるようになっている。このように、PMTでは番組プログラムのコーデックに関する情報をdescriptorを通して設定する使用方法がある。
 この使用方法に基づき、本実施形態においてもPMTにdescriptorを追加して付加情報動画像存在情報を伝送する例を説明する。図5は、PMTのストリーム情報に付加情報動画像descriptorを追加した場合を示す。この付加情報動画像descriptorは、elementary_PIDで指定されたPIDをもつパケットでは、統合動画像が動画像圧縮されており、付加情報動画像が存在することを通知するともに、付加情報動画像を使用するためのパラメータを通知する。
 統合動画像の圧縮がH.264にて行われていれば、stream_typeを0x1Bとして設定し、MPEG2にて行われていれば、stream_typeは0x2と設定する。付加情報動画像descriptor自体はコーデックには非依存であるので、MPEG2でもH.264でも同じものを使用可能である。もちろん、既存の受信装置400では付加情報動画像descriptorを解釈することはできず、通常は無視して動作することになる。
 しかし、既存の受信装置400においても、統合動画像ならびに通常視聴用動画像の領域設定やサンプル・アスペクト・レシオが本実施形態に即して設定されていれば、統合動画像の復号は可能であり、そこから通常視聴用動画像が切り出されるため、通常視聴用動画像を正しく表示することができる。
 一方、本実施形態に即した受信装置200では、付加情報動画像存在情報復号化部208により付加情報動画像descriptorを復号して解釈することが可能である。このため、通常視聴用動画像の領域外に付加情報動画像が存在することを認識することができる。
 本実施形態では、付加情報動画像使用時の通常視聴用動画像の切り出し領域および、付加情報動画像の幅高さ、サンプル・アスペクト・レシオについては、あらかじめ、送信者と受信者との間で取り決められていなかった場合を想定しているので、この付加情報動画像descriptorにこれらのパラメータを格納して伝送する。
 図6に付加情報動画像descriptorの内容例を示す。また、図34は、H.264をエンコーダとして用い、付加情報動画像descriptorを用いる場合の送信装置の処理フローチャートを示す。先ず、統合動画像上の通常視聴用動画像の位置と幅高さから、算出したH.264のcrop parameterと、aspect_ratio_idc(必要であればsar_width,sar_heightも用いる)をエンコーダに設定する(ステップS200)。次に、付加情報動画像使用時の通常視聴用動画像の切り出し開始位置、幅高さ、付加情報動画像の種類、サンプル・アスペクト・レシオ、左上端点、幅高さから求めた付加情報動画像の切り出し開始位置、幅、高さを図6の付加情報動画像descriptorとして用意する(ステップS202)。更に統合動画像を統合動画像の画像サイズなどのエンコーダ設定を行った上で統合動画像をエンコードする(ステップS204)。デジタル放送システムでの伝送に必要なMPEG2-TS多重化の際に、用意した付加情報動画像descriptorをPMTに設定することで、伝送用のストリームを得ることができる(ステップS206)。
 図2の例では、通常視聴用動画像のほかに存在する2個の付加情報動画像はともに非立体視用付加情報動画像であるので、付加情報動画像種類は非立体視用とし、付加情報動画像使用時の通常視聴用動画像の切り出し開始位置、幅、高さの後に、付加情報動画像の種類、付加情報動画像数、各々の付加情報動画像の切り出し開始位置、幅高さ、サンプル・アスペクト・レシオを順に指定する。
 ここで、通常視聴用動画像、付加情報動画像の領域指定に、開始位置と幅高さを用いているが、目的は統合動画像内での配置の指定であるため、H.264のcrop指定方法と同様な指定にしてもよいし、別の方法による規定であってもかまわない。
 図6の付加情報動画像descriptorの形式以外にも、非立体視用付加情報動画像descriptorとして付加情報動画像の種類ごとにdescriptorを用意して、descriptor内の付加情報動画像種類のフィールドを省略することも可能である。また、付加情報動画像1、付加情報動画像2それぞれにdescriptorを用意し、PMTのストリーム情報に複数の付加情報動画像descriptorを記述する形式として、付加情報動画像数のフィールドを省略することも可能である。
 MPEG2-PSに関しても本発明は有効であり、Program stream map(PSM)内に、付加情報動画像存在情報を格納するdescriptorを新規に追加することにより、MPEG2-TSのPMTに付加情報動画像descriptorを新規追加した場合と同様、有効に作用する。
 また、MPEG2以外のコンテナであっても、各々ビデオデータに対する補助情報を記述することが可能で、補助情報を追加可能な形式であれば上記のdescriptor追加と同様に適用することが可能である。
<private sectionとして付加情報動画像存在情報を伝送する場合>
 MPEG2-TSでは、PMTの階層と同じ階層に、sectionデータを伝送することができる。このsectionに新規追加する場合を想定して、private sectionが考えられており、本実施形態の付加情報動画像存在情報を、新規のprivate sectionとして伝送することも考えられる。図8は、付加情報動画像存在情報を、新規のprivate sectionとして伝送する場合を示している。
 この新規sectionは、既存の受信装置400では解読できないため、PMTのdescriptorと同様に、既存の受信装置400では読み飛ばされる。
 図8では、図2の統合動画像のパケットを判別するためのPID,付加情報動画像使用時の通常視聴用動画像の切り出し開始位置、幅高さの後に、付加情報動画像の種類、付加情報動画像の切り出し開始位置、幅高さ、サンプル・アスペクト・レシオを順に指定した場合を示している。
 図35にH.264をエンコーダとして用い、付加情報動画像sectionを用いる場合の送信装置のフローチャートを示す。先ず、統合動画像上の通常視聴用動画像の位置と幅高さから、算出したH.264のcrop parameterと、aspect_ratio_idc(必要であればsar_width,sar_heightも用いる)をエンコーダに設定する(ステップS300)。次に、パケット判別のためのPID,付加情報動画像使用時の通常視聴用動画像の切り出し開始位置、幅高さ、付加情報動画像の種類、サンプル・アスペクト・レシオ、左上端点、幅高さから求めた付加情報動画像の切り出し開始位置、幅高さを図6の付加情報動画像sectionとして用意する(ステップS302)。更に統合動画像を統合動画像の画像サイズなどのエンコーダ設定を行った上で統合動画像をエンコードする(ステップS304)。デジタル放送システムでの伝送に必要なMPEG2-TS多重化の際に、用意した付加情報動画像sectionも併せて多重化することで、伝送用のストリームを得ることができる(ステップS306)。
 なお、通常視聴用動画像、付加情報動画像の領域指定は、統合動画像内における配置を特定するためのものであるため、H.264のcrop領域の指定方法など、別の方法を用いて配置を指定してもかまわない。
 また、付加情報動画像の種類ごとにprivate sectionを新規追加すれば、付加情報動画像の種類を省略することも可能である。
 上記3種類の付加情報動画像存在情報の格納方法のいずれかを用いることで、本実施形態の送信装置100の付加情報動画像存在情報符号化部106にて、付加情報動画像存在情報は符号化される。
 以上から、統合動画像、通常視聴用動画像領域と付加情報動画像使用時の通常視聴用動画像の切り出し領域、サンプル・アスペクト・レシオ、ならびに付加情報動画像存在情報を符号化したストリームを得ることができる。
 ビデオコーデックをH.264として、このストリームを得た場合には、そのストリームを、H.264(ITU-T Rec.H.264)規格を満たす既存の受信装置400を以て復号化した場合、付加情報動画像存在情報は無視されて、通常視聴用動画像が表示される。なお、ビデオコーデックがMPEG2
VIDEO(ITU-T Rec.H.262)であっても同様である。
 その一方で、本実施形態を適用した受信装置200であれば、付加情報動画像存在情報も正しく復号化され、ユーザは既存の受信装置400以上のサービスを得られる。
 このように本実施形態では、既存のTVセットとの互換性を保ちながら、新しい機能を追加していくことが可能であり、買い替えなければ視聴できなくなったり、違和感のある動画像になったりする場合に比べると、ユーザメリットは大きい。
 <受信装置におけるユーザのインタラクション>
 本実施形態の受信装置200では、付加情報動画像有りの番組プログラムを受信した場合には、ユーザから受信装置200への設定・指示によって、少なくとも以下の3通りの表示を選択することができる。
1)通常視聴用動画像を通常通りに表示すること
2)通常視聴用動画像と付加情報動画像を同時に画面表示すること、
3)付加情報動画像のみを画面表示すること
 通常視聴用動画像と付加情報動画像を同時に画面表示する場合には、付加情報動画像の表示数や、それらの画面上での配置やサイズなどもユーザの要求に応じて変更するようにしても良い。
 ここで、受信装置200への設定は、リモコンなどの操作によって、あらかじめ付加情報動画像有りの番組プログラムをどのように表示するかを設定しておくことである。受信装置200への指示は、ユーザの指示により即座に付加情報動画像有りの番組プログラムの表示方法を変更することである。
 図36、図37、図38は、それぞれ、H.264に追加する付加情報動画像SEI、PMTのdescriptorに追加する付加情報動画像descriptor、MPEG2-TSに追加する付加情報動画像sectionを用いた場合の受信装置200のフローチャートである。これらのフローチャートでは、SEI、descriptor、sectionの情報を解読して、付加情報動画像があるかどうか、ある場合には付加情報動画像を使用する場合の通常視聴用動画像や付加情報動画像のパラメータを取得する。図36、図37、図38で異なるのはMPEG2-TSのdemux時に、PSI/SIを解読してパラメータを得る(図37、図38)か、H.264のデコードの結果、パラメータを得る(図36)かである。パラメータ取得後は、ユーザの受信装置への設定を読みだして、通常表示を行うか、付加情報動画像を用いた表示を行うか、両方を表示するかによって、動画像出力を変更する。ここで、ユーザ設定が通常表示であれば、通常視聴用動画像を出力する(ステップS410,S510,S610)。また、ユーザ設定が通常視聴用動画像及び付加情報動画像を出力するものであれば、通常視聴用動画像及び付加情報動画像を出力する(ステップS414,S514,S614)。また、ユーザ設定が通常視聴用動画像及び付加情報動画像を出力するものでなければ、付加情報動画像を出力する(ステップS416,S516,S616)。
 
 なお、本実施形態では、付加情報動画像が通常視聴用動画像の内容と比較的関連する動画像を例示したが、特に関連しなくとも本実施形態は有効に作用する。
 [2.第2の実施形態]
 ここでは山の景色の複数眼立体視コンテンツを例に、付加情報動画像として複数眼立体視に使用する動画像を伝送する場合について、送信・受信間で、以下の情報についての取り決めを行った場合について説明する。尚、取り決めを行わない場合については「第1の実施の形態」と同様にこれらの情報を伝送すればよい。
・付加情報動画像使用時の通常視聴用動画像の切り出し領域、
・付加情報動画像の位置
・付加情報動画像の幅高さ
・付加情報動画像のサンプル・アスペクト・レシオ
1.二眼立体視動画像
ここでは複数眼立体視のうちの二眼立体視動画像に対して、左眼動画像を通常視聴用動画像、右眼動画像を付加情報動画像として伝送する場合を考える。
 まず、統合動画像の動画像圧縮、通常視聴用動画像領域とサンプル・アスペクト・レシオの符号化に関しては、第1の実施形態で記述した方法と全く同じ方法で符号化が可能である。
 付加情報動画像存在情報に関して、まず、送信側と受信側で行う取り決めについて考える。通常視聴用動画像と付加情報動画像は二眼立体視動画像の対であるから動画像としては同じ性質を持つと考えて、通常視聴用動画像のパラメータを付加情報動画像のパラメータに流用することは自然な取り決めである。
 すなわち、ここでは以下の取り決めをするものとする。
(1)通常視聴用動画像と付加情報動画像の画像サイズは同じ幅高さである。
(2)通常視聴用動画像と付加情報動画像のサンプル・アスペクト・レシオは同じである。
 また、この実施形態では二眼立体視を行わない場合には左眼動画像が表示される。この表示される領域と二眼立体視の左眼動画像として使用される領域は同じと取り決めたとする。すなわち、
(3)付加情報動画像使用時の通常視聴用動画像の切り出し領域は付加情報動画像非使用時の通常視聴用動画像の切り出し領域と同じであること、
を取り決めることとする。
 次に通常視聴用動画像と付加情報動画像は1フレームの中に配置されるが、送信・受信間で、付加情報動画像は通常視聴用動画像の下方に配置されるとし、二眼立体視動画像の画像サイズから、付加情報動画像の切り出し開始位置を特定することを考える。
 付加情報動画像の切り出し位置を通常視聴用動画像の直後に配置した場合、図9に示すような配置となり、図10に示すような取り決め内容となる。
 また、左眼動画像の下端と右眼動画像の上端が同一マクロブロックで符号化されることを避けると、図11のように左眼動画像に対して間隔をあけて右眼動画像を配置することになる場合があり、図12に示すような取り決め内容となる。
 図10、図12には一部の画像サイズのみ記述したが、伝送される可能性があるすべての画像サイズについて図10、図12のように取り決めを行うか、通常視聴用動画像のcropパラメータから、次に示す算出式のように取り決めを行うことになる。
 図9の付加情報動画像の切り出し開始位置(xa、ya)は、通常視聴用動画像の最下端ラインの直下から始まるので
 xa=frame_crop_left_offset
 ya=16 * FrameHeightInMbs
   - 2 * frame_crop_bottom_offset
となり、付加情報動画像の画像サイズ(w、h)は、通常視聴用動画像と同じで
 w=PicWidthInSamles
  - 2 * frame_crop_left_offset
  - 2 * frame_crop_right_offset
 h=16 * FrameHeightInMbs
  - 2 * frame_crop_top_offset
  - 2 * frame_crop_bottom_offset
となる。
 一方、図10の付加情報動画像の切り出し開始位置(xb、yb)は、上記図9の切り出し開始位置(xa,ya)を用いると、
 xb=xa
 yb=ya+(16 - ya%16)
となる。(ya%16はyaを16で除算した余りを示す。)
 これらの条件を元に、
(4)付加情報動画像の統合動画像における切り出し開始位置の特定方法を、たとえば、図12のテーブルに基づき、テーブルに無い画像サイズの場合はその高さ以上で最も近い高さを持つものを使用するとする。
を取り決めることとする。
 以上の(1)から(4)の取り決めによって、以下の情報が送信・受信間で取り決められるものとする。
・付加情報動画像使用時の通常視聴用動画像の切り出し領域、
・付加情報動画像の位置
・付加情報動画像の幅高さ
・付加情報動画像のサンプル・アスペクト・レシオ
 これらの取り決めに関しては、通常視聴用動画像のcropパラメータから、付加情報動画像の切り出し開始位置や画像サイズを特定する機能ならびに、通常視聴用動画像のサンプル・アスペクト・レシオを付加情報動画像のサンプル・アスペクト・レシオとして出力する機能を受信装置200内の付加情報動画像存在情報の復号化部208に持たせることで対応することができる。
 今回の取り決めでは、パラメータとして渡すものすべてに関して取り決めが行われているため、付加情報動画像存在情報として送信装置側から受信装置側に伝送する内容として必須となるのは、付加情報動画像が存在するかどうかと、通常視聴用動画像と付加情報動画像は二眼立体視動画像の対であるということである。
 このため、付加情報動画像の種類を規定できる符号を送信し、受信側でこの符号を検知した場合に(1)から(4)によって、付加情報動画像を得て使用すればよい。従って、旧来からある伝送情報であったとしても、付加情報動画像存在情報として使用できる場合がある。
 以下では、既に第1の実施形態で記述した、
・H.264のSEI
(MPEG2 videoであればUSER_DATA)
・MPEG2-TSのPMTのdescriptor
(MPEG2-PSであればPSMのdescriptor)
・MPEG2-TSのprivate section
といった情報について、本実施形態を適用した場合を説明する。
 図16は、H.264に付加情報動画像SEIを新規追加する場合の内容を示したものである。付加情報動画像使用時の通常視聴用動画像の切り出し領域、統合動画像内での付加情報動画像の領域やサンプル・アスペクト・レシオはあらかじめ送信・受信間で取り決めを行っているので、sei_meesageとして最低限必要な情報は、付加情報動画像の種類が取り決め済み縦配列二眼立体視用ということのみである。これを既定縦配列二眼立体視用として図16には示している。なお、既定二眼立体視用とても良いが、ここでは上下に並べるもののほか、左右に並べるものもあるため、上下に並べるという意味で縦配列を名前に含めている。
 本実施形態に関するSEIをH.264に1個新設する場合には図16のようになるが、付加情報動画像の種類ごとにSEIを新設した場合には、たとえば既定縦配列二眼立体視用付加情報動画像SEI自体が存在することで、統合画像が縦配列二眼立体視用の付加情報動画像をもっていることが判定できるため、図17に示すようにsei_message内の情報での必須項目はなくなる。(もちろん、その他の情報を含めることも可能である。)
 次に、図18は、PMTに付加情報動画像descriptorを新規追加する場合の内容を示したものである。
 付加情報動画像使用時の通常視聴用動画像の切り出し領域、統合動画像内での付加情報動画像の領域やサンプル・アスペクト・レシオはあらかじめ送信・受信間で取り決めを行っているので、descriptorとして最低限必要な情報は、付加情報動画像の種類が既定縦配列二眼立体視用ということのみである。
 このdescriptorに関しても、付加情報動画像の種類ごとにdescriptorを用意することにすれば、図19のようにdescriptor内に本実施形態の適用上必要な情報はなくなる。
 図20は、MPEG2-TSのprivate sectionに付加情報動画像存在情報を伝送するものを追加した場合のprivate_data_byteの内容である。PMTのdescriptorと同様に、付加情報動画像の種類を指定する必要があるのと同時に、付加情報動画像有りのストリームのPIDを指定する必要がある。
 private sectionについても、付加情報動画像の種類ごとにprivate sectionを新規追加する方法をとれば、付加情報動画像の種類を省略することも可能である。
 以上から、第1の実施形態と同様に、統合動画像、通常視聴用動画像領域と付加情報動画像使用時の通常視聴用動画像の切り出し領域、サンプル・アスペクト・レシオ、ならびに付加情報動画像存在情報を符号化したストリームを得ることができる。
 ビデオコーデックをH.264として、このストリームを得た場合には、そのストリームを、H.264(ITU-T Rec.H.264)規格を満たす既存の受信装置400を以て復号化した場合、付加情報動画像存在情報は無視されて、通常視聴用動画像が表示される。ビデオコーデックがMPEG2
VIDEO(ITU-T Rec.H.262)であっても同様である。
 その一方で本実施形態を適用した受信装置200であれば、付加情報動画像存在情報符号化部208により付加情報動画像存在情報も正しく復号化され、次に示すようにユーザは既存の受信装置400以上のサービスを得られる。
 このように本実施形態では、既存のTVセットとの互換性を保ちながら、新しい機能を追加していくことが可能であり、買い替えなければ視聴できなくなったり、違和感のある動画像になったりする場合に比べると、ユーザメリットは大きい。
 つぎに、図9、図11に示す画像を本実施形態に即した受信装置200で表示する場合について説明する。受信装置が二眼立体視を提示できない場合、統合動画像からの通常視聴用動画像の切り出しはH.264規格内のcropパラメータを用いているので、基本的には通常視聴用動画像がユーザに提示される。
 本実施形態を用いた受信装置200であれば、付加情報動画像の存在や配置・サンプル・アスペクト・レシオを特定できるため、ユーザから通常視聴用動画像の左眼動画像の代わりに付加情報動画像の右眼動画像の表示を指示する機能を設けることで、左眼と右眼もしくは両方を切り替えて表示することが可能である。
 図42、図43、図44は、それぞれ、H.264に追加する付加情報動画像SEI、PMTのdescriptorに追加する付加情報動画像descriptor、MPEG2-TSに追加する付加情報動画像sectionを用いた場合の受信装置200のフローチャートである。これらのフローチャートでは、付加情報動画像存在情報符号化部208にて、SEI、descriptor、sectionの情報を解読して、付加情報動画像があるかどうか、ある場合には付加情報動画像を使用する場合の通常視聴用動画像や付加情報動画像のパラメータを取得する。図42、図43、図44で異なるのはMPEG2-TSのdemux時に、PSI/SIを解読してパラメータを得る(図43、図44)か、H.264のデコードの結果、パラメータを得る(図42)かである。パラメータ取得後は、ユーザの受信装置への設定を読みだして、通常表示を行うか、付加情報動画像を用いた表示を行うかが判断される。
 この実施形態では、付加情報動画像の種類は立体視であるため、立体視ができない受信装置では、通常視聴用動画像・付加情報動画像を用いた立体視は不可能である。しかし、ユーザが通常視聴を選択しない場合には通常視聴用動画像・付加情報動画像の中からユーザが表示したい動画像を選択することが可能であり、その選択状況に応じて、デコードされた統合動画像から、通常視聴用動画像や付加情報動画像を切り出してきて、ユーザ指示・設定に応じて動画像出力を行う。上述のように左眼と右眼もしくは両方を切り替えて表示することが可能である。
 また、受信装置が二眼立体視を提示できる場合には、通常視聴用動画像と付加情報動画像を用いて二眼立体視を提示可能である。ユーザが常に二眼立体視を望むとは限らないため、ユーザの指示や設定にしたがって、二眼立体視ではなく、通常視聴用動画像のみ、あるいは付加情報動画像のみを表示することも可能である。
 図39、図40、図41は、それぞれ、H.264に追加する付加情報動画像SEI、PMTのdescriptorに追加する付加情報動画像descriptor、MPEG2-TSに追加する付加情報動画像sectionを用いた場合の受信装置のフローチャートである。これらのフローチャートでは、SEI、descriptor、sectionの情報を解読して、付加情報動画像があるかどうか、ある場合には付加情報動画像を使用する場合の通常視聴用動画像や付加情報動画像のパラメータを取得する。図39、図40、図41で異なるのはMPEG2-TSのdemux時に、PSI/SIを解読してパラメータを得る(図40、図41)か、H.264のデコードの結果、パラメータを得る(図39)かである。パラメータ取得後は、ユーザの受信装置への設定を読みだして、通常表示を行うか、付加情報動画像を用いた表示を行うかが判断される。
 付加情報動画像を使用する場合には、付加情報に立体視同画像が含まれている場合には、立体視を行うかどうかをユーザの指示・設定から判定し(ステップS920)、立体視を行わない場合には、通常視聴用動画像・付加情報動画像の中から選択した動画像を出力する(ステップS722,S724)。立体視を行う場合には各視点に応じた動画像出力を行って立体視提示を行う(ステップS730,S830,S930)。付加情報動画像の種類が立体視でない場合には(ステップS712,S812,S912でNOの場合)、図36、図37、図38のフローチャートで示した処理と同様に、通常視聴用動画像・付加情報動画像から選択された動画像出力(一動画像だけでなく複数を組み合わせたものであっても良い)を行う。もちろん、立体視が可能な受信装置であることから、選択された動画像出力に対して左右へのシフトを行って右眼動画像と左眼動画像を作成すれば、出力動画像の提示面を前後に移動可能である。
 この例では、通常視聴用動画像を左眼動画像として説明したが、右眼動画像であってもかまわない。また、通常視聴用動画像と付加情報動画像の上下関係を変えても、それぞれの動画像に対するパラメータを変更することで対応することができる。
 この例と同様に、通常視聴用動画像の横に付加情報動画像を配置する場合においても本発明は有効である。
 2.複数眼立体視動画像
 レンチキュラー方式やパララックスバリア方式では、複数眼立体視の動画像を扱うことが可能である。この場合、例えば第1及び第2の画像を左目用及び右眼用の画像として第1の方向から立体視が可能となり、第3及び第4の画像を左目用及び右眼用の画像として第1の方向と異なる第2の方向から立体視が可能となる。本実施形態は、動画像出力手段にこれらの方式の画像提示方法を持っている場合にも有効であり、通常視聴用動画像として、複数眼立体視のうちの1画像を用い、残りの画像については、付加情報動画像として扱えば良い。
 付加情報動画像の配置に関して、送信・受信間での取り決めを行う方法としては、たとえば、横方向に複数眼立体視の動画像を並べることを取り決め、横に並ぶ個数としては、統合動画像の幅と通常視聴用動画像の幅から算出することにする。
 この取り決めで並べた場合の統合画像の配置状況を図13に示す。また、別の取り決めとしては、複数眼立体視の動画像数と並べる方向(たとえば横方向)を取り決めておき、横方向に入るだけ並べた後、さらに動画像がある場合には縦方向に並べて配置する。
この取り決めで並べた場合の統合画像の配置状況を図14に示す。図13、図14についても画像間に間隔をあけるかどうかも含めて取り決めを行う必要がある。もちろん、付加情報動画像の種類として、画像間隔あり横方向方向配置三眼立体視、画像間隔なし横方向三眼立体視の2種類を用意しておき、付加情報動画像存在情報として伝送すればコンテンツごとに、どちらの統合動画像の形式かを選択することができる。
3.複数眼立体視と別観点立体視動画像
さらに、番組プログラムとしては、第1の実施形態で記述したように、別の観点からの映像を伝送することも考えられる。メイン映像が立体視動画像であるので、別の観点からの映像も立体視動画像とした方が視聴上好ましいので、立体視動画像であるとして説明する。なお、特に別観点映像が立体視動画像でなくとも、本実施形態は有効である。
 図15は、上段にメインの立体視動画像を配置し、下段には補足用の立体視動画像を配置した統合動画像例である。番組プログラム上、通常視聴用動画像はメインの立体視動画像のうちの1個の動画像になることが予想される。その通常視聴用動画像を除く動画像はすべて付加情報動画像である。なお、通常視聴用動画像は特に左上の配置に限られるものではない。
 メインの立体視動画像に関しては、図13と同様に送信・受信間での取り決めを行ったとし、補足用の立体視動画像に関しては、取り決めなしの場合を考える。図21は、H.264に付加情報動画像SEIを新規追加する場合の内容を示したものである。SEIの内容としては、メインの立体視動画像である、既定横配列三眼視用の付加情報動画像と、
補足用の立体視動画像である、補足横配列三眼視用の付加情報動画像となる。補足横配列三眼視用は、横配列三眼視用で、かつ、通常視聴用動画像を含まないことを意味しており、単なる横配列三眼視用とは異なることを意味するものとする。
 実装という観点では、以下の情報をビットフィールドにもつIDを用いて、付加情報動画像の種類を指定することも考えられる。
・通常視聴用動画像を用いるかどうかのビット
・送信側と受信側で付加情報動画像使用時の通常視聴用動画像の切り出し領域を取り決めたかどうかのビット、
・送信側と受信側で付加情報動画像の位置を取り決めたかどうかのビット、
・送信側と受信側で付加情報動画像の幅高さを取り決めたかどうかのビット、
・送信側と受信側で付加情報動画像のサンプル・アスペクト・レシオを取り決めたかどうかのビット、
・立体視かどうかのビット
・立体視の場合に横並びかどうかを示すビット
・立体視の場合の視点数
 図21のsei_meesageでは、既定横配列三眼視用の付加情報動画像を指定することで、以下の情報を特定することができる。
・メインの付加情報動画像使用時の通常視聴用動画像の切り出し領域、
・メインの付加情報動画像の位置
・メインの付加情報動画像の幅高さ
・メインの付加情報動画像のサンプル・アスペクト・レシオ
 次に、補足横配列三眼視用の付加情報動画像を指定し、三眼分の付加情報動画像の、位置・幅高さ・サンプル・アスペクト・レシオを指定する。三眼視の場合、それぞれの視点用の動画像は、幅高さ、サンプル・アスペクト・レシオが同じと考えられるので、図21では、幅高さ、サンプル・アスペクト・レシオは共通として1度の設定とし、切り出し開始位置のみを三眼分指定する形とした。
 図26は、PMTのdescriptorに付加情報動画像descriptorを新規追加する場合の内容を示したものである。図21のSEIと同様に、既定横配列三眼視用の付加情報動画像を指定することで、
・メインの付加情報動画像使用時の通常視聴用動画像の切り出し領域、
・メインの付加情報動画像の位置
・メインの付加情報動画像の幅高さ
・メインの付加情報動画像のサンプル・アスペクト・レシオ
を特定し、次に、補足横配列三眼視用の付加情報動画像を指定することで、三眼分の付加情報動画像の、位置・幅高さ・サンプル・アスペクト・レシオを特定することができる。
 図27は、MPEG2-TSのprivate sectionに付加情報動画像存在情報を伝送するものを追加した場合のprivate_data_byteの内容である。付加情報動画像が存在するストリームのPIDを指定する以外は、付加情報動画像SEIの指定内容と同じである。
 図21のSEIと同様に、
既定横配列三眼視用の付加情報動画像を指定することで、以下の情報を特定する。
・メインの付加情報動画像使用時の通常視聴用動画像の切り出し領域、
・メインの付加情報動画像の位置
・メインの付加情報動画像の幅高さ
・メインの付加情報動画像のサンプル・アスペクト・レシオ
 次に、補足横配列三眼視用の付加情報動画像を指定することで、三眼分の付加情報動画像の、位置・幅高さ・サンプル・アスペクト・レシオを特定することができる。
 以上から、メイン映像が立体視動画像であるとともに、その補足として追加された、別の観点からの立体視動画像を、本実施形態に即して伝送することが可能であることを示した。このメイン・補足の立体視動画像のストリームであっても、本実施形態に即したストリームになっていれば、既存の受信装置400でメインの一眼を通常視聴用動画像として視聴することができる。更に、本実施形態を適用した受信装置200であれば、メイン・補足の立体視動画像の中から、好みの一眼動画像を視聴することや、メインあるいは補足の立体視動画を視聴することが可能である。
4.通常視聴用動画像と画像サイズの異なる付加情報動画像を使用した二眼立体視
図31は、通常視聴用動画像を左眼動画像1440x1080、付加情報動画像を右眼動画像480x1080として統合画像内に配置した場合であり、図32は、通常視聴用動画像を中央動画像1920x810、付加情報動画像を960x270の2画像(左動画像、右動画像)として配置した場合である。
 本実施形態においては、多眼立体視動画像を扱う場合において、すべての視点を同画像サイズで扱う必要はなく、図31、図32のように通常視聴用動画像の情報量を多くし、付加情報動画像の情報量を少なくして伝送(蓄積)することも可能である。こうすることで、通常視聴用動画像の劣化を抑えながら、多眼立体視動画像を伝送することができる。
 実際に多眼視を行う場合には、たとえば図39の通常+付加情報による立体視出力では、通常視聴用動画像の拡大率と付加情報動画像の拡大率は異なっており、左右眼への提示サイズが同じになるように調整される。もちろん、付加情報動画像は情報量を減じた分、再生画像の劣化が起きることが心配される。
 しかし、人間の両眼立体視における補正機能は優れており、情報量の多い片眼画像情報によって、他方の画像情報が補われるという現象が起きる。例えば左右の視力が異なる人であっても立体視は可能である。実際に片眼画像を多少ぼかした状態でも立体視を行うことが可能であることは確認されており、図39のアンバランスな左右動画像であっても立体視は可能である。
 図32は、三眼立体視用の動画像であるが、情報量の多い通常視聴用動画像を中央の動画像とした統合動画像としているので、情報量の多い動画像を右眼動画像とすることにも、左眼動画像とすることにも対応可能である。
 右眼動画像に情報量の多い動画像を用いる場合には、通常視聴用動画像である中央動画像を右眼用とし、付加情報動画像の左動画像を左眼用として用いる。また、左眼動画像に情報量の多い動画像を用いる場合には、通常視聴用動画像である中央動画像を左眼用とし、付加情報動画像の右動画像を右眼用として用いる。これは、ユーザによっては、左右の視力や左右の眼の疲れなど、ユーザの好みによってどちらの目で情報量の多い通常視聴用動画像を見るかを選択可能にすることに配慮したものである。
 尚、図31、図32の統合動画像内での通常視聴用動画像と付加情報動画像の配置・画像サイズは例であり、本発明に制限を与えるものではない。
 以上説明したように上述した実施形態によれば、既存の受信装置でも通常視聴用動画像を視聴することができる。また、本実施形態を用いて作成されたストリームでは、コーデックの切り出しパラメータを正しく処理できれば、既存の受信装置でも、統合動画像内から通常視聴用動画像を切り出して提示することができる。
 また、本実施形態によれば、既存受信装置との互換性を保ちながら、新しい機能を追加することが可能であり、買い替えなければ視聴できなくなったり、違和感のある動画像になったりすることがなく、ユーザは所望の切り替え時期に新しいサービスを受けることが可能となる。これにより、既存の受信装置と付加情報動画像を受けることのできる受信装置との混在状況において、既存受信装置側での支障なく、付加情報動画像つき動画像の送信装置へ変更が可能となる。また、既存の送信装置・受信装置からの変更量が少なくて済むため、開発コストを抑えることが可能であり、本実施形態を用いた送信装置・受信装置の価格を抑えることができる。
 以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
 100  送信装置
 102  動画像圧縮部
 104  通常視聴用動画像領域符号化部
 106  付加情報動画像存在情報符号化部
 200  受信装置
 202  動画像伸長部
 204  通常視聴用動画像領域復号化部
 206  動画像出力部
 208  付加情報動画像存在情報復号化部

Claims (9)

  1.  通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を圧縮するステップと、
     通常視聴用画像の領域を示す領域情報を符号化するステップと、
     付加情報動画像が存在することを示す存在情報を符号化するステップと、
     前記統合画像、前記領域情報及び前記存在情報を送信するステップと、
     を備える、画像送信方法。
  2.  前記存在情報は、付加情報動画像の種類を指定する情報を含む、請求項1に記載の画像送信方法。
  3.  前記付加情報動画像の種類として、複数眼立体視用に使用する動画像であるか否かを指定する情報を含む、請求項2に記載の画像送信方法。
  4.  前記存在情報は、前記付加情報動画像の領域を示す領域情報、又は前記付加情報動画像のアスペクト・レシオを含む、請求項1に記載の画像送信方法。
  5.  前記存在情報は、前記付加情報動画像使用時における前記通常視聴用動画像の画像領域を指定する情報を含む、請求項1に記載の画像送信方法。
  6.  送信側から送られた、通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を伸長するステップと、
     前記統合画像とともに送信側から送られた前記通常視聴用動画像の領域を示す領域情報を復号化するステップと、
     前記統合画像とともに送信側から送られた前記付加情報動画像が存在することを示す存在情報を復号化するステップと、
     前記領域情報に基づいて前記通常視聴用動画像の領域を指定して表示するステップと、
     前記存在情報に基づいて前記付加情報動画像の存在を認識して前記付加情報動画像を表示するステップと、
     を備える、画像受信方法。
  7.  通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を圧縮する圧縮部と、
     通常視聴用画像の領域を示す領域情報を符号化する領域情報符号化部と、
     付加情報動画像が存在することを示す存在情報を符号化する存在情報符号化部と、
     符号化された統合画像、領域情報及び存在情報を送信する送信部と、
     を備える、画像送信装置。
  8.  送信側から送られた、通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を伸長する伸長部と、
     前記統合画像とともに送信側から送られた前記通常視聴用動画像の領域を示す領域情報を復号化する領域情報復号化部と、
     前記統合画像とともに送信側から送られた前記付加情報動画像が存在することを示す存在情報を復号化する存在情報復号化部と、
     前記領域情報に基づいて前記通常視聴用動画像の領域を指定して出力するとともに、前記存在情報に基づいて前記付加情報動画像の存在を認識して前記付加情報動画像を出力する画像出力部と、
     を備える、画像受信装置。
  9.  通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を圧縮する圧縮部と、通常視聴用画像の領域を示す領域情報を符号化する領域情報符号化部と、付加情報動画像が存在することを示す存在情報を符号化する存在情報符号化部と、符号化された統合画像、領域情報及び存在情報を送信する送信部と、を有する画像送信装置と、
     送信側から送られた、通常視聴用動画像と付加情報動画像とが1フレーム上に配置された統合画像を伸長する伸長部と、前記統合画像とともに送信側から送られた前記通常視聴用動画像の領域を示す領域情報を復号化する領域情報復号化部と、前記統合画像とともに送信側から送られた前記付加情報動画像が存在することを示す存在情報を復号化する存在情報復号化部と、前記領域情報に基づいて前記通常視聴用動画像の領域を指定して出力するとともに、前記存在情報に基づいて前記付加情報動画像の存在を認識して前記付加情報動画像を出力する画像出力部と、を有する、画像受信装置と、
     を備える画像伝送システム。
PCT/JP2010/068243 2009-11-17 2010-10-18 画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システム WO2011062015A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP10831411A EP2381690A1 (en) 2009-11-17 2010-10-18 Image transmission method, image reception method, image transmission device, image reception device, and image transmission system
US13/143,670 US20110268194A1 (en) 2009-11-17 2010-10-18 Image transmission method, image reception method, image transmission apparatus, image reception apparatus, and image transmission system
BRPI1006063A BRPI1006063A2 (pt) 2009-11-17 2010-10-18 métodos de transmissão e recepção de de imagem, aparelhos de transmissão e recepção de imagem, e, sistema de transmissão de imagem.
CN2010800041302A CN102273211A (zh) 2009-11-17 2010-10-18 图像发送方法、图像接收方法、图像发送设备、图像接收设备以及图像发送***

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009262185A JP2011109397A (ja) 2009-11-17 2009-11-17 画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システム
JP2009-262185 2009-11-17

Publications (1)

Publication Number Publication Date
WO2011062015A1 true WO2011062015A1 (ja) 2011-05-26

Family

ID=44059499

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2010/068243 WO2011062015A1 (ja) 2009-11-17 2010-10-18 画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システム
PCT/JP2010/070498 WO2011062195A1 (ja) 2009-11-17 2010-11-17 画像受信装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/070498 WO2011062195A1 (ja) 2009-11-17 2010-11-17 画像受信装置

Country Status (13)

Country Link
US (2) US20110268194A1 (ja)
EP (2) EP2381690A1 (ja)
JP (1) JP2011109397A (ja)
KR (2) KR20120092495A (ja)
CN (2) CN102273211A (ja)
AU (1) AU2010320118A1 (ja)
BR (2) BRPI1006063A2 (ja)
NZ (1) NZ593699A (ja)
PE (1) PE20120606A1 (ja)
RU (1) RU2011128307A (ja)
TW (1) TW201143444A (ja)
WO (2) WO2011062015A1 (ja)
ZA (1) ZA201105049B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136373A1 (ja) * 2012-03-16 2013-09-19 パナソニック株式会社 立体映像処理装置及び立体映像処理方法

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030907A (ja) 2011-07-27 2013-02-07 Sony Corp 符号化装置および符号化方法、並びに、復号装置および復号方法
CN104247433B (zh) * 2012-04-06 2018-02-06 索尼公司 解码装置和解码方法以及编码装置和编码方法
CN103379332A (zh) * 2012-04-25 2013-10-30 浙江大学 三维视频序列辅助信息的解码方法、编码方法及装置
CN103391472A (zh) * 2012-05-09 2013-11-13 腾讯科技(深圳)有限公司 视频分辨率获取方法及***
ITTO20120901A1 (it) 2012-10-15 2014-04-16 Rai Radiotelevisione Italiana Procedimento di codifica e decodifica di un video digitale e relativi dispositivi di codifica e decodifica
CN104219558A (zh) * 2013-06-03 2014-12-17 北京中传数广技术有限公司 一种3d电子节目指南的显示方法及装置
US9805546B2 (en) * 2013-06-19 2017-10-31 Glasson Investments Pty Ltd Methods and systems for monitoring golfers on a golf course
JP5935779B2 (ja) * 2013-09-30 2016-06-15 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6719104B2 (ja) * 2015-08-28 2020-07-08 パナソニックIpマネジメント株式会社 画像出力装置、画像送信装置、画像受信装置、画像出力方法および記録媒体
JP6711711B2 (ja) * 2016-07-08 2020-06-17 Kddi株式会社 復号装置及びプログラム
WO2018067728A1 (en) * 2016-10-04 2018-04-12 Livelike Inc. Picture-in-picture base video streaming for mobile devices
CN106604108B (zh) * 2016-12-30 2020-10-02 深圳Tcl数字技术有限公司 数字电视灾难预警的方法及装置
US11979340B2 (en) 2017-02-12 2024-05-07 Mellanox Technologies, Ltd. Direct data placement
US10516710B2 (en) 2017-02-12 2019-12-24 Mellanox Technologies, Ltd. Direct packet placement
US10210125B2 (en) 2017-03-16 2019-02-19 Mellanox Technologies, Ltd. Receive queue with stride-based data scattering
CN107040787B (zh) * 2017-03-30 2019-08-02 宁波大学 一种基于视觉感知的3d-hevc帧间信息隐藏方法
US20180367589A1 (en) * 2017-06-14 2018-12-20 Mellanox Technologies, Ltd. Regrouping of video data by a network interface controller
US11252464B2 (en) * 2017-06-14 2022-02-15 Mellanox Technologies, Ltd. Regrouping of video data in host memory
US10367750B2 (en) 2017-06-15 2019-07-30 Mellanox Technologies, Ltd. Transmission and reception of raw video using scalable frame rate
WO2019004073A1 (ja) 2017-06-28 2019-01-03 株式会社ソニー・インタラクティブエンタテインメント 画像配置決定装置、表示制御装置、画像配置決定方法、表示制御方法及びプログラム
US10701421B1 (en) * 2017-07-19 2020-06-30 Vivint, Inc. Embedding multiple videos into a video stream
US11453513B2 (en) * 2018-04-26 2022-09-27 Skydio, Inc. Autonomous aerial vehicle hardware configuration
WO2020039992A1 (ja) * 2018-08-20 2020-02-27 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、および画像処理システム
JP6997123B2 (ja) * 2019-02-28 2022-02-03 ファナック株式会社 情報処理装置および情報処理方法
CN113660489B (zh) * 2019-03-05 2022-10-11 华为技术有限公司 用于帧内子划分的解码方法、装置、解码器和存储介质
US20230132193A1 (en) * 2020-03-30 2023-04-27 Sony Semiconductor Solutions Corporation Image capturing device, image capturing system, and image capturing method
CN111479162B (zh) * 2020-04-07 2022-05-13 成都酷狗创业孵化器管理有限公司 直播数据传输方法、装置以及计算机可读存储介质
TWI778749B (zh) * 2021-08-17 2022-09-21 睿至股份有限公司 適用虛擬實境的影像傳輸方法、影像處理裝置及影像生成系統
US20230347766A1 (en) * 2022-04-27 2023-11-02 Skydio, Inc. Base Stations For Unmanned Aerial Vehicles (UAVs)
US20240114238A1 (en) * 2022-09-30 2024-04-04 Zebra Technologies Corporation Systems and Methods for Operating Illumination Assemblies in a Multi-Imager Environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138384A (ja) 1995-11-15 1997-05-27 Sanyo Electric Co Ltd 立体画像観察用眼鏡の制御方法
JP2000036969A (ja) 1998-07-21 2000-02-02 Nippon Hoso Kyokai <Nhk> 立体画像表示方法および装置
JP2003045343A (ja) 2001-08-03 2003-02-14 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
WO2003092303A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Multimedia information generation method and multimedia information reproduction device
JP2005223413A (ja) * 2004-02-03 2005-08-18 Sony Corp 送受信システム、送信装置、受信装置、情報処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2849183B2 (ja) * 1990-08-13 1999-01-20 富士電気化学株式会社 非水電解液二次電池
JPH09298761A (ja) * 1996-03-04 1997-11-18 Sanyo Electric Co Ltd 立体画像表示装置
EP0944269B1 (en) * 1996-12-04 2002-11-13 Matsushita Electric Industrial Co., Ltd. Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device
JP2000308089A (ja) * 1999-04-16 2000-11-02 Nippon Hoso Kyokai <Nhk> 立体画像符号化装置および復号化装置
KR100475060B1 (ko) * 2002-08-07 2005-03-10 한국전자통신연구원 다시점 3차원 동영상에 대한 사용자 요구가 반영된 다중화장치 및 방법
US20050041736A1 (en) * 2003-05-07 2005-02-24 Bernie Butler-Smith Stereoscopic television signal processing method, transmission system and viewer enhancements
JP2004356772A (ja) * 2003-05-27 2004-12-16 Sanyo Electric Co Ltd 三次元立体画像表示装置およびコンピュータに三次元立体画像表示機能を付与するプログラム
JP2005159977A (ja) * 2003-11-28 2005-06-16 Sanyo Electric Co Ltd 立体映像表示通信装置
JP4665430B2 (ja) * 2004-04-26 2011-04-06 富士ゼロックス株式会社 画像出力制御装置、画像出力制御方法及び画像出力制御プログラム並びにプリンタ装置
US8587638B2 (en) * 2006-09-25 2013-11-19 Nokia Corporation Supporting a 3D presentation
SI3920538T1 (sl) * 2007-04-12 2023-08-31 Dolby International Ab Razpostavljanje pri kodiranju in dekodiranju videa
JP4426603B2 (ja) * 2007-05-22 2010-03-03 シャープ株式会社 画像出力システムおよび画像処理装置
US20080303832A1 (en) * 2007-06-11 2008-12-11 Samsung Electronics Co., Ltd. Method of generating two-dimensional/three-dimensional convertible stereoscopic image bitstream and method and apparatus for displaying the same
CA2737451C (en) * 2008-09-19 2013-11-12 Mbda Uk Limited Method and apparatus for displaying stereographic images of a region
KR101633627B1 (ko) * 2008-10-21 2016-06-27 코닌클리케 필립스 엔.브이. 입력 3차원 비디오 신호를 프로세싱하는 방법 및 시스템
US8502857B2 (en) * 2008-11-21 2013-08-06 Polycom, Inc. System and method for combining a plurality of video stream generated in a videoconference
US8314832B2 (en) * 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
US9124874B2 (en) * 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138384A (ja) 1995-11-15 1997-05-27 Sanyo Electric Co Ltd 立体画像観察用眼鏡の制御方法
JP2000036969A (ja) 1998-07-21 2000-02-02 Nippon Hoso Kyokai <Nhk> 立体画像表示方法および装置
JP2003045343A (ja) 2001-08-03 2003-02-14 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
WO2003092303A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Multimedia information generation method and multimedia information reproduction device
JP2005223413A (ja) * 2004-02-03 2005-08-18 Sony Corp 送受信システム、送信装置、受信装置、情報処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136373A1 (ja) * 2012-03-16 2013-09-19 パナソニック株式会社 立体映像処理装置及び立体映像処理方法

Also Published As

Publication number Publication date
BRPI1006169A2 (pt) 2016-02-23
PE20120606A1 (es) 2012-05-25
CN102273212A (zh) 2011-12-07
RU2011128307A (ru) 2013-01-20
JP2011109397A (ja) 2011-06-02
CN102273211A (zh) 2011-12-07
US20110268194A1 (en) 2011-11-03
KR20120092497A (ko) 2012-08-21
ZA201105049B (en) 2012-09-26
TW201143444A (en) 2011-12-01
EP2362664A1 (en) 2011-08-31
US20120019629A1 (en) 2012-01-26
KR20120092495A (ko) 2012-08-21
AU2010320118A1 (en) 2011-07-21
EP2381690A1 (en) 2011-10-26
WO2011062195A1 (ja) 2011-05-26
BRPI1006063A2 (pt) 2016-04-19
NZ593699A (en) 2014-02-28

Similar Documents

Publication Publication Date Title
WO2011062015A1 (ja) 画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システム
US10341636B2 (en) Broadcast receiver and video data processing method thereof
US9756380B2 (en) Broadcast receiver and 3D video data processing method thereof
KR101789636B1 (ko) 이미지 처리 방법 및 장치
KR101797495B1 (ko) 디지털 수신기 및 디지털 수신기에서의 캡션 데이터 처리 방법
KR101915130B1 (ko) 디지털 방송 신호 수신 장치 및 방법
KR101797506B1 (ko) 방송 신호 송신 장치 및 방송 신호 수신 장치
KR20160123216A (ko) 3d 방송 신호를 처리하는 방법 및 장치
US20130250051A1 (en) Signaling method for a stereoscopic video service and apparatus using the method
US9485490B2 (en) Broadcast receiver and 3D video data processing method thereof
KR101977260B1 (ko) 입체영상 디스플레이가 가능한 디지털 방송 수신방법 및 수신장치
JP2013110540A (ja) 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
WO2013054775A1 (ja) 送信装置、送信方法、受信装置および受信方法
US20130038683A1 (en) Image data transmission apparatus, image data transmission method, image data receiving apparatus and image data receiving method
US20120281075A1 (en) Broadcast signal receiver and method for processing video data

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080004130.2

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 20117014903

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2010831411

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13143670

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 4927/CHENP/2011

Country of ref document: IN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10831411

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: PI1006063

Country of ref document: BR

ENP Entry into the national phase

Ref document number: PI1006063

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20110708