JP2013021415A - 送信装置、送信方法および受信装置 - Google Patents

送信装置、送信方法および受信装置 Download PDF

Info

Publication number
JP2013021415A
JP2013021415A JP2011151313A JP2011151313A JP2013021415A JP 2013021415 A JP2013021415 A JP 2013021415A JP 2011151313 A JP2011151313 A JP 2011151313A JP 2011151313 A JP2011151313 A JP 2011151313A JP 2013021415 A JP2013021415 A JP 2013021415A
Authority
JP
Japan
Prior art keywords
data
information
image data
stream
eye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011151313A
Other languages
English (en)
Inventor
Ikuo Tsukagoshi
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011151313A priority Critical patent/JP2013021415A/ja
Priority to ARP120102098A priority patent/AR086919A1/es
Priority to TW101121330A priority patent/TW201320712A/zh
Priority to PCT/JP2012/065710 priority patent/WO2013005571A1/ja
Priority to BR112013004970A priority patent/BR112013004970A2/pt
Priority to EP12807986.0A priority patent/EP2603004A4/en
Priority to CA2806787A priority patent/CA2806787A1/en
Priority to RU2013109054/08A priority patent/RU2013109054A/ru
Priority to AU2012279594A priority patent/AU2012279594A1/en
Priority to CN2012800032872A priority patent/CN103155574A/zh
Priority to US13/820,000 priority patent/US20130162772A1/en
Publication of JP2013021415A publication Critical patent/JP2013021415A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】レガシーの2D対応の受信装置の受信処理の妨げとならないように視差情報の送信を行う。
【解決手段】左眼画像データおよび右眼画像データを持つ立体画像データを出力する。左眼画像データおよび右眼画像データによる画像に重畳する重畳情報のデータを出力する。左眼画像データおよび右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する。立体画像データを含むビデオデータストリームと、重畳情報のデータを含む第1のプライベートデータストリームと、視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信する。受信側のレガシーの2D対応の受信装置では、第1のプライベートデータストリームから重畳情報のデータのみを読み込むことで、視差情報の読み込みが受信処理の妨げとなることを防止できる。
【選択図】図11

Description

本技術は、送信装置、送信方法および受信装置に関する。特に、本技術は、左眼画像データおよび右眼画像データを持つ立体画像データと共に、重畳情報のデータおよび視差情報を送信する送信装置等に関する。
例えば、特許文献1には、立体画像データのテレビ放送電波を用いた伝送方式について提案されている。この伝送方式では、左眼用画像データおよび右眼用画像データを持つ立体画像データが送信され、両眼視差を利用した立体画像表示が行われる。
図50は、両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクト(物体)の左右像の表示位置と、その立体像の再生位置との関係を示している。例えば、スクリーン上に図示のように左像Laが右側に右像Raが左側にずれて表示されているオブジェクトAに関しては、左右の視線がスクリーン面より手前で交差するため、その立体像の再生位置はスクリーン面より手前となる。DPaは、オブジェクトAに関する水平方向の視差ベクトルを表している。
また、例えば、スクリーン上に図示のように左像Lbおよび右像Rbが同一位置に表示されているオブジェクトBに関しては、左右の視線がスクリーン面で交差するため、その立体像の再生位置はスクリーン面上となる。さらに、例えば、スクリーン上に図示のように左像Lcが左側に右像Rcが右側にずれて表示されているオブジェクトCに関しては、左右の視線がスクリーン面より奥で交差するため、その立体像の再生位置はスクリーン面より奥となる。DPcは、オブジェクトCに関する水平方向の視差ベクトルを表している。
特開2005−6114号公報
上述したように立体画像表示において、視聴者は、両眼視差を利用して、立体画像の遠近感を知覚することが普通である。画像に重畳される重畳情報、例えば字幕等に関しても、2次元空間的のみならず、3次元の奥行き感としても、立体画像表示と連動してレンダリングされることが期待される。例えば、画像に字幕を重畳(オーバーレイ)表示する場合、遠近感でいうところの最も近い画像内の物体(オブジェクト)よりも手前に表示されないと、視聴者は、遠近感の矛盾を感じる場合がある。
そこで、重畳情報のデータと共に、左眼画像および右眼画像の間の視差情報を送信し、受信側で、左眼重畳情報および右眼重畳情報との間に視差を付与することが考えられる。このように立体画像を表示し得る受信装置において視差情報は有意義な情報である。一方、レガシーの2D対応の受信装置において、この視差情報は不要なものである。この2D対応の受信装置において、この視差情報の送信が正常な受信処理の妨げとなることがないように何らかの施策を講ずる必要がある。
本技術の目的は、レガシーの2D対応の受信装置の受信処理の妨げとならないように視差情報の送信を行うことにある。
本技術の概念は、
左眼画像データおよび右眼画像データを持つ立体画像データを出力する画像データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力部と、
上記画像データ出力部から出力される立体画像データを含むビデオデータストリームと、上記重畳情報データ出力部から出力される重畳情報のデータを含む第1のプライベートデータストリームと、上記視差情報出力部から出力される視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信するデータ送信部とを備える
送信装置にある。
本技術において、画像データ出力部により、左眼画像データおよび右眼画像データを持つ立体画像データが出力される。重畳情報データ出力部により、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報のデータが出力される。ここで、重畳情報は、画像に重畳される字幕、グラフィクス、テキストなどの情報である。視差情報出力部により、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報が出力される。
例えば、視差情報は、重畳情報が表示される所定数のフレーム期間内で順次更新される視差情報であり、この所定数のフレーム期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなる、ものとされてもよい。また、例えば、重畳情報のデータはDVB方式のサブタイトルデータであり、視差情報は、リージョン単位またはこのリージョンに含まれるサブリージョン単位の視差情報、あるいは全てのリージョンを含むページ単位の視差情報であってもよい。
データ送信部により、多重化データストリームが送信される。この多重化データストリームは、立体画像データを含むビデオデータストリームと、重畳情報のデータを含む第1のプライベートデータストリームと、視差情報を含む第2のプライベートデータストリームとを有するものとされる。
このように本技術において、多重化データストリームは、重畳情報のデータを含む第1のプライベートデータストリームと、視差情報を含む第2のプライベートデータストリームとを有するものとされる。そのため、受信側のレガシーの2D対応の受信装置では、第1のプライベートデータストリームから重畳情報のデータのみを読み込むことで、視差情報の読み込みが受信処理の妨げとなることを防止できる。また、受信側の3D対応の受信装置では、第1のプライベートデータストリームから重畳情報のデータを読み込み、第2のプライベートデータストリームから視差情報を読み込み、立体画像の表示内容に合わせた重畳情報の表示が可能となる。
なお、本技術において、例えば、第1のプライベートデータストリームおよび第2のプライベートデータストリームには、重畳情報のデータによる表示と視差情報によるシフト制御とを同期させるための同期情報が含まれていてもよい。これにより、重畳情報のデータと視差情報とが別ストリームで送信される場合にあっても、受信側において、重畳情報のデータによる表示と視差情報によるシフト制御との同期をとることが可能となる。
また、本技術において、例えば、多重化ストリームには、第1のプライベートデータストリームと第2のプライベートデータストリームとを関連付けする関連付け情報が挿入される、ようにされてもよい。この関連付け情報により、例えば、受信側の3D対応機器では第1のプライベートデータストリームと第2のプライベートデータストリームとが関連付けされていることを容易に把握でき、双方のストリームをデコードすべきことが分かる。
また、本技術の他の概念は、
左眼画像データおよび右眼画像データを持つ立体画像データを出力する画像データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力部と、
上記画像データ出力部から出力される立体画像データを含むビデオデータストリームと、上記重畳情報データ出力部から出力される重畳情報データを含む第1のプライベートデータストリームと、重畳情報データ出力部から出力される重畳情報のデータおよび上記視差情報出力部から出力される視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信するデータ送信部とを備える
送信装置にある。
本技術において、画像データ出力部により、左眼画像データおよび右眼画像データを持つ立体画像データが出力される。重畳情報データ出力部により、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報のデータが出力される。ここで、重畳情報は、画像に重畳される字幕、グラフィクス、テキストなどの情報である。視差情報出力部により、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報が出力される。
例えば、視差情報は、重畳情報が表示される所定数のフレーム期間内で順次更新される視差情報であり、この所定数のフレーム期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなる、ものとされてもよい。また、例えば、重畳情報のデータはDVB方式のサブタイトルデータであり、視差情報は、リージョン単位またはこのリージョンに含まれるサブリージョン単位の視差情報、あるいは全てのリージョンを含むページ単位の視差情報であってもよい。
データ送信部により、多重化データストリームが送信される。この多重化データストリームは、立体画像データを含むビデオデータストリームと、重畳情報のデータを含む第1のプライベートデータストリームと、重畳情報のデータおよび視差情報を含む第2のプライベートデータストリームとを有するものとされる。
このように本技術において、多重化データストリームは、重畳情報のデータを含む第1のプライベートデータストリームと、重畳情報のデータおよび視差情報を含む第2のプライベートデータストリームとを有するものとされる。そのため、受信側のレガシーの2D対応の受信装置では、第1のプライベートデータストリームから重畳情報のデータのみを読み込むことで、視差情報が受信処理の妨げとなることを防止できる。また、受信側の3D対応の受信装置では、第2のプライベートデータストリームから重畳情報のデータおよび視差情報を読み込み、立体画像の表示内容に合わせた重畳情報の表示が可能となる。
また、本技術の他の概念は、
ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、 上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
上記第2のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
情報取得部と、画像データ処理部とを、さらに、備え、
上記情報取得部は、
上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、 上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第2のプライベートデータストリームを抽出し、該第2のプライベートデータストリームから上記視差情報を取得し、
上記画像データ処理部は、
上記情報取得部で取得された上記立体画像データ、上記重畳情報のデータおよび上記視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る
受信装置にある。
本技術において、データ受信部により、ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームが受信される。そして、情報取得部により、ビデオデータストリームに含まれる立体画像データが取得され、第1のプライベートデータストリームから重畳情報のデータが取得され、第2のプライベートデータストリームから視差情報が取得される。
画像データ処理部により、立体画像データ、重畳情報のデータおよび視差情報が用いられ、左眼画像および右眼画像に重畳する同一の重畳情報に視差が付与され、重畳情報が重畳された左眼画像のデータおよび重畳情報が重畳された右眼画像のデータが得られる。
例えば、視差情報は、重畳情報が表示される所定数のフレーム期間内に順次更新される視差情報であり、画像データ処理部は、所定数のフレーム期間内で順次更新される複数フレームの視差情報に対して補間処理を施し、所定数のフレーム期間内における任意のフレーム間隔の視差情報を生成して使用する、ようにされてもよい。この場合、送信側から更新フレーム間隔毎に視差情報が送信される場合であっても、重畳情報に付与される視差を、細かな間隔で、例えばフレーム毎に制御することが可能となる。
また、例えば、視差情報は、重畳情報が表示される所定数のフレーム期間内に順次更新される視差情報であり、視差情報には、更新フレーム間隔の情報として、単位期間の情報および該単位期間の個数の情報が付加されており、画像データ処理部は、重畳情報の表示開始時刻を基準として、視差情報の各更新時刻を、各更新フレーム間隔の情報である単位期間の情報および個数の情報に基づいて求める、ようにされてもよい。この場合、画像データ処理部では、重畳情報の表示開始時刻から順次各更新時刻を求めることができる。例えば、ある更新時刻に対して次の更新時刻は、ある更新時刻に、次の更新フレーム間隔の情報である単位期間の情報および個数の情報を用いて、単位期間×個数の時間を加算することで、簡単に求められる。
このように本技術において、第1のプライベートデータストリームから重畳情報のデータが取得され、第2のプライベートデータストリームから視差情報が取得される。そのため、立体画像の表示内容に合わせた重畳情報の表示が可能となる。
なお、本技術において、例えば、多重化データストリームには、第1のプライベートデータストリームと第2のプライベートデータストリームとを関連付けする関連付け情報が挿入されており、情報取得部は、関連付け情報に基づいて、第1のプライベートデータストリームから重畳情報のデータを取得すると共に、第2のプライベートデータストリームから上記視差情報を取得する、ようにされてもよい。これにより、受信側の3D対応の受信装置における処理がより適切に行われるようになる。
また、本技術の他の概念は、
ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
上記第2のプライベートデータストリームは、上記重畳情報のデータおよび上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
情報取得部と、画像データ処理部とを、さらに、備え、
上記情報取得部は、
上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第2のプライベートデータストリームを抽出し、該第2のプライベートデータストリームから上記重畳情報のデータおよび上記視差情報を取得し、
上記画像データ処理部は、
上記情報取得部で取得された上記立体画像データ、上記重畳情報のデータおよび上記視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る
受信装置にある。
本技術において、データ受信部により、ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームが受信される。そして、情報取得部により、ビデオデータストリームに含まれる立体画像データが取得され、第2のプライベートデータストリームから重畳情報のデータおよび視差情報が取得される。
画像データ処理部により、立体画像データ、重畳情報のデータおよび視差情報が用いられ、左眼画像および右眼画像に重畳する同一の重畳情報に視差が付与され、重畳情報が重畳された左眼画像のデータおよび重畳情報が重畳された右眼画像のデータが得られる。
例えば、視差情報は、重畳情報が表示される所定数のフレーム期間内に順次更新される視差情報であり、画像データ処理部は、所定数のフレーム期間内で順次更新される複数フレームの視差情報に対して補間処理を施し、所定数のフレーム期間内における任意のフレーム間隔の視差情報を生成して使用する、ようにされてもよい。この場合、送信側から更新フレーム間隔毎に視差情報が送信される場合であっても、重畳情報に付与される視差を、細かな間隔で、例えばフレーム毎に制御することが可能となる。
また、例えば、視差情報は、重畳情報が表示される所定数のフレーム期間内に順次更新される視差情報であり、視差情報には、更新フレーム間隔の情報として、単位期間の情報および該単位期間の個数の情報が付加されており、画像データ処理部は、重畳情報の表示開始時刻を基準として、視差情報の各更新時刻を、各更新フレーム間隔の情報である単位期間の情報および個数の情報に基づいて求める、ようにされてもよい。この場合、画像データ処理部では、重畳情報の表示開始時刻から順次各更新時刻を求めることができる。例えば、ある更新時刻に対して次の更新時刻は、ある更新時刻に、次の更新フレーム間隔の情報である単位期間の情報および個数の情報を用いて、単位期間×個数の時間を加算することで、簡単に求められる。
このように本技術において、第2のプライベートデータストリームから重畳情報のデータおよび視差情報が取得される。そのため、立体画像の表示内容に合わせた重畳情報の表示が可能となる。
また、本技術の他の概念は、
ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
上記第2のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報、あるいは該視差情報および上記重畳情報のデータを含み、 情報取得部と、画像データ処理部とを、さらに、備え、
上記情報取得部は、
上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
上記画像データ処理部は、
上記情報取得部で取得された上記立体画像データおよび上記重畳情報のデータを用い、上記重畳情報が重畳された画像データを得る
受信装置にある。
本技術において、データ受信部により、ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームが受信される。そして、情報取得部により、ビデオデータストリームに含まれる立体画像データが取得され、第1のプライベートデータストリームから重畳情報のデータが取得される。画像データ処理部により、立体画像データおよび重畳情報のデータが用いられ、重畳情報が重畳された画像データが得られる。
このように本技術において、視差情報を含まない第1のプライベートデータストリームから重畳情報のデータが取得される。視差情報の読み込みが受信処理の妨げとなることを防止できる。
本技術によれば、レガシーの2D対応の受信装置の受信処理の妨げとならないように視差情報の送信を良好に行うことができる。
この発明の実施の形態としての画像送受信システムの構成例を示すブロック図である。 放送局における送信データ生成部の構成例を示すブロック図である。 1920×1080のピクセルフォーマットの画像データを示す図である。 立体画像データ(3D画像データ)の伝送方式である「Top & Bottom」方式、「Side By Side」方式、「Frame Sequential」方式を説明するための図である。 左眼画像に対する右眼画像の視差ベクトルを検出する例を説明するための図である。 視差ベクトルをブロックマッチング方式で求めることを説明するための図である。 ピクセル(画素)毎の視差ベクトルの値を各ピクセル(各画素)の輝度値として用いた場合の画像例を示す図である。 ブロック(Block)毎の視差ベクトルの一例を示す図である。 送信データ生成部の視差情報作成部で行われるダウンサイジング処理を説明するための図である。 サブタイトルデータにおいて、画面上に定義されるリージョンと、このリージョン内に定義されるサブリージョンの一例を示す図である。 「第1のタイプ」において、トランスポートストリームTSが有する2Dストリームおよび3D拡張ストリームの構成を示す図である。 「第2のタイプ」において、トランスポートストリームTSが有する2Dストリームおよび3Dストリームの構成を示す図である。 「第1のタイプ」において、2Dストリーム(PES1(1):PES#1)と3D拡張フレーム(PES2(2):PES#2)のPESヘッダに挿入されるタイムスタンプ(PTS)の値が関連付けされることを説明するための図である。 2Dストリームと3D拡張ストリームのタイムスタンプ(PTS)の値が異なる値に設定される例を示す図である。 2Dストリームと3D拡張ストリームのタイムスタンプ(PTS)の値が異なる値に設定される他の例を示す図である。 「第1のタイプ」におけるトランスポートストリームTSの構成例を示す図である。 サブタイトルデータを構成するPCS(page_composition_segment)の構造を示す図である。 「segment_type」の各値とセグメントタイプとの対応関係を示す図である。 新たに定義される3D用サブタイトルのフォーマットを示す情報(Component_type=0x15,0x25)を説明するための図である。 「第2のタイプ」におけるトランスポートストリームTSの構成例を示す図である。 インターバル期間(Interval period)を用いた視差情報の更新例であって、インターバル期間が固定で、しかも、その期間が更新期間と等しい場合を示す図である。 インターバル期間(Interval period)を用いた視差情報の更新例であって、インターバル期間を短期間とした場合の視差情報の更新例を示す図である。 「第2のタイプ」における3Dストリームの構成例を示す図である。 DSSセグメントを順次送信する場合における、視差情報の更新例を示す図である。 更新フレーム間隔が単位期間としてのインターバル期間(ID:Interval Duration)の倍数で表される視差情報(disparity)の更新例を示す図である。 ページ領域(Area for Page_default)に字幕表示領域としてのリージョン(Region)が2つ含まれているサブタイトルの表示例を示す図である。 DSSのセグメントに、字幕表示期間に順次更新される視差情報(Disparity)として、リージョン単位の視差情報と全てのリージョンを含むページ単位の視差情報の双方が含まれている場合において、各リージョンとページの視差情報カーブの一例を示す図である。 ページおよび各リージョンの視差情報がどのような構造で送られるかを示す図である。 DSSの構造例(syntax)を示す図(1/3)である。 DSSの構造例を示す図(2/3)である。 DSSの構造例を示す図(3/3)である。 DSSの主要なデータ規定内容(semantics)を示ず図(1/4)である。 DSSの主要なデータ規定内容を示ず図(2/4)である。 DSSの主要なデータ規定内容を示ず図(3/4)である。 DSSの主要なデータ規定内容を示ず図(4/4)である。 セットトップボックスおよびテレビ受信機が3D対応機器である場合の放送受信概念を示す図である。 セットトップボックスおよびテレビ受信機がレガシー2D対応機器である場合の放送受信概念を示す図である。 画像上における字幕(グラフィクス情報)の表示例と、背景、近景オブジェクト、字幕の遠近感を示す図である。 画像上における字幕の表示例と、字幕を表示するための左眼字幕LGIおよび右眼字幕RGIを示す図である。 画像送受信システムを構成するセットトップボックスの構成例を示すブロック図である。 セットトップボックスを構成するビットストリーム処理部の構成例(3D対応)を示すブロック図である。 2Dストリーム、3D拡張ストリームを関連付けるために使用できるマルチ・デコーディング・デスクリプタの構造例(syntax)を示す図である。 マルチ・デコーディング・デスクリプタの構造例における主要な情報の内容(Semantics)を示す図である。 マルチ・デコーディング・デスクリプタを配置した場合における、「第1のタイプ」のトランスポートストリームTSの構成例を示す図である。 セットトップボックスを構成するビットストリーム処理部の他の構成例(2D対応)を示すブロック図である。 画像送受信システムを構成するテレビ受信機の構成例を示すブロック図である。 画像送受信システムを構成するセットトップボックスの他の構成例を示すブロック図である。 画像送受信システムを構成するテレビ受信機の他の構成例を示すブロック図である。 画像送受信システムの他の構成例を示すブロック図である。 両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクトの左右像の表示位置と、その立体像の再生位置との関係を説明するための図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[画像送受信システムの構成例]
図1は、実施の形態としての画像送受信システム10の構成例を示している。この画像送受信システム10は、放送局100と、セットトップボックス(STB)200と、テレビ受信機(TV)300を有している。
セットトップボックス200およびテレビ受信機300は、HDMI(High Definition Multimedia Interface)のデジタルインタフェースで接続されている。セットトップボックス200およびテレビ受信機300は、HDMIケーブル400を用いて接続されている。セットトップボックス200には、HDMI端子202が設けられている。テレビ受信機300には、HDMI端子302が設けられている。HDMIケーブル400の一端はセットトップボックス200のHDMI端子202に接続され、このHDMIケーブル400の他端はテレビ受信機300のHDMI端子302に接続されている。
[放送局の説明]
放送局100は、ビットストリームデータBSDを、放送波に載せて送信する。放送局100は、ビットストリームデータBSDを生成する送信データ生成部110を備えている。このビットストリームデータBSDには、立体画像データ、音声データ、重畳情報のデータ、視差情報などが含まれる。立体画像データは所定の伝送フォーマットを有し、立体画像を表示するための左眼画像データおよび右眼画像データを持っている。重畳情報は、一般的には、字幕、グラフィクス情報、テキスト情報などであるが、この実施の形態においては字幕である。
「送信データ生成部の構成例」
図2は、放送局100における送信データ生成部110の構成例を示している。この送信データ生成部110は、既存の放送規格の一つであるDVB(Digital Video Broadcasting)方式に容易に連携できるデータ構造で視差情報(視差ベクトル)を送信する。この送信データ生成部110は、データ取り出し部111と、ビデオエンコーダ112と、オーディオエンコーダ113を有している。また、この送信データ生成部110は、サブタイトル発生部114と、視差情報作成部115と、サブタイトル処理部116と、サブタイトルエンコーダ118と、マルチプレクサ119を有している。
データ取り出し部111には、データ記録媒体111aが、例えば、着脱自在に装着される。このデータ記録媒体111aには、左眼画像データおよび右眼画像データを含む立体画像データと共に、音声データ、視差情報が対応付けて記録されている。データ取り出し部111は、データ記録媒体111aから、立体画像データ、音声データ、視差情報等を取り出して出力する。データ記録媒体111aは、ディスク状記録媒体、半導体メモリ等である。
データ記録媒体111aに記録されている立体画像データは、所定の伝送方式の立体画像データである。立体画像データ(3D画像データ)の伝送方式の一例を説明する。ここでは、以下の第1〜第3の伝送方式を挙げるが、これら以外の伝送方式であってもよい。また、ここでは、図3に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、決められた解像度、例えば、1920×1080のピクセルフォーマットの画像データである場合を例にとって説明する。
第1の伝送方式は、トップ・アンド・ボトム(Top & Bottom)方式で、図4(a)に示すように、垂直方向の前半では左眼画像データの各ラインのデータを伝送し、垂直方向の後半では左眼画像データの各ラインのデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データのラインが1/2に間引かれることから原信号に対して垂直解像度は半分となる。
第2の伝送方式は、サイド・バイ・サイド(Side By Side)方式で、図4(b)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。原信号に対して、水平解像度は半分となる。
第3の伝送方式は、フレーム・シーケンシャル(Frame Sequential)方式で、図4(c)に示すように、左眼画像データと右眼画像データとをフレーム毎に順次切換えて伝送する方式である。なお、このフレーム・シーケンシャル方式は、フル・フレーム(Full Frame)方式、あるいは従来の2Dフォーマットに対してのサービスコンパチブル(service compatible)方式と称される場合もある。
また、データ記録媒体111aに記録されている視差情報は、例えば、画像を構成するピクセル(画素)毎の視差ベクトルである。視差ベクトルの検出例について説明する。ここでは、左眼画像に対する右眼画像の視差ベクトルを検出する例について説明する。図5に示すように、左眼画像を検出画像とし、右眼画像を参照画像とする。この例では、(xi,yi)および(xj,yj)の位置における視差ベクトルが検出される。
(xi,yi)の位置における視差ベクトルを検出する場合を例にとって説明する。この場合、左眼画像に、(xi,yi)の位置の画素を左上とする、例えば4×4、8×8あるいは16×16の画素ブロック(視差検出ブロック)Biが設定される。そして、右眼画像において、画素ブロックBiとマッチングする画素ブロックが探索される。
この場合、右眼画像に、(xi,yi)の位置を中心とする探索範囲が設定され、その探索範囲内の各画素を順次注目画素として、上述の画素ブロックBiと同様の例えば4×4、8×8あるいは16×16の比較ブロックが順次設定されていく。
画素ブロックBiと順次設定される比較ブロックとの間で、対応する画素毎の差分絶対値の総和が求められる。ここで、図6に示すように、画素ブロックBiの画素値をL(x,y)とし、比較ブロックの画素値をR(x,y)とするとき、画素ブロックBiと、ある比較ブロックとの間における差分絶対値の総和は、Σ|L(x,y)−R(x,y)|で表される。
右眼画像に設定される探索範囲にn個の画素が含まれているとき、最終的にn個の総和S1〜Snが求められ、その中で最小の総和Sminが選択される。そして、この総和Sminが得られた比較ブロックから左上の画素の位置が(xi′,yi′)が得られる。これにより、(xi,yi)の位置における視差ベクトルは、(xi′−xi,yi′−yi)のように検出される。詳細説明は省略するが、(xj,yj)の位置における視差ベクトルについても、左眼画像に、(xj,yj)の位置の画素を左上とする、例えば4×4、8×8あるいは16×16の画素ブロックBjが設定されて、同様の処理過程で検出される。
ビデオエンコーダ112は、データ取り出し部111から取り出された立体画像データに対して、MPEG4−AVC、MPEG2、VC−1等の符号化を施し、ビデオデータストリーム(ビデオエレメンタリストリーム)を生成する。オーディオエンコーダ113は、データ取り出し部111から取り出された音声データに対して、AC3、AAC等の符号化を施し、オーディオデータストリーム(オーディオエレメンタリストリーム)を生成する。
サブタイトル発生部114は、DVB(Digital Video Broadcasting)方式の字幕データであるサブタイトルデータを発生する。このサブタイトルデータは、2次元画像用のサブタイトルデータである。このサブタイトル発生部114は、重畳情報データ出力部を構成している。
視差情報作成部115は、データ取り出し部111から取り出されたピクセル(画素)毎の視差ベクトル(水平方向視差ベクトル)に対して、ダウンサイジング処理を施し、以下に示すように、各階層の視差情報を生成する。なお、視差情報は必ずしも視差情報作成部115で生成される必要はなく、外部から別途供給される構成も可能である。
図7は、各ピクセル(画素)の輝度値のようにして与えられる相対的な深さ方向のデータの例を示している。ここで、相対的な深さ方向のデータは所定の変換により画素ごとの視差ベクトルとして扱うことが可能となる。この例において、人物部分の輝度値は高くなっている。これは、人物部分の視差ベクトルの値が大きいことを意味し、従って、立体画像表示では、この人物部分が浮き出た状態に知覚されることを意味している。また、この例において、背景部分の輝度値は低くなっている。これは、背景部分の視差ベクトルの値が小さいことを意味し、従って、立体画像表示では、この背景部分が沈んだ状態に知覚されることを意味している。
図8は、ブロック(Block)毎の視差ベクトルの一例を示している。ブロックは、最下層に位置するピクセル(画素)の上位層に当たる。このブロックは、画像(ピクチャ)領域が、水平方向および垂直方向に所定の大きさで分割されることで構成される。各ブロックの視差ベクトルは、例えば、そのブロック内に存在する全ピクセル(画素)の視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。この例においては、各ブロックの視差ベクトルを矢印で示しており、矢印の長さが視差ベクトルの大きさに対応している。
図9は、視差情報作成部115で行われるダウンサイジング処理の一例を示している。最初に、視差情報作成部115は、図9(a)に示すように、ピクセル(画素)毎の視差ベクトルを用いて、ブロック毎の符号付き視差ベクトルを求める。上述したように、ブロックは、最下層に位置するピクセル(画素)の上位層に当たり、画像(ピクチャ)領域が水平方向および垂直方向に所定の大きさで分割されることで構成される。そして、各ブロックの視差ベクトルは、例えば、そのブロック内に存在する全ピクセル(画素)の視差ベクトルから、最も値の小さな、あるいは最も絶対値が大きい負の値をもつ視差ベクトルが選択されることで得られる。
次に、視差情報作成部115は、図9(b)に示すように、ブロック毎の視差ベクトルを用いて、グループ(Group Of Block)毎の視差ベクトルを求める。グループは、ブロックの上位層に当たり、複数個の近接するブロックをまとめてグループ化することで得られる。図9(b)の例では、各グループは、破線枠で括られる4個のブロックにより構成されている。そして、各グループの視差ベクトルは、例えば、そのグループ内の全ブロックの視差ベクトルから、最も値の小さな、あるいは最も絶対値が大きい負の値をもつ視差ベクトルが選択されることで得られる。
次に、視差情報作成部115は、図9(c)に示すように、グループ毎の視差ベクトルを用いて、パーティション(Partition)毎の視差ベクトルを求める。パーティションは、グループの上位層に当たり、複数個の近接するグループをまとめてグループ化することで得られる。図9(c)の例では、各パーティションは、破線枠で括られる2個のグループにより構成されている。そして、各パーティションの視差ベクトルは、例えば、そのパーティション内の全グループの視差ベクトルから、最も値の小さな、あるいは最も絶対値が大きい負の値をもつ視差ベクトルが選択されることで得られる。
次に、視差情報作成部115は、図9(d)に示すように、パーティション毎の視差ベクトルを用いて、最上位層に位置するピクチャ全体(画像全体)の視差ベクトルを求める。図9(d)の例では、ピクチャ全体には、破線枠で括られる4個のパーティションが含まれている。そして、ピクチャ全体の視差ベクトルは、例えば、ピクチャ全体に含まれる全パーティションの視差ベクトルから、最も値の小さな、あるいは最も絶対値が大きい負の値をもつ視差ベクトルが選択されることで得られる。
このようにして、視差情報作成部115は、最下層に位置するピクセル(画素)毎の視差ベクトルにダウンサイジング処理を施して、ブロック、グループ、パーティション、ピクチャ全体の各階層の各領域の視差ベクトルを求めることができる。なお、図9に示すダウンサイジング処理の一例では、最終的に、ピクセル(画素)の階層の他、ブロック、グループ、パーティション、ピクチャ全体の4階層の視差ベクトルを求めている。しかし、階層数ならびに各階層の領域の切り方や領域の数はこれに限定されるものではない。
図2に戻って、サブタイトル処理部116は、サブタイトル発生部114で発生されたサブタイトルデータに基づいて、リージョン内にサブリージョンの領域を定義できる。また、サブタイトル処理部116は、視差情報作成部115で作成された視差情報に基づいて、左眼画像および右眼画像における重畳情報の表示位置をシフト調整するための視差情報を設定する。この視差情報は、サブリージョンまたはリージョン毎に、あるいはページ毎に設定可能とされている。
図10(a)は、サブタイトルデータにおいて、画面上に定義されるリージョンと、このリージョン内に定義されるサブリージョンの一例を示している。この例では、「Region_Starting Position」がR0であるリージョン0(Resion0)に、「SubResion 1」、「SubResion 2」の2つのサブリージョンが定義されている。「SubResion 1」の水平方向位置(Horizontal Posion)xはSR1で、「SubResion 2」の水平方向位置(Horizontal Posion)xはSR2である。そして、この例では、サブリージョン「SubResion 1」に対して視差情報「disparity 1」が設定され、サブリージョン「SubResion 2」に対して視差情報「disparity 2」が設定される。
図10(b)は、視差情報による左眼画像におけるサブリージョン領域内のシフト調整例を示している。サブリージョン「SubResion 1」に対して視差情報「disparity 1」が設定されている。そのため、サブリージョン「SubResion 1」に関しては、水平方向位置(Horizontal Posion)xがSR1−disparity 1 となるようにシフト調整される。また、サブリージョン「SubResion2」に対して視差情報「disparity 2」が設定されている。そのため、サブリージョン「SubResion 2」に関しては、水平方向位置(Horizontal Posion)xがSR2−disparity 2 となるようにシフト調整される。
図10(c)は、視差情報による右眼画像におけるサブリージョン領域内のシフト調整例を示している。サブリージョン「SubResion 1」に対して視差情報「disparity 1」が設定されている。そのため、サブリージョン「SubResion 1」に関しては、上述の左眼画像とは逆向きに、水平方向位置(HorizontalPosion)xがSR1+disparity 1 となるようにシフト調整される。また、サブリージョン「SubResion 2」に対して視差情報「disparity 2」が設定されている。そのため、サブリージョン「SubResion 2」に関しては、上述の左眼画像とは逆向きに、水平方向位置(HorizontalPosion)xがSR2+disparity 2 となるようにシフト調整される。
サブタイトル処理部116は、サブタイトル発生部114で発生されたサブタイトルデータと共に、上述のサブリージョン領域の領域情報、視差情報などの表示制御情報を出力する。なお、視差情報に関しては、上述したようにサブリージョン単位で設定できる他、リージョン単位、あるいはページ単位でも設定できる。
サブタイトルデータは、DDS、PCS、RCS、CDS、ODS、EDSなどのセグメントを持つ。DDS(display definition segment)は、HDTV用の表示(display)サイズを指定する。PCS(page composition segment)は、ページ(page)内のリージョン(region)位置を指定する。RCS(region compositionsegment)は、リージョン(Region)の大きさやオブジェクト(object)の符号化モードを指定し、また、オブジェクト(object)の開始位置を指定する。
CDS(CLUT definition segment)は、CLUT内容の指定をする。ODS(objectdata segment)は、符号化ピクセルデータ(Pixeldata)を含む。EDS(end of display set segment)は、DDSのセグメントからはじまるサブタイトルデータの終了を示す。この実施の形態においては、DSS(Display Signaling Segment)のセグメントがさらに定義される。このDSSのセグメントに、上述の表示制御情報が挿入される。
図2に戻って、サブタイトルエンコーダ118は、以下の「第1のタイプ」または「第2のタイプ」で、第1および第2のプライベートデータストリーム(第1および第2のサブタイトルデータストリーム)を生成する。
「第1のタイプ」では、DDS、PCS、RCS、CDS、ODS、EDSのセグメントを含む第1のプライベートデータストリーム(2Dストリーム)が生成される。また、この「第1のタイプ」では、DDS、DSS、EDSのセグメントを含む第2のプライベートデータストリーム(3D拡張ストリーム)が生成される。「第2のタイプ」では、DDS、PCS、RCS、CDS、ODS、EDSのセグメントを含む第1のプライベートデータストリーム(2Dストリーム)が生成される。また、この「第2のタイプ」では、DDS、PCS、RCS、DSS、CDS、ODS、EDSのセグメントを含む第2のプライベートデータストリーム(3Dストリーム)が生成される。
マルチプレクサ119は、ビデオエンコーダ112、オーディオエンコーダ113およびサブタイトルエンコーダ118からの各データストリームを多重化し、多重化データストリームとしてのトランスポートストリームTSを得る。このトランスポートストリームTSは、PES(Packetized Elementarty Stream)のストリームとして、ビデオデータストリーム、オーディオデータストリーム、第1および第2のプライベートデータストリームを有するものとなる。
図11は、「第1のタイプ」において、トランスポートストリームTSが有する、第1のプライベートデータストリーム(2Dストリーム)および第2のプライベートデータストリーム(3D拡張ストリーム)の構成を示している。図11(a)は、2Dストリームを示し、先頭にPESヘッダ(PES Header)が配置され、それに続いて、DDS、PCS、RCS、CDS、ODS、EDSの各セグメントを含むPESペイロード(PES Payload)が配置されている。また、図11(b)は、3D拡張ストリームを示し、先頭にPESヘッダ(PES Header)が配置され、それに続いて、DDS、DSS、EDSの各セグメントを含むPESペイロード(PES Payload)が配置されている。
図12は、「第2のタイプ」において、トランスポートストリームTSが有する、第1のプライベートデータストリーム(2Dストリーム)および第2のプライベートデータストリーム(3Dストリーム)の構成を示している。図12(a)は、2Dストリームを示し、先頭にPESヘッダ(PES Header)が配置され、それに続いて、DDS、PCS、RCS、CDS、ODS、EDSの各セグメントを含むPESペイロード(PES Payload)が配置されている。また、図12(b)は、3Dストリームを示し、先頭にPESヘッダ(PES Header)が配置され、それに続いて、DDS、PCS、RCS、DSS、CDS、ODS、EDSの各セグメントを含むPESペイロード(PES Payload)が配置されている。
マルチプレクサ119は、「第1のタイプ」において、2Dストリームおよび3D拡張ストリームに、受信側において重畳情報のデータによる表示と視差情報(Disparity)によるシフト制御とを同期させるための同期情報を含める。具体的には、マルチプレクサ119は、図13に示すように、2Dストリーム(PES1(1):PES#1)と3D拡張フレーム(PES2(2):PES#2)のPESヘッダに挿入されるタイムスタンプ(PTS:Presentation Time Stamp)の値が関連付けされたものとする。
図13は、2Dストリームと3D拡張ストリームのタイムスタンプ(PTS)の値が同じ値、つまりPTS1に設定される例を示している。この場合、受信側(デコード側)においては、サブタイトルデータ(重畳情報のデータ)による字幕パターンの表示がPTS1から開始され、字幕パターンを3D表示とするための視差情報によるシフト制御もPTS1から開始される。
なお、図13の例において、3D拡張ストリームには、PTS1のフレームの視差情報と、その後の所定フレームの視差情報との2個の視差情報が含まれていることを示している。受信側(デコード側)においては、それら2個のフレームの間の任意のフレームの視差情報を補間処理で求めてシフト制御をダイナミックに行い得ることが示されている。
また、図13において、2Dストリームに含まれる“Conventional Segments”は、DDS、PCS、RCS、CDS、ODS、EDSの各セグメントを意味している。また、3D拡張ストリームに含まれる“Extended Segments”は、DDS、DSS、EDSの各セグメント意味している。また、図13において、2Dストリームの“Elementary_PID”はID1であり、3D拡張ストリームの“Elementary_PID”はID2である。これは、以下の図14、図15においても同様である。
図14は、2Dストリームと3D拡張ストリームのタイムスタンプ(PTS)の値が異なる値に設定される例を示している。すなわち、図13の例においては、2Dストリームのタイムスタンプ(PTS)の値はPTS1に設定され、3D拡張ストリームのタイムスタンプ(PTS)の値はPTS1より後のPTS2に設定される例を示している。この場合、受信側(デコード側)においては、サブタイトルデータ(重畳情報のデータ)による字幕パターンの表示がPTS1から開始され、字幕パターンを3D表示とするための視差情報によるシフト制御がPTS2から開始される。
なお、図14の例において、3D拡張ストリームには、PTS2のフレームの視差情報と、その後の複数のフレームの視差情報が含まれていることを示している。受信側(デコード側)においては、それら複数のフレームの間の任意のフレームの視差情報を補間処理で求めてシフト制御をダイナミックに行い得ることが示されている。
図15は、図14と同様に、2Dストリームと3D拡張ストリームのタイムスタンプ(PTS)の値が異なる値に設定される例であって、しかも、タイムスタンプ(PTS)の値が異なる3D拡張ストリームが複数個存在する例を示している。すなわち、図15の例においては、2Dストリームのタイムスタンプ(PTS)の値はPTS1に設定されている。また、複数の3D拡張フレームのタイプスタンプ(PTS)の値は、PTS1より後のPTS2,PTS3,PTS4,・・・に設定されている。
この場合、受信側(デコード側)においては、サブタイトルデータ(重畳情報のデータ)による字幕パターンの表示がPTS1から開始される。また、字幕パターンを3D表示とするための視差情報によるシフト制御がPTS2から開始され、その後に順次更新される。なお、図15の例において、複数個の3D拡張ストリームにはそれぞれタイプスタンプで示されるフレームの視差情報のみが含まれており、受信側(デコード側)においては、それら複数のフレームの間の任意のフレームの視差情報を補間処理で求めてシフト制御をダイナミックに行い得ることが示されている。
図2に示す送信データ生成部110の動作を簡単に説明する。データ取り出し部111から取り出された立体画像データは、ビデオエンコーダ112に供給される。このビデオエンコーダ112では、その立体画像データに対してMPEG4−AVC、MPEG2、VC−1等の符号化が施され、符号化ビデオデータを含むビデオデータストリームが生成される。このビデオデータストリームはマルチプレクサ119に供給される。
データ取り出し部111で取り出された音声データはオーディオエンコーダ113に供給される。このオーディオエンコーダ113では、音声データに対して、MPEG−2Audio AAC、あるいは、MPEG−4 AAC等の符号化が施され、符号化オーディオデータを含むオーディオデータストリームが生成される。このオーディオデータストリームはマルチプレクサ119に供給される。
サブタイトル発生部114では、DVBの字幕データであるサブタイトルデータ(2次元画像用)が発生される。このサブタイトルデータは、視差情報作成部115およびサブタイトル処理部116に供給される。
データ取り出し部111から取り出されたピクセル(画素)毎の視差ベクトルは、視差情報作成部115に供給される。この視差情報作成部115では、ピクセル毎の、あるいは複数のピクセルに対しての視差ベクトルに対してダウンサイジング処理が施され、各階層の視差情報(disparity)が作成される。この視差情報は、サブタイトル処理部116に供給される。
サブタイトル処理部116では、サブタイトル発生部114で発生されたサブタイトルデータに基づいて、例えば、リージョン内にサブリージョンの領域が定義される。また、サブタイトル処理部116では、視差情報作成部115で作成された視差情報に基づいて、左眼画像および右眼画像における重畳情報の表示位置をシフト調整するための視差情報が設定される。この場合、視差情報は、サブリージョンまたはリージョン毎に、あるいはページ毎に設定される。
サブタイトル処理部116から出力されるサブタイトルデータおよび表示制御情報は、サブタイトルエンコーダ118に供給される。表示制御情報には、サブリージョン領域の領域情報、視差情報などが含まれている。このサブタイトルエンコーダ118では、「第1のタイプ」または「第2のタイプ」で、第1および第2のプライベートデータストリーム(エレメンタリストリーム)が生成される。
「第1のタイプ」では、DDS、PCS、RCS、CDS、ODS、EDSの各セグメントを含む第1のプライベートデータストリーム(2Dストリーム)が生成される。さらに、この「第1のタイプ」では、DDS、DSS、EDSの各セグメントを含む第2のプライベートデータストリーム(3D拡張ストリーム)が生成される。「第2のタイプ」では、DDS、PCS、RCS、CDS、ODS、EDSの各セグメントを含む第1のプライベートデータストリーム(2Dストリーム)が生成される。さらに、この「第2のタイプ」では、DDS、PCS、RCS、DSS、CDS、ODS、EDSの各セグメントを含む第2のプライベートデータストリーム(3Dストリーム)が生成される。上述したように、DSSのセグメントは、表示制御情報を含むセグメントである。
マルチプレクサ119には、上述したように、ビデオエンコーダ112、オーディオエンコーダ113およびサブタイトルエンコーダ118からの各データストリームが供給される。そして、このマルチプレクサ119では、各データストリームがPESパケット化されて多重され、多重化データストリームとしてのトランスポートストリームTSが得られる。このトランスポートストリームTSは、PESストリームとして、ビデオデータストリーム、オーディオデータストリームの他に、第1および第2のプライベートデータストリームを有するものとなる。
図16は、「第1のタイプ」におけるトランスポートストリームTSの構成例を示している。なお、この図においては、図面の簡単化のために、ビデオおよびオーディオに関係する部分の図示を省略している。このトランスポートストリームTSには、各エレメンタリストリームをパケット化して得られたPESパケットが含まれている。
この構成例では、2Dストリーム(第1のプライベートデータストリーム)のPESパケット「Subtitle PES1」と、3D拡張ストリーム(第2のプライベートデータストリーム)のPESパケット「Subtitle PES2」が含まれている。2Dストリーム(PESストリーム)には、DDS、PCS、RCS、CDS、ODS、EDSの各セグメントが含まれている。3D拡張ストリーム(PESストリーム)には、DDS、DSS、EDSの各セグメントが含まれている。この場合、2Dストリーム、3D拡張ストリームの“Elementary_PID”がPID1,PID2のように異なるように設定され、これらのストリームが別のストリームであることが示される。
図17は、PCS(page_composition_segment)の構造を示している。このPCSのセグメントタイプは、図18に示すように、「0x10」である。「region_horizontal_address」、「region_vertical_address」は、リージョン(region)の開始位置を示す。なお、DDS、RCS、ODSなどのその他のセグメントについては、その構造の図示は省略する。図18に示すように、DDSのセグメントタイプは「0x14」であり、RCSのセグメントタイプは「0x11」であり、CDSのセグメントタイプは「0x12」であり、ODSのセグメントタイプは「0x13」であり、EDSのセグメントタイプは「0x80」である。さらに、図18に示すように、DSSのセグメントタイプは、「0x15」である。このDSSのセグメントの詳細構造については、後述する。
図16に戻って、また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(ProgramMap Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。また、トランスポートストリームには、イベント単位の管理を行うSI(Serviced Information)としてのEIT(EventInformation Table)が含まれている。このEITには、番組単位のメタデータが記載される。
PMTの配下に、サブタイトルの内容を示すサブタイトル・デスクリプタ(Subtitle descriptor)が挿入されている。また、EITの配下に、ストリーム毎に、配信内容を示すコンポーネント・デスクリプタ(Component_Descriptor)が挿入されている。図19に示すように、コンポーネント・デスクリプタの“stream_content”がサブタイトル(subtitle)を示す場合、“component_type”が「0x15」あるいは「0x25」であるときは3D用サブタイトルを示し、その他の値のときは2D用サブタイトルを示す。図16に示すように、サブタイトル・デスクリプタの“subtitling_type”は、“component_type”と同じ値に設定される。
また、このPMTには、サブタイトルエレメンタリストリームに関連した情報を持つサブタイトルエレメンタリ・ループが存在する。このサブタイトルエレメンタリ・ループには、ストリーム毎に、パケット識別子(PID)等の情報が配置されると共に、図示していないが、そのエレメンタリストリームに関連する情報を記述する記述子(デスクリプタ)も配置される。
「第1のタイプ」の場合、3D拡張ストリームに含まれる各セグメントが2Dストリームの各セグメントに関連することを示すように、サブタイトル・デスクリプタの“composition_page_id”が設定される。すなわち、3D拡張ストリームと2Dストリームとで、この“composition_page_id”は、同じ値(図示では「0xXXXX」)を共有するように設定される。また、この「第1のタイプ」の場合、3D拡張ストリームに含まれる各セグメントが2Dストリームの各セグメントに関連することを示すように、双方のストリームで、関連する各セグメントの“page_id”が同じ値を有するようにエンコードされる。
図20は、「第2のタイプ」におけるトランスポートストリームTSの構成例を示している。なお、この図においても、図面の簡単化のために、ビデオおよびオーディオに関係する部分の図示を省略している。このトランスポートストリームTSには、各エレメンタリストリームをパケット化して得られたPESパケットが含まれている。
この構成例では、2Dストリーム(第1のプライベートデータストリーム)のPESパケット「Subtitle PES1」と、3Dストリーム(第2のプライベートデータストリーム)のPESパケット「Subtitle PES2」が含まれている。2Dストリーム(PESストリーム)には、DDS、PCS、RCS、CDS、ODS、EDSの各セグメントが含まれている。3Dストリーム(PESストリーム)には、DDS、PCS、RCS、DSS、CDS、ODS、EDSの各セグメントが含まれている。
「第2のタイプ」の場合、3Dストリームは、2DストリームにDSSのセグメントが挿入された構成となっている。すなわち、この3Dストリームには、3D対応表示するために必要なすべての情報が含まれている。この場合、2Dストリーム、3Dストリームの“Elementary_PID”がPID1,PID2のように異なるように設定され、これらのストリームが別のストリームであることが示される。また、この「第2のタイプ」の場合、3Dストリームと2Dストリームとで、サブタイトル・デスクリプタの“composition_page_id”は、別の値(図示では「0xXXXX」と「0xYYYY」)が設定される。
[視差情報の更新]
上述したように、「第1のタイプ」では3D拡張ストリームにより視差情報が送信され、「第2のタイプ」では3Dストリームにより視差情報が送信される。この視差情報の更新について説明する。
図21、図22は、インターバル期間(Interval period)を用いた視差情報の更新例を示している。図21は、インターバル期間(Interval period)が固定で、しかも、その期間が更新期間と等しい場合を示している。すなわち、A−B、B−C、C−D、・・・の各更新期間は、1個のインターバル期間からなっている。
図22は、一般的なもので、インターバル期間(Interval period)を短期間(例えば、フレーム周期でもよい)とした場合の、視差情報の更新例を示している。この場合、インターバル期間の個数は、各更新期間において、M,N,P,Q,Rとなる。なお、図21、図22において、“A”は字幕表示期間の開始フレーム(開始時点)を示し、“B”〜“F”は、その後の更新フレーム(更新時点)を示している。
字幕表示期間内で順次更新される視差情報を受信側(セットトップボックス200など)に送る場合、受信側においては、更新期間毎の視差情報に補間処理を施すことで、任意のフレーム間隔、例えば、1フレーム間隔の視差情報を生成して使用することが可能である。
図23は、「第2のタイプ」における3Dストリームの構成例を示している。図23(a)は、DSSのセグメントが一個だけ挿入される例を示している。PESヘッダには、時間情報(PTS)が含まれている。また、PESペイロードデータとして、DDS、PCS、RCS、DSS、CDS、ODS、EDSの各セグメントが含まれている。これらは、サブタイトル表示期間の開始前に一括送信される。この一個のDSSのセグメントには、字幕表示期間で順次更新される複数の視差情報が含められる。
なお、一個のDSSに字幕表示期間で順次更新される複数の視差情報を含めずに、この複数の視差情報を受信側(セットトップボックス200など)に送ることもできる。この場合、3Dストリームに、更新を行うタイミング毎にDSSのセグメントが挿入される。
図23(b)は、その場合の3Dストリームの構成例を示している。PESペイロードデータとして、最初に、DDS、PCS、RCS、CDS、ODS、EDSの各セグメントが送信される。その後に、更新を行うタイミングで、視差情報更新のための所定個数のDSSセグメントが送信される。最後には、DSSセグメントと共にEDSセグメントも送信される。
なお、図23は「第2のタイプ」における3Dストリームの構成例を示したが、「第1のタイプ」における3D拡張ストリームにおいても、同様の構成が可能である。すなわち、3D拡張フレームに一個のDSSのセグメントが挿入され、このDSSのセグメントに字幕表示期間で順次更新される複数の視差情報を含めることができる。あるいは、3D拡張フレームに、視差情報の更新を行うタイミング毎に、DSSのセグメントが挿入される。
図24は、上述したようにDSSのセグメントを順次送信する場合における、視差情報の更新例を示している。なお、図24において、“A”は字幕表示期間の開始フレーム(開始時点)を示し、“B”〜“F”は、その後の更新フレーム(更新時点)を示している。
DSSセグメントを順次送信して、字幕表示期間内で順次更新される視差情報を受信側(セットトップボックス200など)に送る場合も、受信側においては、上述したと同様の処理が可能である。すなわち、この場合も、受信側においては、更新期間毎の視差情報に補間処理を施すことで、任意のフレーム間隔、例えば、1フレーム間隔の視差情報を生成して使用することが可能である。
図25は、上述の図22と同様の、視差情報(disparity)の更新例を示している。更新フレーム間隔は、単位期間としてのインターバル期間(ID:Interval Duration)の倍数で表される。例えば、更新フレーム間隔「DivisionPeriod 1」は“ID*M”で表され、更新フレーム間隔「Division Period 2」は“ID*N”で表され、以下の各更新フレーム間隔も同様に表される。図25に示す視差情報の更新例においては、更新フレーム間隔は固定ではなく、視差情報カーブに応じた更新フレーム間隔の設定が行われている。
また、この視差情報(disparity)の更新例において、受信側では、字幕表示期間の開始フレーム(開始時刻)T1_0は、この視差情報が含まれるPESストリームのヘッダに挿入されているPTS(PresentationTime Stamp)で与えられる。そして、受信側では、視差情報の各更新時刻が、各更新フレーム間隔の情報であるインターバル期間の情報(単位期間の情報)およびそのインターバル期間の個数の情報に基づいて求められる。
この場合、字幕表示期間の開始フレーム(開始時刻)T1_0から、以下の(1)式に基づいて、順次各更新時刻が求められる。この(1)式において、「interval_count」はインターバル期間の個数を示し、図25におけるM,N,P,Q,R,Sに相当する値である。また、この(1)式において、「interval_time」は、図25におけるインターバル期間(ID)に相当する値である。
Tm_n= Tm_(n-1) + (interval_time * interval_count) ・・・(1)
例えば、図25に示す更新例においては、この(1)式に基づいて、各更新時刻が以下のように求められる。すなわち、更新時刻T1_1は、開始時刻(T1_0)と、インターバル期間(ID)と、個数(M)が用いられて、「T1_1 = T1_0 + (ID * M) 」のように求められる。また、更新時刻T1_2は、更新時刻(T1_1)と、インターバル期間(ID)と、個数(N)が用いられて、「T1_2 = T1_1+ (ID * N) 」のように求められる。以降の各更新時刻も同様に求められる。
図25に示す更新例において、受信側では、字幕表示期間内で順次更新される視差情報に関して、補間処理が施され、字幕表示期間内における任意のフレーム間隔、例えば、1フレーム間隔の視差情報が生成されて使用される。例えば、この補間処理として、線形補間処理ではなく、時間方向(フレーム方向)にローパスフィルタ(LPF)処理を伴った補間処理が行われることで、補間処理後の所定フレーム間隔の視差情報の時間方向(フレーム方向)の変化がなだらかとされる。図25の破線aはLPF出力例を示している。
図26は、字幕としてのサブタイトルの表示例を示している。この表示例においては、ページ領域(Area for Page_default)に、字幕表示領域としてのリージョン(Region)が2つ(リージョン1、リージョン2)含まれている。リージョンには1つまたは複数のサブリージョンが含まれている。ここでは、リージョンに1つのサブリージョンが含まれており、リージョン領域とサブリージョン領域とが等しいものとする。
図27は、DSSのセグメントに、字幕表示期間に順次更新される視差情報(Disparity)として、リージョン単位の視差情報とページ単位の視差情報の双方が含まれている場合において、各リージョンとページの視差情報カーブの一例を示している。ここで、ページの視差情報カーブは、2つのリージョンの視差情報カーブの最小値を採るような形とされている。
リージョン1(Region1)に関しては、開始時刻であるT1_0と、その後の更新時刻であるT1_1,T1_2,T1_3,・・・,T1_6の7個の視差情報が存在する。また、リージョン2(Region2)に関しては、開始時刻であるT2_0と、その後の更新時刻であるT2_1,T2_2,T2_3,・・・,T2_7の8個の視差情報が存在する。さらに、ページ(Page_default)に関しては、開始時刻であるT0_0と、その後の更新時刻であるT0_1,T0_2,T0_3,・・・,T0_6の7個の視差情報が存在する。
図28は、図27に示すページおよび各リージョンの視差情報がどのような構造で送られるかを示している。最初にページレイヤについて説明する。このページレイヤには、視差情報の固定値である「page_default_disparity」が配置される。そして、字幕表示期間に順次更新される視差情報に関しては、開始時刻とその後の各更新時刻に対応した、インターバル期間の個数を示す「interval_count」と、視差情報を示す「disparity_page_updete」が、順次配置される。なお、開始時刻の「interval_count」は“0”とされる。
次に、リージョンレイヤについて説明する。リージョン1(サブリージョン1)については、視差情報の固定値である「subregion_disparity_integer_part」および「subregion_disparity_fractional_part」が配置される。ここで、「subregion_disparity_integer_part」は視差情報の整数部分を示し、「subregion_disparity_fractional_part」は視差情報の小数部分を示している。
そして、字幕表示期間に順次更新される視差情報に関しては、開始時刻とその後の各更新時刻に対応した、インターバル期間の個数を示す「interval_count」と、視差情報を示す「disparity_region_updete_integer_part」および「disparity_region_updete_fractional_part」が、順次配置される。ここで、「disparity_region_updete_integer_part」は視差情報の整数部分を示し、「disparity_region_updete_fractional_part」は視差情報の小数部分を示している。なお、開始時刻の「interval_count」は“0”とされる。
リージョン2(サブリージョン2)については、上述のリージョン1と同様であり、視差情報の固定値である「subregion_disparity_integer_part」および「subregion_disparity_fractional_part」が配置される。そして、字幕表示期間に順次更新される視差情報に関しては、開始時刻とその後の各更新時刻に対応した、インターバル期間の個数を示す「interval_count」と、視差情報を示す「disparity_region_updete_integer_part」および「disparity_region_updete_fractional_part」が、順次配置される。
図29〜図31は、DSS(Disparity_Signaling_ Segment)の構造例(syntax)を示している。図32〜図35は、DSSの主要なデータ規定内容(semantics)を示している。この構造には、「sync_byte」、「segment_type」、「page_id」、「segment_length」、「dss_version_number」の各情報が含まれている。「segment_type」は、セグメントタイプを示す8ビットのデータであり、ここでは、DSSを示す値とされる。「segment_length」は、以降のバイト数を示す8ビットのデータである。
「disparity_shift_update_sequence_page_flag」の1ビットフラグは、ページ単位の視差情報として字幕表示期間に順次更新される視差情報があるか否かを示す。“1”は存在することを示し、“0”は存在しないことを示す。「page_default_disparity_shift」の8ビットフィールドは、ページ単位の固定の視差情報、つまり、字幕表示期間内において共通に使用される視差情報を示す。上述した「disparity_page_update_sequence_flag」のフラグが“1”であるとき、「disparity_shift_update_sequence()」の読み出しが行われる。
図31は、「disparity_shift_update_sequence()」の構造例(Syntax)を示している。「disparity_page_update_sequence_length」は、以降のバイト数を示す8ビットのデータである。「interval_duration[23..0]」の24ビットフィールドは、単位期間としてのインターバル期間(Interval Duration)(図25参照)を90KHz単位で指定する。つまり、「interval_duration[23..0]」は、このインターバル期間(Interval Duration)を90KHzのクロックで計測した値を24ビット長で表す。
PESのヘッダ部に挿入されているPTSが33ビット長であるのに対して、24ビット長とされているのは、以下の理由からである。すなわち、33ビット長では24時間分を超える時間を表現できるが、字幕表示期間内のこのインターバル期間(Interval Duration)としては不必要な長さである。また、24ビットとすることで、データサイズを縮小でき、コンパクトな伝送を行うことができる。また、24ビットは8×3ビットであり、バイトアラインが容易となる。
「division_period_count」の8ビットフィールドは、視差情報が影響を及ぼす期間(Division Period)の数を示す。例えば、図25に示す更新例の場合には、開始時刻であるT1_0とその後の更新時刻であるT1_1〜T1_6に対応して、この数は“7”となる。この「division_period_count」の8ビットフィールドが示す数だけ、以下のforループが繰り返される。
「interval_count」の8ビットフィールドは、インターバル期間の個数を示す。例えば、図25に示す更新例の場合には、M,N,P,Q,R,Sが相当する。「disparity_shift_update_integer_part」の8ビットフィールドは、視差情報を示す。開始時刻の視差情報(視差情報の初期値)に対応して「interval_count」は“0”とされる。つまり、「interval_count」が“0”であるとき、「disparity_page_update」は開始時刻の視差情報(視差情報の初期値)を示す。
図29のwhileループは、それまでに処理したデータ長(processed_length)が、セグメントデータ長(segment_length)に達していないとき、繰り返される。このwhileループ中に、リージョン単位、あるいはリージョン内のサブリージョン単位の視差情報が配置される。ここで、リージョンには1つまたは複数のサブリージョンが含まれ、サブリージョン領域とリージョン領域とが同じ場合もある。
このwhileループ中に、「region_id」の情報が含まれている。「disparity_shift_update_sequence_region_flag」の1ビットフラグは、リージョン内の全サブリージョンのための「disparity_shift_update_sequence()」が存在するか否かを示すフラグ情報である。「number_of_subregions_minus_1」の2ビットフィールドは、リージョン内のサブリージョンの数から1を引いた値を示す。「number_of_subregions_minus_1=0」のとき、リージョンは、リージョンと同じ寸法の1つのサブリージョンを持つ。
「number_of_subregions_minus_1>0」のとき、リージョンは、水平方向に分けられた複数のサブリージョンを持つ。図30のforループの中に、サブリージョンの数の分だけ、「subregion_horizontal_position」、「subregion_width」の情報が含まれる。「subregion_horizontal_position」の16ビットフィールドは、サブリージョンの左端のピクセル位置を示す。「subregion_width」はサブリージョンの水平方向の幅をピクセル数で示す。
「subregion_disparity_shift_integer_part」の8ビットフィールドは、リージョン単位(サブリージョン単位)の固定の視差情報、つまり、字幕表示期間内において共通に使用される視差情報の整数部分を示す。「subregion_disparity_shift_fractional_part」の4ビットフィールドは、リージョン単位(サブリージョン単位)の固定の視差情報、つまり、字幕表示期間内において共通に使用される視差情報の小数部分を示す。上述した「disparity_shift_update_sequence_region_flag」のフラグが“1”であるとき、「disparity_shift_update_sequence()」(図31参照)の読み出しが行われる。
図36は、セットトップボックス200およびテレビ受信機300が3D対応機器である場合の放送受信概念を示している。この場合、放送局100では、リージョン「Region 0」内にサブリージョン「SR 00」が定義され、その視差情報「Disparity 1」が設定される。ここでは、リージョン「Region 0」とサブリージョン「SR 00」とは同じ領域であるとする。放送局100から、立体画像データと共に、サブタイトルデータ、表示制御情報(サブリージョンの領域情報「Position」、視差情報「Disparity 1」)が送信される。
最初に、3D対応機器であるセットトップボックス200で受信される場合について説明する。この場合、セットトップボックス200は、「第1のタイプ」においては、2Dストリームからサブタイトルデータを構成する各セグメントのデータを読み込み、3D拡張ストリームから視差情報などの表示制御情報を含むDSSのセグメントのデータを読み込んで用いる。また、セットトップボックス200は、「第2のタイプ」においては、3Dストリームからサブタイトルデータを構成する各セグメント、さらには視差情報などの表示制御情報を含むDSSのセグメントのデータを読み込んで用いる。
セットトップボックス200は、サブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データを生成する。そして、セットトップボックス200は、リージョンの表示データを、立体画像データを構成する左眼画像フレーム(frame0)部分および右眼画像フレーム(frame1)部分にそれぞれ重畳して、出力立体画像データを得る。この際、セットトップボックス200は、視差情報に基づいて、それぞれに重畳される表示データの位置をシフト調整する。なお、セットトップボックス200は、立体画像データの伝送フォーマット(サイド・バイ・サイド方式、トップ・アンド・ボトム方式、フレーム・シーケンシャル方式、あるいは、各ビューがフル画面サイズを有するフォーマット方式)に応じて、適宜、重畳位置、サイズなどの変更を行う。
セットトップボックス200は、上述のようにして得られた出力立体画像データを、例えばHDMIのデジタルインタフェースを通じて、3D対応のテレビ受信機300に送信する。テレビ受信機300は、セットトップボックス200から送られてくる立体画像データに3D信号処理を施し、サブタイトルが重畳された左眼画像および右眼画像のデータを生成する。そして、テレビ受信機300は、LCD等の表示パネルに、ユーザに立体画像を認識させるための両眼視差画像(左眼画像および右眼画像)を表示する。
次に、3D対応機器であるテレビ受信機300で受信される場合について説明する。この場合、テレビ受信機300は、「第1のタイプ」においては、2Dストリームからサブタイトルデータを構成する各セグメントのデータを読み込み、3D拡張ストリームから視差情報などの表示制御情報を含むDSSのセグメントのデータを読み込んで用いる。また、セットトップボックス200は、「第2のタイプ」においては、3Dストリームからサブタイトルデータを構成する各セグメント、さらには視差情報などの表示制御情報を含むDSSのセグメントのデータを読み込んで用いる。
テレビ受信機300は、サブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データを生成する。そして、テレビ受信機300は、リージョンの表示データを、立体画像データに伝送フォーマットに応じた処理をして得られた左眼画像データおよび右眼画像データにそれぞれ重畳し、サブタイトルが重畳された左眼画像および右眼画像のデータを生成する。そして、テレビ受信機300は、LCD等の表示パネルに、ユーザに立体画像を認識させるための両眼視差画像(左眼画像および右眼画像)を表示する。
図37は、セットトップボックス200およびテレビ受信機300がレガシーの2D対応機器である場合の放送受信概念を示している。この場合、放送局100では、リージョン「Region 0」内にサブリージョン「SR 00」が定義され、その視差情報「Disparity 1」が設定される。ここでは、リージョン「Region 0」とサブリージョン「SR 00」とは同じ領域であるとする。放送局100から、立体画像データと共に、サブタイトルデータ、表示制御情報(サブリージョンの領域情報「Position」、視差情報「Disparity 1」)が送信される。
次に、レガシーの2D対応機器であるセットトップボックス200で受信される場合について説明する。この場合、セットトップボックス200は、「第1のタイプ」および「第2のタイプ」のいずれにおいても、2Dストリームからサブタイトルデータを構成する各セグメントのデータを読み込んで用いる。つまり、視差情報などの表示制御情報を含むDSSのセグメントの読み込みを行わないので、その読み込みが受信処理の妨げとなることを回避できる。
セットトップボックス200は、サブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データを生成する。そして、セットトップボックス200は、リージョンの表示データを、立体画像データに対して伝送フォーマットに応じた処理が施されて得られた2次元画像データに重畳して、出力2次元画像データを得る。
セットトップボックス200は、上述のようにして得られた出力2次元画像データを、例えばHDMIのデジタルインタフェースを通じて、テレビ受信機300に送信する。テレビ受信機300は、セットトップボックス200から送られてくる2次元画像データによる2次元画像を表示する。
次に、2D対応機器であるテレビ受信機300で受信される場合について説明する。この場合、テレビ受信機300は、「第1のタイプ」および「第2のタイプ」のいずれにおいても、2Dストリームからサブタイトルデータを構成する各セグメントのデータを読み込んで用いる。つまり、視差情報などの表示制御情報を含むDSSのセグメントの読み込みを行わないので、その読み込みが受信処理の妨げとなることを回避できる。
テレビ受信機300は、サブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データを生成する。テレビ受信機300は、このリージョンの表示データを、立体画像データに対して伝送フォーマットに応じた処理が施されて得られた2次元画像データに重畳して、2次元画像データを得る。そして、テレビ受信機300は、この2次元画像データによる2次元画像を表示する。
図2に示す送信データ生成部110において、マルチプレクサ119から出力される多重化データストリームとしてのトランスポートストリームTSは、2つのプライベートデータストリームが含まれるものとされる。すなわち、「第1のタイプ」では2Dストリームおよび3D拡張ストリームが含まれ、「第2のタイプ」では2Dストリームおよび3Dストリームが含まれる(図10、図11参照)。
そのため、受信側のレガシーの2D対応の受信装置では、2Dストリームからサブタイトルデータを構成する各セグメントのみを読み込んで受信処理を行うことができる。つまり、2D対応の受信装置では、3D拡張ストリーム、あるいは3DストリームからDSSのセグメントを読み込まないで済み、その読み込みが受信処理の妨げとなることを回避できる。
また、受信側の3D対応の受信装置では、3D拡張ストリームあるいは3DストリームからDSSのセグメント、従って表示制御情報(サブリージョンの領域情報、視差情報などを含む)を読み込むことができ、立体画像の表示内容に合わせた左眼画像および右眼画像のサブタイトル(字幕)の視差調整を行うことが可能となる。
また、図2に示す送信データ生成部110においては、サブタイトル表示期間において順次更新される視差情報を含むDSSセグメントを送信できるので、左眼サブタイトルおよび右眼サブタイトルの表示位置を動的に制御できる。これにより、受信側においては、左眼サブタイトルおよび右眼サブタイトルの間に付与する視差を画像内容の変化に連動して動的に変化させることが可能となる。
また、図2に示す送信データ生成部110においては、サブタイトルエンコーダ1168で得られるDSSのセグメントに含まれる更新フレーム間隔毎のフレームの視差情報は、前回の視差情報からのオフセット値ではなく、視差情報そのものである。そのため、受信側において、補間過程でエラーが生じても、一定遅延時間内にエラーからの復帰が可能になる。
[セットトップボックスの説明]
図1に戻って、セットトップボックス200は、放送局100から放送波に載せて送信されてくるトランスポートストリームTSを受信する。このトランスポートストリームTSには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データが含まれている。また、トランスポートストリームTSには、サブタイトル(字幕)を表示するための立体画像用のサブタイトルデータ(表示制御情報を含む)も含まれている。
すなわち、トランスポートストリームTSは、PESのストリームとして、ビデオデータストリーム、オーディオデータストリーム、第1および第2のプライベートデータストリームを有している。上述したように、「第1のタイプ」の場合、第1および第2のプライベートデータストリームは、それぞれ、2Dストリームおよび3D拡張ストリームである(図10参照)。また、「第2のタイプ」の場合、第1および第2のプライベートデータストリームは、それぞれ、2Dストリームおよび3Dストリームである(図11参照)。
セットトップボックス200は、ビットストリーム処理部201を有している。セットトップボックス200が3D対応機器(3D STB)である場合、ビットストリーム処理部201は、トランスポートストリームTSから、立体画像データ、音声データ、サブタイトルデータ(表示制御情報を含む)を取得する。
この場合、ビットストリーム処理部201は、「第1のタイプ」においては、2Dストリームからサブタイトルデータを構成する各セグメントのデータを取得し、3D拡張ストリームから視差情報などの表示制御情報を含むDSSのセグメントのデータを取得する。また、ビットストリーム処理部201は、「第2のタイプ」においては、3Dストリームからサブタイトルデータを構成する各セグメント、さらには視差情報などの表示制御情報を含むDSSのセグメントのデータを取得する。
そして、ビットストリーム処理部201は、立体画像データ、サブタイトルデータ(表示制御情報を含む)を用いて、左眼画像フレーム(frame0)部分および右眼画像フレーム(frame1)部分にそれぞれサブタイトルが重畳された出力立体画像データを生成する(図36参照)。この場合、左眼画像に重畳するサブタイトル(左眼サブタイトル)と右眼画像に重畳するサブタイトル(右眼サブタイトル)との間に視差を付与できる。
例えば、上述したように、放送局100から送られてくる立体画像用のサブタイトルデータに付加されている表示制御情報には、視差情報が含まれており、この視差情報に基づいて、左眼サブタイトルおよび右眼サブタイトルの間に視差を付与できる。このように、左眼サブタイトルと右眼サブタイトルとの間に視差が付与されることで、ユーザは、サブタイトル(字幕)を画像の手前に認識可能となる。
図38(a)は、画像上におけるサブタイトル(字幕)の表示例を示している。この表示例では、背景と近景オブジェクトとからなる画像上に、字幕が重畳された例である。図38(b)は、背景、近景オブジェクト、字幕の遠近感を示し、字幕が最も手前に認識されることを示している。
図39(a)は、図38(a)と同じ、画像上におけるサブタイトル(字幕)の表示例を示している。図39(b)は、左眼画像に重畳される左眼字幕LGIと、右眼画像に重畳される右眼字幕RGIを示している。図39(c)は、字幕が最も手前に認識されるために、左眼字幕LGIと右眼字幕RGIとの間に視差が与えられることを示している。
また、セットトップボックス200がレガシーの2D対応機器(2D STB)である場合、ビットストリーム処理部201は、トランスポートストリームTSから、立体画像データ、音声データ、サブタイトルデータ(表示制御情報を含まないビットマップ・パターンデータ)を取得する。そして、ビットストリーム処理部201は、立体画像データ、サブタイトルデータを用いて、サブタイトルが重畳された2次元画像データを生成する(図37参照)。
この場合、ビットストリーム処理部201は、「第1のタイプ」および「第2のタイプ」のいずれにおいても、2Dストリームからサブタイトルデータを構成する各セグメントのデータを取得する。つまり、この場合、3D拡張ストリームあるいは3DストリームからDSSのセグメントを読み込むことを行わないので、その読み込みが受信処理の妨げとなることを回避できる。
[セットトップボックスの構成例]
セットトップボックス200の構成例を説明する。図40は、セットトップボックス200の構成例を示している。このセットトップボックス200は、ビットストリーム処理部201と、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像信号処理回路205と、HDMI送信部206と、音声信号処理回路207を有している。また、このセットトップボックス200は、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモートコントロール受信部(RC受信部)215と、リモートコントロール送信機(RC送信機)216を有している。
アンテナ端子203は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ204は、アンテナ端子203に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応したトランスポートストリームTS(ビットストリームデータ)を出力する。
ビットストリーム処理部201は、トランスポートストリームTSに基づいて、サブタイトルが重畳された出力立体画像データおよび音声データを出力する。このビットストリーム処理部201は、セットトップボックス200が3D対応機器(3D STB)である場合、トランスポートストリームTSから、立体画像データ、音声データ、サブタイトルデータ(表示制御情報を含む)を取得する。
ビットストリーム処理部201は、立体画像データを構成する左眼画像フレーム(frame0)部分および右眼画像フレーム(frame1)部分にそれぞれサブタイトルが重畳された出力立体画像データを生成する(図36参照)。この際、視差情報に基づいて、左眼画像に重畳するサブタイトル(左眼サブタイトル)と右眼画像に重畳するサブタイトル(右眼サブタイトル)との間に視差を付与する。
すなわち、ビットストリーム処理部201は、サブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データを生成する。そして、ビットストリーム処理部201は、リージョンの表示データを、立体画像データを構成する左眼画像フレーム(frame0)部分および右眼画像フレーム(frame1)部分にそれぞれ重畳して、出力立体画像データを得る。この際、ビットストリーム処理部201は、視差情報に基づいて、それぞれに重畳される表示データの位置をシフト調整する。
また、ビットストリーム処理部201は、セットトップボックス200が2D対応機器(2D STB)である場合、立体画像データ、音声データ、サブタイトルデータ(表示制御情報を含まない)を取得する。ビットストリーム処理部201は、立体画像データ、サブタイトルデータを用いて、サブタイトルが重畳された2次元画像データを生成する(図37参照)。
すなわち、ビットストリーム処理部201は、サブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データを生成する。そして、ビットストリーム処理部201は、リージョンの表示データを、立体画像データに対して伝送フォーマットに応じた処理が施されて得られた2次元画像データに重畳して、出力2次元画像データを得る。
映像信号処理回路205は、ビットストリーム処理部201で得られた画像データに対して必要に応じて画質調整処理などを行い、処理後の画像データをHDMI送信部206に供給する。音声信号処理回路207は、ビットストリーム処理部201から出力された音声データに対して必要に応じて音質調整処理等を行い、処理後の音声データをHDMI送信部206に供給する。
HDMI送信部206は、HDMIに準拠した通信により、例えば、非圧縮の画像データおよび音声データを、HDMI端子202から送出する。この場合、HDMIのTMDSチャネルで送信するため、画像データおよび音声データがパッキングされて、HDMI送信部206からHDMI端子202に出力される。
CPU211は、セットトップボックス200の各部の動作を制御する。フラッシュROM212は、制御ソフトウェアの格納およびデータの保管を行う。DRAM213は、CPU211のワークエリアを構成する。CPU211は、フラッシュROM212から読み出したソフトウェアやデータをDRAM213上に展開してソフトウェアを起動させ、セットトップボックス200の各部を制御する。
RC受信部215は、RC送信機216から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU211に供給する。CPU211は、このリモコンコードに基づいて、セットトップボックス200の各部を制御する。CPU211、フラッシュROM212およびDRAM213は内部バス214に接続されている。
セットトップボックス200の動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応したトランスポートストリーム(ビットストリームデータ)TSが出力される。
デジタルチューナ204から出力されるトランスポートストリーム(ビットストリームデータ)TSは、ビットストリーム処理部201に供給される。このビットストリーム処理部201では、以下のようにして、テレビ受信機300に出力するための出力画像データが生成される。
セットトップボックス200が3D対応機器(3D STB)である場合、トランスポートストリームTSから、立体画像データ、音声データ、サブタイトルデータ(表示制御情報を含む)が取得される。そして、このビットストリーム処理部201では、立体画像データを構成する左眼画像フレーム(frame0)部分および右眼画像フレーム(frame1)部分にそれぞれサブタイトルが重畳された出力立体画像データが生成される。この際、視差情報に基づいて、左眼画像に重畳する左眼サブタイトルと右眼画像に重畳する右眼サブタイトルとの間に視差が付与される。
また、セットトップボックス200が2D対応機器(2D STB)である場合、立体画像データ、音声データ、サブタイトルデータ(表示制御情報を含まない)が取得される。そして、このビットストリーム処理部201では、立体画像データ、サブタイトルデータを用いて、サブタイトルが重畳された2次元画像データが生成される。
ビットストリーム処理部201で得られた出力画像データは、映像信号処理回路205に供給される。この映像信号処理回路205では、出力画像データに対して、必要に応じて画質調整処理等が施される。この映像信号処理回路205から出力される処理後の画像データは、HDMI送信部206に供給される。
また、ビットストリーム処理部201で得られた音声データは、音声信号処理回路207に供給される。この音声信号処理回路207では、音声データに対して、必要に応じて音質調整処理等の処理が行われる。この音声信号処理回路207から出力される処理後の音声データは、HDMI送信部206に供給される。そして、HDMI送信部206に供給された画像データおよび音声データは、HDMIのTMDSチャネルにより、HDMI端子202からHDMIケーブル400に送出される。
[ビットストリーム処理部の構成例]
図41は、セットトップボックス200が3D対応機器(3D STB)である場合におけるビットストリーム処理部201の構成例を示している。このビットストリーム処理部201は、上述の図2に示す送信データ生成部110に対応した構成となっている。このビットストリーム処理部201は、デマルチプレクサ221と、ビデオデコーダ222と、オーディオデコーダ229を有している。また、このビットストリーム処理部201は、サブタイトルデコーダ223と、サブタイトル発生部224と、表示制御部225と、視差情報処理部227と、ビデオ重畳部228を有している。
デマルチプレクサ221は、トランスポートストリームTSから、ビデオデータストリーム、オーディオデータストリームのパケットを抽出し、各デコーダに送ってデコードする。また、デマルチプレクサ221は、さらに、以下のストリームを抽出し、サブタイトルデコーダ223に送ってデコードする。この場合、「第1のタイプ」では2Dストリームおよび3D拡張ストリームを抽出してデコードし、「第2のタイプ」では3Dストリームを抽出してデコードする。
CPU211は、「第1のタイプ」において、2Dストリーム、3D拡張ストリームに関連してPMT内のESループに配置されるサブタイトル・デスクリプタ内の“composition_page_id”の値に基づき、双方のPESストリームをデコードすべきことを認識する。すなわち、“composition_page_id”の値が同じである場合、双方のPESストリームをデコードすることを意味する。あるいは、composition_page_id”の値が同じ値で、しかも特別な値(予め定義される)である場合、双方のPESストリームをデコードすることを意味する。
なお、「第1のタイプ」において、2Dストリーム、3D拡張ストリームの2つのPESストリームの双方をデコードすべきことを示す、2つのストリームを関連付けるデスクリプタを新規定義し、所定の場所に配置することも考えられる。CPU211は、このデスクリプタにより、双方のPESストリームをデコードすべきことを認識し、ビットストリーム処理部201を制御する。
図42は、2Dストリーム、3D拡張ストリームを関連付けるために使用できるマルチ・デコーディング・デスクリプタ(multi_decoding descriptor)の構造例(syntax)を示している。図43は、その構造例における主要な情報の内容(Semantics)を示している。
「descriptor_tag」の8ビットフィールドは、このデスクリプタがマルチ・デコーディング・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、このフィールド以後の全体のバイトサイズを示す。
「stream_content」の4ビットフィールドは、メインのストリームの例えばビデオ、オーディオ、サブタイトルなどのストリームタイプを示す。「component_type」の4ビットフィールドは、メインのストリームの例えばビデオ、オーディオ、サブタイトルなどのコンポーネントタイプを示す。これら「stream_content」、「component_type」には、メインのストリームに対応したコンポーネント・デスクリプタ内の「stream_content」、「component_type」と同じ情報とされる。
この実施の形態において、メインのストリームが2Dストリームとされ、「stream_content」はサブタイトル“subtitle”とされ、「component_type」は、2次元用“2D”とされる。
「component_tag」は、メインのストリームに対応したストリーム・アイデンチファイヤ・デスクリプタ(stream_identifier descriptor)内の「component_tag」と同じ値を持つ。これにより、ストリーム・アイデンチファイヤ・デスクリプタと、マルチ・デコーディング・デスクリプタとを、「component_tag」で関連付けする。
「multi_decoding_count」の4ビットフィールドは、メインのストリームに関連付けするターゲットのストリームの数を示す。この実施の形態において、メインのストリームである2Dストリームに関連するターゲットのストリームは3D拡張ストリームであり、「multi_decoding_count」は「1」となる。
「target_stream_component_type」の8ビットフィールドは、メインのストリームに追加されるストリームの例えばビデオ、オーディオ、サブタイトルなどのストリームタイプを示す。「component_type」の4ビットフィールドは、ターゲットのストリームのコンポーネントタイプを示す。また、「target_stream_component_tag」の8ビットフィールドは、ターゲットのストリームに対応したストリーム・アイデンチファイヤ・デスクリプタ(stream_identifier descriptor)内の「component_tag」と同じ値を持つ。
この実施の形態において、ターゲットのストリームが3D拡張ストリームとされ、「target_stream_component_type」は3次元用“3D”とされ、「target_stream_component_tag」は3D拡張ストリームの「component_tag」と同じ値とされる。
マルチ・デコーディング・デスクリプタは、例えば、PMTの配下、あるいはEITの配下に配置される。図44は、マルチ・デコーディング・デスクリプタを配置した場合における、「第1のタイプ」のトランスポートストリームTSの構成例を示している。
図41に戻って、ビデオデコーダ222は、上述の送信データ生成部110のビデオエンコーダ112とは逆の処理を行う。すなわち、ビデオデコーダ222は、デマルチプレクサ221で抽出されたビデオのパケットからビデオデータストリームを再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む立体画像データを得る。この立体画像データの伝送フォーマットは、例えば、サイド・バイ・サイド方式、トップ・アンド・ボトム方式、フレーム・シーケンシャル方式、あるいは各ビューがフル画面サイズを占めるビデオ伝送フォーマットの方式などである。
サブタイトルデコーダ223は、上述の送信データ生成部110のサブタイトルエンコーダ118とは逆の処理を行う。すなわち、このサブタイトルデコーダ223は、デマルチプレクサ221で抽出された各ストリームのパケットから各ストリームを再構成し、復号化処理を行って、以下のセグメントのデータを取得する。
すなわち、サブタイトルデコーダ223は、サブタイトルデータを構成する各セグメントのデータを取得し、さらに、DSSのセグメントのデータを取得する。サブタイトルデコーダ223は、サブタイトルデータを構成する各セグメントのデータに基づいて、サブタイトルデータを得る。また、サブタイトルデコーダ223は、DSSのセグメントのデータに基づいて、表示制御情報(サブリージョンの領域情報、視差情報など)を得る。
サブタイトル発生部224は、サブタイトルデコーダ223で取得されたサブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データを生成する。ここで、リージョン内にあってサブリージョンで囲まれていない領域は、透明色が割り当てられる。サブタイトル発生部224は、この表示データから、立体画像データを構成する左眼画像フレーム(frame0)部分および右眼画像フレーム(frame1)部分にそれぞれ重畳する左眼サブタイトルおよび右眼サブタイトルの表示データ(ビットマップデータ)を発生する。
この場合、サブタイトル発生部224は、立体画像データの伝送フォーマット(サイド・バイ・サイド方式、トップ・アンド・ボトム方式、フレーム・シーケンシャル方式、MVC方式など)に応じて、適宜、重畳位置、サイズなどの変更を行う。また、この場合、サブタイトル発生部224は、サブタイトルデコーダ223で取得された視差情報に基づいて、それぞれのフレームに重畳される表示データの位置をシフト調整する(図36参照)。
なお、表示制御情報には、字幕表示期間内で共通に使用される視差情報が含まれる。また、この表示制御情報には、さらに、字幕表示期間内で順次更新される視差情報が含まれることもある。この字幕表示期間内で順次更新される視差情報は、上述したように、字幕表示期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなっている。
サブタイトル発生部224は、字幕表示期間内で共通に使用される視差情報に関しては、そのまま使用する。一方、サブタイトル発生部224は、字幕表示期間内で順次更新される視差情報に関しては、補間処理を施して、字幕表示期間内における任意のフレーム間隔、例えば、1フレーム間隔の視差情報を生成して使用する。サブタイトル発生部224は、この補間処理として、線形補間処理ではなく、例えば、時間方向(フレーム方向)にローパスフィルタ(LPF)処理を伴った補間処理を行う。これにより、補間処理後の所定フレーム間隔の視差情報の時間方向(フレーム方向)の変化がなだらかとなる。
ここで、サブタイトル発生部224は、字幕表示期間内で共通に使用される視差情報のみが送られてくる場合、その視差情報を使用する。また、サブタイトル発生部224は、さらに字幕表示期間内で順次更新される視差情報も送られてくる場合には、いずれかを選択的に使用できる。字幕表示期間内で順次更新される視差情報を用いることで、左眼サブタイトルおよび右眼サブタイトルに付与する視差を画像内容の変化に連動して動的に変化させることが可能となる。
ビデオ重畳部228は、出力立体画像データVoutを得る。この場合、ビデオ重畳部228は、ビデオデコーダ222で得られた立体画像データに対し、サブタイトル発生部224で発生された左眼サブタイトルおよび右眼サブタイトルの表示データ(ビットマップデータ)を、重畳する。ビデオ重畳部228は、この出力立体画像データVoutを、ビットストリーム処理部201の外部に出力する。
また、オーディオデコーダ229は、上述の送信データ生成部110のオーディオエンコーダ113とは逆の処理を行う。すなわち、このオーディオデコーダ229は、デマルチプレクサ221で抽出されたオーディオのパケットからオーディオのエレメンタリストリームを再構成し、復号化処理を行って、音声データAoutを得る。このオーディオデコーダ229は、音声データAoutを、ビットストリーム処理部201の外部に出力する。
図41に示すビットストリーム処理部201の動作を簡単に説明する。デジタルチューナ204(図40参照)から出力されるトランスポートストリームTSは、デマルチプレクサ221に供給される。このデマルチプレクサ221では、トランスポートストリームTSから、ビデオデータストリーム、オーディオデータストリームのパケットが抽出され、各デコーダに供給される。また、このこのデマルチプレクサ221では、さらに、2Dストリームおよび3D拡張ストリーム、あるいは3Dストリームのパケットが抽出され、サブタイトルデコーダ223に供給される。
ビデオデコーダ222では、デマルチプレクサ221で抽出されたビデオデータのパケットからビデオデータストリームが再構成され、さらに復号化処理が行われて、左眼画像データおよび右眼画像データを含む立体画像データが得られる。この立体画像データは、ビデオ重畳部228に供給される。
また、サブタイトルデコーダ223では、サブタイトルデータを構成する各セグメントのデータが取得され、さらに、DSSのセグメントのデータが取得される。そして、このサブタイトルデコーダ223では、サブタイトルデータを構成する各セグメントのデータに基づいて、サブタイトルデータが得られる。また、サブタイトルデコーダ223では、DSSのセグメントのデータに基づいて、表示制御情報(サブリージョンの領域情報、視差情報など)が得られる。これらサブタイトルデータおよび表示制御情報はサブタイトル発生部224に供給される。
サブタイトル発生部224では、サブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データ(ビットマップデータ)が生成される。そして、サブタイトル発生部224では、この表示データから、立体画像データを構成する左眼画像フレーム(frame0)部分および右眼画像フレーム(frame1)部分にそれぞれ重畳される左眼サブタイトルおよび右眼サブタイトルの表示データ(ビットマップデータ)が発生される。この際、サブタイトル発生部224では、視差情報に基づいて、それぞれのフレームに重畳される表示データの位置がシフト調整される
サブタイトルデータ発生部224で発生される左眼サブタイトルおよび右眼サブタイトルの表示データ(ビットマップデータ)はビデオ重畳部228に供給される。ビデオ重畳部228では、立体画像データに対し、左眼サブタイトルおよび右眼サブタイトルの表示データ(ビットマップデータ)が重畳され、出力立体画像データVoutが得られる。この出力立体画像データVoutは、ビットストリーム処理部201の外部に出力される。
また、オーディオデコーダ229では、デマルチプレクサ221で抽出されたオーディオのパケットからオーディオエレメンタリストリームが再構成され、さらに復号化処理が施されて、上述の表示用立体画像データVoutに対応した音声データAoutが得られる。この音声データAoutは、ビットストリーム処理部201の外部に出力される。
図45は、セットトップボックス200が2D対応機器(2D STB)である場合におけるビットストリーム処理部201の構成例を示している。この図45において、図41と対応する部分には、同一符号を付し、その詳細説明は省略する。以下、説明の便宜のため、図41に示すビットストリーム処理部201を3D対応ビットストリーム処理部201と呼び、図45に示すビットストリーム処理部201を2D対応ビットストリーム処理部201と呼ぶこととする。
図41に示すビデオデコーダ222は、デマルチプレクサ221で抽出されたビデオのパケットからビデオデータストリームを再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む立体画像データを取得する。それに対して、図45に示すビデオデコーダ222は、立体画像データを取得した後、左眼画像データまたは右眼画像データを切り出し、必要に応じてスケーリング処理等を行って2次元画像データを得る。
また、図41に示す3D対応ビットストリーム処理部201において、デマルチプレクサ221は、上述したように、「第1のタイプ」では2Dストリームおよび3D拡張ストリームのパケットを抽出し、「第2のタイプ」では3Dストリームのパケットを抽出し、サブタイトルデコーダ223に送る。それに対して、図45に示す2D対応ビットストリーム処理部201において、デマルチプレクサ221は、「第1のタイプ」および「第2のタイプ」のいずれでも2Dストリームのパケットのみを抽出し、サブタイトルデコーダ223に送る。
また、図41に示す3D対応ビットストリーム処理部201において、サブタイトルデコーダ223は、上述したように、例えば、2Dストリームからサブタイトルデータを構成する各セグメントのデータを取得し、さらに、3D拡張ストリームからDSSのセグメントのデータを取得する。あるいは、このサブタイトルデコーダ223は、3Dストリームから、サブタイトルデータを構成する各セグメントのデータを取得し、さらに、DSSのセグメントのデータを取得する。
それに対して、図45に示す2D対応ビットストリーム処理部201において、サブタイトルデコーダ223は、2Dストリームからサブタイトルデータを構成する各セグメントのデータのみを取得する。そして、サブタイトルデコーダ223は、サブタイトルデータを構成する各セグメントのデータに基づいて、サブタイトルデータを得る。この場合、サブタイトルデコーダ223は、DSSのセグメントのデータの読み込みを行わない。そのため、その読み込みが受信処理の妨げとなることを回避できる。
また、図41に示す3D対応ビットストリーム処理部201において、サブタイトル発生部224は、サブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データ(ビットマップデータ)を生成する。そして、このサブタイトル発生部224は、さらに、その表示データに基づいて、左眼サブタイトルおよび右眼サブタイトルの表示データ(ビットマップデータ)を発生する。それに対して、図45に示す2D対応ビットストリーム処理部201において、サブタイトル発生部224は、サブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データを生成するのみである。
ビデオ重畳部228は、ビデオデコーダ222で得られた2次元画像データに対し、サブタイトル発生部224で発生されたサブタイトルの表示データ(ビットマップデータ)を重畳し、出力2次元画像データVoutを得る。そして、ビデオ重畳部228は、この出力2次元画像データVoutを、ビットストリーム処理部201の外部に出力する。
図45に示す2Dビットストリーム処理部201の動作を簡単に説明する。なお、オーディオ系の動作については、図41に示す3Dビットストリーム処理部201と同様であるので省略する。
デジタルチューナ204(図40参照)から出力されるトランスポートストリームTSは、デマルチプレクサ221に供給される。このデマルチプレクサ221では、トランスポートストリームTSから、ビデオデータストリーム、オーディオデータストリームのパケットが抽出され、各デコーダに供給される。また、このこのデマルチプレクサ221では、さらに、2Dストリームのパケットが抽出され、サブタイトルデコーダ223に供給される。
ビデオデコーダ222では、デマルチプレクサ221で抽出されたビデオデータのパケットからビデオデータストリームが再構成され、さらに復号化処理が行われて、左眼画像データおよび右眼画像データを含む立体画像データが得られる。そして、ビデオデコーダ222では、さらに、この立体画像データから左眼画像データまたは右眼画像データが切り出され、必要に応じてスケーリング処理等が施されて、2次元画像データが得られる。この2次元画像データは、ビデオ重畳部228に供給される。
また、サブタイトルデコーダ223では、2Dストリームからサブタイトルデータを構成する各セグメントのデータが取得される。そして、サブタイトルデコーダ223は、サブタイトルデータを構成する各セグメントのデータに基づいて、サブタイトルデータが得られる。このサブタイトルデータは、サブタイトル発生部224に供給される。
サブタイトル発生部224では、サブタイトルデータに基づいて、サブタイトルを表示するためのリージョンの表示データ(ビットマップデータ)が生成される。この表示データは、ビデオ重畳部228に供給される。ビデオ重畳部228では、2次元画像データに対してサブタイトルの表示データ(ビットマップデータ)が重畳され、出力2次元画像データVoutが得られる。この出力2次元画像データVoutは、ビットストリーム処理部201の外部に出力される。
図40に示すセットトップボックス200において、デジタルチューナ204から出力されるトランスポートストリームTSには、立体画像データ、サブタイトルデータの他に、表示制御情報も含まれる。この表示制御情報には、表示制御情報(サブリージョンの領域情報、視差情報など)が含まれている。そのため、左眼サブタイトルおよび右眼サブタイトルの表示位置に視差を付与でき、サブタイトル(字幕)の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持することが可能となる。
また、図40に示すセットトップボックス200において、3D対応ビットストリーム処理部201(図41参照)の表示制御情報取得部226で取得される表示制御情報に字幕表示期間内で順次更新される視差情報が含まれる場合、左眼サブタイトルおよび右眼サブタイトルの表示位置を動的に制御できる。これにより、左眼サブタイトルおよび右眼サブタイトルの間に付与する視差を画像内容の変化に連動して動的に変化させることが可能となる。
また、図40に示すセットトップボックス200において、3Dビットストリーム処理部201(図41参照)のサブタイトル発生部224で、字幕表示期間(所定数のフレーム期間)内で順次更新される視差情報を構成する複数フレームの視差情報に対して補間処理が施される。この場合、送信側から更新フレーム間隔毎に視差情報が送信される場合であっても、左眼サブタイトルおよび右眼サブタイトルの間に付与する視差を、細かな間隔で、例えばフレーム毎に制御することが可能となる。
また、図40に示すセットトップボックス200において、3Dビットストリーム処理部201(図41参照)のサブタイトル発生部224における補間処理は、例えば、時間方向(フレーム方向)のローパスフィルタ処理を伴うようにすることもできる。そのため、送信側から更新フレーム間隔毎に視差情報が送信される場合であっても、補間処理後の視差情報の時間方向の変化をなだらかにでき、左眼サブタイトルおよび右眼サブタイトルの間に付与される視差の推移が、更新フレーム間隔毎に不連続となることによる違和感を抑制できる。
なお、上述していないが、セットトップボックス200が3D対応機器である場合であって、2次元表示モードまたは3次元表示モードのユーザ選択が可能な構成も考えられる。その場合、3次元表示モードが選択されるときには、ビットストリーム処理部201は、上述した3D対応ビットストリーム処理部201(図41参照)と同様の構成、動作とされる。一方、2次元表示モードが選択されるときには、ビットストリーム処理部201は、上述した2D対応ビットストリーム処理部201(図45参照)と実質的に同様の構成、動作とされる。
[テレビ受信機の説明]
図1に戻って、テレビ受信機300は、3D対応機器である場合、セットトップボックス200からHDMIケーブル400を介して送られてくる立体画像データを受信する。このテレビ受信機300は、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送フォーマットに対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。
[テレビ受信機の構成例]
3D対応のテレビ受信機300の構成例を説明する。図46は、テレビ受信機300の構成例を示している。このテレビ受信機300は、3D信号処理部301と、HDMI端子302と、HDMI受信部303と、アンテナ端子304と、デジタルチューナ305と、ビットストリーム処理部306を有している。
また、このテレビ受信機300は、映像・グラフィック処理回路307と、パネル駆動回路308と、表示パネル309と、音声信号処理回路310と、音声増幅回路311と、スピーカ312を有している。また、このテレビ受信機300は、CPU321と、フラッシュROM322と、DRAM323と、内部バス324と、リモートコントロール受信部(RC受信部)325と、リモートコントロール送信機(RC送信機)326を有している。
アンテナ端子304は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ305は、アンテナ端子304に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応したトランスポートストリーム(ビットストリームデータ)TSを出力する。
ビットストリーム処理部306は、トランスポートストリームTSに基づいて、サブタイトルが重畳された出力立体画像データおよび音声データを出力する。このビットストリーム処理部201は、詳細説明は省略するが、例えば、上述したセットトップボックス200の、3D対応ビットストリーム処理部201(図41参照)と同様の構成とされる。このビットストリーム処理部306は、立体画像データに対して、左眼サブタイトルおよび右眼サブタイトルの表示データを合成し、サブタイトルが重畳された出力立体画像データを生成して出力する。
なお、このビットストリーム処理部306は、例えば、立体画像データの伝送フォーマットがサイド・バイ・サイド方式、あるいはトップ・アンド・ボトム方式などの場合、スケーリング処理を施し、フル解像度の左眼画像データおよび右眼画像データを出力する。また、ビットストリーム処理部306は、画像データに対応した音声データを出力する。
HDMI受信部303は、HDMIに準拠した通信により、HDMIケーブル400を介してHDMI端子302に供給される非圧縮の画像データおよび音声データを受信する。このHDMI受信部303は、そのバージョンが例えばHDMI1.4aとされており、立体画像データの取り扱いが可能な状態にある。
3D信号処理部301は、HDMI受信部303で受信された立体画像データに対して、デコード処理を行って、フル解像度の左眼画像データおよび右眼画像データを生成する。3D信号処理部301は、TMDS伝送データフォーマットに対応したデコード処理を行う。なお、3D信号処理部301は、ビットストリーム処理部306で得られたフル解像度の左眼画像データおよび右眼画像データに対しては何もしない。
映像・グラフィック処理回路307は、3D信号処理部301で生成された左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データを生成する。また、映像・グラフィック処理回路307は、画像データに対して、必要に応じて、画質調整処理を行う。
また、映像・グラフィック処理回路307は、画像データに対して、必要に応じて、メニュー、番組表などの重畳情報のデータを合成する。パネル駆動回路308は、映像・グラフィック処理回路307から出力される画像データに基づいて、表示パネル309を駆動する。表示パネル309は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma DisplayPanel)等で構成されている。
音声信号処理回路310は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路311は、音声信号処理回路310から出力される音声信号を増幅してスピーカ312に供給する。
CPU321は、テレビ受信機300の各部の動作を制御する。フラッシュROM322は、制御ソフトウェアの格納およびデータの保管を行う。DRAM323は、CPU321のワークエリアを構成する。CPU321は、フラッシュROM322から読み出したソフトウェアやデータをDRAM323上に展開してソフトウェアを起動させ、テレビ受信機300の各部を制御する。
RC受信部325は、RC送信機326から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU321に供給する。CPU321は、このリモコンコードに基づいて、テレビ受信機300の各部を制御する。CPU321、フラッシュROM322およびDRAM323は、内部バス324に接続されている。
図46に示すテレビ受信機300の動作を簡単に説明する。HDMI受信部303では、HDMI端子302にHDMIケーブル400を介して接続されているセットトップボックス200から送信されてくる、立体画像データおよび音声データが受信される。このHDMI受信部303で受信された立体画像データは、3D信号処理部301に供給される。また、このHDMI受信部303で受信された音声データは音声信号処理回路310に供給される。
アンテナ端子304に入力されたテレビ放送信号はデジタルチューナ305に供給される。このデジタルチューナ305では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応したトランスポートストリーム(ビットストリームデータ)TSが出力される。このトランスポートストリームTSは、ビットストリーム処理部306に供給される。
ビットストリーム処理部306では、ビデオデータストリーム、オーディオデータストリーム、さらには、2Dストリーム、3D拡張ストリーム、3Dストリームに基づいて、サブタイトルが重畳された出力立体画像データおよび音声データが得られる。この場合、立体画像データに対して、左眼サブタイトルおよび右眼サブタイトルの表示データが合成され、サブタイトルが重畳された出力立体画像データ(フル解像度の左眼画像データおよび右眼画像データ)が生成される。この出力立体画像データは、3D信号処理部301を通って、映像・グラフィック処理回路307に供給される。
3D信号処理部301では、HDMI受信部303で受信された立体画像データに対してデコード処理が行われて、フル解像度の左眼画像データおよび右眼画像データが生成される。この左眼画像データおよび右眼画像データは、映像・グラフィック処理回路307に供給される。この映像・グラフィック処理回路307では、左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データが生成され、必要に応じて、画質調整処理、OSD(オンスクリーンディスプレイ)等の重畳情報データの合成処理も行われる。
この映像・グラフィック処理回路307で得られる画像データはパネル駆動回路308に供給される。そのため、表示パネル309により立体画像が表示される。例えば、表示パネル309に、左眼画像データによる左眼画像および右眼画像データによる右眼画像が交互に時分割的に表示される。視聴者は、例えば、表示パネル309の表示に同期して左眼シャッタおよび右眼シャッタが交互に開くシャッタメガネを装着することで、左眼では左眼画像のみを見ることができ、右眼では右眼画像のみを見ることができ、立体画像を知覚できる。
また、ビットストリーム処理部306で得られた音声データは、音声信号処理回路310に供給される。この音声信号処理回路310では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理が施される。この音声データは、音声増幅回路311で増幅された後に、スピーカ312に供給される。そのため、スピーカ312から表示パネル309の表示画像に対応した音声が出力される。
なお、図46は上述したように3D対応のテレビ受信機300である。詳細説明は省略するが、レガシーの2D対応のテレビ受信機もほぼ同様の構成となる。ただし、レガシーの2D対応のテレビ受信機の場合、ビットストリーム処理部306は、上述の図45に示す2D対応ビットストリーム処理部201と同様の構成、動作となる。また、レガシーの2D対応のテレビ受信機の場合、3D信号処理部301は不要となる。
また、3D対応のテレビ受信機300にあって、2次元表示モードまたは3次元表示モードのユーザ選択が可能な構成も考えられる。その場合、3次元表示モードが選択されるときには、ビットストリーム処理部306は、上述したと同様の構成、動作とされる。一方、2次元表示モードが選択されるときには、ビットストリーム処理部306は、上述の図45に示す2D対応ビットストリーム処理部201と同様の構成、動作となる。
<2.変形例>
なお、図40に示すセットトップボックス200においては、デジタルチューナ204に接続されるアンテナ入力端子203が設けられたものを示した。しかし、ケーブルを介して送信されてくるRF信号を入力するセットトップボックスも同様に構成できる。その場合、アンテナ端子203の代わりにケーブル端子が設けられたものとなる。
また、インターネット、ホームネットワークが直接、あるいはそれらがルータ経由で接続されるセットトップボックスも同様に構成できる。つまり、その場合、セットトップボックスには、上述のトランスポートストリームTSがインターネット、ホームネットワークから直接、あるいはそれらからルータ経由で送られてくることになる。
図47は、その場合におけるセットトップボックス200Aの構成例を示している。この図47において、図40と対応する部分には同一符号を付して示している。このセットトップボックス200Aは、ネットワークインタフェース209に接続されたネットワーク端子208を有している。そして、このネットワークインタフェース209からトランスポートストリームTSが出力され、ビットストリーム処理部201に供給される。詳細説明は省略するが、このセットトップボックス200Aのその他は、図40に示すセットトップボックス200と同様に構成され、同様の動作をする。
また、図46に示すテレビ受信機300においては、デジタルチューナ204に接続されるアンテナ入力端子304が設けられたものを示した。しかし、ケーブルを介して送信されてくるRF信号を入力するテレビ受信機も同様に構成できる。その場合、アンテナ端子304の代わりにケーブル端子が設けられたものとなる。
また、インターネット、ホームネットワークに直接、あるいはそれらがルータ経由で接続されるテレビ受信機も同様に構成できる。つまり、その場合、テレビ受信機には、上述のトランスポートストリームTSがインターネット、ホームネットワークから直接、あるいはそれらからルータ経由で送られてくることになる。
図48は、その場合におけるテレビ受信機300Aの構成例を示している。この図48において、図46と対応する部分には同一符号を付して示している。このテレビ受信機300Aは、ネットワークインタフェース314に接続されたネットワーク端子313を有している。そして、このネットワークインタフェース314からトランスポートストリームTSが出力され、ビットストリーム処理部306に供給される。詳細説明は省略するが、このテレビ受信機300Aのその他は、図46に示すテレビ受信機300と同様に構成され、同様の動作をする。
また、上述実施の形態においては、画像送受信システム10が、放送局100、セットトップボックス200およびテレビ受信機300で構成されているものを示した。しかし、テレビ受信機300は、図46に示すように、セットトップボックス200内のビットストリーム処理部201と同様に機能するビットストリーム処理部306を備えている。したがって、図49に示すように、放送局100およびテレビ受信機300で構成される画像送受信システム10Aも考えられる。
また、上述実施の形態においては、セットトップボックス200と、テレビ受信機300とが、HDMIのデジタルインタフェースで接続されるものを示している。しかし、これらが、HDMIのデジタルインタフェースと同様のデジタルインタフェース(有線の他に無線も含む)で接続される場合においても、この発明を同様に適用できる。
また、上述実施の形態においては、重畳情報としてサブタイトル(字幕)を取り扱うものを示した。しかし、その他のグラフィクス情報、テキスト情報などの重畳情報をはじめ、基本ストリームと追加ストリームとに分割されたものが関連して出力されるようにエンコーダされるもので、オーディオのストリームに関して扱うものにも、この発明を同様に適用できる。
また、本技術は、以下のような構成を取ることもできる。
(1)左眼画像データおよび右眼画像データを持つ立体画像データを出力する画像データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力部と、
上記画像データ出力部から出力される立体画像データを含むビデオデータストリームと、上記重畳情報データ出力部から出力される重畳情報のデータを含む第1のプライベートデータストリームと、上記視差情報出力部から出力される視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信するデータ送信部とを備える
送信装置。
(2)上記第1のプライベートデータストリームおよび上記第2のプライベートデータストリームには、上記重畳情報のデータによる表示と上記視差情報によるシフト制御とを同期させるための同期情報が含まれている
前記(1)に記載の送信装置。
(3)上記視差情報は、上記重畳情報が表示される所定数のフレーム期間内で順次更新される視差情報であり、上記所定数のフレーム期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなる
前記(1)または(2)に記載の送信装置。
(4)上記重畳情報のデータは、DVB方式のサブタイトルデータであり、
上記視差情報は、リージョン単位または該リージョンに含まれるサブリージョン単位の視差情報、あるいは全てのリージョンを含むページ単位の視差情報である
前記(1)から(3)のいずれかに記載の送信装置。
(5)上記多重化ストリームには、上記第1のプライベートデータストリームと上記第2のプライベートデータストリームとを関連付けする関連付け情報が挿入される
前記(1)から(4のいずれかに記載の送信装置。
(6)左眼画像データおよび右眼画像データを持つ立体画像データを出力する画像データ出力ステップと、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力ステップと、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力ステップと、
上記画像データ出力ステップで出力される立体画像データを含むビデオデータストリームと、上記重畳情報データ出力ステップで出力される重畳情報のデータを含む第1のプライベートデータストリームと、上記視差情報出力ステップで出力される視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信するデータ送信ステップとを備える
送信方法。
(7)左眼画像データおよび右眼画像データを持つ立体画像データを出力する画像データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力部と、
上記画像データ出力部から出力される立体画像データを含むビデオデータストリームと、上記重畳情報データ出力部から出力される重畳情報のデータを含む第1のプライベートデータストリームと、重畳情報データ出力部から出力される重畳情報データおよび上記視差情報出力部から出力される視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信するデータ送信部とを備える
送信装置。
(8)上記視差情報は、上記重畳情報が表示される所定数のフレーム期間内で順次更新される視差情報であり、上記所定数のフレーム期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなる
前記(7)に記載の送信装置。
(9)上記重畳情報のデータは、DVB方式のサブタイトルデータであり、
上記視差情報は、リージョン単位または該リージョンに含まれるサブリージョン単位の視差情報、あるいは全てのリージョンを含むページ単位の視差情報である
前記(7)または(8)に記載の送信装置。
(10)左眼画像データおよび右眼画像データを持つ立体画像データを出力する画像データ出力ステップと、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力ステップと、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力ステップと、
上記画像データ出力ステップで出力される立体画像データを含むビデオデータストリームと、上記重畳情報データ出力ステップで出力される重畳情報データを含む第1のプライベートデータストリームと、上記重畳情報データ出力ステップで出力される重畳情報データおよび上記視差情報出力ステップで出力される視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信するデータ送信ステップとを備える
送信方法。
(11)ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
上記第2のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
情報取得部と、画像データ処理部とを、さらに、備え、
上記情報取得部は、
上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第2のプライベートデータストリームを抽出し、該第2のプライベートデータストリームから上記視差情報を取得し、
上記画像データ処理部は、
上記情報取得部で取得された上記立体画像データ、上記重畳情報のデータおよび上記視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る
受信装置。
(12)上記多重化データストリームには、上記第1のプライベートデータストリームと上記第2のプライベートデータストリームとを関連付けする関連付け情報が挿入されており、
上記情報取得部は、上記関連付け情報に基づいて、上記第1のプライベートデータストリームから上記重畳情報のデータを取得すると共に、上記第2のプライベートデータストリームから上記視差情報を取得する
前記(11)に記載の受信装置。
(13)上記視差情報は、上記重畳情報が表示される所定数のフレーム期間内に順次更新される視差情報であり、
上記画像データ処理部は、上記所定数のフレーム期間内で順次更新される複数フレームの視差情報に対して補間処理を施し、上記所定数のフレーム期間内における任意のフレーム間隔の視差情報を生成して使用する
前記(11)または(12)に記載の受信装置。
(14)ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
上記第2のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
情報取得部と、画像データ処理部とを、さらに、備え、
上記情報取得部は、
2次元表示モードでは、
上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
3次元表示モードでは、
上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第2のプライベートデータストリームを抽出し、該第2のプライベートデータストリームから上記視差情報を取得し、
上記画像データ処理部は、
2次元表示モードでは、
上記情報取得部で取得された上記立体画像データおよび上記重畳情報のデータを用い、上記重畳情報が重畳された画像データを得、
3次元表示モードでは、
上記情報取得部で取得された上記立体画像データ、上記重畳情報のデータおよび上記視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る
受信装置。
(15)ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
上記第2のプライベートデータストリームは、上記重畳情報のデータおよび上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
情報取得部と、画像データ処理部とを、さらに、備え、
上記情報取得部は、
上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第2のプライベートデータストリームを抽出し、該第2のプライベートデータストリームから上記重畳情報のデータおよび上記視差情報を取得し、
上記画像データ処理部は、
上記情報取得部で取得された上記立体画像データ、上記重畳情報のデータおよび上記視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る
受信装置。
(16)上記視差情報は、上記重畳情報が表示される所定数のフレーム期間内に順次更新される視差情報であり、
上記画像データ処理部は、上記所定数のフレーム期間内で順次更新される複数フレームの視差情報に対して補間処理を施し、上記所定数のフレーム期間内における任意のフレーム間隔の視差情報を生成して使用する
前記(15)に記載の受信装置。
(17)ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
上記第2のプライベートデータストリームは、上記重畳情報のデータおよび上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
情報取得部と、画像データ処理部とを、さらに、備え、
上記情報取得部は、
2次元表示モードでは、
上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
3次元表示モードでは、
上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第2のプライベートデータストリームを抽出し、該第2のプライベートデータストリームから上記重畳情報のデータおよび上記視差情報を取得し、
上記画像データ処理部は、
2次元表示モードでは、
上記情報取得部で取得された上記立体画像データおよび上記重畳情報のデータを用い、上記重畳情報が重畳された画像データを得、
3次元表示モードでは、
上記情報取得部で取得された上記立体画像データ、上記重畳情報のデータおよび上記視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る
受信装置。
(18)ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
上記第2のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報、あるいは該視差情報および上記重畳情報のデータを含み、
情報取得部と、画像データ処理部とを、さらに、備え、
上記情報取得部は、
上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
上記画像データ処理部は、
上記情報取得部で取得された上記立体画像データおよび上記重畳情報のデータを用い、上記重畳情報が重畳された画像データを得る
受信装置。
10,10A・・・画像送受信システム
100・・・放送局
110・・・送信データ生成部
111・・・データ取り出し部
112・・・ビデオエンコーダ
113・・・オーディオエンコーダ
114・・・サブタイトル発生部
115・・・視差情報作成部
116・・・サブタイトル処理部
118・・・サブタイトルエンコーダ
119・・・マルチプレクサ
200,200A・・・セットトップボックス(STB)
201・・・ビットストリーム処理部
202・・・HDMI端子
203・・・アンテナ端子
204・・・デジタルチューナ
205・・・映像信号処理回路
206・・・HDMI送信部
207・・・音声信号処理回路
208・・・ネットワーク端子
209・・・ネットワークインタフェース
211・・・CPU
215・・・リモートコントロール受信部
216・・・リモートコントロール送信機
221・・・デマルチプレクサ
222・・・ビデオデコーダ
223・・サブタイトルデコーダ
224・・・サブタイトル発生部
228・・・ビデオ重畳部
229・・・オーディオデコーダ
300,300A・・・テレビ受信機(TV)
301・・・3D信号処理部
302・・・HDMI端子
303・・・HDMI受信部
304・・・アンテナ端子
305・・・デジタルチューナ
306・・・ビットストリーム処理部
307・・・映像・グラフィック処理回路
308・・・パネル駆動回路
309・・・表示パネル
310・・・音声信号処理回路
311・・・音声増幅回路
312・・・スピーカ
313・・・ネットワーク端子
314・・・ネットワークインタフェース
321・・・CPU
325・・・リモートコントロール受信部
326・・・リモートコントロール送信機
400・・・HDMIケーブル

Claims (18)

  1. 左眼画像データおよび右眼画像データを持つ立体画像データを出力する画像データ出力部と、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力部と、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力部と、
    上記画像データ出力部から出力される立体画像データを含むビデオデータストリームと、上記重畳情報データ出力部から出力される重畳情報のデータを含む第1のプライベートデータストリームと、上記視差情報出力部から出力される視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信するデータ送信部とを備える
    送信装置。
  2. 上記第1のプライベートデータストリームおよび上記第2のプライベートデータストリームには、上記重畳情報のデータによる表示と上記視差情報によるシフト制御とを同期させるための同期情報が含まれている
    請求項1に記載の送信装置。
  3. 上記視差情報は、上記重畳情報が表示される所定数のフレーム期間内で順次更新される視差情報であり、上記所定数のフレーム期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなる
    請求項1に記載の送信装置。
  4. 上記重畳情報のデータは、DVB方式のサブタイトルデータであり、
    上記視差情報は、リージョン単位または該リージョンに含まれるサブリージョン単位の視差情報、あるいは全てのリージョンを含むページ単位の視差情報である
    請求項1に記載の送信装置。
  5. 上記多重化ストリームには、上記第1のプライベートデータストリームと上記第2のプライベートデータストリームとを関連付けする関連付け情報が挿入される
    請求項1に記載の送信装置。
  6. 左眼画像データおよび右眼画像データを持つ立体画像データを出力する画像データ出力ステップと、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力ステップと、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力ステップと、
    上記画像データ出力ステップで出力される立体画像データを含むビデオデータストリームと、上記重畳情報データ出力ステップで出力される重畳情報のデータを含む第1のプライベートデータストリームと、上記視差情報出力ステップで出力される視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信するデータ送信ステップとを備える
    送信方法。
  7. 左眼画像データおよび右眼画像データを持つ立体画像データを出力する画像データ出力部と、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力部と、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力部と、
    上記画像データ出力部から出力される立体画像データを含むビデオデータストリームと、上記重畳情報データ出力部から出力される重畳情報のデータを含む第1のプライベートデータストリームと、重畳情報データ出力部から出力される重畳情報データおよび上記視差情報出力部から出力される視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信するデータ送信部とを備える
    送信装置。
  8. 上記視差情報は、上記重畳情報が表示される所定数のフレーム期間内で順次更新される視差情報であり、上記所定数のフレーム期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなる
    請求項7に記載の送信装置。
  9. 上記重畳情報のデータは、DVB方式のサブタイトルデータであり、
    上記視差情報は、リージョン単位または該リージョンに含まれるサブリージョン単位の視差情報、あるいは全てのリージョンを含むページ単位の視差情報である
    請求項7に記載の送信装置。
  10. 左眼画像データおよび右眼画像データを持つ立体画像データを出力する画像データ出力ステップと、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力ステップと、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力ステップと、
    上記画像データ出力ステップで出力される立体画像データを含むビデオデータストリームと、上記重畳情報データ出力ステップで出力される重畳情報データを含む第1のプライベートデータストリームと、上記重畳情報データ出力ステップで出力される重畳情報データおよび上記視差情報出力ステップで出力される視差情報を含む第2のプライベートデータストリームとを有する多重化ストリームを送信するデータ送信ステップとを備える
    送信方法。
  11. ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
    上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
    上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
    上記第2のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
    情報取得部と、画像データ処理部とを、さらに、備え、
    上記情報取得部は、
    上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
    上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
    上記データ受信部で受信された上記多重化データストリームから上記第2のプライベートデータストリームを抽出し、該第2のプライベートデータストリームから上記視差情報を取得し、
    上記画像データ処理部は、
    上記情報取得部で取得された上記立体画像データ、上記重畳情報のデータおよび上記視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る
    受信装置。
  12. 上記多重化データストリームには、上記第1のプライベートデータストリームと上記第2のプライベートデータストリームとを関連付けする関連付け情報が挿入されており、
    上記情報取得部は、上記関連付け情報に基づいて、上記第1のプライベートデータストリームから上記重畳情報のデータを取得すると共に、上記第2のプライベートデータストリームから上記視差情報を取得する
    請求項11に記載の受信装置。
  13. 上記視差情報は、上記重畳情報が表示される所定数のフレーム期間内に順次更新される視差情報であり、
    上記画像データ処理部は、上記所定数のフレーム期間内で順次更新される複数フレームの視差情報に対して補間処理を施し、上記所定数のフレーム期間内における任意のフレーム間隔の視差情報を生成して使用する
    請求項11に記載の受信装置。
  14. ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
    上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
    上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
    上記第2のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
    情報取得部と、画像データ処理部とを、さらに、備え、
    上記情報取得部は、
    2次元表示モードでは、
    上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
    上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
    3次元表示モードでは、
    上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
    上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
    上記データ受信部で受信された上記多重化データストリームから上記第2のプライベートデータストリームを抽出し、該第2のプライベートデータストリームから上記視差情報を取得し、
    上記画像データ処理部は、
    2次元表示モードでは、
    上記情報取得部で取得された上記立体画像データおよび上記重畳情報のデータを用い、上記重畳情報が重畳された画像データを得、
    3次元表示モードでは、
    上記情報取得部で取得された上記立体画像データ、上記重畳情報のデータおよび上記視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る
    受信装置。
  15. ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
    上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
    上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
    上記第2のプライベートデータストリームは、上記重畳情報のデータおよび上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
    情報取得部と、画像データ処理部とを、さらに、備え、
    上記情報取得部は、
    上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
    上記データ受信部で受信された上記多重化データストリームから上記第2のプライベートデータストリームを抽出し、該第2のプライベートデータストリームから上記重畳情報のデータおよび上記視差情報を取得し、
    上記画像データ処理部は、
    上記情報取得部で取得された上記立体画像データ、上記重畳情報のデータおよび上記視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る
    受信装置。
  16. 上記視差情報は、上記重畳情報が表示される所定数のフレーム期間内に順次更新される視差情報であり、
    上記画像データ処理部は、上記所定数のフレーム期間内で順次更新される複数フレームの視差情報に対して補間処理を施し、上記所定数のフレーム期間内における任意のフレーム間隔の視差情報を生成して使用する
    請求項15に記載の受信装置。
  17. ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
    上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
    上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
    上記第2のプライベートデータストリームは、上記重畳情報のデータおよび上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
    情報取得部と、画像データ処理部とを、さらに、備え、
    上記情報取得部は、
    2次元表示モードでは、
    上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
    上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
    3次元表示モードでは、
    上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
    上記データ受信部で受信された上記多重化データストリームから上記第2のプライベートデータストリームを抽出し、該第2のプライベートデータストリームから上記重畳情報のデータおよび上記視差情報を取得し、
    上記画像データ処理部は、
    2次元表示モードでは、
    上記情報取得部で取得された上記立体画像データおよび上記重畳情報のデータを用い、上記重畳情報が重畳された画像データを得、
    3次元表示モードでは、
    上記情報取得部で取得された上記立体画像データ、上記重畳情報のデータおよび上記視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る
    受信装置。
  18. ビデオデータストリーム、第1のプライベートデータストリームおよび第2のプライベートデータストリームを有する多重化データストリームを受信するデータ受信部を備え、
    上記ビデオデータストリームは、左眼画像データおよび右眼画像データを持つ立体画像データを含み、
    上記第1のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを含み、
    上記第2のプライベートデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報、あるいは該視差情報および上記重畳情報のデータを含み、
    情報取得部と、画像データ処理部とを、さらに、備え、
    上記情報取得部は、
    上記データ受信部で受信された上記多重化データストリームから上記ビデオデータストリームを抽出し、該ビデオデータストリームに含まれる上記立体画像データを取得し、
    上記データ受信部で受信された上記多重化データストリームから上記第1のプライベートデータストリームを抽出し、該第1のプライベートデータストリームから上記重畳情報のデータを取得し、
    上記画像データ処理部は、
    上記情報取得部で取得された上記立体画像データおよび上記重畳情報のデータを用い、上記重畳情報が重畳された画像データを得る
    受信装置。
JP2011151313A 2011-07-07 2011-07-07 送信装置、送信方法および受信装置 Withdrawn JP2013021415A (ja)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP2011151313A JP2013021415A (ja) 2011-07-07 2011-07-07 送信装置、送信方法および受信装置
ARP120102098A AR086919A1 (es) 2011-07-07 2012-06-13 Dispositivo de transmision, metodo de transmision y dispositivo de recepcion
TW101121330A TW201320712A (zh) 2011-07-07 2012-06-14 送訊裝置、送訊方法及收訊裝置
PCT/JP2012/065710 WO2013005571A1 (ja) 2011-07-07 2012-06-20 送信装置、送信方法および受信装置
BR112013004970A BR112013004970A2 (pt) 2011-07-07 2012-06-20 dispositivos de transmissão e de recepção, e , método de transmissão
EP12807986.0A EP2603004A4 (en) 2011-07-07 2012-06-20 TRANSMITTER, TRANSMISSION METHOD AND RECEIVER
CA2806787A CA2806787A1 (en) 2011-07-07 2012-06-20 Transmission device, transmission method, and reception device
RU2013109054/08A RU2013109054A (ru) 2011-07-07 2012-06-20 Устройство передачи, способ передачи и приемное устройство
AU2012279594A AU2012279594A1 (en) 2011-07-07 2012-06-20 Transmitter, transmission method, and receiver
CN2012800032872A CN103155574A (zh) 2011-07-07 2012-06-20 发射机、传送方法和接收机
US13/820,000 US20130162772A1 (en) 2011-07-07 2012-06-20 Transmission device, transmission method, and reception device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011151313A JP2013021415A (ja) 2011-07-07 2011-07-07 送信装置、送信方法および受信装置

Publications (1)

Publication Number Publication Date
JP2013021415A true JP2013021415A (ja) 2013-01-31

Family

ID=47436928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011151313A Withdrawn JP2013021415A (ja) 2011-07-07 2011-07-07 送信装置、送信方法および受信装置

Country Status (11)

Country Link
US (1) US20130162772A1 (ja)
EP (1) EP2603004A4 (ja)
JP (1) JP2013021415A (ja)
CN (1) CN103155574A (ja)
AR (1) AR086919A1 (ja)
AU (1) AU2012279594A1 (ja)
BR (1) BR112013004970A2 (ja)
CA (1) CA2806787A1 (ja)
RU (1) RU2013109054A (ja)
TW (1) TW201320712A (ja)
WO (1) WO2013005571A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013066075A (ja) * 2011-09-01 2013-04-11 Sony Corp 送信装置、送信方法および受信装置
EP3236659B1 (en) * 2014-12-19 2020-11-04 Sony Corporation Transmission device, transmission method, reception device, and reception method
JP6943179B2 (ja) * 2015-07-16 2021-09-29 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
CN106412718A (zh) * 2016-09-18 2017-02-15 乐视控股(北京)有限公司 一种字幕在3d空间中的渲染方法及其装置
JP7119431B2 (ja) * 2018-01-18 2022-08-17 ソニーグループ株式会社 送信装置、送信方法、受信装置、及び、受信方法
JP7077630B2 (ja) * 2018-01-18 2022-05-31 ソニーグループ株式会社 送信装置、送信方法、受信装置、及び、受信方法
CN110798739B (zh) * 2019-11-11 2021-10-08 四川东方网力科技有限公司 基于html5的视频实时目标属性叠加显示方法、装置及设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP4190357B2 (ja) 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
WO2010064853A2 (en) * 2008-12-02 2010-06-10 Lg Electronics Inc. 3d caption display method and 3d display apparatus for implementing the same
JP2011030180A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5429034B2 (ja) * 2009-06-29 2014-02-26 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5407968B2 (ja) * 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置

Also Published As

Publication number Publication date
CN103155574A (zh) 2013-06-12
US20130162772A1 (en) 2013-06-27
AR086919A1 (es) 2014-01-29
CA2806787A1 (en) 2013-01-10
EP2603004A4 (en) 2015-03-11
EP2603004A1 (en) 2013-06-12
RU2013109054A (ru) 2014-09-10
BR112013004970A2 (pt) 2016-08-16
WO2013005571A1 (ja) 2013-01-10
AU2012279594A1 (en) 2013-02-21
TW201320712A (zh) 2013-05-16

Similar Documents

Publication Publication Date Title
JP5454444B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013031549A1 (ja) 送信装置、送信方法および受信装置
WO2013005571A1 (ja) 送信装置、送信方法および受信装置
WO2012060198A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5682149B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2012120143A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013018490A1 (ja) 送信装置、送信方法および受信装置
WO2012057048A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013011834A1 (ja) 送信装置、送信方法および受信装置
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013018489A1 (ja) 送信装置、送信方法および受信装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007