JP2012060267A - 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 - Google Patents

立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 Download PDF

Info

Publication number
JP2012060267A
JP2012060267A JP2010199370A JP2010199370A JP2012060267A JP 2012060267 A JP2012060267 A JP 2012060267A JP 2010199370 A JP2010199370 A JP 2010199370A JP 2010199370 A JP2010199370 A JP 2010199370A JP 2012060267 A JP2012060267 A JP 2012060267A
Authority
JP
Japan
Prior art keywords
data
image data
information set
disparity
stereoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010199370A
Other languages
English (en)
Other versions
JP5633259B2 (ja
Inventor
Ikuo Tsukagoshi
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2010199370A priority Critical patent/JP5633259B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to CN2011800060755A priority patent/CN102714746A/zh
Priority to AU2011300020A priority patent/AU2011300020B2/en
Priority to EP11823473.1A priority patent/EP2485492A4/en
Priority to CA2779687A priority patent/CA2779687A1/en
Priority to PCT/JP2011/069887 priority patent/WO2012032997A1/ja
Priority to MX2012005359A priority patent/MX2012005359A/es
Priority to US13/505,631 priority patent/US20120262546A1/en
Priority to RU2012118689/07A priority patent/RU2012118689A/ru
Priority to KR1020127011600A priority patent/KR20130098132A/ko
Priority to BR112012010777A priority patent/BR112012010777A2/pt
Publication of JP2012060267A publication Critical patent/JP2012060267A/ja
Application granted granted Critical
Publication of JP5633259B2 publication Critical patent/JP5633259B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/081Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division the additional information signals being transmitted by means of a subcarrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/083Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical and the horizontal blanking interval, e.g. MAC data signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】立体画像表示の際の重畳情報、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性の維持を容易に図る。
【解決手段】視差情報セット作成部122は、ディスパリティ・マップに基づいて、所定の画素位置の視差情報セットを作成する。例えば、視差情報値が最大となる画素位置、つまり最も手前に認識するピクセル(画素)位置などである。視差情報セットは、画像全体に対する相対位置を示す位置データと、その位置の視差データとを含む。視差情報セットは、立体画像データに対して空間的に同期したものとなる。この視差情報セットは、立体画像の解像度とは独立で、モニタの表示解像度やモニタサイズにも独立したものとなる。視差情報セット作成部122は、所定番組の番組期間等を階層的に等分割した各期間で視差情報セットを作成する。視差情報セットは、立体画像データに対して時間的に同期したものとなる。
【選択図】図2

Description

この発明は、立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置に関し、特に、受信側において、OSD等のグラフィクス情報の表示を良好に行い得る立体画像データ送信装置等に関する。
例えば、特許文献1には、立体画像データのテレビ放送電波を用いた伝送方式について提案されている。この場合、左眼用画像データおよび右眼用画像データを含む立体画像データが送信され、テレビ受信機において、両眼視差を利用した立体画像表示が行われる。
図68は、両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクト(物体)の左右像の表示位置と、その立体像の再生位置との関係を示している。例えば、スクリーン上に図示のように左像Laが右側に右像Raが左側にずれて表示されているオブジェクトAに関しては、左右の視線がスクリーン面より手前で交差するため、その立体像の再生位置はスクリーン面より手前となる。
また、例えば、スクリーン上に図示のように左像Lbおよび右像Rbが同一位置に表示されているオブジェクトBに関しては、左右の視線がスクリーン面で交差するため、その立体像の再生位置はスクリーン面上となる。さらに、例えば、スクリーン上に図示のように左像Lcが左側に右像Rcが右側にずれて表示されているオブジェクトCに関しては、左右の視線がスクリーン面より奥で交差するため、その立体像の再生位置はスクリーン面より奥となる。
特開2005−6114号公報
上述したように、立体画像表示において、視聴者は、両眼視差を利用して、立体画像の遠近感を認知することが普通である。画像に重畳される重畳情報、例えばOSD(On Screen Display)等のグラフィクス情報に関しても、2次元空間的のみならず、3次元の奥行き感としても、立体画像表示と連動してレンダリングされることが期待される。
例えば、立体画像にOSD等のグラフィクス情報を重畳表示(オーバーレイ表示)する場合、遠近感でいうところの最も近い画像内の物体(オブジェクト)よりも手前に表示されないと、視聴者は、遠近感の矛盾を感じる場合がある。つまり、画像にOSD等のグラフィクス情報を重畳表示する場合、画像内の各物体の遠近感に応じて視差調整を施し、遠近感の整合性を維持することが期待される。
この発明の目的は、立体画像表示の際の重畳情報、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性の維持を図ることにある。
この発明の概念は、
左眼画像データおよび右眼画像データを有する所定番組の立体画像データを出力する画像データ出力部と、
上記画像データ出力部から出力される上記所定番組の立体画像データに対応した所定の画素位置の視差情報セットを出力する視差情報セット出力部と、
上記画像データ出力部から出力される立体画像データおよび上記視差情報セット出力部から出力される視差情報セットを送信する送信部とを備え、
上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含む
立体画像データ送信装置にある。
この発明において、画像データ出力部により、左眼画像データおよび右眼画像データを有する所定番組の立体画像データが出力される。また、視差情報セット出力部により、所定番組の立体画像データに対応した所定の画素位置の視差情報セットが出力される。そして、送信部により、立体画像データおよび視差情報セットが送信される。
視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。これにより、視差情報セットは、立体画像データに対して空間的に同期したものとなっている。また、この視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。
この発明において、例えば、位置データは、所定の画素位置の原点からの方向を示す方向データと、所定の画素位置の原点からの距離を示す距離データとからなる、ものとされる。この場合、例えば、視差データは、所定の画素位置の視差情報の値の、原点からの距離に対する割合を示すデータ、あるいは、所定の画素位置の、特定の表示解像度、例えばフルHDにおける視差情報の値とされてもよい。
この発明において、例えば、位置データは、所定の画素位置の原点からの水平距離を示す水平距離データと、所定の画素位置の原点からの垂直距離を示す垂直距離データとからなる、ものとされる。この場合、例えば、所定の画素位置の視差情報の値の、特定の表示解像度に対する割合を示すデータ、あるいは、所定の画素位置の、特定の表示解像度における視差情報の値とされてもよい。
この発明において、例えば、所定の画素位置は、1個に限定されるものではなく、複数個であってもよい。例えば、所定の画素位置は、視差情報値が最大となる第1の画素位置と、視差情報値が最小となる第2の画素位置とされる。この場合、受信側では、視差情報値の最大最小の幅を知ることができ、立体画像の深さ(depth)調整を行うことが可能となる。
この発明において、例えば、視差情報セット出力部は、所定番組の期間を階層的に等分割して得られた各分割期間の視差情報セットを出力する、ものとされる。これにより、視差情報セットは、立体画像データに対して時間的に同期したものとなる。
この発明において、例えば、送信部は、画像データ送信部から出力される所定番組の立体画像データを含むトランスポートストリームを送信し、このトランスポートストリームに挿入されるPSI情報またはSI情報の所定位置に、視差情報セット出力部から出力される視差情報セットを含むデスクリプタを挿入する、ようにされる。これにより、受信側においては、画像データのデコーダとは関係なく、視差情報セットを取得することが可能となる。
この発明において、例えば、送信部は、視差情報セットを、所定の情報を送信するためのエレメンタリーストリームに含めて送信する、ようにされる。この場合、例えば、他の情報は立体画像データであり、視差情報セットは、エレメンタリーストリームのヘッダ部のユーザデータ領域に挿入されてもよい。また、この場合、例えば、所定の情報はサブタイトルデータあるいは独立データであり、エレメンタリーストリームは、視差情報セットが挿入されたセグメントあるいはパケットを有するようにされてもよい。
このように、この発明においては、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと共に、所定番組の立体画像データに対応した所定の画素位置の視差情報セットが送信される。そのため、受信側において、視差情報セットを用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
また、この発明においては、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。そのため、視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。したがって、受信側において、モニタの表示解像度やモニタサイズによらずに、この視差情報セットを用いて容易に視差調整を行うことが可能となる。
また、この発明の他の概念は、
左眼画像データおよび右眼画像データを有する所定番組の立体画像データと該所定番組の立体画像データに対応した所定の画素位置の視差情報セットを受信する受信部と、
上記受信部で受信された立体画像データに含まれる左眼画像データに対応した左眼重畳情報のデータおよび上記受信部で受信された立体画像データに含まれる右眼画像データに対応した右眼重畳情報のデータを出力する重畳情報データ出力部と、
上記受信部で受信された立体画像データに含まれる左眼画像データおよび右眼画像データに、上記重畳情報データ出力部から出力される上記左眼重畳情報のデータおよび上記右眼重畳情報のデータを重畳するデータ重畳部とを備え、
上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含み、
上記重畳情報データ出力部は、
上記受信部で受信された上記視差情報セットに基づいて、上記左眼重畳情報と上記右眼重畳情報との間に視差を付与する
立体画像データ受信装置にある。
この概念は、トランスポートストリーム以外の一般的なファイルフォーマットでの実現が可能であり、また、ストリームの内部においても挿入し得るものである。
この発明において、受信部により、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと、この所定番組の立体画像データに対応した所定の画素位置の視差情報セットが受信される。ここで、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。これにより、視差情報セットは、立体画像データに対して空間的に同期したものとなっている。また、この視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。
重畳情報データ出力部により、受信部で受信された立体画像データに含まれる左眼画像データに対応した左眼重畳情報のデータおよび受信部で受信された立体画像データに含まれる右眼画像データに対応した右眼重畳情報のデータが出力される。そして、データ重畳部により、受信部で受信された立体画像データに含まれる左眼画像データおよび右眼画像データに、重畳情報データ出力部から出力される左眼重畳情報のデータおよび右眼重畳情報のデータが重畳される。これにより、立体画像にOSD等のグラフィクス情報を重畳表示できる。
重畳情報データ出力部では、受信部で受信された視差情報セットに基づいて、左眼重畳情報と右眼重畳情報との間に視差が付与される。そのため、この発明においては、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
また、この発明においては、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差情報とを含んでいる。そのため、視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。したがって、モニタの表示解像度やモニタサイズによらずに、この視差情報セットを用いて容易に視差調整を行うことが可能となる。
この発明のさらに他の概念は、
左眼画像データおよび右眼画像データを有する所定番組の立体画像データおよび上記所定番組の立体画像データに対応した所定の画素位置の視差情報セットを受信する受信部と、
上記受信部で受信された、上記左眼画像データおよび上記右眼画像データと、上記視差情報セットとを、伝送路を介して、外部機器に送信する送信部とを備え、
上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含む
立体画像データ受信装置にある。
この発明においては、受信部により、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと共に、この所定番組の立体画像データに対応した所定の画素位置の視差情報セットが受信される。ここで、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。これにより、視差情報セットは、立体画像データに対して空間的に同期したものとなっている。また、この視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。
そして、送信部により、この受信された左眼画像データおよび右眼画像データと、視差情報セットとが、伝送路を介して、外部機器に送信される。この発明において、例えば、送信部は、画像データを、複数チャネルで、差動信号により、伝送路を介して、外部機器に送信し、画像データのブランキング期間に視差情報セットを挿入することで、この視差情報を外部機器に送信する、ようにされる。
また、この発明において、例えば、送信部は、垂直同期信号により区切られる、水平ブランキング期間、垂直ブランキング期間およびアクティブビデオ区間を含むビデオフィールド区間を単位とする伝送データを生成する伝送データ生成部と、伝送データ生成部で生成された伝送データを、複数チャネルで、差動信号により、伝送路を介して、外部機器に送信する伝送データ送信部とを有し、アクティブビデオ区間は、主映像領域および補助映像領域を有し、伝送データ生成部は、主映像領域に画像データを配し、補助映像領域に、主映像領域に配される画像データに関連した上記視差情報セットを配する、ようにされる。
このように、この発明においては、左眼画像データおよび右眼画像データと共に、この所定番組の立体画像データに対応した所定の画素位置の視差情報セットが、伝送路を介して、外部機器に送信される。そのため、外部機器、例えばテレビ受信機等の画像表示装置において、視差情報セットを用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
また、この発明においては、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含んでいる。そのため、視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。したがって、外部機器、例えばテレビ受信機等の画像表示装置において、モニタの表示解像度やモニタサイズによらずに、この視差情報セットを用いて容易に視差調整を行うことが可能となる。
また、この発明の他の概念は、
左眼画像データおよび右眼画像データを有する所定番組の立体画像データを出力する画像データ出力部と、
上記画像データ出力部から出力される上記所定番組の立体画像データに対応した視差情報を出力する視差情報出力部と、
上記画像データ出力部から出力される立体画像データおよび上記視差情報出力部から出力される視差情報を送信する送信部とを備え、
上記送信部は、所定の情報を送信するためのエレメンタリーストリームに、上記視差情報を含むセグメントあるいはパケットを挿入し
上記セグメントあるいはパケットは、上記視差情報の使用タイミングを示すタイミング情報をさらに含む
立体画像データ送信装置にある。
この発明において、画像データ出力部により、左眼画像データおよび右眼画像データを有する所定番組の立体画像データが出力される。また、視差情報出力部により、所定番組の立体画像データに対応した視差情報が出力される。この視差情報は、例えば、位置あるいは領域を示す位置データと、その位置あるいは領域の視差データとからなる。この場合、位置データは、画像全体に対する相対位置を示す場合、あるいは画像内の絶対位置を示す場合などがある。
送信部により、画像データ出力部から出力される立体画像データおよび視差情報出力部から出力される視差情報が送信される。この場合、送信部では、所定の情報、例えばサブタイトル、独立データ等を送信するためのエレメンタリーストリームに、視差情報を含むセグメントあるいはパケットが挿入される。このセグメントあるいはパケットには、視差情報の使用タイミングを示すタイミング情報がさらに含まれている。
このように、この発明においては、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと共に、所定番組の立体画像データに対応した視差情報、その視差情報の使用タイミング情報と共に送信される。そのため、受信側において、視差情報を用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
また、この発明において、例えば、セグメントあるいはパケットは、このセグメントあるいはパケットが連続して存在するか否かを示すフラグ情報をさらに含む、ようにしてもよい。これにより、受信側においては、フラグ情報に基づいて、視差情報が含まれるセグメントあるいはパケットが連続して存在するか否かを知ることができ、視差情報の更新の可能性などを事前に知ることができる。
この発明によれば、立体画像表示の際の重畳情報、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性の維持を容易に図ることができる。
この発明の実施の形態としての立体画像表示システムの構成例を示すブロック図である。 放送局における送信データ生成部の構成例を示すブロック図である。 1920×1080pのピクセルフォーマットの画像データを示す図である。 立体画像データ(3D画像データ)の伝送方式である「Top &Bottom」方式、「Side By Side」方式、「FrameSequential」方式を説明するための図である。 左眼画像に対する右眼画像の視差ベクトルを検出する例を説明するための図である。 視差ベクトルをブロックマッチング方式で求めることを説明するための図である。 番組期間を階層的に等分割して得られた各分割期間で視差情報セットを作成することを説明するための図である。 トランスポートストリームの構成例(EITの配下に視差情報セットを含むデスクリプタ挿入)を示す図である。 トランスポートストリームの構成例(PMT中のプログラム・デスクリプタに視差情報セットを含むデスクリプタを挿入)を示す図である。 トランスポートストリームの構成例(ビデオ・エレメンタリ・ループのデスクリプタ部分に視差情報セットを含むデスクリプタを配置)を示す図である。 「ケース1」で作成される視差情報セットを説明するための図である。 「ケース1」で作成される視差情報セットを説明するための図である。 「ケース1」における視差情報セット作成の処理手順を示すフローチャートである。 「ケース3」で作成される視差情報セットに含まれる方向データを説明するための図である。 「ケース3」で作成される視差情報セットを説明するための図である。 「ケース3」で作成される視差情報セットを説明するための図である。 「ケース3」における視差情報セット作成の処理手順を示すフローチャートである。 「ケース5」で作成される視差情報セット(座標モード0)を説明するための図である。 「ケース5」で作成される視差情報セット(座標モード1)を説明するための図である。 「ケース5」における視差情報セット作成の処理手順を示すフローチャートである。 「ケース6」で作成される視差情報セットに含まれる視差データ(Relative_Disparity_ratio)を説明するための図である。 「ケース1」で作成される視差情報セットの内容例を示す図である。 「ケース2」で作成される視差情報セットの内容例を示す図である。 「ケース3」で作成される視差情報セットの内容例を示す図である。 「ケース4」で作成される視差情報セットの内容例を示す図である。 視差情報セットの内容例における主要なデータ規定内容(semantics)を示す図である。 「ケース5」で作成される視差情報セットの内容例を示す図である。 「ケース6」で作成される視差情報セットの内容例を示す図である。 視差情報セットの内容例における主要なデータ規定内容(semantics)を示す図である。 「ケース1」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 「ケース2」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 「ケース3」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 「ケース4」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 「ケース5」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 「ケース6」において作成された視差情報セットを含むデスクリプタ(z-OSDDescriptor)の一例を示す図である。 セットトップボックスの構成例を示すブロック図である。 テレビ受信機の構成例を示すブロック図である。 「ケース1」で作成された視差情報セットに対する受信側の再現処理の手順を示すフローチャートである。 「ケース1」で作成された視差情報セットに対する受信側の再現処理を説明するための図である。 「ケース1」で作成された視差情報セットに対する受信側の再現処理を説明するための図である。 「ケース6」で作成された視差情報セットに対する受信側の再現処理の手順を示すフローチャートである。 モニタサイズの違いによる視差情報とその位置との関係について説明するための図である。 解像度の違いによる視差情報とその位置との関係について説明するための図である。 水平方向に1/2画素(ピクセル)分のシフトをする場合の補間処理例を概略的に示す図である。 HDMI送信部(HDMIソース)とHDMI受信部(HDMIシンク)の構成例を示すブロック図である。 TMDS伝送データの構造例(横×縦が1920ピクセル×1080ラインの画像データが伝送される場合)を示す図である。 ソース機器およびシンク機器のHDMIケーブルが接続されるHDMI端子のピン配列(タイプA)を示す図である。 E−EDIDのデータ構造例を示す図である。 Vender Specific領域(HDMI Vendor Specific Data Block)のデータ構造例を示す図である。 立体画像データのTMDS伝送データ構造の一つであるフレームパッキング方式の3Dビデオフォーマットを示す図である。 視差情報セットの送信にHDMI Vendor SpecificInfoFrame を利用する場合における、HDMI Vendor Specific InfoFrame のパケット構造例を示す図である。 視差情報セットの送信にアクティブスペース領域を利用する場合における、HDMI Vendor Specific InfoFrame のパケット構造例を示す図である。 アクティブスペース領域に配置される視差情報セットの構造を示す図である。 視差情報セット構造の各情報の内容を示す図である。 立体画像表示システムの他の構成例を示す図である。 視差情報セットをビデオエレメンタリーストリーム(ビデオデータストリーム)に挿入して送信する場合におけるトランスポートストリームの構成例を示す図である。 ビデオエレメンタリーストリーム(Video Elementary Stream)の構造例を概略的に示す図である。 ピクチャヘッダ部のユーザデータ領域に埋め込まれるユーザデータの構成例を示す図である。 視差情報セットを含むユーザデータの構造(Syntax)の一例を示す図である。 差情報セットを含むユーザデータの構造(Syntax)等の各種構造例の主要なデータ規定内容(Semantics)を示す図である。 視差情報セットをサブタイトルエレメンタリーストリーム(サブタイトルデータストリーム)に挿入して送信する場合におけるトランスポートストリームの構成例を示す図である。 サブタイトルエレメンタリーストリームに含まれる各種セグメントのセグメントタイプを示す図である。 zOSD(z-OSD segment)の構造例(syntax)を示す図である。 サブタイトルデータストリームのPESヘッダおよびPESペイロードデータの構成を説明するための図である。 視差情報セットを独立したメタデータ(Metadata)ストリームで送信する場合におけるトランスポートストリームの構成例を示す図である。 視差情報セットを含むメタデータ(z-OSD metadata)が挿入されているメタデータエレメンタリーストリームの構造例(syntax)を示す図である。 「z-OSD_Metadata_set()」の詳細構造の一例を示す図である。 両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクトの左右像の表示位置と、その立体像の再生位置との関係を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[立体画像表示システムの構成例]
図1は、実施の形態としての立体画像表示システム10の構成例を示している。この立体画像送受信システム10は、放送局100と、セットトップボックス(STB)200と、テレビ受信機(TV)300を有している。
セットトップボックス200およびテレビ受信機300は、HDMI(HighDefinition Multimedia Interface)ケーブル400を介して接続されている。セットトップボックス200には、HDMI端子202が設けられている。テレビ受信機300には、HDMI端子302が設けられている。HDMIケーブル400の一端はセットトップボックス200のHDMI端子202に接続され、このHDMIケーブル400の他端はテレビ受信機300のHDMI端子302に接続されている。
[放送局の説明]
放送局100は、ビットストリームデータBSDを、放送波に載せて送信する。放送局100は、ビットストリームデータBSDを生成する送信データ生成部110を備えている。このビットストリームデータBSDには、立体画像データ、音声データ、視差情報セットなどが含まれる。ここで、立体画像データは、左眼画像データおよび右眼画像データを有する所定番組の立体画像データである。音声データは、この立体画像データに対応した音声データである。視差情報セットは、立体画像データに対応した所定の画素位置の視差情報セットである。
「送信データ生成部の構成例」
図2は、放送局100において送信データを生成する送信データ生成部110の構成例を示している。この送信データ生成部110は、カメラ111L,111Rと、ビデオフレーミング部112と、ディスパリティ・マップ生成部113と、マイクロホン114と、データ取り出し部115と、切換スイッチ116〜118を有している。また、この送信データ生成部110は、ビデオエンコーダ119と、オーディオエンコーダ120と、視差情報セット作成部122と、マルチプレクサ126を有している。
カメラ111Lは、左眼画像を撮影して立体画像表示のための左眼画像データを得る。カメラ111Rは、右眼画像を撮影して立体画像表示のための右眼画像データを得る。ビデオフレーミング部112は、カメラ111Lで得られた左眼画像データおよびカメラ111Rで得られた右眼画像データを、伝送フォーマットに応じた立体画像データ(3D画像データ)に加工処理する。このビデオフレーミング部112は、画像データ出力部を構成している。
立体画像データの伝送フォーマット例を説明する。ここでは、以下の第1〜第3の伝送フォーマットを挙げるが、これら以外の伝送フォーマットであってもよい。また、ここでは、図3に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、決められた解像度、例えば、1920×1080のピクセルフォーマットの画像データである場合を例にとって説明する。
第1の伝送方式は、トップ・アンド・ボトム(Top & Bottom)方式で、図4(a)に示すように、垂直方向の前半では左眼画像データの各ラインのデータを伝送し、垂直方向の後半では左眼画像データの各ラインのデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データのラインが1/2に間引かれることから原信号に対して垂直解像度は半分となる。
第2の伝送方式は、サイド・バイ・サイド(Side By Side)方式で、図4(b)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。原信号に対して、水平解像度は半分となる。
第3の伝送方式は、フレーム・シーケンシャル(FrameSequential)方式で、図4(c)に示すように、左眼画像データと右眼画像データとをフレーム毎に順次切換えて伝送する方式である。なお、このフレーム・シーケンシャル方式は、フル・フレーム(Full Frame)方式、あるいはバックワード・コンパチブル(BackwardCompatible)方式と称される場合もある。
図2に戻って、ディスパリティ・マップ生成部113は、左眼画像データおよび右眼画像データに基づき、例えば、画像を構成するピクセル毎の視差ベクトル(視差情報)を検出して、ディスパリティ・マップを作成する。例えば、手前に位置するピクセル(画素)ほど、その視差情報の値は大きくなる。
視差ベクトルの検出例について説明する。ここでは、左眼画像に対する右眼画像の視差ベクトルを検出する例について説明する。図5に示すように、左眼画像を検出画像とし、右眼画像を参照画像とする。この例では、(xi,yi)および(xj,yj)の位置における視差ベクトルが検出される。
(xi,yi)の位置における視差ベクトルを検出する場合を例にとって説明する。この場合、左眼画像に、(xi,yi)の位置の画素を左上とする、例えば4×4、8×8、あるいは16×16の画素ブロック(視差検出ブロック)Biが設定される。そして、右眼画像において、画素ブロックBiとマッチングする画素ブロックが探索される。
この場合、右眼画像に、(xi,yi)の位置を中心とする探索範囲が設定され、その探索範囲内の各画素を順次注目画素として、上述の画素ブロックBiと同様の例えば4×4、8×8、あるいは16×16の比較ブロックが順次設定されていく。
画素ブロックBiと順次設定される比較ブロックとの間で、対応する画素毎の差分絶対値の総和が求められる。ここで、図6に示すように、画素ブロックBiの画素値をL(x,y)とし、比較ブロックの画素値をR(x,y)とするとき、画素ブロックBiと、ある比較ブロックとの間における差分絶対値の総和は、Σ|L(x,y)−R(x,y)|で表される。
右眼画像に設定される探索範囲にn個の画素が含まれているとき、最終的にn個の総和S1〜Snが求められ、その中で最小の総和Sminが選択される。そして、この総和Sminが得られた比較ブロックから左上の画素の位置が(xi′,yi′)が得られる。これにより、(xi,yi)の位置における視差ベクトルは、(xi′−xi,yi′−yi)のように検出される。詳細説明は省略するが、(xj,yj)の位置における視差ベクトルについても、左眼画像に、(xj,yj)の位置の画素を左上とする、例えば4×4、8×8、あるいは16×16の画素ブロックBjが設定されて、同様の処理過程で検出される。
マイクロホン114は、カメラ111L,111Rで撮影された画像に対応した音声を検出して、音声データを得る。
データ取り出し部115は、データ記録媒体115aを着脱自在に装着した状態で使用される。このデータ記録媒体115aは、ディスク状記録媒体、半導体メモリ等である。このデータ記録媒体115aには、左眼画像データおよび右眼画像データを含む立体画像データと共に、音声データ、ディスパリティ・マップが対応付けて記録されている。データ取り出し部115は、データ記録媒体115aから、立体画像データ、音声データおよびディスパリティ・マップを取り出して出力する。このデータ取り出し部115は、画像データ出力部を構成している。
ここで、データ記録媒体115aに記録されている立体画像データは、ビデオフレーミング部112で得られる立体画像データに相当するものである。また、データ記録媒体115aに記録されている音声データは、マイクロホン114で得られる音声データに相当するものである。また、データ記録媒体115aに記録されているディスパリティ・マップは、ディスパリティ・マップ生成部113で生成される視差ベクトルに相当するものである。
切り換えスイッチ116は、ビデオフレーミング部112で得られた立体画像データまたはデータ取り出し部115から出力された立体画像データを選択的に取り出す。この場合、切り換えスイッチ116は、ライブモードでは、a側に接続され、ビデオフレーミング部112で得られた立体画像データを取り出し、再生モードでは、b側に接続され、データ取り出し部115から出力された立体画像データを取り出す。
切り換えスイッチ117は、ディスパリティ・マップ生成部113で生成されたディスパリティ・マップまたはデータ取り出し部115から出力されたディスパリティ・マップを選択的に取り出す。この場合、切り換えスイッチ117は、ライブモードでは、a側に接続され、ディスパリティ・マップ生成部113で生成されたディスパリティ・マップを取り出し、再生モードでは、b側に接続され、データ取り出し部115から出力されたディスパリティ・マップを取り出す。
切り換えスイッチ118は、マイクロホン114で得られた音声データまたはデータ取り出し部115から出力された音声データを選択的に取り出す。この場合、切り換えスイッチ118は、ライブモードでは、a側に接続され、マイクロホン114で得られた音声データを取り出し、再生モードでは、b側に接続され、データ取り出し部115から出力された音声データを取り出す。
ビデオエンコーダ119は、切り換えスイッチ116で取り出された立体画像データに対して、MPEG4−AVC、MPEG2、VC−1等の符号化を施し、ビデオデータストリーム(ビデオエレメンタリーストリーム)を生成する。オーディオエンコーダ120は、切り換えスイッチ118で取り出された音声データに対して、AC3、AAC等の符号化を施し、オーディオデータストリーム(オーディオエレメンタリーストリーム)を生成する。
視差情報セット作成部122は、切り換えスイッチ117で取り出されたディスパリティ・マップに基づいて、切り換えスイッチ116から出力される所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。所定の画素位置は、例えば、視差情報値が最大となる画素位置、つまり最も手前に認識するピクセル(画素)位置などである。
この視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含んでいる。これにより、視差情報セットは、立体画像データに対して空間的に同期したものとなっている。また、この視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。
視差情報セット作成部122は、所定番組の番組期間(Program period)等を階層的に等分割して得られた各分割期間の視差情報セットを作成する。これにより、視差情報セットは、立体画像データに対して時間的に同期したものとなっている。図7(1)は、番組期間が、a、b、cの3つの期間に等分割された状態を示している。また、図7(2)は、bの期間がさらに4つの期間に等分割された状態を示している。なお、等分割の階層は2階層に限定されるものではない。視差情報セット作成部122における視差情報セット作成の詳細については、後述する。
マルチプレクサ126は、ビデオエンコーダ119およびオーディオエンコーダ120からの各データストリームを多重化し、ビットストリームデータ(トランスポートストリーム)BSDとしての多重化データストリームを得る。また、マルチプレクサ126は、このビットストリームデータBSDに、視差情報セット作成部122で作成された視差情報セットを挿入する。具体的には、マルチプレクサ126は、ビットストリームデータBSDに挿入されるPSI情報またはSI情報の所定位置に、視差情報セットを含むデスクリプタ(z−OSD descriptor)を挿入する。このデスクリプタの詳細については、後述する。
図2に示す送信データ生成部110の動作を簡単に説明する。カメラ111Lでは、左眼画像が撮影される。このカメラ111Lで得られる立体画像表示のための左眼画像データはビデオフレーミング部112に供給される。また、カメラ111Rでは、右眼画像が撮影される。このカメラ111Rで得られる立体画像表示のための右眼画像データはビデオフレーミング部112に供給される。ビデオフレーミング部112では、左眼画像データおよび右眼画像データが、伝送フォーマットに応じた状態に加工処理されて、立体画像データが得られる(図4(a)〜(c)参照)。
ビデオフレーミング部112で得られた立体画像データは、切り換えスイッチ116のa側の固定端子に供給される。また、データ取り出し部115で得られた立体画像データは、切り換えスイッチ116のb側の固定端子に供給される。ライブモードでは、切り換えスイッチ116はa側に接続され、この切り換えスイッチ116からはビデオフレーミング部112で得られた立体画像データが取り出される。再生モードでは、切り換えスイッチ116はb側に接続され、この切り換えスイッチ116からはデータ取り出し部115から出力された立体画像データが取り出される。
切り換えスイッチ116で取り出された立体画像データは、ビデオエンコーダ119に供給される。このビデオエンコーダ119では、その立体画像データに対してMPEG4−AVC、MPEG2、VC−1等の符号化が施され、符号化ビデオデータを含むビデオデータストリームが生成される。このビデオデータストリームはマルチプレクサ126に供給される。
マイクロホン114で得られた音声データは、切り換えスイッチ118のa側の固定端子に供給される。また、データ取り出し部115で得られた音声データは、切り換えスイッチ118のb側の固定端子に供給される。ライブモードでは、切り換えスイッチ118はa側に接続され、この切り換えスイッチ118からはマイクロホン114で得られた音声データが取り出される。再生モードでは、切り換えスイッチ118はb側に接続され、この切り換えスイッチ118からはデータ取り出し部115から出力された音声データが取り出される。
切り換えスイッチ118で取り出された音声データはオーディオエンコーダ120に供給される。このオーディオエンコーダ120では、音声データに対して、MPEG−2Audio AAC、あるいは、MPEG−4 AAC等の符号化が施され、符号化オーディオデータを含むオーディオデータストリームが生成される。このオーディオデータストリームはマルチプレクサ126に供給される。
カメラ111L,111Rで得られた左眼画像データ、右眼画像データは、ビデオフレーミング部112を通じて、ディスパリティ・マップ生成部113に供給される。このディスパリティ・マップ生成部113では、左眼画像データおよび右眼画像データに基づき、ピクセル(画素)毎の視差ベクトルが検出され、ディスパリティ・マップが生成される。このディスパリティ・マップは、切換スイッチ117のa側の固定端子に供給される。また、データ取り出し部115から出力されたディスパリティ・マップは、切り換えスイッチ117のb側の固定端子に供給される。
ライブモードでは、切り換えスイッチ117はa側に接続され、この切り換えスイッチ117からはディスパリティ・マップ生成部113で生成されたディスパリティ・マップが取り出される。再生モードでは、切り換えスイッチ117はb側に接続され、この切り換えスイッチ117からはデータ取り出し部115から出力されたディスパリティ・マップが取り出される。
切り換えスイッチ117で取り出されたディスパリティ・マップは、視差情報セット作成部122に供給される。この視差情報セット作成部122では、ディスパリティ・マップに基づいて、切り換えスイッチ116から出力される所定番組の立体画像データに対応した所定の画素位置の視差情報セットが、階層的に分割された各分割期間に対応して作成される。この視差情報セットには、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差情報とが含まれている。この視差情報セットは、マルチプレクサ126に供給される。
マルチプレクサ126では、ビデオエンコーダ119およびオーディオエンコーダ120からの各データストリームが多重化され、ビットストリームデータ(トランスポートストリーム)BSDとしての多重化データストリームが得られる。
また、このマルチプレクサ126では、このビットストリームデータBSDに、視差情報セット作成部122で作成された視差情報セットが挿入される。すなわち、このマルチプレクサ126では、ビットストリームデータBSDに挿入されるPSI情報またはSI情報の所定位置に、視差情報セットを含むデスクリプタ(z−OSD descriptor)が挿入される。
図8〜図10は、トランスポートストリーム(ビットストリームデータ)の構成例を示している。このトランスポートストリームには、各エレメンタリーストリームをパケット化して得られたPESパケットが含まれている。この構成例では、ビデオエレメンタリーストリームのPESパケット「Video PES」、オーディオエレメンタリーストリームのPESパケット「AudioPES」が含まれている。
また、トランスポートストリームには、PSI(Program SpecificInformation)として、PMT(Program Map Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリーストリームがどのプログラムに属しているかを記した情報である。また、トランスポートストリームには、イベント単位の管理を行うSI(Serviced Information)としてのEIT(EventInformation Table)が含まれている。このEITには、番組単位のメタデータが記載される。
PMTには、プログラム全体に関連する情報を記述するプログラム・デスクリプタ(ProgramDescriptor)が存在する。また、このPMTには、各エレメンタリーストリームに関連した情報を持つエレメンタリ・ループが存在する。この構成例では、ビデオエレメンタリ・ループ、オーディオエレメンタリ・ループが存在する。各エレメンタリ・ループには、ストリーム毎に、パケット識別子(PID)等の情報が配置されると共に、図示していないが、そのエレメンタリーストリームに関連する情報を記述する記述子(デスクリプタ)も配置される。
図8に示すトランスポートストリームの構成例では、EITの配下に、視差情報セットを含むデスクリプタ(z−OSD descriptor)が挿入されている。また、図9に示すトランスポートストリームの構成例では、PMT中のプログラム・デスクリプタ(Program Descriptor)に、視差情報セットを含むデスクリプタ(z−OSDdescriptor)が挿入されている。さらに、図10に示すトランスポートストリームの構成例では、ビデオ・エレメンタリ・ループ(Video ES loop)のデスクリプタ(descriptor)部分に、配置されている。
[視差情報セット作成部]
視差情報セット作成部122(図2参照)における視差情報セット作成の詳細について説明する。視差情報セット作成部122は、例えば、以下のケース1〜ケース6により、視差情報セットを作成する。
「ケース1」
視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。ここで、所定の画素位置(x,y)は、画像中心Oを原点(0,0)とした座標で表される。なお「ケース1」において、原点(0,0)は所定の画素位置の定義域から除かれる。
この「ケース1」において、位置データは、原点(0,0)からの所定の画素位置の方向を示す方向データと、この原点(0,0)から所定の画素位置までの距離を示す距離データとからなる。そして、画素位置(x,y)の方向データは、正接データ(tanθ=y/x)と、その画素位置(x,y)が存在する象限を識別する2ビットのゾーン識別子(Zone_id)により構成される。例えば、“Zone_id=00”は第1象限を示し、“Zone_id=01”は第2象限を示し、“Zone_id=10”は第3象限を示し、“Zone_id=11”は第4象限を示すものとされる。
また、画素位置(x,y)の距離データ(Line Scale)は、原点(0,0)からの画素位置(x,y)を通過して画像領域の端に至る線分の長さに対する割合を示すものとされる。この場合、原点(0,0)からの画素位置(x,y)までの距離をLとし、原点から画素位置(x,y)を通過して画像領域の端に至る線分の長さをLineFullとするとき、Line Scale=L/LineFullとなる。
この「ケース1」において、画素位置(x,y)の視差データは、画素位置(x,y)の視差情報(視差ベクトル)の値の、原点(0,0)からの画素位置(x,y)までの距離に対する割合を示すデータとされる。すなわち、視差データ(Disparity Gradient:tanφ)は、原点(0,0)からの画素位置(x,y)までの距離をLとし、画素位置(x,y)の視差情報(視差ベクトル)の値をDとするとき、tanφ=D/Lとなる。
以下では、所定の画素位置として、視差情報の値が最大(Max)となる第1の画素位置と、視差情報の値が最小(Min)となる画素位置(第2の画素位置)が設定された場合について説明する。視差情報の値が最大となる画素位置とは、画像が最も近くに認識される位置を意味する。また、視差情報の値が最小となる画素位置とは、画像が最も遠くに認識される位置を意味する。この場合、受信側では、視差情報値の最大最小の幅を知ることができ、立体画像の深さ(depth)調整を行うことが可能となる。
図11、図12は、画像全体における第1の画素位置(xβ,yβ)と第2の画素位置(xα,yα)の二次元位置(2D Direction)の一例を示している。座標(xβ,yβ)および座標(xα,yα)は、画像中心を原点(0,0)としたときの、各画素位置の座標を示している。
第1の画素位置(xβ,yβ)の視差情報セットについて説明する。位置データは、方向データと、距離データ(Line Scale_β)とからなっている。また、方向データは、正接データ(tanθβ)と、ゾーン識別子(Zone_id_β)により構成されている。視差情報セット作成部122は、図11に示すように、正接データ(tanθβ)を、「tanθβ=yβ/xβ」のように、求める。また、視差情報セット作成部122は、図11に示すように、(xβ,yβ)が第4象限にあるので、ゾーン識別子(Zone_id_β)を、「Zone_id_β=11」とする。
また、視差情報セット作成部122は、距離データ(Line Scale_β)を、図11に示すように、「Line Scale_β=Lβ/LineFull_β」のように、求める。ここで、Lβ=√(xβ+yβ)であり、LineFull_β=√((E_h)+(PV/2))である。
また、視差情報セット作成部122は、図12に示すように、視差データ(DisparityGradient:tanφβ)を、「tanφβ=Dβ/Lβ」のように、求める。ここで、Dβは、画素位置(xβ,yβ)の視差情報(視差ベクトル)の値であり、Lβ=√(xβ+yβ)である。
次に、第2の画素位置(xα,yα)の視差情報セットについて説明する。位置データは、方向データと、距離データ(Line Scale_α)とからなっている。また、方向データは、正接データ(tanθα)と、ゾーン識別子(Zone_id_α)により構成されている。視差情報セット作成部122は、図11に示すように、正接データ(tanθα)を、「tanθα=yα/xα」のように、求める。また、視差情報セット作成部122は、図11に示すように、(xα,yα)が第1象限にあるので、ゾーン識別子(Zone_id_α)を、「Zone_id_α=00」とする。
また、視差情報セット作成部122は、距離データ(Line Scale_α)を、図11に示すように、「Line Scale_α=Lα/LineFull_α」のように、求める。ここで、Lα=√(xα+yα)であり、LineFull_α=√((PH/2)+(E_v))である。
また、視差情報セット作成部122は、図12に示すように、視差データ(DisparityGradient:tanφα)を、「tanφα=Dα/Lα」のように、求める。ここで、Dαは、画素位置(xα,yα)の視差情報(視差ベクトル)の値であり、Lα=√(xα+yα)である。
図13のフローチャートは、視差情報セット作成部122における「ケース1」における視差情報セット作成の処理手順を示している。視差情報セット作成部122は、ステップST1において、ソース画像の、縦サイズ(PV=SourcePictureVerticalSize)、横サイズ(PH=SourcePictureHorizontalSize)、およびアスペクト比(PictureAspectRatio)を調べる。
次に、視差情報セット作成部122は、ステップST2において、ディスパリティ・マップをスキャンして、所定の視差情報(視差ベクトル)の値と、その座標(x1,y1)をマークする。なお、この座標(x1,y1)は、画像のトップ−レフト(top-left)を原点(0,0)としたものである。
次に、視差情報セット作成部122は、ステップST3において、座標(x1,y1)を、画像中心Oを原点(0,0)とする座標(x,y)に変換する。この場合の変換式は、x=x1−PH/2、y=y1−PV/2である。
次に、視差情報セット作成部122は、ステップST4において、画素位置(x,y)の方向データを構成する、正接データ(tanθ=y/x)と、その画素位置(x,y)が存在する象限を識別する2ビットのゾーン識別子(Zone_id)を求める。また、視差情報セット作成部122は、ステップST4において、画素位置(x,y)の距離データ(Line Scale=L/LineFull)を求める。
ここで、「LineFull」は、アスペクト比との関係から、以下のように求められる。ここでは、アスペクト比が9/16の場合を示すが、アスペクト比が他の場合であっても同様である。|tanθ|<9/16の場合、「LineFull=√((E_v)+(PH/2))」とされる。一方、|tanθ|≧9/16の場合、「LineFull=√((E_h)+(PV/2))」とされる。
また、「L」は、アスペクト比との関係から、以下のように求められる。|tanθ|<9/16の場合、「L=LineFull*(x/(PH/2))とされる。一方、|tanθ|≧9/16の場合、「L=LineFull*(y/(PV/2))とされる。
次に、視差情報セット作成部122は、ステップST5において、画素位置(x,y)の視差データ(Disparity Gradient:tanφ=D/L)を求める。
「ケース2」
視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。ここで、所定の画素位置(x,y)は、画像中心Oを原点(0,0)と座標で表される。なお「ケース2」において、原点(0,0)は所定の画素位置の定義域から除かれる。
この「ケース2」において、位置データは、上述の「ケース1」と同様に、原点(0,0)からの所定の画素位置の方向を示す方向データと、この原点(0,0)から所定の画素位置までの距離を示す距離データとからなる。そして、画素位置(x,y)の方向データは、正接データ(tanθ=y/x)と、その画素位置(x,y)が存在する象限を識別する2ビットのゾーン識別子(Zone_id)により構成される。
また、画素位置(x,y)の距離データ(Line Scale)は、原点(0,0)からの画素位置(x,y)を通過して画像領域の端に至る線分の長さに対する割合を示すものとされる。この場合、原点(0,0)からの画素位置(x,y)までの距離をLαとし、原点から画素位置(x,y)を通過して画像領域の端に至る線分の長さをLineFullとするとき、Line Scale=Lα/LineFullとなる。
また、この「ケース2」において、画素位置(x,y)の視差データは、その画素位置(x,y)の特定の表示解像度における視差情報(視差ベクトル)の値とされる。
このように、この「ケース2」において、視差情報セット作成部122は、所定の画素位置の位置データとして、上述の「ケース1」と同様の位置データ(方向データ、距離データ)を作成する。また、この「ケース2」において、視差情報セット作成部122は、所定の画素位置の視差データとして、その画素位置(x,y)の特定の表示解像度における視差情報(視差ベクトル)を作成する。特定の表示解像度は、例えば、1920×1080のフルHDの解像度である。
そのため、視差情報セット作成部122における「ケース2」における視差情報セット作成の処理手順は、ステップST5の視差データを求める処理を除き、上述の図13のフローチャートで示す処理手順と同様に行われる。すなわち、「ケース2」における視差情報セット作成の処理手順において、座標(x,y)の視差データとして、その座標(x,y)の特定の表示解像度における視差情報(視差ベクトル)を求める。
「ケース3」
視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。ここで、所定の画素位置(x,y)は、画像中心Oを原点(0,0)と座標で表される。なお「ケース3」において、原点(0,0)は所定の画素位置の定義域から除かれる。
この「ケース3」において、位置データは、原点(0,0)からの所定の画素位置の方向を示す方向データと、この原点(0,0)から所定の画素位置までの距離を示す距離データとからなる。画素位置(x,y)の方向は、予め設定されている上下左右およびそれらの間の8方向、さらにはそれらの間を含めた16方向等から選択される。つまり、画素位置(x,y)の方向データは、直接方向を示すデータとされる。
例えば、方向データが3ビットデータで構成される場合、この3ビットデータにより、図14に示すように、上下左右およびそれらの間の8方向のうち、いずれかの方向を選択的に指定できる。
また、画素位置(x,y)の距離データ(Line Scale)は、上述の「ケース1」の場合と同様に、原点(0,0)からの画素位置(x,y)を通過して画像領域の端に至る線分の長さに対する割合を示すものとされる。この場合、原点(0,0)からの画素位置(x,y)までの距離をLとし、原点から画素位置(x,y)を通過して画像領域の端に至る線分の長さをLineFullとするとき、Line Scale=L/LineFullとなる。
この「ケース3」において、画素位置(x,y)の視差データは、画素位置(x,y)の視差情報(視差ベクトル)の値の、原点(0,0)からの画素位置(x,y)までの距離に対する割合を示すデータとされる。すなわち、視差データ(Disparity Gradient:tanφ)は、原点(0,0)からの画素位置(x,y)までの距離をLとし、画素位置(x,y)の視差情報(視差ベクトル)の値をDとするとき、tanφ=D/Lとなる。
以下では、所定の画素位置として、上方向と右方向との間の方向にある画素位置が設定された場合について説明する。例えば、この画素位置は、視差情報(視差ベクトル)の値が最大(Max)となる画素位置である。視差情報の値が最大となる画素位置とは、画像が最も近くに認識される位置を意味する。
図15、図16は、画像全体における画素位置(xa,ya)の二次元位置(2D Direction)の一例を示している。(xa,ya)は、画像中心を原点(0,0)としたときの、画素位置の座標を示している。
画素位置(xa,ya)の視差情報セットについて説明する。位置データは、方向データ(Direction_a)と、距離データ(Line Scale_a)とからなっている。視差情報セット作成部122は、図15に示すように、方向データ(Direction_a)を、「Direction_a=001」とする。
また、視差情報セット作成部122は、距離データ(Line Scale_β)を、図15に示すように、「Line Scale_a=La/LineFull_a」のように、求める。ここで、La=√(xa+ya)であり、LineFull_a=√((PH/2)+(PV/2))である。
また、視差情報セット作成部122は、図16に示すように、視差データ(DisparityGradient:tanφa)を、「tanφa=Da/La」のように、求める。ここで、Daは、画素位置(xa,ya)の視差情報(視差ベクトル)の値であり、La=√(xa+ya)である。
図17のフローチャートは、視差情報セット作成部122における「ケース3」における視差情報セット作成の処理手順を示している。視差情報セット作成部122は、ステップST11において、ソース画像の、縦サイズ(PV=SourcePictureVerticalSize)、横サイズ(PH=SourcePictureHorizontalSize)、およびアスペクト比(PictureAspectRatio)を調べる。
次に、視差情報セット作成部122は、ステップST12において、ディスパリティ・マップをスキャンして、所定の視差情報(視差ベクトル)の値と、その座標(x1,y1)をマークする。なお、この座標(x1,y1)は、画像のトップ−レフト(top-left)を原点(0,0)としたものである。
次に、視差情報セット作成部122は、ステップST13において、座標(x1,y1)を、画像中心Oを原点(0,0)とする座標(x,y)に変換する。この場合の変換式は、x=x1−PH/2、y=y1−PV/2である。ここで、変換後の座標(x,y)は、原点(0,0)から予め設定されている8方向、あるいは16方向などのいずれかのライン上にある場合と、そのライン上にない場合とがある。ライン上にない場合には、例えば、変換後の座標(x,y)の代わりに、最も近いライン上の座標を、新たな座標(x,y)とする。
次に、視差情報セット作成部122は、ステップST14において、画素位置(x,y)の方向データ(Direction)と、画素位置(x,y)の距離データ(Line Scale=L/LineFull)を求める。
ここで、「LineFull」は、アスペクト比との関係から、以下のように求められる。ここでは、アスペクト比が9/16の場合を示すが、アスペクト比が他の場合であっても同様である。|tanθ|<9/16の場合、「LineFull=√((E_v)+(PH/2))」とされる。一方、|tanθ|≧9/16の場合、「LineFull=√((E_h)+(PV/2))」とされる。なお、E_vは0≦E_v≦PH/2を満たし、E_hは0≦E_h≦PV/2を満たす(図12参照)。
また、「L」は、アスペクト比との関係から、以下のように求められる。|tanθ|<9/16の場合、「L=LineFull*(x/(PH/2))とされる。一方、|tanθ|≧9/16の場合、「L=LineFull*(y/(PV/2))とされる。
次に、視差情報セット作成部122は、ステップST15において、画素位置(x,y)の視差データ(Disparity Gradient:tanφ=D/L)を求める。
「ケース4」
視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。ここで、所定の画素位置(x,y)は、画像中心Oを原点(0,0)と座標で表される。なお「ケース4」において、原点(0,0)は所定の画素位置の定義域から除かれる。
この「ケース4」において、位置データは、原点(0,0)からの所定の画素位置の方向を示す方向データと、この原点(0,0)から所定の画素位置までの距離を示す距離データとからなる。画素位置(x,y)の方向は、予め設定されている上下左右およびそれらの間の8方向、さらにはそれらの間を含めた16方向等から選択される。つまり、画素位置(x,y)の方向データは、直接方向を示すデータとされる。
また、画素位置(x,y)の距離データ(Line Scale)は、上述の「ケース1」の場合と同様に、原点(0,0)からの画素位置(x,y)を通過して画像領域の端に至る線分の長さに対する割合を示すものとされる。この場合、原点(0,0)からの画素位置(x,y)までの距離をLとし、原点から画素位置(x,y)を通過して画像領域の端に至る線分の長さをLineFullとするとき、Line Scale=L/LineFullとなる。
また、この「ケース4」において、画素位置(x,y)の視差データは、その画素位置(x,y)の特定の表示解像度における視差情報(視差ベクトル)の値とされる。
このように、この「ケース4」において、視差情報セット作成部122は、所定の画素位置の位置データとして、上述の「ケース3」と同様の位置データ(方向データ、距離データ)を作成する。また、この「ケース4」において、視差情報セット作成部122は、所定の画素位置の視差データとして、その画素位置(x,y)の特定の表示解像度における視差情報(視差ベクトル)を作成する。特定の表示解像度は、例えば、1920×1080のフルHDの解像度である。
そのため、視差情報セット作成部122における「ケース4」における視差情報セット作成の処理手順は、ステップST15の視差データを求める処理を除き、上述の図17のフローチャートで示す処理手順と同様に行われる。すなわち、「ケース4」における視差情報セット作成の処理手順において、座標(x,y)の視差データとして、その座標(x,y)の特定の表示解像度における視差情報(視差ベクトル)を求める。
[ケース5]
視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。
ここで、所定の画素位置(x,y)は、座標モード0のときは、画像中心Oを原点(0,0)とした座標で表される。また、所定の画素位置(x,y)は、座標モード1のときは、画像のトップ−レフト(top-left)を原点(0,0)とした座標で表される。
この「ケース5」において、位置データは、原点(0,0)からの水平距離を示す水平距離データ(Rxa)、原点(0,0)からの垂直距離を示す垂直距離データ(Rya)とからなる。水平距離データRxaは、画像の水平方向サイズに対する割合で示される。座標モード0のときは、「Rxa=x/(PH/2)*100」となる。また、座標モード1のときは、「Rxa=x/(PH)*100」となる。ここで、PHは、画像の水平方向サイズを表している。また、垂直距離データRyaは、画像の垂直方向サイズに対する割合で示される。座標モード0のときは、「Rya=y/(PV/2)*100」となる。また、座標モード1のときは、「Rya=y/(PV)*100」となる。ここで、PVは、画像の垂直方向サイズを表している。
この「ケース5」において、画素位置(x,y)の視差データは、その画素位置(x,y)の特定の表示解像度における視差情報(視差ベクトル)の値とされる。特定の表示解像度は、例えば、1920×1080のフルHDの解像度とされる。
以下では、所定の画素位置として、視差情報の値が最大(Max)となる第1の画素位置と、視差情報の値が最小(Min)となる画素位置(第2の画素位置)が設定された場合について説明する。視差情報の値が最大となる画素位置とは、画像が最も近くに認識される位置を意味する。また、視差情報の値が最小となる画素位置とは、画像が最も遠くに認識される位置を意味する。この場合、受信側では、視差情報値の最大最小の幅を知ることができ、立体画像の深さ(depth)調整を行うことが可能となる。
図18は、座標モード0における、画像画像全体における第1の画素位置(xβ,yβ)と第2の画素位置(xα,yα)の二次元位置(2D Direction)の一例を示している。この場合、座標(xβ,yβ)および座標(xα,yα)は、画像中心Oを原点(0,0)としたときの、各画素位置の座標を示している。また、図19は、座標モード1における、画像画像全体における第1の画素位置(xβ,yβ)と第2の画素位置(xα,yα)の二次元位置(2D Direction)の一例を示している。この場合、座標(xβ,yβ)および座標(xα,yα)は、トップ−レフト(top-left)を原点(0,0)としたときの、各画素位置の座標を示している。
第1の画素位置(xβ,yβ)の視差情報セットについて説明する。位置データは、上述したように、水平距離データ(Rxa)と、垂直距離データ(Rya)とからなって。視差情報セット作成部122は、座標モード0においては、図18に示すように、水平距離データ(Rxa)を「Rxa=xβ/(PH/2)*100」のように求め、垂直距離データ(Rya)を「Rya=yβ/(PV/2)*100」のように求める。また、視差情報セット作成部122は、座標モード1においては、図19に示すように、水平距離データ(Rxa)を「Rxa=xβ/(PH)*100」のように求め、垂直距離データ(Rya)を「Rya=yβ/(PV)*100」のように求める。
また、視差情報セット作成部122は、第1の画素位置(xβ,yβ)の視差データ(Disparity)として、その第1の画素位置(xβ,yβ)の特定の表示解像度における視差情報(視差ベクトル)を求める。
次に、第2の画素位置(xα,yα)の視差情報セットについて説明する。位置データは、上述したように、水平距離データ(Rxa)と、垂直距離データ(Rya)とからなって。視差情報セット作成部122は、座標モード0においては、図18に示すように、水平距離データ(Rxa)を「Rxa=xα/(PH/2)*100」のように求め、垂直距離データ(Rya)を「Rya=yα/(PV/2)*100」のように求める。また、視差情報セット作成部122は、座標モード1においては、図19に示すように、水平距離データ(Rxa)を「Rxa=xα/(PH)*100」のように求め、垂直距離データ(Rya)を「Rya=yα/(PV)*100」のように求める。
また、視差情報セット作成部122は、第2の画素位置(xα,yα)の視差データ(Disparity)として、その第2の画素位置(xα,yα)の特定の表示解像度における視差情報(視差ベクトル)を求める。
図20のフローチャートは、視差情報セット作成部122における「ケース5」における視差情報セット作成の処理手順を示している。視差情報セット作成部122は、ステップST21において、ソース画像の、縦サイズ(PV=SourcePictureVerticalSize)、横サイズ(PH=SourcePictureHorizontalSize)、およびアスペクト比(PictureAspectRatio)を調べる。
次に、視差情報セット作成部122は、ステップST22において、ディスパリティ・マップをスキャンして、所定の視差情報(視差ベクトル)の値と、その座標(x1,y1)をマークする。なお、この座標(x1,y1)は、画像のトップ−レフト(top-left)を原点(0,0)としたものである。
次に、視差情報セット作成部122は、座標モード0であるとき、ステップST23の処理に進む。このステップST23において、視差情報セット作成部122は、座標(x1,y1)を、画像中心Oを原点(0,0)とする座標(x,y)に変換する。この場合の変換式は、x=x1−PH/2、y=y1−PV/2である。
次に、視差情報セット作成部122は、ステップST24において、画素位置(x,y)の水平距離データ(Rxa)と、垂直距離データ(Rya)とを求める。この場合、「Rxa=xα/(PH/2)*100」とされ、「Rya=yα/(PV/2)*100」とされる。また、視差情報セット作成部122は、ステップST25において、視差データ(Disparity)を求める。この場合、視差データ(Disparity)として、座標(x、y)の特定の表示解像度における視差情報(視差ベクトル)を求める。
また、視差情報セット作成部122は、ステップST22の処理の後、座標モード1であるとき、ステップST26の処理に進む。この場合、座標(x1,y1)を、そのまま、座標(x,y)として用いる。ステップST26において、視差情報セット作成部122は、画素位置(x,y)の水平距離データ(Rxa)と、垂直距離データ(Rya)とを求める。この場合、「Rxa=xα/(PH)*100」とされ、「Rya=yα/(PV)*100」とされる。また、視差情報セット作成部122は、ステップST27において、視差データ(Disparity)を求める。この場合、視差データ(Disparity)として、座標(x、y)の特定の表示解像度における視差情報(視差ベクトル)を求める。
[ケース6]
視差情報セット作成部122は、上述したように、所定番組の立体画像データに対応した所定の画素位置の視差情報セットを作成する。この視差情報セットには、所定の画素位置の位置データと、その所定の画素位置の視差データが含まれる。所定の画素位置は、ユーザの設定操作で任意に設定され、あるいは自動的に設定され、その個数に制限はない。
ここで、所定の画素位置(x,y)は、座標モード0のときは、画像中心Oを原点(0,0)とした座標で表される。また、所定の画素位置(x,y)は、座標モード1のときは、画像のトップ−レフト(top-left)を原点(0,0)とした座標で表される。
この「ケース6」において、位置データは、原点(0,0)からの水平距離を示す水平距離データ(Rxa)、原点(0,0)からの垂直距離を示す垂直距離データ(Rya)とからなる。水平距離データRxaは、画像の水平方向サイズに対する割合で示される。座標モード0のときは、「Rxa=x/(PH/2)*100」となる。また、座標モード1のときは、「Rxa=x/(PH)*100」となる。ここで、PHは、画像の水平方向サイズを表している。また、垂直距離データRyaは、画像の垂直方向サイズに対する割合で示される。座標モード0のときは、「Rya=y/(PV/2)*100」となる。また、座標モード1のときは、「Rya=y/(PV)*100」となる。ここで、PVは、画像の垂直方向サイズを表している。
この「ケース6」において、画素位置(x,y)の視差データ(Relative_Disparity_ratio)は、その画素位置(x,y)の特定の解像度における視差情報(視差ベクトル)の値そのものではなく、水平解像度PHに対する割合を示すデータとする。例えば、図21に示すように、1920×1080のフルHDの解像度の場合、視差データ(Relative_Disparity_ratio)は、「Relative_Disparity_ratio=視差情報値/1920*Factor」のように、求められる。例えば、視差情報値が+60ピクセルの場合、「Relative_Disparity_ratio=60/1920*Factor」となる。
このように、この「ケース6」において、視差情報セット作成部122は、所定の画素位置の位置データとして、上述の「ケース5」と同様の位置データ(水平距離データ、垂直距離データ)を作成する。また、この「ケース6」において、視差情報セット作成部122は、所定の画素位置の視差データとして、その画素位置(x,y)の視差情報値の水平表示解像度PHに対する割合を示すデータ(Relative_Disparity_ratio)を作成する。
そのため、視差情報セット作成部122における「ケース6」における視差情報セット作成の処理手順は、ステップST25およびステップST27で求める視差データの内容が異なることを除き、上述の図20のフローチャートで示す処理手順と同様に行われる。
[視差情報セットの構造]
次に、視差情報セット作成部122で作成される視差情報セットの内容例を説明する。図22〜図25、図27〜図28は、視差情報セットの内容例を示している。図26、図29は、その内容例における主要なデータ規定内容(semantics)を示している。
図22は、上述の「ケース1」で作成される視差情報セットの内容例を示している。「TS(Timesegment)」は、イベント、プログラム、シーン等の期間の等分割数を示す8ビットのデータである。「TS=1」は、分割されていないことを示す。「subdivision」は、各タイム・セグメントの期間の等分割数を示す8ビットのデータである。「subdivision=1」は、分割されていないことを示す。
「Number Of Direction Line」は、視差情報セットの総数を示す。例えば、視差情報の値が最大(Max)となる第1の画素位置と、視差情報の値が最小(Min)となる画素位置(第2の画素位置)の2つの視差情報セットがある場合、「Number Of Direction Line=1」とされる。「Zone_id」は、画素位置(x,y)の方向データを構成する2ビットのゾーン識別子である。上述したように、“Zone_id=00”は第1象限を示し、“Zone_id=01”は第2象限を示し、“Zone_id=10”は第3象限を示し、“Zone_id=11”は第4象限を示す。
「2D_direction_theta」は、画素位置(x,y)の方向データを構成する正接データ(tanθ=y/x)を示す10ビットのデータである。「Line Scale」は、原点(0,0)から画素位置(x,y)までの相対距離(Line Scale=L/LineFull)を示す10ビットデータである。「Disparity_gradient_phai」は、画素位置(x,y)の視差情報(視差ベクトル)の値の、原点(0,0)からの画素位置(x,y)までの距離に対する割合(tanφ=D/L)を示す12ビットデータである。
図23は、上述の「ケース2」で作成される視差情報セットの内容例を示している。この図23の視差情報セットの内容例は、上述した図22の視差情報セットの内容例と、「Disparity_gradient_phai」が「Disparity」に置き換わっていることを除き、同じある。
「Disparity」は、視差情報(視差ベクトル)の値を示す12ビットデータである。
図24は、上述の「ケース3」で作成される視差情報セットの内容例を示している。この図24の視差情報セットの内容例は、上述した図22の視差情報セットの内容例と、「Zone_idD」、「2D_direction_theta」が「Direction」に置き換わっていることを除き、同じある。「Direction」は、原点(0,0)からの画素位置(x,y)の方向を示す8ビットデータである。
図25は、上述の「ケース4」で作成される視差情報セットの内容例を示している。この図25の視差情報セットの内容例は、上述した図24の視差情報セットの内容例と、「Disparity_gradient_phai」が「Disparity」に置き換わっていることを除き、同じある。
「Disparity」は、画素位置(x,y)の視差情報(視差ベクトル)の値を示す12ビットデータである。
図27は、上述の「ケース5」で作成される視差情報セットの内容例を示している。「TS(Timesegment)」は、イベント、プログラム、シーン等の等分割数を示す8ビットのデータである。「TS=1」は、分割されていないことを示す。「subdivision」は、各タイム・セグメントの等分割数を示す8ビットのデータである。「subdivision=1」は、分割されていないことを示す。
「Number Of Disparity Point」は、視差情報セットの総数を示す。例えば、視差情報の値が最大(Max)となる第1の画素位置と、視差情報の値が最小(Min)となる画素位置(第2の画素位置)の2つの視差情報セットがある場合、「Number Of Disparity Point =1」とされる。「relative_plain_mode」は、相対プレーンのタイプを示す1ビットデータである。「relative_plain_mode=1」は、座標モード0であって、画像中心Oを原点(0,0)とした座標のプレーンであることを示す。「relative_plain_mode=0」は、座標モード1であって、画像のトップ−レフト(top-left)を原点(0,0)とした座標のプレーンであることを示す。
「Relative_x」は、原点(0,0)から画素位置(x、y)までの水平距離(Rxa)を示す11ビットデータである。この水平距離(Rxa)は、画像の水平方向サイズに対する割合で示される。「Relative_y」は、原点(0,0)から画素位置(x、y)までの垂直距離(Rya)を示す11ビットデータである。この垂直距離(Rya)は、画像の垂直方向サイズに対する割合で示される。「Disparity」は、画素位置(x、y)の視差情報(視差ベクトル)の値を示す12ビットデータである。
図28は、上述の「ケース6」で作成される視差情報セットの内容例を示している。この図28の視差情報セットの内容例は、上述した図27の視差情報セットの内容例と、「Disparity」が「Relative_Disparity_ratio」に置き換わっていることを除き、同じある。「Relative_Disparity_ratio」は、画素位置(x,y)の視差情報(視差ベクトル)の値の水平解像度PHに対する割合を示す12ビットデータである。
図30〜図35は、上述した「ケース1」〜「ケース6」において視差情報セット作成部122で作成された視差情報セットを含むデスクリプタ(z-OSD Descriptor)の一例を示している。「descriptor_tag」」は、デスクリプタのタイプを示す8ビットのデータである。ここでは、視差情報セットを含むデスクリプタ(z-OSD Descriptor)であることが示される。「descriptor_length」は、この情報の長さ(サイズ)を示す8ビットのデータである。このデスクリプタの情報として、上述した視差情報セットが挿入される。図30〜図35は、それぞれ、上述の「ケース1」〜「ケース6」で作成される視差情報セットが含まれたデスクリプタ(z-OSD Descriptor)を示している。
図2に示す送信データ生成部110において、マルチプレクサ126から出力されるビットストリームデータBSDには、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと共に、所定番組の立体画像データに対応した所定の画素位置の視差情報セットが含まれている。そのため、受信側において、視差情報セットを用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
また、図2に示す送信データ生成部110において、マルチプレクサ122から出力されるビットストリームデータBSDに含まれている視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。そのため、視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。したがって、受信側において、モニタの表示解像度やモニタサイズによらずに、この視差情報セットを用いて容易に視差調整を行うことが可能となる。
[セットトップボックスの説明]
図1に戻って、セットトップボックス200は、放送局100から放送波にのせて送信されてくるビットストリームデータ(トランスポートストリーム)BSDを受信する。このビットストリームデータBSDには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、視差情報セットが含まれる。
セットトップボックス200は、ビットストリーム処理部201を有している。このビットストリーム処理部201は、ビットストリームデータから、立体画像データ、音声データ、視差情報セット等を抽出する。このビットストリーム処理部201は、適宜、OSD等のグラフィクス情報が重畳された左眼画像および右眼画像のデータを生成する。この場合、視差情報セットに基づいて、左眼画像に重畳する左眼グラフィクス情報と右眼画像に重畳する右眼グラフィクス情報との間には視差が付与される。このように左眼グラフィクス情報と右眼グラフィクス情報右眼サブタイトルとの間に視差が付与されることで、ユーザは、立体画像に重畳されるグラフィクス情報を、例えば、画像の手前に認識可能となる。
[セットトップボックスの構成例]
セットトップボックス200の構成例を説明する。図36は、セットトップボックス200の構成例を示している。このセットトップボックス200は、ビットストリーム処理部201と、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像処理回路205と、HDMI送信部206と、音声処理回路207を有している。また、このセットトップボックス200は、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216を有している。
アンテナ端子203は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ204は、アンテナ端子203に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDを出力する。
ビットストリーム処理部201は、上述したように、ビットストリームデータBSDから立体画像データ、音声データ等を抽出して出力する。このビットストリーム処理部201は、立体画像データに対して、適宜、OSD等のグラフィクス情報の表示データを合成する。その際、ビットストリーム処理部201は、視差情報セットに基づいて、左眼画像に重畳する左眼グラフィクス情報と右眼画像に重畳する右眼グラフィクス情報との間に視差を付与する。
映像処理回路205は、ビットストリーム処理部201から出力される立体画像データに対して必要に応じて画質調整処理などを行い、処理後の立体画像データをHDMI送信部206に供給する。音声処理回路207は、ビットストリーム処理部201から出力された音声データに対して必要に応じて音質調整処理等を行い、処理後の音声データをHDMI送信部206に供給する。
HDMI送信部206は、HDMIに準拠した通信により、例えば、非圧縮の画像データおよび音声データを、HDMI端子202から送出する。この場合、HDMIのTMDSチャネルで送信するため、画像データおよび音声データはパッキングされ、HDMI送信部206からHDMI端子202に出力される。
CPU211は、セットトップボックス200の各部の動作を制御する。フラッシュROM212は、制御ソフトウェアの格納およびデータの保管を行う。DRAM213は、CPU211のワークエリアを構成する。CPU211は、フラッシュROM212から読み出したソフトウェアやデータをDRAM213上に展開してソフトウェアを起動させ、セットトップボックス200の各部を制御する。
リモコン受信部215は、リモコン送信機216から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU211に供給する。CPU211は、このリモコンコードに基づいて、セットトップボックス200の各部を制御する。CPU211、フラッシュROM212およびDRAM213は内部バス214に接続されている。
ビットストリーム処理部201について説明する。このビットストリーム処理部201は、デマルチプレクサ220と、ビデオデコーダ221と、オーディオデコーダ224と、OSD表示データ発生部226と、ビデオ重畳部228を有している。デマルチプレクサ220は、ビットストリームデータBSDから、ビデオ、オーディオのパケットを抽出し、各デコーダに送る。また、デマルチプレクサ220は、ビットストリームデータBSDから、視差情報セットを抽出し、OSD表示データ発生部226と、上述したHDMI送信部206に送る。
ビデオデコーダ221は、デマルチプレクサ220で抽出されたビデオのパケットからビデオのエレメンタリーストリームを再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む立体画像データを得る。オーディオデコーダ224は、デマルチプレクサ220で抽出されたオーディオのパケットからオーディオのエレメンタリーストリームを再構成し、復号化処理を行って、音声データを得て、ビットストリーム処理部201の外部に出力する。
OSD表示データ発生部226は、立体画像データに含まれる左眼画像データに対応した左眼グラフィクス情報のデータおよび立体画像データに含まれる右眼画像データに対応した右眼グラフィクス情報のデータを発生する。この場合、OSD表示データ発生部226は、デマルチプレクサ220で抽出された視差情報セットに基づいて、左眼グラフィクス情報と右眼グラフィクス情報との間に視差を付与する。
ここで、OSD表示データ発生部226は、視差情報セットに含まれる位置データおよび視差データに基づいて、送信側での処理とは逆の処理により、視差情報セットが対応する画像領域内の位置を求め、さらに、その位置の視差情報値を再現する。
ビデオ重畳部228は、ビデオデコーダ221で得られた立体画像データ(左眼画像データ、右眼画像データ)に対し、OSD表示データ発生部226で発生された左眼および左眼のグラフィクス情報のデータを重畳し、表示用立体画像データを得る。そして、このビデオ重畳部228は、表示用立体画像データを、ビットストリーム処理部201Dの外部に出力する。
セットトップボックス200の動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDが出力される。
デジタルチューナ204から出力されるビットストリームデータBSDは、ビットストリーム処理部201に供給される。このビットストリーム処理部201では、ビットストリームデータBSDから立体画像データ、音声データ、視差情報セット等が抽出される。ビットストリーム処理部201では、立体画像データに対して、適宜、OSD等のグラフィクス情報の表示データが合成される。
その際、ビットストリーム処理部201では、視差情報セットに基づいて、左眼画像に重畳する左眼グラフィクス情報と右眼画像に重畳する右眼グラフィクス情報との間に視差が付与される。これにより、立体画像に重畳表示されるグラフィクス情報に関して、画像内の各物体との間の遠近感の整合性を最適な状態に維持することが可能となる。
ビットストリーム処理部201で得られた表示用立体画像データは、映像処理回路205に供給される。この映像処理回路205では、表示用立体画像データに対して、必要に応じて画質調整処理等が行われる。この映像処理回路205から出力される処理後の表示用立体画像データは、HDMI送信部206に供給される。
また、ビットストリーム処理部201で得られた音声データは、音声処理回路207に供給される。この音声処理回路207では、音声データに対して、必要に応じて音質調整処理等の処理が行われる。この音声処理回路207から出力される処理後の音声データは、HDMI送信部206に供給される。そして、HDMI送信部206に供給された立体画像データおよび音声データは、HDMIのTMDSチャネルにより、HDMI端子202からHDMIケーブル400に送出される。
[テレビ受信機の説明]
図1に戻って、テレビ受信機300は、セットトップボックス200からHDMIケーブル400を介して送られてくる立体画像データを受信する。このテレビ受信機300は、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。この3D信号処理部301は、立体画像データを構成する左眼画像データおよび右眼画像データを取得する。
[テレビ受信機の構成例]
テレビ受信機300の構成例を説明する。図37は、テレビ受信機300の構成例を示している。このテレビ受信機300は、3D信号処理部301と、HDMI端子302と、HDMI受信部303と、アンテナ端子304と、デジタルチューナ305と、ビットストリーム処理部306を有している。
また、このテレビ受信機300は、OSD表示データ発生部313と、ビデオ重畳部314と、映像処理回路307と、パネル駆動回路308と、表示パネル309と、音声処理回路310と、音声増幅回路311と、スピーカ312を有している。また、このテレビ受信機300は、CPU321と、フラッシュROM322と、DRAM323と、内部バス324と、リモコン受信部325と、リモコン送信機326を有している。
アンテナ端子304は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ305は、アンテナ端子304に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)を出力する。
ビットストリーム処理部306は、図36に示すセットトップボックス200のビットストリーム処理部201と同様の構成とされている。このビットストリーム処理部306は、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、視差情報セット等を抽出する。
HDMI受信部303は、HDMIに準拠した通信により、HDMIケーブル400を介してHDMI端子302に供給される非圧縮の画像データおよび音声データを受信する。このHDMI受信部303は、そのバージョンが例えばHDMI1.4とされており、立体画像データの取り扱いが可能な状態にある。このHDMI受信部303の詳細は後述する。
3D信号処理部301は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対して、デコード処理を行って、左眼画像データおよび右眼画像データを生成する。この場合、3D信号処理部301は、ビットストリーム処理部306で得られた立体画像データに対しては、その伝送方フォーマットに対応したデコード処理を行う。また、3D信号処理部301は、HDMI受信部303で受信された立体画像データに対しては、後述するTMDS伝送データ構造に対応したデコード処理を行う。
OSD表示データ発生部313は、立体画像データに含まれる左眼画像データに対応した左眼グラフィクス情報のデータおよび立体画像データに含まれる右眼画像データに対応した右眼グラフィクス情報のデータを発生する。このグラフィクス情報は、メニュー、番組表などのOSD表示のための重畳情報である。この場合、OSD表示データ発生部313は、ビットストリーム処理部306で得られた、あるいはHDMI受信部303で受信された視差情報セットに基づいて、左眼グラフィクス情報と右眼グラフィクス情報との間に視差を付与する。
ここで、OSD表示データ発生部313は、視差情報セットに含まれる位置データおよび視差データに基づいて、送信側での処理とは逆の処理により、視差情報セットが対応する画像領域内の位置を求め、さらに、その位置の視差情報の値を求める。
ビデオ重畳部314は、3D信号処理部301で得られた立体画像データ(左眼画像データ、右眼画像データ)に対し、OSD表示データ発生部313で発生された左眼および左眼のグラフィクス情報のデータを重畳し、表示用立体画像データを得る。
映像処理回路307は、3D信号処理部301で生成された左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データを生成する。また、映像処理回路307は、画像データに対して、必要に応じて、画質調整処理を行う。パネル駆動回路308は、映像処理回路307から出力される画像データに基づいて、表示パネル309を駆動する。表示パネル309は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma DisplayPanel)等で構成されている。
音声処理回路310は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路311は、音声処理回路310から出力される音声信号を増幅してスピーカ312に供給する。
CPU321は、テレビ受信機300の各部の動作を制御する。フラッシュROM322は、制御ソフトウェアの格納およびデータの保管を行う。DRAM323は、CPU321のワークエリアを構成する。CPU321は、フラッシュROM322から読み出したソフトウェアやデータをDRAM323上に展開してソフトウェアを起動させ、テレビ受信機300の各部を制御する。
リモコン受信部325は、リモコン送信機326から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU321に供給する。CPU321は、このリモコンコードに基づいて、テレビ受信機300の各部を制御する。CPU321、フラッシュROM322およびDRAM323は、内部バス324に接続されている。
図37に示すテレビ受信機300の動作を簡単に説明する。HDMI受信部303では、HDMI端子302にHDMIケーブル400を介して接続されているセットトップボックス200から送信されてくる、立体画像データおよび音声データが受信される。このHDMI受信部303で受信された立体画像データは、3D信号処理部301に供給される。また、このHDMI受信部303で受信された音声データは音声処理回路310に供給される。
アンテナ端子304に入力されたテレビ放送信号はデジタルチューナ305に供給される。このデジタルチューナ305では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)が出力される。
デジタルチューナ305から出力されるビットストリームデータは、ビットストリーム処理部306に供給される。このビットストリーム処理部306では、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、視差情報セット等が抽出される。ビットストリーム処理部306で得られた立体画像データは、3D信号処理部301に供給される。また、このビットストリーム処理部306で得られた音声データは、音声処理回路310に供給される。
3D信号処理部301では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対してデコード処理が行われて、左眼画像データおよび右眼画像データが生成される。この左眼画像データおよび右眼画像データは、ビデオ重畳部314に供給される。
OSD表示データ発生部313では、立体画像データに含まれる左眼画像データに対応した左眼グラフィクス情報のデータおよび立体画像データに含まれる右眼画像データに対応した右眼グラフィクス情報のデータが発生される。この場合、OSD表示データ発生部313では、ビットストリーム処理部306で得られた、あるいはHDMI受信部303で受信された視差情報セットに基づいて、左眼グラフィクス情報と右眼グラフィクス情報との間に視差が付与される。
ビデオ重畳部314では、3D信号処理部301で得られた立体画像データ(左眼画像データ、右眼画像データ)に対し、OSD表示データ発生部313で発生された左眼および左眼のグラフィクス情報のデータが重畳し、表示用立体画像データが得られる。この表示用立体画像データは、映像処理回路307に供給される。この映像処理回路307では、左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データが生成され、必要に応じて、画質調整処理も行われる。
映像処理回路307で得られる画像データはパネル駆動回路308に供給される。そのため、表示パネル309により立体画像が表示される。例えば、表示パネル309に、左眼画像データによる左眼画像および右眼画像データによる右眼画像が交互に時分割的に表示される。視聴者は、表示パネル309の表示に同期して左眼シャッタおよび右眼シャッタが交互に開くシャッタメガネを装着することで、左眼では左眼画像のみを見ることができ、右眼では右眼画像のみを見ることができ、立体画像を知覚できる。
また、音声処理回路310では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理が施される。この音声データは、音声増幅回路311で増幅された後に、スピーカ312に供給される。そのため、スピーカ312から表示パネル309の表示画像に対応した音声が出力される。
ここで、OSD表示データ発生部313(セットトップボックス200のOSD表示データ発生部226も含む)における、視差情報セットの処理について説明する。例えば、視差情報セットが上述の「ケース1」で作成された場合について説明する。この場合、図38に示すように、視差情報セットには、方向データを構成する正接データ(tanθ)およびゾーン識別子(Zone_id)が含まれている。また、視差情報セットには、距離データ(Line Scale)および視差データ(Disparity Gradient:tanφ)が含まれている。
OSD表示データ発生部313は、ステップST41において、表示画像の構成(縦横の解像度、画素間距離)を決めると共に、画像中心Oと、この画像中心Oから端までの距離を画素数換算で調査する。
次に、OSD表示データ発生部313は、ステップST42において、ゾーン識別子(Zone_id)で位置が何象限にあるかを確認し、図39に示すように、正接データ(tanθ)で画像中心Oから延びる直線「direction line」の傾きを求める。また、OSD表示データ発生部313は、距離データ(Line Scale)と直線「direction line」の表示の端点までの長さとから、図39に示すように、距離Lα(OA),Lβ(OB)を求める。これにより、OSD表示データ発生部313は、視差情報値が最大の位置(xβ,yβ)と、視差情報値が最小の位置(xα,yα)を認識する。
次に、OSD表示データ発生部313は、ステップST43において、視差データ(tanφα,tanφβ)と、距離Lα(OA),Lβ(OB)とを用いて、図40に示すように、視差情報値Dα,Dβを再現する。
また、例えば、視差情報セットが上述の「ケース6」で作成された場合について説明する。この場合、図41に示すように、視差情報セットには、座標モードデータと、水平距離データRxaと、垂直距離データRyaと、視差データ(Relative_Disparity_ratio)が含まれている。
OSD表示データ発生部313は、ステップST51において、表示画像の構成(縦横の解像度、画素間距離)を決める。そして、OSD表示データ発生部313は、座標モード1であれば、左上端からの相対位置を2次元平面に計算する(図19参照)。一方、OSD表示データ発生部313は、座標モード0であれば、画像中心Oから端までの距離を画素数換算で計算し、装置位置を特定する(図18参照)。
次に、OSD表示データ発生部313は、ステップST52において、距離データRxa,Ryaと、視差データ(Relative_Disparity_ratio)とから、視差ずらし位置を求めると共に、視差量を再現し、表示平面に割り当てる。
ここで、モニタサイズの違いによる視差情報とその位置との関係について説明する。例えば、図42に示すように、小サイズモニタと、大サイズモニタとを考える。これらのモニタの解像度が同じであるとすると、小サイズモニタのピクセル(画素)間隔は狭く、大サイズモニタのピクセル(画素)間隔は広くなる。視差情報位置が表示モニタ上で適切に求められる。そして、受信視差情報値は、表示モニタ上の立体画像の奥行きに合った適切な視差情報値に変換される。
また、解像度の違いによる視差情報とその位置との関係について説明する。例えば、図43に示すように、高解像度モニタと、低解像度モニタとを考える。これらのモニタのサイズが同じであるとすると、高解像度モニタのピクセル(画素)間隔は狭く、低解像度モニタのピクセル(画素)間隔は広くなる。視差情報位置が、表示モニタ上で適切に求められる。そして、受信視差情報値から、表示モニタ上の立体画像の奥行きに合った適切な視差情報値に変換される。
計算された視差情報位置あるいは視差情報値が小数になることがある。この場合、OSD表示データ発生部226は、左眼画像に重畳する左眼グラフィクス情報と右眼画像に重畳する右眼グラフィクス情報との間に視差情報に基づいた視差を付与するためのシフト調整において、補間処理を用いる。これにより、サブピクセルの精度でのシフト調整を行うことができる。図44は、水平方向に1/2画素(ピクセル)分のシフトをする場合の補間処理例を概略的に示している。図44(a)の黒丸は、受信データを示している。図44(b)の白丸は、受信データを単純に、水平方向に1/2画素分だけシフトした状態を示している。しかし、この白丸で示すデータは、画素(ピクセル)位置のデータはない。そこで、シフト調整部225は、白丸で示すデータに対して補間処理を施して、図44(b)のハッチング付きの丸で示す画素位置のデータを生成し、シフト調整後のデータとする。
[HDMI送信部、HDMI受信部の構成例]
図45は、図1の立体画像表示システム10における、セットトップボックス200のHDMI送信部(HDMIソース)206と、テレビ受信機300のHDMI受信部(HDMIシンク)303の構成例を示している。
HDMI送信部206は、有効画像区間(以下、適宜、アクティブビデオ区間ともいう)において、非圧縮の1画面分の画像の画素データに対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。ここで、有効画像区間は、一の垂直同期信号から次の垂直同期信号までの区間から、水平帰線区間及び垂直帰線区間を除いた区間である。また、HDMI送信部206は、水平帰線区間または垂直帰線区間において、少なくとも画像に付随する音声データや制御データ、その他の補助データ等に対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。
HDMI送信部206とHDMI受信部303とからなるHDMIシステムの伝送チャネルには、以下の伝送チャネルがある。すなわち、HDMI送信部206からHDMI受信部303に対して、画素データおよび音声データを、ピクセルクロックに同期して、一方向にシリアル伝送するための伝送チャネルとしての、3つのTMDSチャネル#0乃至#2がある。また、ピクセルクロックを伝送する伝送チャネルとしての、TMDSクロックチャネルがある。
HDMI送信部206は、HDMIトランスミッタ81を有する。トランスミッタ81は、例えば、非圧縮の画像の画素データを対応する差動信号に変換し、複数のチャネルである3つのTMDSチャネル#0,#1,#2で、HDMIケーブル400を介して接続されているHDMI受信部303に、一方向にシリアル伝送する。
また、トランスミッタ81は、非圧縮の画像に付随する音声データ、さらには、必要な制御データその他の補助データ等を、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2でHDMI受信部303に、一方向にシリアル伝送する。
さらに、トランスミッタ81は、3つのTMDSチャネル#0,#1,#2で送信する画素データに同期したピクセルクロックを、TMDSクロックチャネルで、HDMIケーブル400を介して接続されているHDMI受信部303に送信する。ここで、1つのTMDSチャネル#i(i=0,1,2)では、ピクセルクロックの1クロックの間に、10ビットの画素データが送信される。
HDMI受信部303は、アクティブビデオ区間において、複数のチャネルで、HDMI送信部206から一方向に送信されてくる、画素データに対応する差動信号を受信する。また、このHDMI受信部303は、水平帰線区間または垂直帰線区間において、複数のチャネルで、HDMI送信部206から一方向に送信されてくる、音声データや制御データに対応する差動信号を受信する。
すなわち、HDMI受信部303は、HDMIレシーバ82を有する。このHDMIレシーバ82は、TMDSチャネル#0,#1,#2で、HDMI送信部206から一方向に送信されてくる、画素データに対応する差動信号と、音声データや制御データに対応する差動信号を受信する。この場合、HDMI送信部206からTMDSクロックチャネルで送信されてくるピクセルクロックに同期して受信する。
HDMIシステムの伝送チャネルには、上述のTMDSチャネル#0乃至#2およびTMDSクロックチャネルの他に、DDC(Display Data Channel)83やCECライン84と呼ばれる伝送チャネルがある。DDC83は、HDMIケーブル400に含まれる図示しない2本の信号線からなる。DDC83は、HDMI送信部206が、HDMI受信部303から、E−EDID(Enhanced Extended Display Identification Data)を読み出すために使用される。
すなわち、HDMI受信部303は、HDMIレシーバ81の他に、自身の性能(Configuration/capability)に関する性能情報であるE−EDIDを記憶している、EDID ROM(Read Only Memory)85を有している。HDMI送信部206は、例えば、CPU211(図36参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、E−EDIDを、DDC83を介して読み出す。
HDMI送信部206は、読み出したE−EDIDをCPU211に送る。CPU211は、このE−EDIDを、フラッシュROM212あるいはDRAM213に格納する。CPU211は、E−EDIDに基づき、HDMI受信部303の性能の設定を認識できる。例えば、CPU211は、HDMI受信部303を有するテレビ受信機300が立体画像データの取り扱いが可能か否か、可能である場合はさらにいかなるTMDS伝送データ構造に対応可能であるか等を認識する。
CECライン84は、HDMIケーブル400に含まれる図示しない1本の信号線からなり、HDMI送信部206とHDMI受信部303との間で、制御用のデータの双方向通信を行うために用いられる。このCECライン84は、制御データラインを構成している。
また、HDMIケーブル400には、HPD(Hot Plug Detect)と呼ばれるピンに接続されるライン(HPDライン)86が含まれている。ソース機器は、当該ライン86を利用して、シンク機器の接続を検出することができる。なお、このHPDライン86は双方向通信路を構成するHEAC−ラインとしても使用される。また、HDMIケーブル400には、ソース機器からシンク機器に電源を供給するために用いられるライン(電源ライン)87が含まれている。さらに、HDMIケーブル400には、ユーティリティライン88が含まれている。このユーティリティライン88は双方向通信路を構成するHEAC+ラインとしても使用される。
図46は、TMDS伝送データの構造例を示している。この図46は、TMDSチャネル#0,#1,#2において、横×縦が1920ピクセル×1080ラインの画像データが伝送される場合の、各種の伝送データの区間を示している。
HDMIの3つのTMDSチャネル#0,#1,#2で伝送データが伝送されるビデオフィールド(Video Field)には、伝送データの種類に応じて、3種類の区間が存在する。この3種類の区間は、ビデオデータ区間(Video Data period)、データアイランド区間(Data Islandperiod)、およびコントロール区間(Control period)である。
ここで、ビデオフィールド区間は、ある垂直同期信号の立ち上がりエッジ(activeedge)から次の垂直同期信号の立ち上がりエッジまでの区間である。このビデオフィールド区間は、水平ブランキング期間(horizontal blanking)、垂直ブランキング期間(verticalblanking)、並びに、アクティブビデオ区間(Active Video)に分けられる。このアクティブビデオ区間は、ビデオフィールド区間から、水平ブランキング期間および垂直ブランキング期間を除いた区間である
ビデオデータ区間は、アクティブビデオ区間に割り当てられる。このビデオデータ区間では、非圧縮の1画面分の画像データを構成する1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータが伝送される。
データアイランド区間およびコントロール区間は、水平ブランキング期間および垂直ブランキング期間に割り当てられる。このデータアイランド区間およびコントロール区間では、補助データ(Auxiliary data)が伝送される。すなわち、データアイランド区間は、水平ブランキング期間と垂直ブランキング期間の一部分に割り当てられている。このデータアイランド区間では、補助データのうち、制御に関係しないデータである、例えば、音声データのパケット等が伝送される。
コントロール区間は、水平ブランキング期間と垂直ブランキング期間の他の部分に割り当てられている。このコントロール区間では、補助データのうちの、制御に関係するデータである、例えば、垂直同期信号および水平同期信号、制御パケット等が伝送される。
図47は、HDMI端子のピン配列の一例を示している。図47に示すピン配列はタイプA(type-A)と呼ばれている。TMDSチャネル#iの差動信号であるTMDS Data#i+とTMDS Data#i−は差動線である2本のラインにより伝送される。この2本のラインは、TMDS Data#i+が割り当てられているピン(ピン番号が1,4,7のピン)と、TMDS Data#i−が割り当てられているピン(ピン番号が3,6,9のピン)に接続される。
また、制御用のデータであるCEC信号が伝送されるCECライン84は、ピン番号が13であるピンに接続される。また、E−EDID等のSDA(Serial Data)信号が伝送されるラインは、ピン番号が16であるピンに接続される。SDA信号の送受信時の同期に用いられるクロック信号であるSCL(Serial Clock)信号が伝送されるラインは、ピン番号が15であるピンに接続される。上述のDDC83は、SDA信号が伝送されるラインおよびSCL信号が伝送されるラインにより構成される。
また、上述したようにソース機器がシンク機器の接続を検出するためのHPDライン(HEAC−ライン)86は、ピン番号が19であるピンに接続される。また、ユーティリティライン(HEAC+ライン)88は、ピン番号が14であるピンに接続される。また、上述したように電源を供給するためのライン87は、ピン番号が18であるピンに接続される。
[E−EDID構造]
上述したように、HDMI送信部206は、例えば、CPU211(図36参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、E−EDIDを、DDC83を介して読み出す。そして、CPU211は、このE−EDIDに基づき、HDMI受信部303の性能の設定、例えば立体画像データの取り扱いが可能か否か等を認識する。
図48は、E−EDIDのデータ構造例を示している。このE−EDIDは、基本ブロックと拡張ブロックとからなっている。基本ブロックには、先頭に、“E-EDID1.3 Basic Structure”で表されるE−EDID1.3の規格で定められたデータが配置されている。基本ブロックには、続いて“Preferred timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。また、基本ブロックには、続いて、“2nd timing”で表される従来のEDIDとの互換性を保つための、“Preferredtiming”とは異なるタイミング情報が配置されている。
また、基本ブロックには、“2nd timing”に続いて、“Monitor NAME”で表される表示装置の名前を示す情報が配置されている。基本ブロックには、続いて、“Monitor Range Limits”で表される、アスペクト比が4:3および16:9である場合についての表示可能な画素数を示す情報が配置されている。
拡張ブロックの先頭には、“Short Video Descriptor”が配置されている。これは、表示可能な画像サイズ(解像度)、フレームレート、インターレースであるかプログレッシブであるかを示す情報である。続いて、“Short Audio Descriptor”が配置されている。これは、再生可能な音声コーデック方式、サンプリング周波数、カットオフ帯域、コーデックビット数などの情報である。続いて、“Speaker Allocation”で表される左右のスピーカに関する情報が配置されている。
また、拡張ブロックには、“Speaker Allocation”に続いて、“Vender Specific”で表されるメーカごとに固有に定義されたデータが配置されている。拡張ブロックには、続いて、“3rd timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。拡張ブロックには、さらに続いて、“4th timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。
図49は、Vender Specific領域(HDMI Vendor Specific Data Block)のデータ構造例を示している。このVender Specific領域には、1バイトのブロックである第0ブロック乃至第Nブロックが設けられている。
第0ブロックには、“Vendor-Specific tag code(=3)”で表されるデータ“Vender Specific”のデータ領域を示すヘッダが配置される。また、この第0ブロックには、“Length(=N)”で表されるデータ“Vender Specific”の長さを示す情報が配置される。また、第1ブロック乃至第3ブロックには、“24bit IEEE Registration Identifier(0x000C03)LSB first”で表されるHDMI(R)用として登録された番号“0x000C03“を示す情報が配置される。さらに、第4ブロックおよび第5ブロックには、”A“、”B“、”C“、および”D“のそれぞれにより表される、24bitのシンク機器の物理アドレスを示す情報が配置される。
第6ブロックには、“Supports-AI”で表される、シンク機器が対応している機能を示すフラグが配置されている。また、この第6ブロックには、“DC-48bit”、“DC-36bit”、および“DC-30bit”のそれぞれで表される、1ピクセル当たりのビット数を指定する情報のそれぞれが配置されている。また、この第6ブロックには、“DC-Y444”で表される、シンク機器がYCbCr4:4:4の画像の伝送に対応しているかを示すフラグが配置されている。さらに、この第6ブロックには、“DVI-Dual”で表される、シンク機器がデュアルDVI(Digital VisualInterface)に対応しているかを示すフラグが配置されている。
また、第7ブロックには、“Max-TMDS-Clock”で表されるTMDSのピクセルクロックの最大の周波数を示す情報が配置される。また、第8ブロックの第6ビット、第7ビットには、“Latency”で表される映像と音声の遅延情報の有無を示すフラグが配置されている。また、第8ブロックの第5ビットには、“HDMI_Video_present”で表される追加のHDMIビデオフォーマット(3D、4k×2k)の取り扱いが可能か否かを示すフラグが配置されている。
また、第9ブロックには、“Video Latency”で表される、プログレッシブの映像の遅延時間データが配置され、第10ブロックには、“Audio Latency”で表される、プログレッシブの映像に付随する音声の遅延時間データが配置される。また、第11ブロックには、“Interlaced Video Latency”で表されるインターレースの映像の遅延時間データが配置されている。さらに、第12ブロックには、“Interlaced Audio Latency”で表される、インターレースの映像に付随する音声の遅延時間データが配置されている。
また、第13ブロックの第7ビットには、“3D_present”で表される3D画像データの取り扱いが可能か否かを示すフラグが配置されている。また、第14ブロックの第7ビットから第5ビットには、“HDMI_VIC_LEN”で表される、図示しない第15ブロック以降に配置される必須(mandatory)な3Dデータ構造の他に取り扱い可能なデータ構造を示すブロックのサイズ情報が配置されている。また、第14ブロックの第4ビットから第0ビットには、“HDMI_3D_LEN”で表される、図示しない第15ブロック以降に配置される取り扱い可能な4k×2kのビデオフォーマットを示すブロックのサイズ情報が配置されている。
[立体画像データのTMDS伝送データ構造]
図50は、立体画像データのTMDS伝送データ構造の一つであるフレームパッキング(Framepacking)方式の3Dビデオフォーマット(3D Video Format)を示している。この3Dビデオフォーマットは、立体画像データとして、プログレッシブ方式の左眼(L)および右眼(R)の画像データを伝送するためのフォーマットである。
この3Dビデオフォーマットでは、左眼(L)および右眼(R)の画像データとして、1920×1080p、1080×720pのピクセルフォーマットの画像データの伝送が行われる。なお、図50には、左眼(L)画像データおよび右眼(R)画像データが、それぞれ、1920ライン×1080ピクセルである例を示している。
この3Dビデオフォーマットにより、垂直同期信号により区切られる、水平ブランキング期間(Hblank)、垂直ブランキング期間(Vblank)およびアクティブビデオ区間(Hactive×Vactive)を含むビデオフィールド区間を単位とする伝送データが生成される。この3Dビデオフォーマットにおいて、アクティブビデオ区間は、2つのアクティブビデオ領域(Active video)と、それらの間に1つのアクティブスペース領域(Activespace)を有している。第1のアクティブビデオ領域に左眼(L)画像データが配され、第2のアクティブビデオ領域に右眼(R)画像データが配される。
なお、詳細説明は省略するが、HDMI1.4では、上述の図50に示す3Dビデオフォーマットの他にも、立体画像データのTMDS伝送データ構造としての3Dビデオフォーマットが定義されている。例えば、ラインオルタネイティブ(Line alternative)方式、サイド・バイ・サイド(side-bay-side)(Full)方式、フレームパッキング(Frame packing for interlaced format)方式等である。
図36に示すセットトップボックス200においては、HDMIインタフェースにより、ベースバンドの立体画像データおよび音声データをテレビ受信機300に送信する構成となっている。そして、セットトップボックス200からテレビ受信機300に、ビットストリーム処理部201で使用されている視差情報セットの全部または一部が、HDMIインタフェースにより送信されて使用される。
図36に示すセットトップボックス200においては、ビットストリーム処理部201より視差情報セットがHDMI送信部206に供給される。そして、HDMI送信部206により、立体画像データおよび音声データと共に、この視差情報セットが、HDMI端子202からHDMIケーブル400に送出される。また、図37に示すテレビ受信機300においては、HDMI受信部303で受信された視差情報セットが、上述したように、OSD表示データ発生部313に供給されて利用される。
[HDMIでの視差情報セットの送信方法]
視差情報セットをHDMIインタフェースで送信する方法として、例えば、以下の(1)、(2)の方法が考えられる。
(1)HDMI Vendor Specific InfoFrame を利用する方法
(2)フレームパッキング方式等の3Dビデオフォーマット(3D Video Format)のアクティブスペース(Active Space)を利用する方法
最初に、(1)のHDMI Vendor Specific InfoFrame を利用する方法について説明する。この方法では、HDMI Vendor Specific InfoFrame paketにおいて、HDMI_Video_Format=“010”かつ3D_Meta_present=1とされて、Vendor Specific InfoFrameextensionが指定される。その場合、3D_Metadata_typeは、未使用の、例えば、“010”と定義され、視差情報セット(Disparrity Set)の情報が指定される。
図51は、HDMI Vendor Specific InfoFrame のパケット構造を示している。このHDMI Vendor Specific InfoFrameについては、CEA-861-Dに定義されているので、詳細説明は省略する。
第4バイト(PB4)の第7ビットから第5ビットに、画像データの種類を示す3ビットの情報「HDMI_Video_Format」が配置されている。画像データが3D画像データである場合、この3ビットの情報は「010」とされる。また、このように画像データが3D画像データである場合、第5バイト(PB5)の第7ビットから第4ビットに、TMDS伝送データ構造を示す4ビットの情報「3D_Structure」が配置される。例えば、フレームパッキング方式(図50参照)の場合、この4ビットの情報は、「0000」とされる。
また、第5バイト(PB5)の第3ビットに、「3D_Meta_present」が配置され、Vendor Specific InfoFrame extensionを指定する場合、この1ビットは「1」とされる。また、第7バイト(PB7)の第7ビットから第5ビットに、「3D_Metadata_type」が配置されている。視差情報セット(DisparritySet)の情報を指定する場合、この3ビットの情報は、未使用の、例えば、“010”とされる。
また、第7バイト(PB7)の第4バイトから第0バイトに、「3D_Metadata_length」が配置されている。この5ビットの情報により、以降に配置される3D_Metadata領域の長さが示される。例えば、「3D_Metadata_length=27(0x1B)」とされ、直後のバイト位置から27バイトのサイズをもって、視差情報セットが送信される。例えば、「ケース1」による視差情報セット(図22参照)の5画素位置分が、図示のパターンで配置される。
次に、(2)のアクティブスペース(Active Space)を利用する方法について説明する。この方法では、図52にHDMI Vendor Specific InfoFrame のパケット構造を示すように、現状ではReserved bitとなっている第5バイト(PB5)の第2ビットに、「ActiveSpaceEnable」が定義され、この1ビットの情報が“1”とされる。その上で、現状ではReservedとされているアクティブスペース領域を用いて、新たに情報エリアが定義され、そこに視差情報セットが配置される。
アクティブスペース領域は、左眼画像データおよび右眼画像データが配置されるアクティブビデオ領域と共に、アクティブビデオ区間を構成している。ここで、アクティブビデオ領域は主映像領域を構成し、アクティブスペース領域は補助映像領域を構成している。アクティブスペース領域は、ビデオの画サイズにより変動するが、1920×1080の画サイズの場合には、1フレームあたり45ライン分(86400バイト)の容量を持つ。
例えば、「ケース1」による視差情報セット(図22参照)の最大データサイズは、1+5*256=1281バイトであり、アクティブスペース領域に収まる。図53は、アクティブスペース領域への視差情報セットの配置例を示している。第0バイトに、3ビットの「Active_space_info_Type」と、3ビットの「Block_Size」と、2ビットの「Connect_Info」の情報が配置される。第1バイトおよび第2バイトに、以降の視差情報セットが配置される領域の長さを示す16ビットの「Data_Length」の上位8ビットおよび下位8ビットが配置される。
上述したように、図1に示す画像送受信システム10において、放送局100(送信データ生成部201)からセットトップボックス200やテレビ受信機300に、左眼画像データおよび右眼画像データを有する所定番組の立体画像データと共に、所定番組の立体画像データに対応した所定の画素位置の視差情報セットが送信される。そのため、受信側において、この視差情報セットを用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
また、図1に示す画像送受信システム10において、放送局100(送信データ生成部201)からセットトップボックス200やテレビ受信機300に送信される視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものとされる。そのため、視差情報セットは、立体画像の解像度とは独立で、しかもモニタの表示解像度やモニタサイズにも独立したものとなっている。したがって、受信側において、モニタの表示解像度やモニタサイズによらずに、この視差情報セットを用いて容易に視差調整を行うことが可能となる。
また、図1に示す画像送受信システム10において、セットトップボックス200からテレビ受信機300に、所定番組の立体画像データと共に、それに対応した所定の画素位置の視差情報セットが、HDMIケーブル400を介して送信される。そのため、テレビ受信機300に画像表示装置において、視差情報セットを用いることで、左眼画像および右眼画像に重畳される重畳情報、例えばOSD等のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。これにより、例えばOSD等のグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
<2.変形例>
なお、上述実施の形態においては、立体画像表示システム10が、放送局100、セットトップボックス200およびテレビ受信機300で構成されているものを示した。しかし、テレビ受信機300は、図37に示すように、セットトップボックス200内のビットストリーム処理部201と同等に機能するビットストリーム処理部306を備えている。したがって、図55に示すように、放送局100およびテレビ受信機300で構成される立体画像表示システム10Aも考えられる。
なお、上記実施の形態においては、視差情報セットを含むデスクリプタが、トランスポートストリーム(ビットストリームデータ)のPSI情報またはSI情報の所定位置に挿入される例を示した。しかし、この視差情報セットを、立体画像データを含むビデオエレメンタリーストリーム、サブタイトルデータを含むサブタイトルエレメンタリーストリーム等に挿入して送信することも考えられる。なお、以下では、「ケース5」で視差情報セットが作成される場合で説明する。詳細説明は省略するが、他のケースで視差情報セットが作成される場合にも同様に適用できる。
最初に、視差情報セットを、立体画像データを含むビデオエレメンタリーストリーム(ビデオデータストリーム)に挿入して送信する場合について説明する。図56は、その場合におけるトランスポートストリーム(ビットストリームデータ)の構成例を示している。この構成例に示すように、視差情報セットを含むメタデータ(z-OSD metadata)が、ビデオエレメンタリーストリームに挿入される。ここで、メタデータはユーザデータとして埋め込まれる。
図57は、ビデオエレメンタリーストリーム(Video Elementary Stream)の構造例を概略的に示している。ビデオエレメンタリーストリームには、先頭に、シーケンス単位のパラメータを含むシーケンスヘッダ部が配置されている。このシーケンスヘッダ部に続いて、ピクチャ単位のパラメータおよびユーザデータを含むピクチャヘッダが配置されている。このピクチャヘッダ部に続いてピクチャーデータを含むペイロード部が配置される。以下、ピクチャヘッダ部およびペイロード部が繰り返し配置されている。
上述した視差情報セットは、例えば、ピクチャヘッダ部のユーザデータ領域に埋め込まれる。図58は、ユーザデータの構成例を示している。図58(a)は、符号化方式がMPEG2である場合のユーザデータの構成を示している。図58(b)は、符号化方式がH.264 AVC(MPEG4−AVC)である場合のユーザデータの構成を示している。さらに、図58(c)は、符号化方式がVC−1である場合のユーザデータの構成を示している。
詳細説明は省略するが、各方式のユーザデータの構成はほぼ同様の構成となっている。すなわち、最初に、ユーザデータの開始を示すコードが配置され、その後に、データの種類を示す識別子「user_identifier」が配置され、さらにその後に、データ本体「user_structure」が配置される。
図59は、視差情報セットを含むユーザデータの構造(Syntax)の一例を示している。この構造には、図34に示すデスクリプタ(z-OSD Descriptor)と同様に、上述した「ケース5」で作成される視差情報セットが含まれている。この構造例の主要なデータ規定内容(Semantics)が、図60に示されている。
「Number Of DisparityPoints」は、視差情報セットの総数を示す。例えば、視差情報の値が最大(Max)となる第1の画素位置と、視差情報の値が最小(Min)となる画素位置(第2の画素位置)の2つの視差情報セットがある場合、「NumberOf Disparity Points=1」とされる。「relative_plain_mode」は、相対プレーンのタイプを示す1ビットデータである。「relative_plain_mode=1」は、座標モード0であって、画像中心Oを原点(0,0)とした座標のプレーンであることを示す。「relative_plain_mode=0」は、座標モード1であって、画像のトップ−レフト(top-left)を原点(0,0)とした座標のプレーンであることを示す。
「Relative_x」は、原点(0,0)から画素位置(x、y)までの水平距離(Rxa)を示す11ビットデータである。この水平距離(Rxa)は、画像の水平方向サイズに対する割合で示される。「Relative_y」は、原点(0,0)から画素位置(x、y)までの垂直距離(Rya)を示す11ビットデータである。この垂直距離(Rya)は、画像の垂直方向サイズに対する割合で示される。「Disparity」は、画素位置(x、y)の視差情報(視差ベクトル)の値を示す12ビットデータである。
次に、視差情報セットを、サブタイトルデータを含むサブタイトルエレメンタリーストリーム(サブタイトルデータストリーム)に挿入して送信する場合について説明する。図61は、その場合におけるトランスポートストリーム(ビットストリームデータ)の構成例を示している。この構成例に示すように、新たに定義される視差情報セットを含むセグメント(zOSD:z-OSD segment)が、サブタイトルエレメンタリーストリームに挿入される。
すなわち、サブタイトルエレメンタリーストリームには、DDS(display definition segment)、PCS(pagecomposition segment)、RCS(region composition segment)、ODS(object data segment)などの周知のセグメントが含まれる。さらに、このサブタイトルエレメンタリーストリームには、視差情報セットが含まれるセグメント(zOSD)が含まれる。例えば、図62に示すように、zOSDのセグメントタイプは「0x50」とされる。
図63は、zOSD(z-OSD segment)の構造例(syntax)を示している。このzOSDの主要なデータ規定内容(semantics)が、図60に示されている。「segment_continued_flag」は、このzOSDのセグメントが、現在のセグメントの後に存在するか否かを示す1ビットのフラグ情報である。「segment_continued_flag=1」は、存在することを示す。「segment_continued_flag=0」は、存在しないことを示す。受信側においては、このフラグ情報に基づいて、視差情報セットが含まれるセグメントあるいはパケットが連続して存在するか否かを知ることができ、視差情報の更新の可能性などを事前に知ることができる。
「delta_PTS[32..0]は、サブタイトルの表示タイミングを特定する、ヘッダ部に含まれるPTS(時間情報)に対する差分(変化分)を示す32ビットのデータである。「Disparity_position_id」は、視差情報セットが対応する画素位置を示す16ビットのデータである。なお、この32ビットのデータは、3分割されて配置されている。
「relative_plain_mode」は、相対プレーンのタイプを示す1ビットデータである。座標モード0であって、画像中心Oを原点(0,0)とした座標のプレーンであることを示す。「relative_plain_mode=0」は、座標モード1であって、画像のトップ−レフト(top-left)を原点(0,0)とした座標のプレーンであることを示す。
「Relative_x」は、原点(0,0)から画素位置(x、y)までの水平距離(Rxa)を示す11ビットデータである。この水平距離(Rxa)は、画像の水平方向サイズに対する割合で示される。「Relative_y」は、原点(0,0)から画素位置(x、y)までの垂直距離(Rya)を示す11ビットデータである。この垂直距離(Rya)は、画像の垂直方向サイズに対する割合で示される。「Disparity」は、画素位置(x、y)の視差情報(視差ベクトル)の値を示す12ビットデータである。
図64(a)は、従来のサブタイトルデータストリームの構成例を示している。PESヘッダには、時間情報(PTS)が含まれている。また、PESペイロードデータとして、DDS、PCS、RCS、ODS、EOSの各セグメントが含まれている。図64(b)は、上述したzOSDが含まれるサブタイトルデータストリームの構成例を示している。PESヘッダには、時間情報(PTS)が含まれている。また、PESペイロードデータとして、DDS、PCS、RCS、ODS、zOSD、EOSの各セグメントが含まれている。
そして、図64(b)の構成例においては、PESペイロードデータとして、最初に、DDS、PCS、RCS、ODS、zOSDの各セグメントが送信される。その後に、時間差分値(delta_PTS)および視差情報セットの内容が更新された所定個数のzOSDのセグメントを送信できる。最後には、zOSDのセグメントにEOSのセグメントも送信される。この図64(b)の構成例においては、サブタイトルデータストリームの全体を送信することなくzOSDのセグメントを順次送信して、順次更新された視差情報セットを送信できる。なお、この場合、最後のzOSDでは「segment_continued_flag=0」であるが、それ以前のzOSDでは「segment_continued_flag=1」とされる。
次に、視差情報セットを、独立したメタデータ(Metadata)ストリームで送信する場合について説明する。図65は、その場合におけるトランスポートストリーム(ビットストリームデータ)の構成例を示している。この構成例に示すように、視差情報セットを含むメタデータ(z-OSD metadata)が挿入されているメタデータエレメンタリーストリームが存在する。
図66は視差情報セットを含むメタデータ(z-OSD metadata)が挿入されているメタデータエレメンタリーストリームの構造例(syntax)を示している。この構造例の主要なデータ規定内容(Semantics)が、図60に示されている。「z-OSD_Metadata_stream_id」は、メタデータ(z-OSD metadata)が挿入されているメタデータエレメンタリーストリームであることを示す。「z-OSD_Metadata_set()」は、視差情報セットを含むメタデータを示している。
図67は、「z-OSD_Metadata_set()」の詳細構造の一例を示している。「segment_continued_flag」は、このzOSDのセグメントが、現在のセグメントの後に存在するか否かを示す1ビットのフラグ情報である。「segment_continued_flag=1」は、存在することを示す。「segment_continued_flag=0」は、存在しないことを示す。受信側においては、このフラグ情報に基づいて、視差情報セットが含まれるセグメントあるいはパケットが連続して存在するか否かを知ることができ、視差情報の更新の可能性などを事前に知ることができる。
「delta_PTS[32..0]は、サブタイトルの表示タイミングを特定する、ヘッダ部に含まれるPTS(時間情報)に対する差分(変化分)を示す32ビットのデータである。「Disparity_position_id」は、視差情報セットが対応する画素位置を示す16ビットのデータである。なお、この32ビットのデータは、3分割されて配置されている。
「relative_plain_mode」は、相対プレーンのタイプを示す1ビットデータである。座標モード0であって、画像中心Oを原点(0,0)とした座標のプレーンであることを示す。「relative_plain_mode=0」は、座標モード1であって、画像のトップ−レフト(top-left)を原点(0,0)とした座標のプレーンであることを示す。
「Relative_x」は、原点(0,0)から画素位置(x、y)までの水平距離(Rxa)を示す11ビットデータである。この水平距離(Rxa)は、画像の水平方向サイズに対する割合で示される。「Relative_y」は、原点(0,0)から画素位置(x、y)までの垂直距離(Rya)を示す11ビットデータである。この垂直距離(Rya)は、画像の垂直方向サイズに対する割合で示される。「Disparity」は、画素位置(x、y)の視差情報(視差ベクトル)の値を示す12ビットデータである。
上述したように、サブタイトルエレメンタリーストリームあるいは独立したメタデータストリームに、視差情報セットを含むセグメントあるいはパケットを挿入することで、この視差情報セットを送信することができる。ここで、視差情報セットは、所定の画素位置の画像全体に対する相対位置を示す位置データと、この所定の画素位置の視差データとを含むものであった。
しかし、この視差情報セットに限定されることなく、その他の形式の視差情報に関しても、同様にして送信できることは勿論である。すなわち、送信すべき視差情報は、例えば、位置あるいは領域を示す位置データと、その位置あるいは領域の視差データとからなるものであればよく、位置データは、画像全体に対する相対位置を示す場合に限らず、画像内の絶対位置を示す場合などであってもよい。
また、上述実施の形態においては、セットトップボックス200からテレビ受信機300Aに視差情報セットを送信する方法として、HDMI Vendor Specific InfoFrame を利用する方法、アクティブスペース(Active Space)を利用する方法を説明した。その他に、HPDライン86(HEAC−ライン)およびユーティリティライン88(HEAC+ライン)で構成される双方向通信路を通じて送信することも考えられる。
また、上述実施の形態においては、セットトップボックス200と、テレビ受信機300とが、HDMIのデジタルインタフェースで接続されるものを示している。しかし、これらが、HDMIのデジタルインタフェースと同様のデジタルインタフェース(有線の他に無線も含む)で接続される場合においても、この発明を適用できることは勿論である。
また、上述実施の形態においては、セットトップボックス200からテレビ受信機300に、ビットストリーム処理部201で使用されている視差情報セットの全部または一部を、HDMIインタフェースにより送信する例を示した。しかし、このようにHDMIインタフェースを通じて視差情報セットを送信する技術に関しては、その他のソース機器およびシンク機器の組み合わせにも応用できることは勿論である。例えば、ソース機器としてはBDやDVD等のディスクプレーヤ、さらにはゲーム機なども考えられ、シンク機器としてはモニタ装置、プロジェクタ装置なども考えられる。
この発明は、立体画像表示の際の重畳情報、例えばOSD等のグラフィクス情報の表示を良好に行うことができ、立体画像表示システム等に適用できる。
10,10A・・・立体画像表示システム 100・・・放送局
110・・・送信データ生成部
111L,111R・・・カメラ
112・・・ビデオフレーミング部
113・・・ディスパリティ・マップ作成部
114・・・マイクロホン
115・・・データ取り出し部
115a・・・データ記録媒体
116〜118・・・切り換えスイッチ
119・・・ビデオエンコーダ
120・・・オーディオエンコーダ
122・・・視差情報セット作成部
126・・・マルチプレクサ
200・・・セットトップボックス(STB)
201・・・ビットストリーム処理部
202・・・HDMI端子
203・・・アンテナ端子
204・・・デジタルチューナ
205・・・映像処理回路
206・・・HDMI送信部
207・・・音声処理回路
211・・・CPU
215・・・リモコン受信部
216・・・リモコン送信機
220・・・デマルチプレクサ
221・・・ビデオデコーダ
224・・・オーディオデコーダ
226・・・OSD表示データ発生部
228・・・ビデオ重畳部
300・・・テレビ受信機(TV)
301・・・3D信号処理部
302・・・HDMI端子
303・・・HDMI受信部
304・・・アンテナ端子
305・・・デジタルチューナ
306・・・ビットストリーム処理部
307・・・映像処理回路
308・・・パネル駆動回路
309・・・表示パネル
310・・・音声処理回路
311・・・音声増幅回路
312・・・スピーカ
313・・・OSD表示データ発生部
314・・・ビデオ重畳部
321・・・CPU
325・・・リモコン受信部
326・・・リモコン送信機
400・・・HDMIケーブル

Claims (20)

  1. 左眼画像データおよび右眼画像データを有する所定番組の立体画像データを出力する画像データ出力部と、
    上記画像データ出力部から出力される上記所定番組の立体画像データに対応した所定の画素位置の視差情報セットを出力する視差情報セット出力部と、
    上記画像データ出力部から出力される立体画像データおよび上記視差情報セット出力部から出力される視差情報セットを送信する送信部とを備え、
    上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含む
    立体画像データ送信装置。
  2. 上記位置データは、画像中心を原点とし、該原点からの上記所定の画素位置の方向を示す方向データと、上記原点から上記所定の画素位置までの距離を示す距離データとからなる
    請求項1に記載の立体画像データ送信装置。
  3. 上記視差データは、上記所定の画素位置の視差情報の値の、上記原点からの距離に対する割合を示すデータとされる
    請求項2に記載の立体画像データ送信装置。
  4. 上記視差データは、上記所定の画素位置の、特定の表示解像度における視差情報の値とされる
    請求項2に記載の立体画像データ送信装置。
  5. 上記位置データは、上記所定の画素位置の原点からの水平距離を示す水平距離データと、上記所定の画素位置の上記原点からの垂直距離を示す垂直距離データとからなる
    請求項1に記載の立体画像データ送信装置。
  6. 上記視差データは、上記所定の画素位置の視差情報の値の、特定の表示解像度に対する割合を示すデータとされる
    請求項5に記載の立体画像データ送信装置。
  7. 上記視差データは、上記所定の画素位置の、特定の表示解像度における視差情報の値とされる
    請求項5に記載の立体画像データ送信装置。
  8. 上記所定の画素位置は、視差情報の値が最大となる第1の画素位置と、視差情報の値が最小となる第2の画素位置である
    請求項1に記載の立体画像データ送信装置。
  9. 上記視差情報セット出力部は、上記所定番組の期間を階層的に等分割して得られた各分割期間の視差情報セットを出力する
    請求項1に記載の立体画像データ送信装置。
  10. 上記送信部は、
    上記画像データ送信部から出力される所定番組の立体画像データを含むトランスポートストリームを送信し、該トランスポートストリームに挿入されるPSI情報またはSI情報の所定位置に、上記視差情報セット出力部から出力される視差情報セットを含むデスクリプタを挿入する
    請求項1に記載の立体画像データ送信装置。
  11. 上記送信部は、上記視差情報セットを、所定の情報を送信するためのエレメンタリーストリームに含めて送信する
    請求項1に記載の立体画像データ送信装置。
  12. 上記他の情報は上記立体画像データであり、
    上記視差情報セットは、上記エレメンタリーストリームのヘッダ部のユーザデータ領域に挿入される
    請求項11に記載の立体画像データ送信装置。
  13. 上記所定の情報はサブタイトルデータあるいは独立データであり、
    上記エレメンタリーストリームは、上記視差情報セットが挿入されたセグメントあるいはパケットを有する
    請求項11に記載の立体画像データ送信装置。
  14. 左眼画像データおよび右眼画像データを有する所定番組の立体画像データを出力する画像データ出力ステップと、
    上記画像データ出力ステップで出力される上記所定番組の立体画像データに対応した所定の画素位置の視差情報セットを出力する視差情報セット出力ステップと、
    上記画像データ出力ステップで出力される立体画像データおよび上記視差情報セット出力ステップで出力される視差情報セットを送信する送信ステップとを備え、
    上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含む
    立体画像データ送信方法。
  15. 左眼画像データおよび右眼画像データを有する所定番組の立体画像データと該所定番組の立体画像データに対応した所定の画素位置の視差情報セットを受信する受信部と、
    上記受信部で受信された立体画像データに含まれる左眼画像データに対応した左眼重畳情報のデータおよび上記受信部で受信された立体画像データに含まれる右眼画像データに対応した右眼重畳情報のデータを出力する重畳情報データ出力部と、
    上記受信部で受信された立体画像データに含まれる左眼画像データおよび右眼画像データに、上記重畳情報データ出力部から出力される上記左眼重畳情報のデータおよび上記右眼重畳情報のデータを重畳するデータ重畳部とを備え、
    上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含み、
    上記重畳情報データ出力部は、
    上記受信部で受信された上記視差情報セットに基づいて、上記左眼重畳情報と上記右眼重畳情報との間に視差を付与する
    立体画像データ受信装置。
  16. 左眼画像データおよび右眼画像データを有する所定番組の立体画像データおよび上記所定番組の立体画像データに対応した所定の画素位置の視差情報セットを受信する受信部と、
    上記受信部で受信された、上記左眼画像データおよび上記右眼画像データと、上記視差情報セットとを、伝送路を介して、外部機器に送信する送信部とを備え、
    上記視差情報セットは、上記所定の画素位置の画像全体に対する相対位置を示す位置データと、上記所定の画素位置の視差データとを含む
    立体画像データ受信装置。
  17. 上記送信部は、
    上記画像データを、複数チャネルで、差動信号により、上記伝送路を介して、上記外部機器に送信し、
    上記画像データのブランキング期間に上記視差情報セットを挿入することで、該視差情報セットを上記外部機器に送信する
    請求項16に記載の立体画像データ受信装置。
  18. 上記送信部は、
    垂直同期信号により区切られる、水平ブランキング期間、垂直ブランキング期間およびアクティブビデオ区間を含むビデオフィールド区間を単位とする伝送データを生成する伝送データ生成部と、
    上記伝送データ生成部で生成された伝送データを、複数チャネルで、差動信号により、上記伝送路を介して、上記外部機器に送信する伝送データ送信部とを有し、
    上記アクティブビデオ区間は、主映像領域および補助映像領域を有し、
    上記伝送データ生成部は、上記主映像領域に画像データを配し、上記補助映像領域に、上記主映像領域に配される画像データに関連した上記視差情報セットを配する
    請求項16に記載の立体画像データ受信装置。
  19. 左眼画像データおよび右眼画像データを有する所定番組の立体画像データを出力する画像データ出力部と、
    上記画像データ出力部から出力される上記所定番組の立体画像データに対応した視差情報を出力する視差情報出力部と、
    上記画像データ出力部から出力される立体画像データおよび上記視差情報出力部から出力される視差情報を送信する送信部とを備え、
    上記送信部は、所定の情報を送信するためのエレメンタリーストリームに、上記視差情報を含むセグメントあるいはパケットを挿入し
    上記セグメントあるいはパケットは、上記視差情報の使用タイミングを示すタイミング情報をさらに含む
    立体画像データ送信装置。
  20. 上記セグメントあるいはパケットは、該セグメントあるいはパケットが連続して存在するか否かを示すフラグ情報をさらに含む
    請求項19に記載の立体画像データ送信装置。
JP2010199370A 2010-09-06 2010-09-06 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 Expired - Fee Related JP5633259B2 (ja)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP2010199370A JP5633259B2 (ja) 2010-09-06 2010-09-06 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
RU2012118689/07A RU2012118689A (ru) 2010-09-06 2011-09-01 Устройство передачи данных стереоскопического изображения, способ передачи данных стереоскопического изображения и устройство приема данных стереоскопического изображения
EP11823473.1A EP2485492A4 (en) 2010-09-06 2011-09-01 DEVICE FOR TRANSMITTING STEREOSCOPIC IMAGE DATA, METHOD FOR TRANSMITTING STEREOSCOPIC IMAGE DATA AND DEVICE FOR RECEIVING STEREOSCOPIC IMAGE DATA
CA2779687A CA2779687A1 (en) 2010-09-06 2011-09-01 Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device
PCT/JP2011/069887 WO2012032997A1 (ja) 2010-09-06 2011-09-01 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
MX2012005359A MX2012005359A (es) 2010-09-06 2011-09-01 Dispositivo de transmision de datos de imagenes estereoscopicas, metodo de transmision de datos de imagenes estereoscopicas, y dispositivo de recepcion de datos de imagenes estereoscopicas.
CN2011800060755A CN102714746A (zh) 2010-09-06 2011-09-01 立体图像数据传送设备、立体图像数据传送方法、以及立体图像数据接收设备
AU2011300020A AU2011300020B2 (en) 2010-09-06 2011-09-01 Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device
KR1020127011600A KR20130098132A (ko) 2010-09-06 2011-09-01 입체 화상 데이터 송신 장치, 입체 화상 데이터 송신 방법 및 입체 화상 데이터 수신 장치
BR112012010777A BR112012010777A2 (pt) 2010-09-06 2011-09-01 dispositivos de transmissão e de recepção de dados de imagem estereoscópica, e, método de transmissão de dados de imagem estereoscópica
US13/505,631 US20120262546A1 (en) 2010-09-06 2011-09-01 Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010199370A JP5633259B2 (ja) 2010-09-06 2010-09-06 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置

Publications (2)

Publication Number Publication Date
JP2012060267A true JP2012060267A (ja) 2012-03-22
JP5633259B2 JP5633259B2 (ja) 2014-12-03

Family

ID=45810599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010199370A Expired - Fee Related JP5633259B2 (ja) 2010-09-06 2010-09-06 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置

Country Status (11)

Country Link
US (1) US20120262546A1 (ja)
EP (1) EP2485492A4 (ja)
JP (1) JP5633259B2 (ja)
KR (1) KR20130098132A (ja)
CN (1) CN102714746A (ja)
AU (1) AU2011300020B2 (ja)
BR (1) BR112012010777A2 (ja)
CA (1) CA2779687A1 (ja)
MX (1) MX2012005359A (ja)
RU (1) RU2012118689A (ja)
WO (1) WO2012032997A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013172097A1 (ja) * 2012-05-14 2013-11-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2015527804A (ja) * 2012-07-10 2015-09-17 サムスン エレクトロニクス カンパニー リミテッド 多視点映像の視差情報を利用して、映像の動きを推定する方法及びその装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130099403A (ko) * 2012-02-29 2013-09-06 삼성전자주식회사 이미지 프로세싱 방법 및 이를 이용한 이미지 프로세싱 유닛
CN103686118A (zh) * 2012-09-19 2014-03-26 珠海扬智电子科技有限公司 影像深度调整方法与装置
US9762889B2 (en) * 2013-05-08 2017-09-12 Sony Corporation Subtitle detection for stereoscopic video contents
EP2814251A1 (en) * 2013-06-14 2014-12-17 Pace Plc Method and system for operating a set-top-box supporting 3D video content
JP5984858B2 (ja) * 2014-01-24 2016-09-06 キヤノン株式会社 画像処理装置及びプログラム
US10979689B2 (en) * 2014-07-16 2021-04-13 Arris Enterprises Llc Adaptive stereo scaling format switch for 3D video encoding
US9699390B2 (en) * 2014-09-02 2017-07-04 Htc Corporation Controlling method for image capturing and image integration
JP7011728B2 (ja) * 2018-09-28 2022-01-27 株式会社ソニー・インタラクティブエンタテインメント 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
CN110853588A (zh) * 2019-10-23 2020-02-28 西安万像电子科技有限公司 数据处理方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
WO2010013382A1 (ja) * 2008-07-31 2010-02-04 三菱電機株式会社 映像符号化装置、映像符号化方法、映像再生装置、映像再生方法、映像記録媒体、及び映像データストリーム
WO2010032399A1 (ja) * 2008-09-18 2010-03-25 パナソニック株式会社 立体視映像再生装置、及び立体視映像表示装置
WO2010092823A1 (ja) * 2009-02-13 2010-08-19 パナソニック株式会社 表示制御装置
WO2011118215A1 (ja) * 2010-03-24 2011-09-29 パナソニック株式会社 映像処理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11155152A (ja) * 1997-11-21 1999-06-08 Canon Inc 三次元形状情報入力方法及び装置及び画像入力装置
JP4190357B2 (ja) 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
US9769462B2 (en) * 2007-03-16 2017-09-19 Thomson Licensing System and method for combining text with three dimensional content
JP4739291B2 (ja) * 2007-08-09 2011-08-03 富士フイルム株式会社 撮影画角算出装置
CN101589619A (zh) * 2007-11-20 2009-11-25 索尼株式会社 信息处理装置、信息处理方法、显示控制装置、显示控制方法和程序
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR101506219B1 (ko) * 2008-03-25 2015-03-27 삼성전자주식회사 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체
US20090315981A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Ltd. Image processing method and apparatus
JPWO2010038409A1 (ja) * 2008-09-30 2012-03-01 パナソニック株式会社 再生装置、記録媒体、及び集積回路
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
US8482654B2 (en) * 2008-10-24 2013-07-09 Reald Inc. Stereoscopic image format with depth information
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
JP4737573B2 (ja) * 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
ES2578022T3 (es) * 2009-02-17 2016-07-20 Koninklijke Philips N.V. Combinación de datos de imágenes 3D y gráficos

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
WO2010013382A1 (ja) * 2008-07-31 2010-02-04 三菱電機株式会社 映像符号化装置、映像符号化方法、映像再生装置、映像再生方法、映像記録媒体、及び映像データストリーム
WO2010032399A1 (ja) * 2008-09-18 2010-03-25 パナソニック株式会社 立体視映像再生装置、及び立体視映像表示装置
WO2010092823A1 (ja) * 2009-02-13 2010-08-19 パナソニック株式会社 表示制御装置
WO2011118215A1 (ja) * 2010-03-24 2011-09-29 パナソニック株式会社 映像処理装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013172097A1 (ja) * 2012-05-14 2013-11-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2013238975A (ja) * 2012-05-14 2013-11-28 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2015527804A (ja) * 2012-07-10 2015-09-17 サムスン エレクトロニクス カンパニー リミテッド 多視点映像の視差情報を利用して、映像の動きを推定する方法及びその装置
US9798919B2 (en) 2012-07-10 2017-10-24 Samsung Electronics Co., Ltd. Method and apparatus for estimating image motion using disparity information of a multi-view image

Also Published As

Publication number Publication date
RU2012118689A (ru) 2013-11-10
EP2485492A1 (en) 2012-08-08
KR20130098132A (ko) 2013-09-04
CA2779687A1 (en) 2012-03-15
AU2011300020A1 (en) 2012-05-31
EP2485492A4 (en) 2014-07-02
MX2012005359A (es) 2012-06-08
WO2012032997A1 (ja) 2012-03-15
JP5633259B2 (ja) 2014-12-03
US20120262546A1 (en) 2012-10-18
AU2011300020B2 (en) 2014-09-18
CN102714746A (zh) 2012-10-03
BR112012010777A2 (pt) 2019-09-24

Similar Documents

Publication Publication Date Title
JP5446913B2 (ja) 立体画像データ送信装置および立体画像データ送信方法
JP5531972B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5633259B2 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP5402715B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
TWI437873B (zh) Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data receiving device and three-dimensional image data receiving method
WO2011001858A1 (ja) 立体画像データ送信装置および立体画像データ受信装置
WO2011001854A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2011001859A1 (ja) 立体画像データ送信装置および立体画像データ受信装置
WO2013108531A1 (ja) 受信装置、受信方法および電子機器
JP2011030176A (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP2011030179A (ja) 画像データ送信装置、制御方法およびプログラム
JP2011166757A (ja) 送信装置、送信方法および受信装置
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012063675A1 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP2011010255A (ja) 立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2013176141A (ja) 立体画像データ受信装置および立体画像データ受信方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140929

LAPS Cancellation because of no payment of annual fees