JP5390016B2 - 映像処理装置 - Google Patents

映像処理装置 Download PDF

Info

Publication number
JP5390016B2
JP5390016B2 JP2012506854A JP2012506854A JP5390016B2 JP 5390016 B2 JP5390016 B2 JP 5390016B2 JP 2012506854 A JP2012506854 A JP 2012506854A JP 2012506854 A JP2012506854 A JP 2012506854A JP 5390016 B2 JP5390016 B2 JP 5390016B2
Authority
JP
Japan
Prior art keywords
video
information
stereoscopic video
stereoscopic
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012506854A
Other languages
English (en)
Other versions
JPWO2011118215A1 (ja
Inventor
忠義 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2012506854A priority Critical patent/JP5390016B2/ja
Publication of JPWO2011118215A1 publication Critical patent/JPWO2011118215A1/ja
Application granted granted Critical
Publication of JP5390016B2 publication Critical patent/JP5390016B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、立体視を可能とする立体映像情報を出力する映像処理装置に関する。
特許文献1に、立体映像に字幕を重ねて表示させることが可能な表示制御装置が開示されている。この表示制御装置は、立体映像に対して字幕が適切な位置に配置されるよう、字幕の奥行き方向(表示画面に直交する方向)における表示位置を調整する。
特開2004−274125号公報
従来、テレビのような映像表示装置は、自装置が生成した画像(以下「装置画像」という。)をオリジナルの立体映像に重畳して表示させる機能を有する。装置画像は、例えば、チャンネル情報、音量情報、表示装置の輝度・コントラスト量・色温度などを調整するための情報、表示装置の画質を調整するための情報等を示す画像(OSD: On Screen Display)である。同様に、映像表示装置に映像データを出力する、光ディスクプレーヤのような映像再生装置においても、オリジナルの立体映像に、自装置が生成した装置画像を重畳して出力する機能を有する。
映像表示装置は、立体映像を表示する際に自装置の装置画像を表示する場合、その装置画像について、奥行き方向(表示画面に直交する方向)における表示位置を適宜調整する必要がある。これは、装置画像がオリジナルの立体映像よりも画面の奥方向(視聴者から遠ざかる方向)に表示されてしまうと、視聴者にとって見た目に違和感のある映像になってしまうからである。このことから、違和感のない映像を実現するために、表示装置の装置画像についても、字幕と同様に視差の調整が必要となる。
一方、映像処理装置は、映像ソース(例えば、光ディスク)から映像データを読み出し復号して、映像表示装置に出力する。また、その際、映像処理装置は、必要に応じて、字幕や、映像処理装置が付加する装置画像をオリジナルの立体画像に重畳する処理を施した後、立体映像情報を映像表示装置に出力する場合がある。
そのような場合、映像表示装置は、映像処理装置においてどのような処理が施されたかを認識できない。例えば、映像処理装置において重畳された字幕や装置画像の視差量を認識することはできない。このため、映像表示装置は、映像処理装置から受信した立体映像に対して、映像表示装置の装置画像を重畳する際に、その装置画像の視差量を適切な値に調整することが困難となり、使用者に対して視認上違和感のないより良好な立体映像を提示できないという問題があった。
本発明は、上記の問題を鑑みてなされたものであり、立体映像表示装置において使用者が視認上違和感を感じない良好な立体映像の提示を可能とするように、立体映像表示装置に映像情報を提供する立体映像処理装置を提供することを目的とする。
本発明に係る映像処理装置は、映像表示装置に、立体視を可能とする立体映像情報を出力可能な装置である。映像処理装置は、立体映像情報を取得する取得手段と、立体映像情報に付加映像情報を重畳する重畳手段と、付加映像情報の視差情報を、付加映像情報が重畳された立体映像情報に関連付けた状態で映像表示装置に送信する送信手段と、を備える。
本発明の映像処理装置は、映像表示装置に対して、より簡易な方法で、映像処理(復号)後の立体映像情報に関する視差情報を伝えることができる。この視差情報を利用することで、映像表示装置は、映像表示装置の装置画像(OSD)をより適切な位置に配置でき、違和感なく視認できる映像表示装置の装置画像(OSD)を視聴者に提示することができる。
課題を説明するための図 立体映像情報の圧縮符合化技術の概略を説明するための図 立体映像ストリームの一例を示す図 立体映像システムの構成例を示す図 立体映像処理装置の構成例を示す図 字幕映像や処理装置画像を立体映像データに重ね合わせた場合の例を説明するための図 字幕映像や処理装置画像を立体映像データに重ね合わせた場合の例を説明するための図 立体映像処理装置から立体映像表示装置への出力データを説明するための図 立体映像表示装置の構成例を示す図 立体映像の表示方法を説明するための図 立体映像の表示方法を説明するための図 3次元映像表示の動作例を示す図 3次元映像表示の動作例を示す図 2次元映像表示の動作例を示す図 2次元映像表示の動作例を示す図 表示画像中に含まれる字幕や処理装置画像の領域を説明するための図 オブジェクトが表示される領域に関する情報とともに視差情報を送信する際のフォーマットを示した図
以下、添付の図面を参照して実施形態を説明する。
1.概要
本実施形態において説明する立体映像処理装置は、立体映像情報を符号化して生成された情報である立体映像符号化情報を取得し、立体映像表示装置で表示可能な形式に変換する。すなわち、立体映像処理装置は、立体映像符号化情報を取得し、復号する。そして、立体映像処理装置は、復号した立体映像情報に、左眼映像又は右眼映像のいずれが符号化の平均ビットレートの高い映像であるかを示す識別情報を関連付けて、立体映像表示装置に送信する。立体映像表示装置は、立体映像処理装置から受信した立体映像情報に基づき2次元映像を表示する場合、その識別情報に基づき2次元映像(左眼映像又は右眼映像)を生成し、表示する。以下、これらの処理を詳細に説明する。なお、以下では、再生対象の映像コンテンツ、映像コンテンツの圧縮技術、映像コンテンツの多重化技術、立体映像表示システムの構成及び動作、他の実施の形態、の順に説明する。
2.映像コンテンツ
本実施形態で対象とする映像コンテンツは、立体映像情報、音声情報、及びデータ情報で構成される。
立体映像情報は、左眼映像データと右眼映像データを含んでいる。左眼映像データと右眼映像データに含まれるオブジェクトのそれぞれは視差を有している。この視差があることによって、視聴者に左眼映像を左眼で視聴させ、右眼映像を右眼で視聴させるように映像表示を制御することで、視聴者は3次元映像を知覚することができる。
音声情報は上記立体映像情報(映像ストリーム)と同期して出力可能な音声の情報である。
データ情報は、字幕データや副映像データを含んでいる。副映像データは、例えば、ボーナス・ビュー、グラフィックスメニュー等の特典映像である。なお、字幕データ及び副映像データには、3次元映像を提供するために視差情報が付加されている。字幕データに付加される視差情報を「字幕視差情報」と称し、副映像データに付加される視差情報を「副映像視差情報」と称する。字幕を立体映像として提示する場合、字幕視差情報を用いて、左眼映像データ及び右眼映像データに字幕データを重畳する。これによって、立体映像としての字幕を視聴者に提示できるようになる。
なお、字幕視差情報は、字幕をディスプレイに表示した際における、字幕の水平方向の表示位置のズレ量に対応する。副映像視差情報も同様である。ズレ量に対応する視差情報は、ピクセル数で表現してもよいし、mm単位で表現してもよい。視差情報が示すズレ量は、その画像が立体表示された場合の、画面の奥行き方向の表示位置に対応する。
3.圧縮符合化された映像コンテンツ(立体映像情報、音声情報、データ情報)
立体映像情報は圧縮符合化されている。特に、本実施の形態では、立体映像情報の圧縮技術に関して、立体映像を構成する右眼映像と左眼映像のうちの一方の映像(例えば、右眼映像)が、他方の映像(例えば、左眼映像)よりも高い圧縮率(低い平均ビットレート)で圧縮されるように構成されている。以下、立体映像を構成する映像のうち、圧縮率がより低い方法の映像を「第1眼映像」と称し、圧縮率がより高い方法の映像を「第2眼映像」と称する。以下に具体例を示す。
例えば、多視点映像符号化(MVC:Multiview Video Cording)により、立体映像情報について上述のような圧縮を実現できる。MVCとは、複数の映像を統合して符号化する技術である。本実施の形態では、図2に示すように、第1眼映像(ここでは左眼映像)データは、第1眼映像データのみを用いてフレーム間予測を行い符号化されている。これに対して、第2眼映像(ここでは右眼映像)データは、第2眼眼映像データだけでなく、第1眼映像データをも用いてフレーム間予測を行い符号化されている。つまり、第1眼映像(左眼映像)データは、前方予測を行なうPフレームと、双方向予測を行なうBフレームと、フレーム内で符号化を行なうIフレームとで構成される。一方、第2眼映像(右眼映像)データは、フレーム内で符号化を行うIフレームを持たず、前方予測を行なうPフレームと、双方向予測を行なうBフレームのみで構成されることになる。MVCでは、上記の第1眼映像のように、その映像データのみを用いて符号化された映像を「ベースビュー(Base View)」と称し、上記の第2眼映像のように、それ自身の映像データだけでなく、他の映像データも用いて符号化された映像を「ディペンデントビュー(Dependent View)」と称する。
このようにMVCにより符号化することで、Iフレームを持たず、第1眼映像からもフレーム間予測が可能な第2眼映像は、第1眼映像に比べて平均ビットレート下げることができ、高効率な圧縮が可能となる。
なお、上記に限らず、MPEG4−AVC/H.264を用いて圧縮符合化してもよい。また、音声情報及びデータ情報についての圧縮技術は言及していないが、これらについては、公知の様々な技術を適用することが可能である。
4.映像コンテンツの多重化技術
圧縮符合化された立体映像情報、音声情報、データ情報を関連付けて、転送するための多重化技術を説明する。
立体映像情報、音声情報、及びデータ情報は多重化されている。具体的な多重化技術は様々考えられるが、例えば、蓄積系(光ディスク等)であれば、PS(プログラムストリーム)およびTS(トランスポートストリーム)に変換し、放送/通信系(放送波等)であれば、TSに変換する。立体映像情報、音声情報、及びデータ情報が多重化されて生成されるストリームを立体映像ストリームと呼ぶ。図3に立体映像ストリームの構成を示す。同図に示すように、立体映像ストリームは、符号化されたデータ31と、ヘッダ情報33とで構成される。
ヘッダ情報33の一部に、立体映像情報のベースビューが右眼映像と左眼映像のいずれであるかを示す情報(以下「ベースビュー情報」と称す)が含まれている。本実施形態では、左眼映像をベースビュー映像としているので、左眼映像がベースビューであることを示すベースビュー情報がヘッダ情報33に付加されている。ベースビュー情報は立体映像情報の復号時に使用される。
また、本実施の形態では、ヘッダ情報33の一部に、字幕視差情報、及び、副映像視差情報が含まれている。
5.立体映像表示システムの構成
図4に、本実施形態の立体映像表示システムの構成を示す。立体映像表示システムは、立体映像処理装置1と立体映像表示装置2を含む。先に立体映像表示システムの概要を説明し、立体映像処理装置1及び立体映像表示装置2の構成は後述する。
図4に示すように、立体映像処理装置1は、立体映像を表示する立体映像表示装置2と、立体映像ストリームが蓄積されているサーバ3と、及びアンテナ5とに接続されている。また、立体映像処理装置1には、光ディスク4及びメモリカード6が挿入されている。立体映像処理装置1は、サーバ3、光ディスク4、アンテナ5、またはメモリカード6から、立体映像ストリームを取得する。
サーバ3は、立体映像ストリームが蓄積されているネットワークサーバである。サーバ3は、ネットワークに接続されており、ネットワークを介して家庭内におかれた立体映像処理装置1と接続可能である。サーバ3は、立体映像処理装置1からのアクセス要求に対応して、立体映像ストリームを立体映像処理装置1(ネットワーク通信インターフェース13)に送信することが可能である。
光ディスク4は、立体映像ストリームが記録された記録メディアである。光ディスク4は、立体映像処理装置1のディスクドライブ11に挿入可能である。立体映像処理装置1(ディスクドライブ11)は、光ディスク4に記録された立体映像ストリームを読み出すことが可能である。
アンテナ5は、放送局の放送装置から放送された立体映像ストリームを含む放送波を受信するためのアンテナである。アンテナ5は、立体映像処理装置1(チューナ12)に対して、受信した立体映像ストリームを含む放送波を送信する。
メモリカード6は、立体映像ストリームが記録された半導体メモリカード、又は半導体メモリを内部に有した記録媒体である。メモリカード6は、立体映像処理装置1(データ伝送インターフェース15)に挿入可能である。なお、立体映像処理装置1(データ伝送インターフェース15)は、メモリカード6に記録された立体映像ストリームを読み出すことが可能である。
5−1.立体映像処理装置の構成
図5を用いて立体映像処理装置1の構成を説明する。立体映像処理装置1は、ディスクドライブ11、チューナ12、ネットワーク通信インターフェース13、メモリデバイスインターフェース14、データ伝送インターフェース15、バッファメモリ(フレームメモリ)16、HDドライブ17、フラッシュメモリ19及びLSI18を備える。
ディスクドライブ11は、光ピックアップを含み、光ディスク4から立体映像ストリームを読み出す。ディスクドライブ11は、LSI18と接続されており、光ディスク4から読み出した立体映像ストリームをLSI18に送信する。ディスクドライブ11は、LSI18からの制御に応じて、光ディスク4から立体映像ストリームを読み出し、LSI18に送信する。
チューナ12は、アンテナ5で受信した立体映像ストリームを含む放送波を取得する。チューナ12は、取得した放送波から、LSI18によって指定された周波数の立体映像ストリームを取り出す。チューナ12はLSI18に接続されており、取り出した立体映像ストリームをLSI18に送信する。
ネットワーク通信インターフェース13は、ネットワークに接続するための制御を行う。本実施形態では、立体映像処理装置1は、ネットワーク通信インターフェース13及びネットワークを介してサーバ3と接続可能である。ネットワーク通信インターフェース13は、サーバ3から送信された立体映像ストリームを取得する。
メモリデバイスインターフェース14は、メモリカード6を装着するためのインターフェースであり、装着されたメモリカード6から立体映像ストリームを受信することが可能である。メモリデバイスインターフェース14は、メモリカード6から読み出された立体映像ストリームをLSI18に送信する。
HDドライブ17は、ハードディスクなどの記録媒体を内蔵し、記録媒体から読み出されたデータをLSI18に送信する。また、HDドライブ17は、LSI18から受信したデータを記録媒体に記録する。
データ伝送インターフェース15は、LSI18から送信されたデータを、外部の立体映像表示装置2に送信するためのインターフェースである。データ伝送インターフェース15は、データ信号及びコントロール信号を、立体映像表示装置2との間で送受信可能に構成されている。LSI18は、データ伝送インターフェース15を介して、立体映像表示装置2を制御することが可能である。データ伝送インターフェース15は、例えば、HDMI(High−Definition Multimedia Interface)に準拠して通信を実現する。データ伝送インターフェース15は、HDMIケーブルを介して立体映像表示装置2と接続する。HDMIケーブルは、データ線とコントロール線とを含む。なお、データ伝送インターフェース15は、データ信号を立体映像表示装置2に送信できれば、どのような構成であってもかまわない。
バッファメモリ16は、LSI18の処理のためのワークメモリとして機能する。バッファメモリ16は、例えば、DRAMやSRAMなどで実現可能である。
フラッシュメモリ19は、立体映像処理装置1の装置画像のデータを予め格納している。装置画像は、例えば、チャンネルの情報や音量の情報、ディスプレイの輝度・コントラスト量・色温度などを調整するための情報、再生装置の画質を調整するための情報を示す画像を含む画像である。LSI18は、フラッシュメモリ19から読み出した装置画像を映像データに重ね合わせて立体映像表示装置2に表示させることができる。これによって、LSI18は、立体映像処理装置1の情報を視聴者に提示できる。また、LSI18は、設定画面を表示するよう制御する。LSI18は、その設定画面上で視聴者から設定を受け付けることも可能になる。
LSI18は、立体映像処理装置1の各部を制御するシステムコントローラであり、マイクロコンピュータやハードワイヤードな回路で実現できる。LSI18は、CPU181、ストリームコントローラ182、デコーダ183、AV入出力回路184、システムバス185及びメモリコントローラ186が実装されている。
CPU181はLSI18全体を制御する。LSI18の各部は、LSI18からの制御に基づいて各種制御を行なうように構成されている。また、CPU181は外部との通信も制御する。例えば、CPU181は、サーバ3等から立体映像ストリームを取得する際、ディスクドライブ11やチューナ12、ネットワーク通信インターフェース13、メモリデバイスインターフェース14に制御信号を送信する。これによってディスクドライブ11やチューナ12、ネットワーク通信インターフェース13、メモリデバイスインターフェース14は、記録メディアや放送局等から立体映像ストリームを取得することができる。
ストリームコントローラ182は、サーバ3や光ディスク4、アンテナ5、メモリカード6、及びアクティブシャッターメガネ(後述)との間のデータの送受信を制御する。例えば、CPU181は、サーバ3から取得した立体映像ストリームを、メモリコントローラ186に送信する。
メモリコントローラ186は、LSI18の各部から送信されたデータを、バッファメモリ16に書き込む。例えば、メモリコントローラ186は、ストリームコントローラ182から取得した立体映像ストリームを、バッファメモリ16に記録する。また、メモリコントローラ186は、バッファメモリ16に記録されたデータを、バッファメモリ16から読み出す。そして、バッファメモリ16は、読み出したデータをLSI18の各部に送信する。
デコーダ183は、メモリコントローラ186からデータを取得すると、取得したデータをデコードする。ここで、デコーダ183に入力されるデータは、CPU181の制御に基づいている。具体的には、CPU181は、メモリコントローラ186を制御して、バッファメモリ16に記録された立体映像ストリームを読み出させる。そして、CPU181は、読み出した立体映像ストリームをデコーダ183に送信するようメモリコントローラ186を制御する。これによって、メモリコントローラ186からデコーダ183に立体映像ストリームが入力される。
具体的には、デコーダ183は、入力された立体映像ストリームを、符号化されたデータ31(圧縮符合化された立体映像情報、圧縮符号化された音声情報、圧縮符合化されたデータ情報)と、そのヘッダ情報33とに分離する。そして、デコーダ183はヘッダ情報33をバッファメモリ16に記録する。
また、デコーダ183は、ヘッダ情報33に含まれるデコード情報に基づいて、圧縮されたデータ31をデコードする。なお、デコーダ183は、デコードした情報(立体映像情報、音声情報、データ情報)をメモリコントローラ186に送信する。メモリコントローラ186はデコーダ183から受信した情報をバッファメモリ16に記録する。
AV入出力回路184は、バッファメモリ16から、復号されたデータ31及びヘッダ情報33の情報を読み出し、それらに基づき立体映像表示装置2に表示させるための出力データを生成する。そして、AV入出力回路184は、生成した出力データを、データ伝送インターフェース15を介して立体映像表示装置2に送信する。その際、ストリームコントローラ182およびデコーダ183はヘッダ情報33を解析し、ベースビュー情報を取得する。AV入出力回路184は、このベースビュー情報を、左眼映像、右眼映像のいずれの平均ビットレートが高いかを示す識別情報として出力データに含める。なお、本実施形態では、識別情報としてベースビュー情報を用いるが、識別情報は、左眼映像と右眼映像のうち符号化の平均ビットレートが高い方の映像を示す情報であればよく、ベースビュー情報に限定されるものではない。例えば、AV入出力回路184は、立体映像ストリームを解析して、左眼映像と右眼映像のうち符号化の平均ビットレートが高い方の映像を判断することで識別情報を生成しても良い。また、識別情報は出力データにおいてフレーム毎に含められる。
具体的には、AV入出力回路184は、図6に示すような出力データを生成する。AV入出力回路184は、出力データを生成するため2つのステップを行う。1つ目のステップは表示画像生成処理であり、2つ目のステップは出力データ生成処理である。以下、それぞれの処理について説明する。
5−1−1.表示画像生成処理
表示画像生成処理は、視聴者からの指示に応じて、立体映像情報(左眼映像又は右眼映像)を加工する処理である。具体的には、視聴者から、字幕の表示指示、又は、副映像の表示指示、立体映像処理装置1の装置画像(以下「処理装置画像」と称す)の表示指示を受け付けた場合にこの処理を行う。なお、視聴者は立体映像処理装置1に対してリモコンを用いて指示することができる。リモコンからの指示は、立体映像処理装置1に設けられる赤外線センサで受信することが可能である。以下具体的な処理の例を説明する。
立体映像処理装置1は視聴者から字幕映像を表示する旨の指示を受けると、AV入出力回路184は、字幕映像を立体映像データに重畳する。より詳しくは、AV入出力回路184は、ヘッダ情報33をバッファメモリ16から取得し、字幕映像の視差情報に基づいて、左眼映像又は右眼映像に字幕映像を重ね合わせる。例えば、図6に示すように、AV入出力回路184は、字幕映像の視差情報(ズレ量)がYピクセルである場合、左眼映像50aに対して字幕映像51をYピクセルだけ右方向にずらして重ね合わせ、右眼映像50bに対して字幕映像51をYピクセルだけ左方向にずらして重ね合わせる。立体映像50a、50bに付加される副映像53も同様である。
また、字幕の表示に加えて、視聴者によって処理装置画像を表示するよう指示された場合、AV入出力回路184は、フラッシュメモリ19から、指示に対応する処理装置画像(例えば、立体映像処理装置1が提供する機能メニュー画像)データを取得する。そして、AV入出力回路184はバッファメモリ16から字幕映像の視差情報を取得する。AV入出力回路184は、取得した字幕映像の視差情報に基づいて処理装置画像の視差情報を決定する。具体的には、AV入出力回路184は、立体表示において処理装置画像が字幕映像よりも画面の奥行き方向において手前(視聴者側)に表示されるように、視差情報(例えば、Zピクセル)を決定する。すなわち、装置画像の視差が字幕映像の視差よりも大きくなるように視差情報を決定する。例えば、図7に示すような立体表示において、立体映像表示装置2の画面30よりも視聴者200側に立体映像による物体110及び字幕51が表示されている状況において、字幕51よりも手前(視聴者側)に処理装置画像55が表示されるように、処理装置画像55の視差情報が決定される。なお、立体映像による物体110は、立体映像により表示される物体の中で最も視聴者200側に表示される物体であるとし、字幕51はその物体110よりも視聴者200側に表示されるものとしている。このように、処理装置画像55を立体映像による物体110や字幕51よりも手前(視聴者側)に表示することで、視聴者は違和感なく処理装置画像55を視認できる。
AV入出力回路184は、上記のように決定された視差情報に基づいて処理装置画像の重ね合わせを行なう。
例えば、図6に示すように、処理装置画像55の視差情報(ズレ量)がZピクセルである場合、左眼映像50aに対して処理装置画像55をZピクセル右方向にずらして重ね合わせ、右眼映像50bに対して処理装置画像55をZピクセル左方向にずらして重ね合わせる。AV入出力回路184は、このようにして処理装置画像55を重ね合わせた左眼映像50a及び右眼映像50bを示す映像データを生成する。
5−1−2.出力データ生成処理
AV入出力回路184は、図8に示すような出力データを生成する。図8に示すように、出力データは映像の無効区間(ブランキング領域)と有効区間(アクティブ領域)とを含むJ×K画素のデータとなる。
アクティブ領域には、表示画像生成処理で生成した表示画像が含まれる。HDMIのようなデータ伝送インターフェースによれば、ブランキング領域において、音声データ、映像フォーマット情報、リザーブド情報などをパケットに含めて伝送する。音声データは、アクティブ領域に含まれる映像に対応する音声情報を含む。映像フォーマット情報は、解像度や画面の縦横比等の情報を含む。リザーブド情報は、左眼映像と右眼映像のうち符号化の平均ビットレートが高い方の映像を示す識別情報を含む。なお、本実施形態では、この識別情報として、ベースビュー情報を用いている。リザーブド情報はさらに、表示画像生成処理で生成した表示画像の最大視差情報を含む。例えば、前述の表示画像生成処理により処理装置画像を重畳した場合、視差情報Zが与えられる。最大視差情報の算出方法については後述する。
なお、本実施の形態では、識別情報は、左眼映像と右眼映像のうち符号化の平均ビットレートが高い方の映像を示す情報とした。しかし、識別情報は、これに限られず、符号化時においてIフレームを含む映像がいずれであるかを示す情報としてもよい。よって、MVCで符号化された映像である場合、デコーダでIフレームを含むフレームが左眼映像又は右眼映像かを検出し、この検出した情報に基づいて、識別情報を生成すればよい。
本実施形態では、リザーブド情報は、左眼映像と右眼映像のうち符号化の平均ビットレートが高い方の映像を示す識別情報を1フレーム毎に含む。しかしながら、これに限定されず、nフレーム毎(n>1)に含むようにしてもよい。または、ベースビューが左眼映像から右眼映像へ(又はその逆に)変化したタイミングで、リザーブド情報に識別情報を含めるようにしてもよい。
以上の2つの処理によって生成されたデータを、AV入出力回路184は、データ伝送インターフェース15を介して立体映像表示装置2に出力する。
5−1−3.最大視差情報の算出方法
上記で説明した表示画像の最大視差情報の算出について2つの例を挙げて説明する。
<例1>立体映像情報に、字幕データと立体映像処理装置1の装置画像が重畳される場合
抽出情報は以下のとおりである。
Figure 0005390016
立体映像処理装置1の装置画像は、字幕データよりも視聴者側に表示されるように視差情報を調整されるとする。
この場合、視差情報Zは字幕データの視差情報Yよりも大きいため、最大視差情報はZとなる。なお、仮に視差情報XがZよりも大きい場合であったとしても、副映像は立体映像情報に重畳されていないので、最大視差情報はZとなる。
<例2>立体映像情報に他の画像が重畳されていない場合
抽出情報は以下のとおりである。
Figure 0005390016
この場合、最大視差情報はXとなる。例2では、立体映像情報が視差情報を持っていない。立体映像情報を解析して、視差情報を求めるのは困難であるため、字幕データ又は副映像データの視差情報を用いて最大視差情報を求める。なお、本実施の形態では、副映像データの視差情報(重畳されていないデータの中で最小の視差)を用いるようにした。このようにして求めた最大視差情報に基づき立体映像表示装置2の装置画像を表示することで、視聴者が感じる違和感を低減できる。なお、最大視差情報として字幕データの視差情報Yを用いてもよい。
なお、立体映像処理装置が立体映像情報の視差情報を検出する回路を備えている場合、当該回路で検出できる立体映像情報の視差情報を字幕データや副映像データ等の視差情報と比較することにより、それらの視差情報の中の最大視差情報を求めてもよい。
5−2.立体映像表示装置の構成
図9に立体映像表示装置2の構成を示す。立体映像表示装置2はディスプレイ24を備え、立体映像処理装置1からの出力データに含まれる映像データ(表示画像)を表示する。ディスプレイ24は、例えば、液晶ディスプレイ、プラズマディスプレイ又は有機ELディスプレイで構成される。つまり、立体映像表示装置2は、立体映像処理装置1から送信された出力データに含まれる映像を表示可能である。
より具体的には、立体映像表示装置2は、コントローラ22、メモリ23、ディスプレイ24、データ伝送インターフェース21および通信インターフェース25で構成されている。メモリ23は例えばフラッシュメモリやDRAMで実現可能である。コントローラ22は、例えば、マイクロプロセッサで実現できる。
データ伝送インターフェース21は、立体映像表示装置2と立体映像処理装置1の間でデータの送受信を行なうためのインターフェースである。データ伝送インターフェース21は、例えば、HDMI(High−Definition Multimedia Interface)に準拠して通信を行う。
通信インターフェース25は、アクティブシャッターメガネ7と通信を行なうためのインターフェースである。通信インターフェース25は、例えば、赤外線やBluetoothなどの無線又は有線により、アクティブシャッターメガネ7との通信を確立する。
なお、立体映像表示装置2は、リモコンからの信号に応じて、表示モードを3次元映像表示モードと2次元映像表示モードとの間で切り替え可能である。以下、各モードの表示動作を説明する。
5−2−1.3次元映像表示モード
図10A及び図10Bを参照して3次元映像表示モードでの動作について説明する。立体映像表示装置2は、アクティブシャッターメガネ7を用いて立体映像を視聴可能にするための映像を表示する(図10A参照)。具体的には、立体映像処理装置1は、立体映像表示装置2に対して、左眼映像が示す映像データと右眼映像が示す映像データを交互に出力する。立体映像表示装置2は、立体映像処理装置1から取得した映像データに含まれる左眼映像及び右眼映像を交互にディスプレイ24の画面上に表示する(図10B参照)。視聴者は、このようにして立体映像表示装置2に表示された映像を、アクティブシャッターメガネ7を通して視認することで立体映像として認識できる。
アクティブシャッターメガネ7は、視聴者の左右の何れかの視野を遮ることが可能なシャッタを備えている。アクティブシャッターメガネ7は、立体映像表示装置2に左眼映像が表示されると、視聴者の立体映像表示装置2に対する右眼の視野を遮る一方で、立体映像表示装置2に右眼映像が表示されると、視聴者の立体映像表示装置2に対する左眼の視野を遮るようにシャッタが制御される。つまり、図10A、図10Bのように、視聴者は、立体映像表示装置2に左眼映像を示す画面が表示されている場合は、左眼で映像を見ることになり、立体映像表示装置2に右眼映像を示す画面が表示されている場合は、右眼で映像を見ることになる。これによって、視聴者は、立体映像表示装置2に順次表示された画面を立体映像として視認することができる。
ここで、立体映像表示装置2のコントローラ22は、視聴者の指示(リモコンの指示)により、立体映像表示装置2の装置画像(以下「表示装置画像」と称す)を表示画面に重畳して表示するよう指示された場合、映像データに表示装置画像を重畳して表示する。表示装置画像のデータはメモリ23に格納されている。表示装置画像は、例えば、チャンネルの情報や音量の情報、ディスプレイの輝度・コントラスト量・色温度などを調整するための情報、再生装置の画質を調整するための情報を示す画像を含む。
具体的には、コントローラ22は、以下のように映像データに表示装置画像を重畳して表示する。コントローラ22は、立体映像処理装置1の出力データに含まれる視差情報(例えば、Zピクセル)に基づいて、表示装置画像の視差情報(例えば、Z+αピクセル)を決定する。そして、コントローラ22は、決定した視差情報に基づいて表示装置画像を重畳する。この重畳の方法は、立体映像処理装置1で説明した方法と同じであるため、省略する。このようにすれば、立体映像処理装置1で加工された映像に対しても、表示されたときに違和感の少ない表示装置画像を重畳できる。これによって、視聴者は違和感なく、3次元映像を視聴できるようになる。
なお、本実施の形態では、アクティブシャッターメガネ7を用いた例を説明したが、立体映像表示装置2に表示された右眼映像と左眼映像を視聴者が別々に見ることを可能とする方法であれば、この方法に限られない。
また、上記出力データに含まれる視差情報は、表示装置画像の視差調整だけでなく、以下の用途においても利用することができる。
例えば、立体映像表示装置が、視聴者により画面内の視差を調整できる機能を有する場合、視差情報は以下のように利用できる。立体映像表示装置は、まず、立体映像処理装置からの出力データに含まれる視差情報に基づいて決定される立体映像の飛び出し量で映像を視聴者に提示する。そして、立体映像表示装置は、視聴者によるリモコン等を介した指示に基づいて、さらに、立体映像の飛び出し量を調整する。このようにすれば、音量調整の場合と同様に、容易な手段で視聴者は視差の調整ができる。
また、立体映像の視差が大きくなるにつれて、視聴者の眼への負担は大きくなる。そこで、例えば、立体映像表示装置は、立体映像処理装置からの出力データに含まれる視差情報に基づき視差の大きさを検知し、検知した視差が所定の値よりも大きければ、自動的に表示制限を行う。その表示制限では、右眼映像と左眼映像の物体の視差が小さくなるように表示画面全体の表示位置を調整する。この構成により、立体視に起因する視聴者の眼への負担を軽減する機能を実現できる。
5−2−2.2次元映像表示モード
2次元映像表示モードについて説明する。2次元映像表示モードは、立体映像情報に基づき2次元映像を表示するモードである。2次元映像表示モードでは、立体映像表示装置2は左眼映像又は右眼映像のいずれかのみをディスプレイ24に表示する。この際、アクティブシャッターメガネ7の機能はOFFにされる。つまり、アクティブシャッターメガネ7は両方の眼に対して光を透過させる。なお、2次元映像表示モードでは、視聴者はアクティブシャッターメガネ7を使わなくても2次元映像を視聴できる。
2次元映像表示モードでは、立体映像表示装置2のコントローラ22は、立体映像処理装置1からの出力データに含まれる識別情報(左眼映像又は右眼映像のいずれが符号化の平均ビットレートの高い映像であるかを示す情報)に基づいて、表示すべき映像として左眼映像又は右眼映像を選択する。つまり、コントローラ22は、識別情報が示す方の映像(例えば、左眼映像)を選択肢、ディスプレイ24に表示させる。このように識別情報を参照することで、立体映像表示装置2は平均ビットレートが高く圧縮されていた映像を認識できる。2次元映像表示する際に、より画質の良い方の映像を選択して視聴者に提供することができる。
一般に、立体映像処理装置と立体映像表示装置間でHDMIにしたがい映像情報を伝送する場合、伝送する映像情報を3次元映像情報(立体映像情報)と2次元映像情報との間で切り替える場合、立体映像処理装置と立体映像表示装置間で認証処理が必要となる。この認証処理の間、立体映像表示装置では映像の表示が停止される。このため、3次元映像(立体映像)情報と2次元映像情報を切り替える度、再認証処理が発生し、これにより映像表示が途切れてしまうという問題があり、視聴者の利便性を損なう。そこで、本実施形態のような2次元映像表示モードを設けることにより、立体映像表示装置2は、立体映像処理装置1から3次元映像情報(立体映像情報)を受信しつつ、表示する映像の形式を、立体視を可能とする3次元表示と、立体視を可能としない2次元表示との間で切り替えることが可能となる。これにより、前述のような認証処理が不要となるため、3次元表示と2次元表示の切り替えにともない視聴者の利便性が損なわれることを防止できる。さらに、2次元映像表示モードにおいて、識別情報を参照して、平均ビットレートがより高い方の映像を認識できるため、より画質の良い方の映像を選択して視聴者に提供することができる。
6.立体映像表示システムの具体的な動作例
6−1.3次元映像表示の動作例
図11及び図12を用いて、3次元映像表示モードにおける、すなわち、3次元映像を表示する際の具体的な動作例を説明する。なお、説明の便宜上、一部の処理については説明を省略している。また、立体映像表示装置2は3次元表示モードに設定されているものとする。
図11を用いて立体映像処理装置1の動作を説明する。図11に示すように、立体映像処理装置1は、光ディスク4より立体映像ストリームを取得する。立体映像処理装置1は、立体映像ストリームを、ヘッダ情報、立体映像符号化情報、音声情報、データ情報に分離する。その後、立体映像処理装置1は、各データをデコーダ183(各デコーダ)により復号し、復号したデータをバッファメモリ16(各領域)に記録する。
立体映像処理装置1は左眼映像データ及び右眼映像データを交互に読み出す。立体映像処理装置1は、視聴者の指示に応じて、立体映像情報(左眼映像データ又は右眼映像データ)に、字幕データ、メニューデータを重畳する。この際、立体映像処理装置1は、立体映像ストリームのヘッダ情報に含まれる視差情報(字幕視差情報及び副映像視差情報)を用いて字幕データ及びメニューデータの右眼映像及び左眼映像上の位置を決定して立体映像情報に重畳する。
また、立体映像処理装置1は、視聴者の指示に応じて、処理装置画像(OSD)を立体映像情報に重畳する。この際、立体映像処理装置1は、字幕視差情報又は副映像視差情報を用いて処理装置画像の視差情報を決定し、決定した視差情報を用いて処理装置画像を重畳する。このようにして表示画像情報が生成される。
ここで、立体映像処理装置1は、表示画像の最大視差情報を算出する。具体的には、重畳された映像(字幕、副映像)の視差情報のうち、最も大きい視差の情報を最大視差情報とする。
立体映像処理装置1は、このように算出した視差情報を表示画像情報と併せて、出力データとして、立体映像表示装置2に送信する。
次に、図12を用いて、立体映像処理装置1から表示画像情報及び視差情報を受信した立体映像表示装置2の動作を説明する。立体映像表示装置2は、受信した表示画像情報に基づき表示画像を順次ディスプレイに表示する。この際、立体映像表示装置2は、視聴者の指示に応じて表示装置画像(OSD)を立体映像情報に重畳して表示する。このため、立体映像表示装置1は、立体映像処理装置1からの出力データに含まれる視差情報を用いて表示装置画像の視差情報を決定し、決定した視差情報を用いて表示装置画像を立体映像に重畳する。
この構成により、立体映像表示装置2は、表示画像を立体視したときに視聴者に与える違和感がより少なくなる表示画像上の位置に表示装置画像を重畳できる。
6−2.2次元映像表示の動作例
図13及び図14を用いて、2次元映像表示モードにおける、すなわち、2次元映像を表示する際の具体的な動作例を説明する。なお、説明の便宜上、一部の処理については説明を省略している。また、立体映像表示装置2は2次元表示モードに設定されているものとする。
図13を用いて、立体映像処理装置1の動作を説明する。図13に示すように、立体映像処理装置1は、光ディスク4より立体映像ストリームを取得する。立体映像処理装置1は、立体映像ストリームを、ヘッダ情報、立体映像符号化情報、音声情報、データ情報に分離する。その後、立体映像処理装置1は、各データをデコーダ183(各デコーダ)により復号する。立体映像処理装置1は、復号したデータをバッファメモリ16(各領域)に記録する。
そして、立体映像処理装置1は左眼映像データ及び右眼映像データを交互に読み出す。この際、立体映像処理装置1は、立体映像ストリームのヘッダ情報33に含まれるベースビュー情報を検出し、検出したベースビュー情報を識別情報として表示画像と併せて、出力データとして、立体映像表示装置2に送信する。
次に、図14を用いて、立体映像処理装置1から表示画像情報及び識別情報を受信した立体映像表示装置2の動作を説明する。図14に示すように、立体映像表示装置2は、受信した表示画像情報の中から左眼映像又は右眼映像のいずれかの映像を選択し、順次ディスプレイに表示する。この際、立体映像表示装置2は、左眼映像又は右眼映像の選択を、出力データに含まれる識別情報に基づいて行う。このように識別情報を参照することにより、立体映像表示装置2は、左眼映像及び右眼映像のうち、より画質の良い映像を簡易な方法で認識できる。
7.まとめ
以上のように本実施形態の立体映像処理装置1は、立体映像表示装置2に、立体視を可能とする立体映像情報を出力可能な装置であって、立体映像情報を取得するディスクドライブ11(取得手段の一例)と、立体映像情報に付加映像情報(少なくとも字幕情報、副映像情報及び処理装置画像のいずれか)を重畳する重畳手段AV入出力回路184(重畳手段の一例)と、付加映像情報の視差情報を、付加映像情報が重畳された立体映像情報に関連付けた状態で映像表示装置2に送信するデータ伝送インターフェース15(送信手段の一例)とを備える。
上記の構成により、映像処理装置1は、映像表示装置2に対して、より簡易な方法で、映像処理(復号)後の立体映像情報に関する視差情報を伝えることができる。この視差情報を利用することで、映像表示装置2は、表示装置画像(OSD)をより適切な位置に配置でき、違和感なく視認できる表示装置画像(OSD)を視聴者に提示することができる。
また、本実施形態の立体映像処理装置1は、映像表示装置2に、第1眼映像と第2眼映像を含み、立体視を可能とする立体映像情報を出力可能な装置である。映像処理装置1は、第1眼映像と第2眼映像をそれぞれ異なるビットレートで符号化する符号化方式(例えば、MVC)を用いて符号化された立体映像情報を取得するディスクドライブ11(取得手段の一例)と、立体映像情報を復号するデコーダ183(復号手段の一例)と、第1眼映像と第2眼映像のうちの符号化ビットレートの高い方の映像を示す識別情報を、復号された立体映像情報に関連付けた状態で映像表示装置2に送信するデータ伝送インターフェース15(送信手段の一例)と、を備える。
上記の構成により、映像処理装置1は、映像表示装置2に対して、より簡易な方法で、第1眼映像と第2眼映像のうちいずれが画質の高い方の映像であるかを知らせることができる。これによって、映像表示装置2は、第1眼映像と第2眼映像のうちの画質のより良い方の映像を選択でき、映像表示装置2は、選択した映像を2次元表示することで、視聴者に対して画質の良い2次元映像を提供できる。
8.他の実施の形態
本発明の一実施の形態として上記の例を説明した。しかし、本発明の思想はこれに限られず種々の形態で実現することが可能である。以下、他の実施の形態を説明する。
上記の実施形態では、立体映像符号化情報の映像ソースとして光ディスクを用いた例を説明したが、映像ソースはそれに限定されない。立体映像符号化情報を提供する放送局、サーバ、メモリカード等も上記の思想が適用できる映像ソースの例である。
上記の実施の形態では、ヘッダ情報33に含まれるベースビュー情報に基づく識別情報を参照して、立体映像符号化情報に含まれる平均ビットレートのより高い方の映像(左眼映像又は右眼映像)を検知するようにした。しかし、本発明の実施の形態はこれに限られない。
例えば、立体映像ストリームに含まれる管理情報(プレイリスト)などにベースビュー情報を格納しておき、この管理情報を用いて平均ビットレートの高い映像を検知してもよい。なお、管理情報は、立体映像ストリームのデータの最初に設けられる情報である。
または、立体映像符号化情報のビットレートを観測することで、平均ビットレートの高い映像を検知してもよい。
なお、平均ビットレートは、立体映像符号化情報の所定の区間における平均値として求めてもよいし、立体映像符号化情報全体の平均値として求めてもよい。
また、上記の実施の形態では、識別情報と最大視差情報をリザーブド領域に含めて出力するようにした。しかし、これに限られず、識別情報と最大視差情報は、HDMIのCEC(Consumer Electronic Control)のコマンドとして、コントロール線で伝送するようにしてもかまわない。
また、上記の実施の形態では、映像コンテンツにおいて、字幕情報は、その視差情報を考慮して右眼映像と左眼映像それぞれに重畳された。しかし、これに限られず、映像コンテンツにおいて、左眼映像に対応した左眼用の字幕情報と、右眼映像に対応した右眼用の字幕情報をそれぞれ左眼映像、右眼映像に重畳させるようにしてもよい。このように構成された場合、左眼用字幕情報と右眼用字幕情報とを解析して、字幕の視差情報を求めることができる。なお、字幕の視差情報は、立体映像情報の視差情報を求めるよりも容易である。なお、副映像情報も同様である。
また、上記の実施の形態の立体映像処理装置1は、表示画像全体において最大となる視差に関する視差情報を立体映像表示装置2に出力したが、表示画像の一部の領域毎に視差情報を送信してもよい。例えば、図15に示すように、表示画像中に処理装置画像61や字幕62が含まれる場合、立体映像処理装置1は、処理装置画像61や字幕62について、それらの視差情報を、それらのオブジェクトが表示される領域に関する情報とともに立体映像表示装置2に出力するようにしてもよい。図16に、そのような方法で視差情報を送信する際のフォーマットを示す。図16に示すように、視差情報は、領域毎に、領域の開始位置(xs,ys)と領域のサイズ(横長Lx×縦長Ly)と関連づけされて立体映像表示装置2に出力される。立体映像表示装置2は、このような領域毎の視差情報を参照することにより、各領域に表示されるオブジェクトに表示装置画像が重ならないように、表示装置画像の表示位置を決定することができる。なお、視差情報及び領域に関する情報は、1つや2つに限られず、複数個であってもよい。
本発明は、立体映像を表示可能なテレビ受像機やディスプレイに対して、立体映像を出力可能な装置(例えば、映像記録装置や光ディスク再生装置)に適用可能である。
1 立体映像処理装置
2 立体映像表示装置
3 サーバ
4 光ディスク
5 アンテナ
6 メモリカード
7 アクティブシャッターメガネ
11 ディスクドライブ
12 チューナ
13 ネットワーク通信インターフェース
14 メモリデバイスインターフェース
15 データ伝送インターフェース
16 バッファメモリ
17 HDドライブ
18 LSI
181 CPU
182 ストリームコントローラ
183 デコーダ
184 AV入出力回路
185 システムバス
186 メモリコントローラ
19 フラッシュメモリ
21 データ伝送インターフェース
22 コントローラ
23 メモリ
24 ディスプレイ
25 通信インターフェース

Claims (5)

  1. 映像表示装置に、立体視を可能とする立体映像情報を出力可能な映像処理装置であって、
    立体映像情報を取得する取得手段と、
    前記立体映像情報に付加映像情報を重畳する重畳手段と、
    前記付加映像情報の視差情報を、前記付加映像情報が重畳された立体映像情報に関連付けた状態で前記映像表示装置に送信する送信手段と、
    を備える映像処理装置。
  2. 前記付加映像情報は、字幕情報、副映像情報、及び前記映像処理装置が提供する画像のうちのいずれかである、請求項1に記載の映像処理装置。
  3. 前記視差情報は、前記立体映像情報又は前記付加映像情報の視差情報のうち、立体視表示されたときに視聴者に対して最も手前に位置する映像の視差を示す情報である、
    請求項1に記載の映像処理装置。
  4. 前記送信手段は、前記視差情報に加えて、付加映像情報が表示される領域に関する情報を、前記立体映像情報に関連付けた状態で前記映像表示装置に送信する、
    請求項1に記載の映像処理装置。
  5. 請求項1から4のいずれか1つに記載の映像処理装置から立体映像情報及び視差情報を受信する受信する受信手段と、
    前記受信した立体映像情報を表示する表示手段と、
    前記受信した視差情報に基づき、前記立体映像情報の表示手段への表示を制御する制御手段と、を備える
    表示装置。
JP2012506854A 2010-03-24 2011-03-24 映像処理装置 Expired - Fee Related JP5390016B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012506854A JP5390016B2 (ja) 2010-03-24 2011-03-24 映像処理装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010067592 2010-03-24
JP2010067592 2010-03-24
JP2012506854A JP5390016B2 (ja) 2010-03-24 2011-03-24 映像処理装置
PCT/JP2011/001728 WO2011118215A1 (ja) 2010-03-24 2011-03-24 映像処理装置

Publications (2)

Publication Number Publication Date
JPWO2011118215A1 JPWO2011118215A1 (ja) 2013-07-04
JP5390016B2 true JP5390016B2 (ja) 2014-01-15

Family

ID=44672793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012506854A Expired - Fee Related JP5390016B2 (ja) 2010-03-24 2011-03-24 映像処理装置

Country Status (3)

Country Link
US (1) US20130010064A1 (ja)
JP (1) JP5390016B2 (ja)
WO (1) WO2011118215A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011136190A1 (ja) * 2010-04-28 2011-11-03 富士フイルム株式会社 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
JP5633259B2 (ja) * 2010-09-06 2014-12-03 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP2012120142A (ja) * 2010-11-08 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
US9390537B2 (en) * 2011-12-09 2016-07-12 Thomson Licensing Disparity setting method and corresponding device
WO2013108633A1 (ja) 2012-01-18 2013-07-25 パナソニック株式会社 送信装置、映像表示装置、送信方法、映像処理方法、映像処理プログラム及び集積回路
US9264683B2 (en) * 2013-09-03 2016-02-16 Sony Corporation Decoding device and decoding method, encoding device, and encoding method
US11039116B2 (en) * 2019-10-29 2021-06-15 Htc Corporation Electronic device and subtitle-embedding method for virtual-reality video

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10327430A (ja) * 1997-05-27 1998-12-08 Sanyo Electric Co Ltd ディジタル立体放送によるテロップ表示装置
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466205B2 (en) * 1998-11-19 2002-10-15 Push Entertainment, Inc. System and method for creating 3D models from 2D sequential image data
KR20100002032A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
US20100013910A1 (en) * 2008-07-21 2010-01-21 Vivid Medical Stereo viewer
WO2010013382A1 (ja) * 2008-07-31 2010-02-04 三菱電機株式会社 映像符号化装置、映像符号化方法、映像再生装置、映像再生方法、映像記録媒体、及び映像データストリーム
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
US8301013B2 (en) * 2008-11-18 2012-10-30 Panasonic Corporation Reproduction device, reproduction method, and program for stereoscopic reproduction
JP2010130495A (ja) * 2008-11-28 2010-06-10 Toshiba Corp 立体情報出力装置及び立体情報出力方法
WO2010084436A1 (en) * 2009-01-20 2010-07-29 Koninklijke Philips Electronics N.V. Method and system for transmitting over a video interface and for compositing 3d video and 3d overlays
WO2010095410A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、集積回路
JP5274359B2 (ja) * 2009-04-27 2013-08-28 三菱電機株式会社 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
JP5627860B2 (ja) * 2009-04-27 2014-11-19 三菱電機株式会社 立体映像配信システム、立体映像配信方法、立体映像配信装置、立体映像視聴システム、立体映像視聴方法、立体映像視聴装置
RU2533057C2 (ru) * 2009-05-25 2014-11-20 Панасоник Корпорэйшн Носитель записи, устройство воспроизведения, интегральная схема, способ воспроизведения и программа
US20100303437A1 (en) * 2009-05-26 2010-12-02 Panasonic Corporation Recording medium, playback device, integrated circuit, playback method, and program
JP5521486B2 (ja) * 2009-06-29 2014-06-11 ソニー株式会社 立体画像データ送信装置および立体画像データ送信方法
JP2011191347A (ja) * 2010-03-12 2011-09-29 Hitachi Consumer Electronics Co Ltd 表示装置及び視聴装置
JP4742174B1 (ja) * 2010-04-20 2011-08-10 株式会社ソニー・コンピュータエンタテインメント 3次元映像再生方法、および3次元映像再生装置
US20110316972A1 (en) * 2010-06-29 2011-12-29 Broadcom Corporation Displaying graphics with three dimensional video

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10327430A (ja) * 1997-05-27 1998-12-08 Sanyo Electric Co Ltd ディジタル立体放送によるテロップ表示装置
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置

Also Published As

Publication number Publication date
WO2011118215A1 (ja) 2011-09-29
US20130010064A1 (en) 2013-01-10
JPWO2011118215A1 (ja) 2013-07-04

Similar Documents

Publication Publication Date Title
WO2010092823A1 (ja) 表示制御装置
US9716873B2 (en) Image processing device and image processing method
JP5390016B2 (ja) 映像処理装置
US20100265315A1 (en) Three-dimensional image combining apparatus
EP2375767A1 (en) Stereoscopic video player, stereoscopic video playback system, stereoscopic video playback method, and semiconductor device for stereoscopic video playback
JP5502436B2 (ja) 映像信号処理装置
US9117396B2 (en) Three-dimensional image playback method and three-dimensional image playback apparatus
US20110141233A1 (en) Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
US20110012993A1 (en) Image reproducing apparatus
EP2334092A1 (en) Methods and apparatuses for encoding, decoding, and displaying a stereoscopic 3D image
US20130307929A1 (en) Image processing device and image processing method
JP5390017B2 (ja) 映像処理装置
WO2013031156A1 (ja) 映像処理システム、送信装置、受信装置、送信方法、受信方法及びコンピュータプログラム
US20130141534A1 (en) Image processing device and method
US20130335525A1 (en) Image processing device and image processing method
WO2012029293A1 (ja) 映像処理装置、映像処理方法、コンピュータプログラム及び配信方法
JP5412404B2 (ja) 情報統合装置、情報表示装置、情報記録装置
US20110285827A1 (en) Image reproducing apparatus and image display apparatus
JP2012089906A (ja) 表示制御装置
JP5066244B2 (ja) 映像再生装置及び映像再生方法
KR20130132240A (ko) 입체 화상 데이터 송신 장치, 입체 화상 데이터 송신 방법 및 입체 화상 데이터 수신 장치
US20130266287A1 (en) Reproduction device and reproduction method
US20120098944A1 (en) 3-dimensional image display apparatus and image display method thereof

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131009

R150 Certificate of patent or registration of utility model

Ref document number: 5390016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees