JP2012019517A - ディスプレイ方法および装置 - Google Patents

ディスプレイ方法および装置 Download PDF

Info

Publication number
JP2012019517A
JP2012019517A JP2011149799A JP2011149799A JP2012019517A JP 2012019517 A JP2012019517 A JP 2012019517A JP 2011149799 A JP2011149799 A JP 2011149799A JP 2011149799 A JP2011149799 A JP 2011149799A JP 2012019517 A JP2012019517 A JP 2012019517A
Authority
JP
Japan
Prior art keywords
video
main object
caption
information
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011149799A
Other languages
English (en)
Inventor
San-Hun Yi
▲尚▼ 勳 李
Xiangao Liang
先 鎬 梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2012019517A publication Critical patent/JP2012019517A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】
本発明の目的は、人間の眼への疲労感を軽減させる字幕を生成できるディスプレイ方法および装置を提供することを技術的課題とする。
【解決手段】
視聴者の眼への疲労感を緩和できる本発明の一側面に係るディスプレイ方法は、3D映像のメインオブジェクト(Main Object)予測領域の深さ情報を用いて字幕情報を生成するステップと、前記生成された字幕情報によって字幕を前記3D映像と合成して表示するステップとを含む。従って、画面の主要物体の深さに応じて字幕の属性(Property)を調節することにより、視聴者の眼への疲労感を緩和させる効果がある。
【選択図】図3

Description

本発明は、ディスプレイ方法および装置に関し、より詳細には、字幕表示方法に関するディスプレイ方法および装置に関する。
ステレオスコピック(Stereoscopic)方式のシアター用の3Dプロジェクターまたは3Dフラットパネルディスプレイなどのような3Dディスプレイでは、字幕が映像の奥行きとは関係なく、一定の深さで表示される。従って、字幕は視聴者が眺める画面の主要物体であるメインオブジェクト(Main Object)の深さ変化に関係なく、一定の高さに浮いて見えたり、凹んで見えたりする。これにより、視聴者は映像と字幕を交互に見る過程で多くの輻輳(Vergence)の変化を余儀なくされ、これは調節(Accommodation)と輻輳の不一致の激しい変化をもたらし、疲労感を増幅させる要因となる。
ここで、ステレオスコピック方式では字幕を立体的に左右眼に異なる映像を表示するため、図1の(a)に示されたように、輻輳は立体の内径位置を正しく知覚するが、眼の焦点はディスプレイのスクリーン上にあって、図1の(a)に示されたように調節機能が正常に動作しなくなってしまう。
一方、輻輳性調節作用という用語は、輻輳で知覚した内径位置に調節を合わせようとする人間の視覚機能として、既存の字幕立体表示方法では調節と輻輳が一致せず、調節が輻輳性調節に従うことができない。このような調節と輻輳の矛盾は、実世界においては有り得ないことであるため、人間の眼に疲労感を与えかねないという問題がある。
なお、視聴者が映像と字幕を交互に見る過程で、図1の(b)に示されたように、一つの物体を見ていて物体を眺める位置が変わると、実際に人間の知覚する物体の映像は違ってくるため、このような場合、運動時差の欠如が生じて、人間の眼に疲労感を与えるという問題がある。
韓国特開第2009−0066320号広報 日本特開第2004−219472号広報 日本特開第1998−234058号広報 日本特開第1997−102052号広報
そこで、本発明は、上記問題に鑑みてなされたものであり、人間の眼への疲労感を軽減させる字幕を生成できるディスプレイ方法および装置を提供することを技術的課題とする。
上述の目的を達成するための本発明の一側面に係るディスプレイ方法は、3D映像のメインオブジェクト(Main Object)予測領域の深さ情報を用いて字幕情報を生成するステップと、前記生成された字幕情報によって字幕を前記3D映像と合成して表示するステップとを含む。
ここで、前記字幕情報は、前記字幕の深さ、位置、大きさ、色相のうち少なくとも一つを含み、前記字幕の深さ、位置、大きさ、色相のうち少なくとも一つは、前記3D映像の毎フレームごとに異なる値を有してよい。
なお、前記字幕の色相は、前記メインオブジェクト予測領域の色相に応じて変わってよい。
一実施形態において、前記ディスプレイ方法は、前記3D映像から前記メインオブジェクトの位置する領域を予測して前記メインオブジェクト予測領域を抽出するステップと、前記抽出されたメインオブジェクト予測領域の深さ情報を算出するステップとを更に含んでよい。
ここで、前記メインオブジェクト予測領域の深さ情報は、前記メインオブジェクト予測領域に該当する前記3D映像の左眼映像および右眼映像の領域を抽出し、前記抽出された領域の深さ情報の差異を算出することで決定されてよい。
なお、前記メインオブジェクト予測領域の深さ情報は、前記3D映像に対する輝度分析によって決定されてよい。
一実施形態において、前記ディスプレイ方法は、前記3D映像の平均深さ情報を算出するステップを更に含み、前記字幕情報を生成するステップは、前記メインオブジェクト予測領域の深さ情報および前記算出された平均深さ情報を用いて前記字幕情報を生成してよい。
ここで、前記平均深さ情報は、前記3D映像の左眼映像および右眼映像の全体的な差異を用いて算出されてよい。
一実施形態において、前記ディスプレイ方法は、2D映像を前記3D映像に変換するステップを更に含んでよい。
一実施形態において、前記ディスプレイ方法は、前記3D映像の字幕ファイルから前記字幕を抽出するステップを更に含んでよい。
別の実施形態において、前記ディスプレイ方法は、前記3D映像から前記字幕を抽出するステップを更に含んでよい。
上述の目的を達成するための本発明の他側面に係るディスプレイ装置は、3D映像のメインオブジェクト(Main Object)予測領域の深さ情報を用いて字幕情報を生成する字幕情報生成部と、前記生成された字幕情報によって字幕を前記3D映像と合成する字幕合成部と、前記字幕の合成された前記3D映像を表示する映像出力部とを含む。
ここで、前記字幕情報は、前記字幕の深さ、位置、大きさ、色相のうち少なくとも一つを含み、前記字幕の深さ、位置、大きさ、色相のうち少なくとも一つは、前記3D映像の毎フレームごとに異なる値を有してよい。
なお、前記字幕の色相は、前記メインオブジェクト予測領域の色相に応じて変わってよい。
一実施形態において、前記ディスプレイ装置は、前記3D映像から前記メインオブジェクトの位置する領域を予測して前記メインオブジェクト予測領域を抽出するメインオブジェクト抽出部と、前記抽出されたメインオブジェクト予測領域の深さ情報を算出するメインオブジェクト深さ情報算出部とを更に含んでよい。
ここで、前記メインオブジェクト深さ情報算出部は、前記メインオブジェクト予測領域に該当する前記3D映像の左眼映像および右眼映像の領域を抽出し、前記抽出された領域の深さ情報の差異を算出することにより、前記メインオブジェクト予測領域の深さ情報を決定してよい。
なお、前記メインオブジェクト深さ情報算出部は、前記メインオブジェクト予測領域の深さ情報を前記3D映像に対する輝度分析によって決定してよい。
一実施形態において、前記ディスプレイ装置は、前記3D映像の平均深さ情報を算出する平均深さ情報算出部を更に含み、前記字幕情報生成部は、前記メインオブジェクト予測領域の深さ情報および前記算出された平均深さ情報を用いて前記字幕情報を生成してよい。
ここで、前記平均深さ情報算出部は、前記平均深さ情報を前記3D映像の左眼映像および右眼映像の全体的な差異を用いて算出してよい。
一実施形態において、前記ディスプレイ装置は、2D映像を前記3D映像に変換する3D映像変換部を更に含んでよい。
一実施形態において、前記ディスプレイ装置は、前記3D映像の字幕ファイルから前記字幕を抽出する字幕テキスト抽出部を更に含んでよい。
別の実施形態において、前記ディスプレイ装置は、前記3D映像から前記字幕を抽出する字幕映像抽出部を更に含んでよい。
本発明の多様な実施形態によると、画面の主要物体であるメインオブジェクト(Main Object)の深さに応じて字幕の属性を調節することにより、視聴者の眼への疲労感を緩和させる効果がある。
従来の3D字幕表示方法の問題点を説明するための図である。 本発明の一実施形態に係る3D映像提供システムを示す図である。 図1に示されたディスプレイ装置の一実施形態に係る概略的なブロック図である。 図1に示されたディスプレイ装置の別の実施形態に係る概略的なブロック図である。 本発明の一実施形態に係る字幕情報を生成する一例を説明するための図である。 本発明の一実施形態に係るディスプレイ方法を示すフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。
図2は、本発明の一実施形態に係る3D映像提供システムを示す図である。図2に示すように、3D映像提供システム200は、3D映像を画面に表示するためのディスプレイ装置210および3D映像を視聴するための3Dグラス220を含む。
ディスプレイ装置210は、3D映像を表示したり、2D映像および3D映像の両方を表示するように実現できる。
ディスプレイ装置210が2D映像を表示する場合、既存の2Dディスプレイ装置と同様の方法を用いることができ、3D映像を表示する場合、カメラなどの撮影装置から受信された3D映像またはカメラによって撮影されて放送局で編集/加工された後、放送局から送出された3D映像を受信し、受信された3D映像を処理した後にそれを画面に表示することができる。特に、ディスプレイ装置210は3D映像のフォーマットを参照し、左眼映像と右眼映像とを加工し、加工された左眼映像と右眼映像とが時分割されて交互に表示されるようにすることができる。
3Dグラス220は、左眼および右眼が互いに異なる偏光を持つパッシブタイプの偏光グラス、またはアクティブタイプのシャッターグラス(Shutter glass)で実現できる。
一方、本発明の一実施形態に係る映像提供システムは、3D映像を生成するためのカメラ(図示せず)を更に含んでよい。
カメラ(図示せず)は3D映像を生成するための撮影装置の一種として、視聴者の左眼に提供することを目的として撮影された左眼映像と、視聴者の右眼に提供することを目的として撮影された右眼映像を生成する。即ち、3D映像は左眼映像と右眼映像とで構成され、このような左眼映像と右眼映像とが視聴者の左眼と右眼にそれぞれ交互に提供され、両眼時差による立体感が生じるようになる。
これのために、カメラ(図示せず)は左眼映像を生成するための左眼カメラと、右眼映像を生成するための右眼カメラとで構成され、左眼カメラと右眼カメラとの間隔は、人間の両目間の離間間隔から考慮されるようになる。
カメラ(図示せず)は、撮影された左眼映像と右眼映像とをディスプレイ装置210に伝達する。特に、カメラ(図示せず)がディスプレイ装置210に伝達する左眼映像と右眼映像は、一つのフレームに左眼映像および右眼映像のうち一方の映像のみで構成されたフォーマットで伝達されたり、一つのフレームに左眼映像と右眼映像とが両方含まれるように構成されたフォーマットで伝達されることができる。
カメラ(図示せず)は多様な3D映像のフォーマットのうち一つのフォーマットを予め決定し、決定されたフォーマットにより3D映像を生成してディスプレイ装置210に伝達することができる。
一方、上述の説明では、3Dグラス220が必須構成であると説明したが、3Dグラス220無しに3D映像を視聴することのできるディスプレイ装置にも本発明が適用できることがいうまでもない。
図3は、図1に示されたディスプレイ装置の一実施形態に係る概略的なブロック図である。図3に示すように、ディスプレイ装置300は、3D映像変換部310、メインオブジェクト抽出部320、メインオブジェクト深さ情報算出部330と、平均深さ情報算出部340、字幕テキスト抽出部350、字幕情報生成部360、字幕合成部370および映像出力部380を含む。一方、図3に示されたディスプレイ装置300は、3D映像と別途に字幕ファイルが存在する実施形態に該当し得る。
3D映像変換部310は、2D映像を3D映像に変換した後、3D映像のフォーマットを参照し、左眼映像と右眼映像を加工し、加工された左眼映像と右眼映像とが時分割されて交互に表示されるように、3D映像に変換する役割を担う。
従って、本発明の一実施形態に係るディスプレイ装置は、2D映像が入力される場合にも、3D映像に変換し、後述の字幕情報生成部360では3D映像に適した字幕情報により字幕を生成することができる。
メインオブジェクト抽出部320は、3D映像からメインオブジェクトの位置する領域を予測してメインオブジェクト予測領域を抽出する。ここで、メインオブジェクトとは、映像で視聴者が主に凝視する注視領域を意味するものとして、例えば、画面上の全体のオブジェクトのうち、最も大きいサイズのオブジェクトまたは立体感の最も大きいオブジェクトなどがこれに該当する。任意のメインオブジェクト予測領域抽出アルゴリズムを用いてメインオブジェクト領域を含む領域の抽出が可能である。
例えば、動画でメインオブジェクト予測領域の検出は、映像内から複数の客体の動きを検出し、各客体の動き方向に基づいて後続の動きを予測することにより、独立した動きの客体(Object)を分離し、分離された客体のうちからメインオブジェクトの予測領域を検出することができる。
一方、本発明の一実施形態に係るディスプレイ装置では、メインオブジェクト抽出部320が3D映像からメインオブジェクト予測領域を抽出するものとして例示しているが、本発明はこれに限らずに、3D映像内のメインオブジェクト予測領域に対する情報が3D映像に予め含まれたり、別の外部装置によって提供されてよい。この場合、メインオブジェクト抽出部320がその機能をしないこともある。
メインオブジェクト深さ情報算出部330は、メインオブジェクト抽出部320から抽出されたメインオブジェクト予測領域の深さ情報を算出し、具体的にメインオブジェクト予測領域に該当する3D映像の左眼映像および右眼映像の領域を抽出し、抽出された領域の深さ情報の差異を算出することにより、メインオブジェクト予測領域の深さ情報を決定することができ、これを数式で表現すると以下のようになる。
一方、以下の数式は実質的な計算式を意味するものでなく、本発明の理解を促すために、メインオブジェクト予測領域の深さ情報(Dm)、平均深さ情報(Da)、字幕の深さ(D)、字幕の位置、大きさ、色相などを算出するためのアルゴリズム言語を意味する。なお、以下の数式は字幕情報を生成するための一つの例示に過ぎず、別のアルゴリズム言語または別の数式によって字幕情報を生成することができる。
Figure 2012019517

ここで、Dmとはメインオブジェクト予測領域の深さ情報を意味し、Dmは注視領域であるメインオブジェクト予測領域の左眼映像および右眼映像間のx軸上の位置差を計算する“calculate_depth_of_main_object()”関数を用いて算出されてよい。
一実施形態において、メインオブジェクト深さ情報算出部330は、メインオブジェクト予測領域の深さ情報を3D映像に対する輝度分析により決定することができる。
一方、本発明の一実施形態に係るディスプレイ装置では、メインオブジェクト深さ情報算出部330の抽出されたメインオブジェクト予測領域の深さ情報を算出するものとして例示しているが、本発明はこれに限らずに、3D映像内にメインオブジェクト予測領域の深さ情報が3D映像に予め含まれたり、別の外部装置によって提供されてよい。この場合、メインオブジェクト深さ情報算出部330がその機能をしないこともある。
平均深さ情報算出部340は、3D映像の平均深さ情報を算出し、具体的に3D映像の平均深さ情報を3D映像の左眼映像および右眼映像の全体的な差異を用いて算出することができ、これを数式で表現すると以下のようになる。
Figure 2012019517

ここで、Daとは3D映像の平均深さ情報を意味し、Daは3D映像の左/右映像間のx軸上の位置差を計算する“Calculate_average_depth_of_scene()”関数を用いて算出されてよい。
一方、本発明の一実施形態に係るディスプレ装置では、平均深さ情報算出部340が3D映像の平均深さ情報を算出するものとして例示しているが、本発明はこれに限らずに、3D映像内に映像の平均深さ情報が3D映像に予め含まれたり、別の外部装置によって提供されてよい。この場合、平均深さ情報算出部340がその機能をしないこともある。
字幕テキスト抽出部350は、3D映像と別途に字幕ファイルが存在する場合、3D映像の字幕ファイルから字幕テキストを抽出する。
字幕情報生成部360は、メインオブジェクト深さ情報算出部330から算出された3D映像のメインオブジェクト予測領域の深さ情報を用いて字幕情報を生成し、字幕テキスト抽出部350により抽出された字幕テキストを生成した字幕情報により、左眼映像の字幕および右眼映像の字幕を区分して生成する。
ここで、字幕情報は字幕が3D映像に合成されて表示される字幕の深さ、位置、大きさ、色相のうち少なくとも一つを含んでよい。
ここで、字幕の深さ、位置、大きさ、色相のうち少なくとも一つは、3D映像の毎フレームごとに異なる値を有してよい。これは、字幕の深さ、位置、大きさ、色相などがメインオブジェクト予測領域の位置および深さ情報、映像の平均深さ情報などによって決定されるためである。
なお、字幕の色相は、メインオブジェクト予測領域の色相に応じて変わってよい。即ち、メインオブジェクト予測領域の色相が変わることにより、字幕そのものの色相が変わってもよく、このとき、字幕の色相はメインオブジェクト予測領域の色相と同様に変わったり、映像との識別性のためにメインオブジェクト予測領域と異なる色に変わってよい。
そして、字幕の位置は映像の上部、下部、側面、映像の外部などでよく、映像の内部でもよい。なお、一定の位置ではなく、メインオブジェクト予測領域が動くことで、字幕またはメインオブジェクト予測領域の周囲を移動しつつ位置することもできる。
一方、本発明の字幕情報は上述の情報に限らず、字幕の陰影度、特殊効果の有無、字幕のフォントなどの多様な情報を含んでよい。なお、字幕情報は本発明の一実施形態に係る字幕情報生成部360で生成することができるが、3D入力情報として外部装置から提供されたり、3D映像に含まれていることもできる。この場合、字幕情報生成部360はその機能をしないこともある。
一実施形態において、字幕情報生成部360はメインオブジェクト予測領域の深さ情報に加えて平均深さ情報算出部340から算出された平均深さ情報を用いて字幕情報を生成することができ、これを数式で表現すると以下のようになる。
Figure 2012019517

ここで、Dとは字幕の深さを意味し、wは0から1の間の重み付け値を意味する。即ち、字幕の深さDはメインオブジェクト予測領域の深さ情報Dm及び映像の平均深さ情報Daを用いて算出されることができる。
なお、例えば、字幕情報生成部360は、字幕情報として字幕のx軸上の位置を左眼映像と右眼映像とを区分して生成することができ、これを数式で表現すると以下のようになる。
Figure 2012019517

ここで、Pos_Leftとは字幕の左眼映像のx軸上の位置を意味し、Pos_Rightとは字幕の右眼映像のx軸上の位置を意味する。なお、xは字幕が初めに位置する任意の位置でもよく、例えば、メインオブジェクト抽出部により3D映像から抽出されたメインオブジェクト予測領域の境界線を用いて計算された字幕の初めの位置であってよい。
字幕合成部370は、字幕情報生成部360によって生成された字幕情報により字幕を3D映像と合成する。即ち、字幕合成部370は字幕情報生成部360によって生成された字幕情報により字幕の深さ、位置、大きさ、色相などを調節して3D映像の左眼映像には左眼映像に該当する字幕を、右眼映像には右眼映像に該当する字幕を合成する。
なお、例えば、字幕合成部370は字幕情報である字幕の位置、大きさ、色相などに3D映像の左眼映像と右眼映像とを区分して合成することができ、これを数式に表現すると以下のようになる。
Figure 2012019517

ここで、Captionとは、数式4から算出された左眼映像のx軸上の字幕位置であるPos_Leftと、右眼映像のx軸上の字幕位置であるPos_Right、y軸上の字幕位置、字幕の大きさS、字幕の色相Cによって字幕と3D映像を合成する命令語を意味する。
従って、本発明の一実施形態に係るディスプレイ装置の字幕合成部370は、3D映像のメインオブジェクト予測領域の深さ情報および平均深さ情報に応じて算出された字幕情報である字幕の深さ、位置、大きさ、色相などによって合成される字幕の深さ、位置、大きさ、色相などを調節して3D映像と字幕を合成することができる。
映像出力部380は、字幕合成部370によって字幕の合成された3D映像を表示する。即ち、映像出力部380は字幕合成部370から出力される字幕の合成された3D映像の左眼映像と右眼映像とを交互に出力して視聴者に提供する。
図4は、図1に示されたディスプレイ装置の別の実施形態に係る概略的なブロック図である。図4に示すように、ディスプレイ装置400は、3D映像変換部410、メインオブジェクト抽出部420、メインオブジェクト深さ情報算出部430と、平均深さ情報算出部440、字幕映像抽出部450、字幕情報生成部460、字幕合成部470および映像出力部480を含む。一方、図4に示されたディスプレイ装置400は、3D映像に字幕が含まれている実施形態に該当し得る。
上述の図4に示された構成要素のうち字幕映像抽出部450を除いて残りの構成要素は図3で既に説明したため、以下では残りの構成要素について簡単に説明する。
3D映像変換部410は、2D映像を3D映像に変換した後、3D映像のフォーマットを参照し、左眼映像と右眼映像を加工し、加工された左眼映像と右眼映像とが時分割されて交互に表示されるように、3D映像に変換する役割を担う。
従って、本発明の別の実施形態に係るディスプレイ装置は、2D映像が入力される場合にも、3D映像に変換し、後述の字幕情報生成部460では3D映像に適した字幕情報により字幕を生成することができる。
メインオブジェクト抽出部420は、3D映像からメインオブジェクトの位置する領域を予測してメインオブジェクト予測領域を抽出する。
一方、本発明の別の実施形態に係るディスプレイ装置では、メインオブジェクト抽出部420が3D映像からメインオブジェクト予測領域を抽出するものとして例示しているが、本発明はこれに限らずに、3D映像内のメインオブジェクト予測領域に対する情報が3D映像に予め含まれたり、別の外部装置によって提供されてよい。この場合、メインオブジェクト抽出部420がその機能をしないこともある。
メインオブジェクト深さ情報算出部430は、メインオブジェクト抽出部420から抽出されたメインオブジェクト予測領域の深さ情報を算出し、具体的にメインオブジェクト予測領域に該当する3D映像の左眼映像および右眼映像の領域を抽出する。
別の実施形態において、メインオブジェクト深さ情報算出部430は、メインオブジェクト予測領域の深さ情報を3D映像に対する輝度分析により決定することができる。
一方、本発明の別の実施形態に係るディスプレイ装置では、メインオブジェクト深さ情報算出部430の抽出されたメインオブジェクト予測領域の深さ情報を算出するものとして例示しているが、本発明はこれに限らずに、3D映像内にメインオブジェクト予測領域の深さ情報が3D映像に予め含まれたり、別の外部装置によって提供されてよい。この場合、メインオブジェクト深さ情報算出部430がその機能をしないこともある。
平均深さ情報算出部440は、3D映像の平均深さ情報を算出し、具体的に3D映像の平均深さ情報を3D映像の左眼映像および右眼映像の全体的な差異を用いて算出することができる。
一方、本発明の別の実施形態に係るディスプレ装置では、平均深さ情報算出部440が3D映像の平均深さ情報を算出するものとして例示しているが、本発明はこれに限らずに、3D映像内に映像の平均深さ情報が3D映像に予め含まれたり、別の外部装置によって提供されてよい。この場合、平均深さ情報算出部440がその機能をしないこともある。
字幕映像抽出部450は、3D映像に字幕が含まれている場合、3D映像から字幕映像を抽出する。
字幕情報生成部460は、メインオブジェクト深さ情報算出部430から算出された3D映像のメインオブジェクト予測領域の深さ情報を用いて字幕情報を生成し、字幕映像抽出部450により抽出された字幕映像を生成した字幕情報により、左眼映像の字幕および右眼映像の字幕を区分して生成する。
ここで、字幕情報は字幕が3D映像に合成されて表示される字幕の深さ、位置、大きさ、色相のうち少なくとも一つを含んでよい。
なお、字幕の色相は、メインオブジェクト予測領域の色相に応じて変わってよい。即ち、メインオブジェクト予測領域の色相が変わることにより、字幕そのものの色相が変わってもよく、このとき、字幕の色相はメインオブジェクト予測領域の色相と同様に変わったり、映像との識別性のためにメインオブジェクト予測領域と異なる色に変わってよい。
一方、本発明の字幕情報は上述の情報に限らず、字幕の陰影度、特殊効果の有無、字幕のフォントなどの多様な情報を含んでよい。なお、字幕情報は本発明の別の実施形態に係る字幕情報生成部460で生成することができるが、3D入力情報として外部装置から提供されたり、3D映像に含まれていることもできる。この場合、字幕情報生成部460はその機能をしないこともある。
なお、字幕の深さ、位置、大きさ、色相のうち少なくとも一つは、3D映像の毎フレームごとに異なる値を有してよい。これは、字幕の深さ、位置、大きさ、色相などがメインオブジェクト予測領域の位置および深さ情報、映像の平均深さ情報などによって決定されるためである。
別の実施形態において、字幕情報生成部460はメインオブジェクト予測領域の深さ情報に加えて平均深さ情報算出部440から算出された平均深さ情報を用いて字幕情報を生成することができる。
字幕合成部470は、字幕情報生成部460によって生成された字幕情報により字幕を3D映像と合成する。即ち、字幕合成部470は字幕情報生成部460によって生成された字幕情報により字幕の深さ、位置、大きさ、色相などを調節して3D映像の左眼映像には左眼映像に該当する字幕を、右眼映像には右眼映像に該当する字幕を合成する。
なお、例えば、字幕合成部470は字幕情報である字幕の位置、大きさ、色相などに3D映像の左眼映像と右眼映像とを区分して合成することができる。
従って、本発明の別の実施形態に係るディスプレイ装置の字幕合成部470は、3D映像のメインオブジェクト予測領域の深さ情報および平均深さ情報に応じて算出された字幕情報である字幕の深さ、位置、大きさ、色相などによって合成される字幕の深さ、位置、大きさ、色相などを調節して3D映像と字幕を合成することができる。
映像出力部480は、字幕合成部470によって字幕の合成された3D映像を表示する。即ち、映像出力部480は字幕合成部470から出力される字幕の合成された3D映像の左眼映像と右眼映像とを交互に出力して視聴者に提供する。
図5は、本発明の一実施形態に係る字幕情報を生成する一例を説明するための図である。
図5に示すように、本発明の多様な実施形態に係るディスプレイ装置は、3D映像からメインオブジェクト(Main Object)予測領域を抽出し、抽出されたメインオブジェクト予測領域の深さ情報(dm)と映像の平均深さ情報(da)を用いて、字幕の位置(x、y)、大きさ(s)、深さ(d)を決定することができる。即ち、図5のように、3D映像の画面で視聴者が主に凝視する対象である剣を持つ人がメインオブジェクト予測領域に該当するのである。
従って、本発明の多様な実施形態に係るディスプレイ装置は、字幕が必要な3Dコンテンツにおいて動的に変化するメインオブジェクト予測領域の深さ情報に応じて字幕の深さを動的に変えることにより、眼の調節輻輳の不一致の変化を最小限化するため、視聴者の眼の疲労感を緩和することができる。なお、3D入力情報として、字幕情報である字幕の深さ、大きさ、位置、色相などを変えることにより視聴者への情報伝達を効果的に行なうことができる。
図6は、本発明の一実施形態に係るディスプレイ方法を示すフローチャートである。
まず、3D映像からメインオブジェクトの位置する領域を予測するメインオブジェクト予測領域を抽出する(S610)。
一実施形態において、メインオブジェクト予測領域を抽出するステップ以前に、入力映像が3D映像である場合、2D映像を3D映像に変換するステップを更に含んでよい。具体的に、3D映像のフォーマットを参照し、左眼映像と右眼映像を加工し、加工された左眼映像と右眼映像とが時分割されて交互に表示されるように3D映像に変換することができる。
従って、本発明の一実施形態に係るディスプレイ方法は、2D映像が入力される場合にも3D映像に変換することにより、3D映像に適した字幕情報により字幕を生成することができる。
次いで、抽出されたメインオブジェクト予測領域の深さ情報を算出する(S620)。ここで、メインオブジェクト予測領域の深さ情報はメインオブジェクト予測領域に該当する3D映像の左眼映像および右眼映像の領域を抽出し、抽出された複数領域の深さ情報の差異を算出することで決定されることができる。
なお、メインオブジェクト予測領域の深さ情報は、3D映像に対する輝度分析によって決定されることもできる。
一実施形態において、本発明の一実施形態に係るディスプレイ方法は、3D映像の平均深さ情報を算出するステップを更に含んでよい。
ここで、平均深さ情報は、3D映像の左眼映像および右眼映像の全体的な差異を用いて算出されてよい。
次いで、メインオブジェクト予測領域の深さ情報を用いて字幕情報を生成する(S630)。
一実施形態において、字幕情報を生成するステップは、メインオブジェクト予測領域の深さ情報および算出された3D映像の平均深さ情報を用いて字幕情報を生成することができる。
次に、生成された字幕情報により字幕を3D映像と合成する(S640)。
一実施形態において、本発明の一実施形態に係るディスプレイ方法は、3D映像の字幕ファイルから字幕を抽出するステップを更に含んでよい。即ち、3D映像と別途に字幕ファイルが存在する場合、3D映像の字幕ファイルから字幕テキストを抽出することができる。
別の実施形態において、本発明の一実施形態に係るディスプレイ方法は、3D映像から字幕を抽出するステップを更に含んでよい。即ち、3D映像に字幕が含まれている場合、3D映像から字幕映像を抽出することができる。
ここで、字幕情報は字幕が3D映像に合成されて表示される字幕の深さ、位置、大きさ、色相のうち少なくとも一つを含んでよい。
ここで、字幕の深さ、位置、大きさ、色相のうち少なくとも一つは3D映像の毎フレームごとに異なる値を有してよい。これは、字幕の深さ、位置、大きさ、色相などがメインオブジェクト予測領域の位置および深さ情報、映像の平均深さ情報などによって決定されるためである。
なお、字幕の色相は、メインオブジェクト予測領域の色相に応じて変わってよい。即ち、メインオブジェクト予測領域の色相が変わることにより、字幕そのものの色相が変わってもよく、このとき、字幕の色相はメインオブジェクト予測領域の色相と同様に変わったり、映像との識別性のためにメインオブジェクト予測領域と異なる色に変わってよい。
そして、字幕の位置は映像の上部、下部、側面、映像の外部などでよく、映像の内部でもよい。なお、一定の位置ではなく、メインオブジェクト予測領域が動くことで、字幕またはメインオブジェクト予測領域の周囲を移動しつつ位置することもできる。
即ち、本発明の一実施形態に係るディスプレイ方法は、生成された字幕情報により字幕の深さ、位置、大きさ、色相などを調節して3D映像の左眼映像には左眼映像に該当する字幕を、右眼映像には右眼映像に該当する字幕を合成する。
従って、本発明の一実施形態に係るディスプレイ方法は、3D映像のメインオブジェクト予測領域の深さ情報および平均深さ情報に応じて算出された字幕情報である字幕の深さ、位置、大きさ、色相などによって字幕の深さ、位置、大きさ、色相などを調節して3D映像と字幕を合成することができる。
最後に、字幕の合成された3D映像を表示する(S650)。即ち、本発明の一実施形態に係るディスプレイ方法は、字幕の合成された3D映像を左眼映像と右眼映像とに交互に出力して視聴者に提供する。
従って、本発明の多様な実施形態に係るディスプレイ方法は、字幕が必要な3Dコンテンツにおいて動的に変化するメインオブジェクト予測領域の深さ情報に応じて字幕の深さを動的に変えることにより、眼の調節輻輳の不一致の変化を最小限化するため、視聴者の眼の疲労感を緩和することができる。なお、3D入力情報として、字幕情報である字幕の深さ、大きさ、位置、色相などを変えることにより視聴者への情報伝達を効果的に行なうことができる。
一方、上述のディスプレイ方法は、多様なコンピュータ手段を通じて行なうことのできるプログラム命令形態で実現され、コンピュータで読み取り可能な記録媒体に記録されることができる。このとき、コンピュータで読み取り可能な記録媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。一方、記録媒体に記録されるプログラム命令は、本発明のために特別に設計されて構成されたものか、コンピュータソフトウェアの当業者に公知されて使用可能なものあってよい。
コンピュータで読み取り可能な記録媒体には、ハードディスク、フロッピー(登録商標)ディスクおよび磁気テープのような磁気媒体(Magnetic Media)、CD−ROM、DVDのような光記録媒体(Optical Media)、フロプティカルディスク(Floptical Disk)のような磁気−光媒体(Magnetic−Optical Media)、およびロム(ROM)、ラム(RAM)、フラッシュメモリーなどのようなプログラム命令を保存して行なうように特別に構成されたハードウェア装置が含まれる。一方、このような記録媒体は、プログラム命令、データ構造などを指定する信号を伝送する搬送波を含む光または金属線、導波管などの伝送媒体であってよい。
なお、プログラム命令には、コンパイラにより作られるような機械語コードだけでなく、インタプリタなどを使用してコンピュータによって実行され得る高級言語コードを含む。上述のハードウェア装置は、本発明の動作を行なうために、一つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆でもよい。
一方、本発明の属する技術分野の当業者は、本発明がその技術的思想や必須の特徴を変更せずに別の具体的な形態で実施され得ることを理解するだろう。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。

Claims (15)

  1. 3D映像のメインオブジェクト(Main Object)予測領域の深さ情報を用いて字幕情報を生成するステップと、
    前記生成された字幕情報によって字幕を前記3D映像と合成して表示するステップと、
    を含むディスプレイ方法。
  2. 前記字幕情報は、
    前記字幕の深さ、位置、大きさ、色相のうち少なくとも一つを含むことを特徴とする請求項1に記載のディスプレイ方法。
  3. 前記字幕の色相は、
    前記メインオブジェクト予測領域の色相に応じて変わることを特徴とする請求項1に記載のディスプレイ方法。
  4. 前記3D映像から前記メインオブジェクトの位置する領域を予測して前記メインオブジェクト予測領域を抽出するステップと、
    前記抽出されたメインオブジェクト予測領域の深さ情報を算出するステップと、
    を更に含むことを特徴とする請求項1に記載のディスプレイ方法。
  5. 前記メインオブジェクト予測領域の深さ情報は、
    前記メインオブジェクト予測領域に該当する前記3D映像の左眼映像および右眼映像の領域を抽出し、前記抽出された領域の深さ情報の差異を算出することで決定されることを特徴とする請求項1に記載のディスプレイ方法。
  6. 前記メインオブジェクト予測領域の深さ情報は、
    前記3D映像に対する輝度分析によって決定されることを特徴とする請求項1に記載のディスプレイ方法。
  7. 前記3D映像の平均深さ情報を算出するステップを更に含み、
    前記字幕情報を生成するステップは、
    前記メインオブジェクト予測領域の深さ情報および前記算出された平均深さ情報を用いて前記字幕情報を生成することを特徴とする請求項1に記載のディスプレイ方法。
  8. 前記3D映像の字幕ファイルから前記字幕を抽出するステップを更に含むことを特徴とする請求項1に記載のディスプレイ方法。
  9. 前記3D映像から前記字幕を抽出するステップを更に含むことを特徴とする請求項1に記載のディスプレイ方法。
  10. 3D映像のメインオブジェクト(Main Object)予測領域の深さ情報を用いて字幕情報を生成する字幕情報生成部と、
    前記生成された字幕情報によって字幕を前記3D映像と合成する字幕合成部と、
    前記字幕の合成された前記3D映像を表示する映像出力部と、
    を含むディスプレイ装置。
  11. 前記字幕情報は、
    前記字幕の深さ、位置、大きさ、色相のうち少なくとも一つを含むことを特徴とする請求項10に記載のディスプレイ装置。
  12. 前記字幕の色相は、
    前記メインオブジェクト予測領域の色相に応じて変わることを特徴とする請求項10に記載のディスプレイ装置。
  13. 前記3D映像から前記メインオブジェクトの位置する領域を予測して前記メインオブジェクト予測領域を抽出するメインオブジェクト抽出部と、
    前記抽出されたメインオブジェクト予測領域の深さ情報を算出するメインオブジェクト深さ情報算出部と、
    を更に含むことを特徴とする請求項10に記載のディスプレイ装置。
  14. 前記メインオブジェクト深さ情報算出部は、
    前記メインオブジェクト予測領域に該当する前記3D映像の左眼映像および右眼映像の領域を抽出し、前記抽出された領域の深さ情報の差異を算出することにより、前記メインオブジェクト予測領域の深さ情報を決定することを特徴とする請求項13に記載のディスプレイ装置。
  15. 前記3D映像の平均深さ情報を算出する平均深さ情報算出部を更に含み、
    前記字幕情報生成部は、
    前記メインオブジェクト予測領域の深さ情報および前記算出された平均深さ情報を用いて前記字幕情報を生成することを特徴とする請求項13に記載のディスプレイ装置。
JP2011149799A 2010-07-06 2011-07-06 ディスプレイ方法および装置 Pending JP2012019517A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100064932A KR20120004203A (ko) 2010-07-06 2010-07-06 디스플레이 방법 및 장치
KR10-2010-0064932 2010-07-06

Publications (1)

Publication Number Publication Date
JP2012019517A true JP2012019517A (ja) 2012-01-26

Family

ID=43896807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011149799A Pending JP2012019517A (ja) 2010-07-06 2011-07-06 ディスプレイ方法および装置

Country Status (4)

Country Link
US (1) US20120007949A1 (ja)
EP (1) EP2405665A3 (ja)
JP (1) JP2012019517A (ja)
KR (1) KR20120004203A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120320153A1 (en) * 2010-02-25 2012-12-20 Jesus Barcons-Palau Disparity estimation for stereoscopic subtitling
US20130050414A1 (en) * 2011-08-24 2013-02-28 Ati Technologies Ulc Method and system for navigating and selecting objects within a three-dimensional video image
US9064295B2 (en) * 2013-02-04 2015-06-23 Sony Corporation Enhanced video encoding using depth information
CN106791493A (zh) * 2016-11-17 2017-05-31 天津大学 基于模糊控制的颜色协调立体字幕制作方法
KR101958263B1 (ko) * 2018-08-03 2019-03-14 (주)이노시뮬레이션 Vr 콘텐츠와 ui 템플릿의 제어방법
CN112383810A (zh) * 2020-11-10 2021-02-19 北京字跳网络技术有限公司 歌词视频展示方法、装置、电子设备及计算机可读介质
CN114245092A (zh) * 2022-02-23 2022-03-25 北京灵犀微光科技有限公司 多深度近眼显示方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
JP2006186795A (ja) * 2004-12-28 2006-07-13 Victor Co Of Japan Ltd 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム
JP2006185033A (ja) * 2004-12-27 2006-07-13 Victor Co Of Japan Ltd 擬似立体画像生成装置及び擬似立体画像生成プログラム並びに擬似立体画像表示システム
JP2007053621A (ja) * 2005-08-18 2007-03-01 Mitsubishi Electric Corp 画像生成装置
JP2010056737A (ja) * 2008-08-27 2010-03-11 Fujifilm Corp 3次元表示装置および方法並びにプログラム
JP2010130495A (ja) * 2008-11-28 2010-06-10 Toshiba Corp 立体情報出力装置及び立体情報出力方法
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
WO2010122775A1 (ja) * 2009-04-21 2010-10-28 パナソニック株式会社 映像処理装置及び映像処理方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771885B1 (en) * 2000-02-07 2004-08-03 Koninklijke Philips Electronics N.V. Methods and apparatus for recording programs prior to or beyond a preset recording time period
US20050193408A1 (en) * 2000-07-24 2005-09-01 Vivcom, Inc. Generating, transporting, processing, storing and presenting segmentation information for audio-visual programs
WO2002014982A2 (en) * 2000-08-11 2002-02-21 Holomage, Inc. Method of and system for generating and viewing multi-dimensional images
EP1352528A1 (en) * 2001-01-11 2003-10-15 Koninklijke Philips Electronics N.V. Recognizing film and video objects occuring in parrallel in single television signal fields
US7050109B2 (en) * 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
US7085401B2 (en) * 2001-10-31 2006-08-01 Infowrap Systems Ltd. Automatic object extraction
US7257235B2 (en) * 2002-02-28 2007-08-14 Minolta Co., Ltd. Monitoring apparatus, monitoring method, monitoring program and monitoring program recorded recording medium readable by computer
KR100519781B1 (ko) * 2004-02-18 2005-10-07 삼성전자주식회사 객체 추적 방법 및 그 장치
US7643672B2 (en) * 2004-10-21 2010-01-05 Kazunari Era Image processing apparatus, image pickup device and program therefor
US20080246759A1 (en) * 2005-02-23 2008-10-09 Craig Summers Automatic Scene Modeling for the 3D Camera and 3D Video
US20070098221A1 (en) * 2005-10-27 2007-05-03 Charles Florin Method for detection and tracking of deformable objects using adaptive time-varying autoregressive model
KR100734850B1 (ko) * 2005-11-29 2007-07-03 한국전자통신연구원 센서 네트워크에 대한 시뮬레이션 장치 및 방법
JP4717701B2 (ja) * 2006-04-24 2011-07-06 キヤノン株式会社 撮像システム、撮影方向制御方法、及びプログラム
WO2008103929A2 (en) * 2007-02-23 2008-08-28 Johnson Controls Technology Company Video processing systems and methods
KR101842622B1 (ko) * 2007-03-16 2018-03-27 톰슨 라이센싱 3차원 콘텐츠와 텍스트를 조합하기 위한 시스템 및 방법
JP2009159125A (ja) * 2007-12-25 2009-07-16 Casio Hitachi Mobile Communications Co Ltd 字幕付き映像再生装置、字幕付き映像再生装置の検索結果通知方法及びプログラム
JP4618384B2 (ja) * 2008-06-09 2011-01-26 ソニー株式会社 情報提示装置および情報提示方法
CA2745380C (en) * 2008-12-11 2018-07-17 Imax Corporation Devices and methods for processing images using scale space
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
CN101527046B (zh) * 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和***
TW201119353A (en) * 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
JP5402715B2 (ja) * 2009-06-29 2014-01-29 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5407957B2 (ja) * 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
JP5369952B2 (ja) * 2009-07-10 2013-12-18 ソニー株式会社 情報処理装置および情報処理方法
JP2011029849A (ja) * 2009-07-23 2011-02-10 Sony Corp 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造
US9049431B2 (en) * 2009-12-31 2015-06-02 Cable Television Laboratories, Inc. Method and system for generation of captions over stereoscopic 3D images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
JP2006185033A (ja) * 2004-12-27 2006-07-13 Victor Co Of Japan Ltd 擬似立体画像生成装置及び擬似立体画像生成プログラム並びに擬似立体画像表示システム
JP2006186795A (ja) * 2004-12-28 2006-07-13 Victor Co Of Japan Ltd 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム
JP2007053621A (ja) * 2005-08-18 2007-03-01 Mitsubishi Electric Corp 画像生成装置
JP2010056737A (ja) * 2008-08-27 2010-03-11 Fujifilm Corp 3次元表示装置および方法並びにプログラム
JP2010130495A (ja) * 2008-11-28 2010-06-10 Toshiba Corp 立体情報出力装置及び立体情報出力方法
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
WO2010122775A1 (ja) * 2009-04-21 2010-10-28 パナソニック株式会社 映像処理装置及び映像処理方法

Also Published As

Publication number Publication date
US20120007949A1 (en) 2012-01-12
KR20120004203A (ko) 2012-01-12
EP2405665A2 (en) 2012-01-11
EP2405665A3 (en) 2013-12-25

Similar Documents

Publication Publication Date Title
KR101185870B1 (ko) 3d 입체 영상 처리 장치 및 방법
EP2356818B1 (en) Methods and systems for presenting three-dimensional motion pictures with content adaptive information
KR101539935B1 (ko) 3차원 비디오 영상 처리 방법 및 장치
EP2448276B1 (en) GUI providing method, and display apparatus and 3D image providing system using the same
TWI444036B (zh) 2d至3d使用者介面內容資料轉換
JP5429034B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US20100225740A1 (en) Metadata generating method and apparatus and image processing method and apparatus using metadata
JP2012019517A (ja) ディスプレイ方法および装置
EP2582143A2 (en) Method and device for converting three-dimensional image using depth map information
JP2004274125A (ja) 画像処理装置および方法
JP2014103689A (ja) 立体映像エラー改善方法及び装置
EP2434768A2 (en) Display apparatus and method for processing image applied to the same
KR101844232B1 (ko) 다시점 영상이 제공되는 시스템에서 부가 오브젝트를 포함하는 3차원 영상 처리 방법 및 장치
CN102457750A (zh) 用于将对象数据***立体图像中的方法和设备
KR20120023268A (ko) 디스플레이 장치 및 그 영상 생성 방법
US20120121163A1 (en) 3d display apparatus and method for extracting depth of 3d image thereof
JP2019083504A (ja) 平板パネルにおける立体映像入力のためのハードウェアシステム
JP2011151773A (ja) 映像処理装置及び制御方法
US8416288B2 (en) Electronic apparatus and image processing method
WO2013027305A1 (ja) 立体映像処理装置、及び立体映像処理方法
KR100503276B1 (ko) 2차원 영상신호를 3차원 영상신호로 변환하는 장치
KR20170033293A (ko) 입체 비디오 생성
KR101939243B1 (ko) 입체 깊이 조정 및 초점 조정
KR101907127B1 (ko) 입체 비디오 주밍 및 비디오 내의 전경 및 배경 검출
JP2014175813A (ja) 立体映像表示方法および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170207