JP6377155B2 - 多視点映像処理装置及びその映像処理方法 - Google Patents

多視点映像処理装置及びその映像処理方法 Download PDF

Info

Publication number
JP6377155B2
JP6377155B2 JP2016529712A JP2016529712A JP6377155B2 JP 6377155 B2 JP6377155 B2 JP 6377155B2 JP 2016529712 A JP2016529712 A JP 2016529712A JP 2016529712 A JP2016529712 A JP 2016529712A JP 6377155 B2 JP6377155 B2 JP 6377155B2
Authority
JP
Japan
Prior art keywords
depth
osd
area
view
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016529712A
Other languages
English (en)
Other versions
JP2016535516A (ja
Inventor
ハン,スン−リョン
リ,ホ−ヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016535516A publication Critical patent/JP2016535516A/ja
Application granted granted Critical
Publication of JP6377155B2 publication Critical patent/JP6377155B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、多視点映像処理装置及びその映像処理方法に関し、より詳細には、裸眼式多視点映像処理装置及びその映像処理方法に関する。
電子技術の発達により、多様な電子機器が開発及び普及されている。特に、一般家庭において最も多く使用されている家電製品の1つであるテレビのようなディスプレイ装置はここ数年間急ピッチで発展している。
ディスプレイ装置の性能が高級化するにつれ、ディスプレイ装置でディスプレイするコンテンツの種類も多様化しつつある。特に、最近は、3Dコンテンツまで視聴することができる立体ディスプレイシステムが開発されて普及されている。
立体ディスプレイ装置は、一般家庭で使われる3Dテレビだけでなく、各種モニタ、携帯電話、PDA、パソコン、セットトップパソコン、タブレットパソコン、デジタルフォトフレーム、キヨスク端末等のような多様なディスプレイ装置で実現されてよい。なお、3Dディスプレイ技術は、家庭内における使用だけでなく、科学や医薬、デザイン、教育、広告、コンピュータゲーム等のように、3Dイメージングを必要とする多様な分野に活用することができる。
立体ディスプレイシステムは、大きくメガネを不要として視聴可能な裸眼式システムと、メガネを着用して視聴するメガネ式システムとに分類される。
メガネ式システムは、満足のいく立体感を提供することができるが、視聴者が必ずメガネをかけなければならないという不都合があった。その一方で、裸眼式システムは、メガネなしでも3Dイメージを視聴することができるというメリットがあって、裸眼式システムに対する開発への議論が継続して行われている。
裸眼式システムは、多視点映像、例えばN個の視点映像を視聴者に表示するため、N個の多視点映像が必要となる。N個の多視点映像は、N個のカメラから獲得することができるが、N>2である場合、カメラから獲得することはシステム実現のうえで困難であった。
それにより、裸眼式システムは、ステレオ映像が入力される場合、デプス情報を抽出した後、多視点映像をレンダリングする方法を使用する。しかし、入力されたステレオ映像にOSD情報が含まれている場合、デプス情報の抽出の際に、OSD領域で正確なデプス情報を抽出することが困難になり、OSD領域のデプス情報にエラーが生じ、それにより、OSD映像に歪みが発生してディスプレイされるという問題点があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、3D映像に含まれたOSD領域でデプス補正を行ってOSD領域で発生する映像の歪みを防止することができる多視点映像処理装置及びその映像処理方法を提供することにある。
本発明の上述の目的を達成するための一実施形態によると、入力された3D映像のデプス情報を抽出するデプス抽出部と、前記3D入力映像に含まれたOSD(On Screen Display)領域に対応するOSDマスク情報及び前記抽出されたデプス情報に基づいて、前記3D入力映像で前記OSD領域のデプスを補正するデプス補正部と、前記デプスの補正された3D入力映像を用いて多視点映像をレンダリングするレンダリング部とを含む。
なお、前記デプス抽出部は、前記抽出されたデプス情報に基づいてデプスマップ(depth map)を生成し、前記デプス補正部は、前記デプスマップで前記OSD領域のデプス値を補正してよい。
なお、前記デプス補正部は、前記デプスマップで前記OSD領域のデプス値を第1デプス値に補正してよい。
なお、前記デプス補正部は、前記デプスマップで前記OSD領域を除く残りの領域の複数のデプス値を第2デプス値に補正してよい。
なお、前記デプス補正部は、前記デプスマップで前記OSD領域を含む全領域のデプス値を0に補正してよい。
なお、複数のOSD領域を含む3D入力映像をディスプレイするディスプレイ部と、ユーザ命令を受信するユーザインターフェース部と、前記3D映像に含まれた複数のOSD領域の中からユーザ命令に応じて選択された少なくとも1つのOSD領域のデプスが選択された少なくとも1つのOSD領域を除く残りのOSD領域の複数のデプスと異なるようにデプス補正を行うように前記デプス補正部を制御する制御部とを更に含んでよい。
なお、前記制御部は、前記選択された少なくとも1つのOSD領域のデプスを予め設定された第3デプス値に補正し、前記選択された少なくとも1つのOSD領域を除く残りのOSD領域の複数のデプスを0に補正するように前記デプス補正部を制御してよい。
一方、本発明の一実施形態に係る多視点映像処理方法によると、入力された3D映像のデプス情報を抽出するステップと、前記3D入力映像に含まれたOSD(On Screen Display)領域に対応するOSDマスク情報及び前記抽出されたデプス情報に基づいて、前記3D入力映像で前記OSD領域のデプスを補正するステップと、前記デプスの補正された3D入力映像を用いて多視点映像をレンダリングするステップとを含む。
なお、前記デプス情報を抽出するステップは、前記抽出されたデプス情報に基づいてデプスマップ(depth map)を生成し、前記デプスを補正するステップは、前記デプスマップで前記OSD領域のデプス値を補正してよい。
なお、前記デプスを補正するステップは、前記デプスマップで前記OSD領域のデプス値を第1デプス値に補正してよい。
なお、前記デプスを補正するステップは、前記デプスマップで前記OSD領域を除く残りの領域の複数のデプス値を第2デプス値に補正してよい。
なお、前記デプスを補正するステップは、前記デプスマップで前記OSD領域を含む全領域のデプス値を0に補正してよい。
なお、複数のOSD領域を含む3D入力映像をディスプレイするステップと、前記複数のOSD領域の中から少なくとも1つを選択するためのユーザ命令を受信するステップと、前記ユーザ命令に応じて選択された少なくとも1つのOSD領域のデプスが選択された少なくとも1つのOSD領域を除く残りのOSD領域の複数のデプスと異なるようにデプス補正を行うステップとを更に含んでよい。
なお、前記デプス補正を行うステップは、前記選択された少なくとも1つのOSD領域のデプスを予め設定された第3デプス値に補正し、前記選択された少なくとも1つのOSD領域を除く残りのOSD領域の複数のデプスを0に補正してよい。
一方、本発明の一実施形態に係る多視点映像処理方法によると、少なくとも1つのコンテンツ領域を含む3D入力映像をディスプレイするステップと、前記少なくとも1つのコンテンツ領域で第1デプス値を適用するステップと、前記少なくとも1つのコンテンツ領域を除く前記3D入力映像に第2デプス値を適用するステップとを含む。ここで、前記第1デプス値は、前記第2デプス値と異なる。
以上説明したように本発明によれば、3D映像に含まれたOSD領域における映像の歪みを防止することができる裸眼式3Dシステムを提供することができるようになる。
更に、本発明によれば、裸眼式3Dシステムで部分3D機能を実現することができるようになる。
本発明の理解を促すための裸眼式3Dディスプレイ装置の動作を説明するための図である。 本発明の一実施形態に係る多視点映像処理装置の構成を示すブロック図である。 本発明の一実施形態に係る多視点映像ディスプレイ装置の構成を示すブロック図である。 本発明の一実施形態に係るディスプレイ部の実現例を説明するための図である。 本発明の一実施形態に係るOSDマスク情報を説明するための図である。 本発明の一実施形態に係るOSDマスク情報を説明するための図である。 本発明の多様な実施形態に係るデプス補正方法を説明するための図である。 本発明の多様な実施形態に係るデプス補正方法を説明するための図である。 本発明の多様な実施形態に係るデプス補正方法を説明するための図である。 本発明の別の実施形態に係るデプス補正方法を説明するための図である。 本発明の更に別の実施形態に係るデプス補正方法を説明するための図である。 本発明の更に別の実施形態に係るデプス補正方法を説明するための図である。 本発明の更に別の実施形態に係るデプス補正方法を説明するための図である。 本発明の更に別の実施形態に係るデプス補正方法を説明するための図である。 本発明の更に別の実施形態に係るデプス補正方法を説明するための図である。 本発明の一実施形態に係る多視点映像処理装置の制御方法を説明するための図である。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の理解を促すための裸眼式3Dディスプレイ装置の動作を説明するための図である。
図1は、本発明の一実施形態に係る多視点映像をディスプレイして裸眼式方式で立体映像を提供する装置の動作方式を示す。ここで、多視点映像は同一のオブジェクトを相互異なる角度から撮影した複数の映像を含む。すなわち、相互異なる視点から撮影した複数の映像を相互異なる角度に屈折させ、いわゆる視聴距離という一定の距離分離れた位置(例えば、約3m)にフォーカスした映像を提供する。このような映像が形成された位置を視聴領域という。それにより、ユーザの一方の目が1つの第1視聴領域に位置し、他方の目が第2視聴領域に位置すると、立体感を感じることができるようになる。
一例として、図1は、合わせて6視点の多視点映像のディスプレイ動作を説明する図である。図1によると、裸眼式3Dディスプレイ装置は、左眼には6視点のうちの1視点映像に該当する光が、右眼には2視点映像に該当する光が投射されるようにすることができる。それにより、ユーザは左眼及び右眼において相互異なる視点の映像を視聴するようになり、立体感を感じることができるようになる。
図2Aは、本発明の一実施形態に係る多視点映像処理装置の構成を示すブロック図である。
図2Aによると、多視点映像処理装置100は、デプス抽出部110と、デプス補正部120と、レンダリング部130及び制御部140を含む。
映像受信部(図示せず)は、3D映像信号を受信する。ここで、3D映像はステレオ映像であってよい。ステレオ映像とは、1つの被写体を異なる角度から撮影した2つの映像、すなわち、左眼映像及び右眼映像を含む。このようなステレオ映像は、多様なソースから提供されてよい。一例として、映像受信部(図示せず)は、放送局チャネルのようなソースからステレオ映像を有線または無線で受信することができる。この場合、映像受信部(図示せず)は、チューナ部、復調部、等化部などのような多様な構成要素を備えることができる。または、映像受信部(図示せず)は、DVD、ブルーレイディスク、メモリカード等のような各種記録媒体を再生することができる記録媒体再生ユニットから再生されたステレオ映像を受信することもでき、カメラから撮影されたステレオ映像を直接受信することもできる。この場合、映像受信部(図示せず)は、USBインターフェース等のような各種インターフェースを備える形態で実現されてよい。または、映像受信部(図示せず)は、ウェブサーバのような外部サーバからステレオ映像を受信することも可能である。または、3D映像は、2D/3D切り替え技法により、2D映像を基盤として生成された映像か、3視点以上の多視点映像であってよい。それに対する詳細な説明は省略する。
デプス抽出部110は、左眼及び右眼映像に基づいて映像内に存在する客体に対するデプス情報を抽出する。ここで、デプス(depth)情報とは、映像内に存在する客体の3次元距離情報を示すものとして、デプスマップまたはデプス映像と称してよい。例えば、被写体とカメラとの間の距離、被写体と被写体の映像が結像する記録媒体との間の距離等のように、立体感の情報を示す情報のことを意味する。すなわち、左眼映像と右眼映像との間の相互対応するポイント間の距離差が大きいほど、その分より立体感が増大するようになる。デプスマップとは、このような深さの変化状態を1つの映像で構成したものとして、左眼及び右眼映像で相互マッチングするポイント間の距離の大きさに応じて変化するグレイレベルで表現されてよい。例えば、デプスマップで明るく表示された部分は、カメラとモノとの間の距離が近い部分であり、暗く表示された部分は、カメラとモノとの間の距離が遠い部分を示す。
具体的に、デプス抽出部110は、映像を構成する各ピクセルごとに0から255の間の値でデプス値を表現し、映像内に存在する客体の3次元距離情報を示すことができる。例えば、黒/白を基準にして示す際、黒(低い値)が視聴者から遠い場所を示し、白(高い値)が視聴者から近い場所を示すことができる。
一方、デプス抽出部110は、デプスマップを生成するために、左眼及び右眼映像で相互マッチングするポイントを探すステレオマッチング作業を行うことができる。場合によって、デプス抽出部110は適応的加重値を適用してステレオマッチングを行うこともできる。
例えば、左眼映像及び右眼映像は1つの被写体を相互異なる視点から撮影した映像であるため、視覚の差による、映像の差が生じかねない。例えば、左眼映像では被写体のエッジ部分と背景が重なって写り、右眼映像では若干離れた場合等がある。よって、被写体を基準に一定範囲内のピクセル値を有するピクセルに対して加重値を高め、範囲を外れたピクセル値を有するピクセルに対しては加重値を下げた適応的加重値を適用することができる。それにより、左眼映像及び右眼映像のそれぞれに対して適応的加重値を適用した後、その結果を比較してマッチング有無を決定することができる。このように、適用的加重値を用いるようになると、好適な対応点であるにもかかわらず、低い相関関係を有すると判断されることを防止することができるようになるため、マッチングの正確度が向上する。
一方、図示はしていないが、多視点映像処理装置100には、デプスマップ生成のための演算への負担を軽減するためのダウンスケーラ(図示せず)が更に含まれてよい。すなわち、ダウンスケーラ(図示せず)は、映像受信部(図示せず)を介して受信された映像をダウンスケーリングしてデプス抽出部110に提供することで、演算への負担を軽減させることができるようになる。
ただ、映像とともにデプス情報が入力される場合、デプス抽出部110において行われる機能が省略されてよい。
デプス補正部120は、3D映像に含まれたOSD領域に対応するOSDマスク情報及びデプス抽出部110から抽出されたデプス情報に基づいてOSD領域のデプスを補正する。
具体的に、デプス補正部120はデプス抽出部110から生成されたデプスマップでOSD領域のデプス値を補正することができる。この場合、OSD領域は、OSDマスク情報を通じて識別されてよい。例えば、OSDマスクは、OSD領域に対応するピクセル領域に対しては“1”の値を有し、残りのピクセル領域に対しては“0”の値を有する形態であってよいが、それに限定されるわけではない。
デプス補正部120は、抽出されたデプス及びOSDマスク情報に基づいてデプスマップでOSD領域のデプス値を第1デプス値に補正することができる。すなわち、OSD領域内に含まれたそれぞれの客体に対するデプス感が相互異なるように表現されないように均一のデプス値を与えることができる。
一例として、デプス補正部120は、デプス抽出部110から抽出されたOSD領域のデプス値のうち、最も大きい値、最も小さい値、中間値、OSD領域の中央におけるデプス値または境界におけるデプス値、ユーザによって入力された値、デフォルトに指定された値(例えば、0)のうちのいずれかを第1デプス値に設定してよいが、それに限定されるわけではない。例えば、第1デプス値が0に設定される場合、OSD領域はデプス感の感じられないフォーカルプレーンに配置されてよい。
別の例として、デプス補正部120は周辺領域のデプス値を考慮して第1デプス値を設定することもできる。すなわち、OSD領域が周辺背景映像と異質的ではなく、不連続的に表現されないように周辺背景映像のデプス値と類似する値にデプスを設定することができる。すなわち、OSD領域のデプス値のうち、背景映像のデプス値と最も類似する値にOSD領域のデプスを設定することも可能である。
または、デプス補正部120は、抽出されたデプス及びOSDマスク情報に基づいてデプスマップでOSD領域を除く残りの領域のデプス値を第2デプス値に補正することができる。
一例として、デプス補正部120は、デプス抽出部110から抽出されたOSD領域を除く残りの領域のデプス値のうち、最も大きい値、最も小さい値、中間値、背景映像に含まれた客体のうち、最も高いデプス値または平均値、デフォルト値に指定された値(例えば、0)のいずれかを第2デプス値に設定することができるが、それに限定されるわけではない。
別の例として、デプス補正部120は、OSD領域のデプス値を考慮して第2デプス値を設定することもできる。例えば、デプス補正部120は、第2デプス値をOSD領域に対して設定されたデプス値より大きいデプス値に設定することができる。
または、デプス補正部120は、デプスマップでOSD領域を含む全領域のデプス値を0に補正することもできる。すなわち、3D映像にOSD領域が存在する場合、OSD領域及び残りの領域に2D映像と同一のデプスを与えてクロストーク現象を軽減させることができる。
なお、デプス補正部120は、1フレーム内にOSD領域が複数である場合には、複数のOSD領域のそれぞれに異なるデプス値を設定したり、同一のデプス値を設定することができる。
一方、デプス補正部120は、デプスの補正されたOSD領域に対してフリッカを減少させるためにデプステンポラルスムージング(depth temporal smoothing)処理を行うことができる。すなわち、デプス補正部120は、デプス値の補正されたOSD領域内部で一定ではないデプス値をスムージング処理してデプス変動によるテキストフリッカを取り除いたり、補正されたデプス値と背景映像のデプス値との差によるOSD領域の境界で歪みを解消するためにスムージング処理を行うことができる。
具体的に、デプス補正部120は、デプス値の補正されたOSD領域に対してメディアンフィルタ(median filter)、加重平均フィルタ(weighted average filter)、マキシマムフィルタ(maximum filter)等のようなスムージングフィルタを適用してスムージング処理を行うことができる。
レンダリング部130は、デプス補正部120でデプスの補正された3D映像(または、マルチビュー映像)、または2D映像を用いて多視点映像をレンダリングすることができる。具体的に、レンダリング部130は、入力された3D映像または2D映像及び映像と別途に入力されたデプス情報に基づいて多視点映像をレンダリングしたり、入力された3D映像及び当該3D映像から抽出されたデプス情報に基づいて多視点映像をレンダリングすることができる。ここで、デプス情報は、デプス補正部120でデプスの補正された情報であってよい。
一例として、レンダリング部130は、3D映像、すなわち左眼映像及び右眼映像のいずれか一方を基準ビュー(または、センタビュー)に選択して、多視点映像の基となる最左側ビュー及び最右側ビューを生成することができる。この場合、レンダリング部130は、基準ビューに選択された左眼映像及び右眼映像のうちいずれか一方に対応する補正されたデプス情報に基づいて最左側ビュー及び最右側ビューを生成することができる。
レンダリング部130は、最左側ビュー及び最右側ビューが生成されると、センタビューと最左側ビューとの間に複数の補間ビューを生成し、センタビューと最右側ビューとの間に複数の補間ビューを生成することで多視点映像をレンダリングすることができる。ただ、それに限定されるわけではなく、補外法によって生成される補外ビュー(Extrapolation View)を生成することも可能である。一方、2D映像及びデプス情報に基づいて多視点映像をレンダリングする場合、2D映像をセンタビューに設定することができる。
一方、レンダリング部130は、多視点映像をレンダリングする前に最左側ビュー及び最右側ビューに存在するホールフィーリング作業を行って最左側ビュー及び最右側ビューを補償することができる。
なお、レンダリング部130は、センタビュー、最左側ビュー及び最右側ビューに基づいて生成された多視点映像のそれぞれに対するホール領域に対しては、最左側ビュー及び最右側ビューのいずれか一方に対応するピクセル領域の値をコピーしてホール領域をインペインティング(inpainting)することができる。この場合、背景から近い部分からホールフィーリングを行うことができる。例えば、計35の多視点映像をレンダリングする場合、17番目に位置するセンタビュー及び最右側ビューである35番目ビューの間に存在する18ないし34番目ビューに対しては、最右側ビューである35番目ビューに対応するピクセル領域の値にホール領域をフィーリングすることができる。
ただ、場合によっては、入力映像に基づいて各多視点映像のそれぞれに対するホールフィーリングを行うことも可能である。
一方、上述の実施形態においては、左眼映像及び右眼映像に基づいてOSD領域のデプスを補正することについて説明したが、それは一例に過ぎない。本発明の別の実施形態によると、2D映像に対してOSD領域を検出した後、OSD領域に対するデプス値を均一に割り当ててから左眼映像及び右眼映像を生成することも可能である。
図2Bは、本発明の一実施形態に係る多視点映像ディスプレイ装置の構成を示すブロック図である。
図2Bによると、多視点映像ディスプレイ装置200は、デプス抽出部110、デプス補正部120、レンダリング部130、ディスプレイ部140、ユーザインターフェース部150及び制御部160を含む。図2Bに示す構成の中で、デプス抽出部110、デプス補正部120及びレンダリング部130の構成は、図2Aに示す構成と同一であるため、詳細な説明は省略する。
図2Bのディスプレイ装置200は、テレビ、モニタ、パソコン、キヨスク端末、タブレットパソコン、デジタルフォトフレーム、携帯電話等のような多様なディスプレイ装置で実現されてよい。
ディスプレイ部140は、マルチビュー(または、マルチ光学ビュー)を提供する機能を担う。そのために、ディスプレイ部140は、マルチビュー提供のためのディスプレイパネル141及び視域分離部142を含む。
ディスプレイパネル141は、複数のサブピクセルで構成された複数のピクセルを含む。ここで、サブピクセルは、R(Red)、G(Green)、B(Blue)で構成されてよい。R、G、Bのサブピクセルで構成されたピクセルが複数の行及び列方向に配列されてディスプレイパネル141を構成することができる。この場合、ディスプレイパネル141は、液晶ディスプレイパネル(Liquid Crystal Display:LCD)、プラズマディスプレイパネル(Plasma Display Panel:PDP)、有機発光素子(Organic Light Emitting Diode:OLED)、VFD(Vacuum Fluorescent Display)、FED(Field Emission Display)、ELD(Electro Luminescence Display)等のような多様なディスプレイユニットで実現されてよい。
ディスプレイパネル141は、映像フレームをディスプレイする。具体的に、ディスプレイパネル141は相互異なる視点の複数のイメージが順次に繰り返し配置された映像フレームをディスプレイすることができる。
特に、ディスプレイパネル141は、複数のOSD領域を含む映像フレームをディスプレイすることができる。ここで、複数のOSD領域とは、OSDウィンドウを複数個という意味と同一である。
一方、図2Bに示していないが、ディスプレイパネル141がLCDパネルで実現される場合、ディスプレイ装置200はディスプレイパネル141にバックライトを供給するバックライト部(図示せず)及び映像フレームを構成する各ピクセルのピクセル値に応じてディスプレイパネル141のピクセルを駆動するパネル駆動部(図示せず)を更に含んでよい。それにより、バックライト部(図示せず)から発生した光がディスプレイパネル141の各ピクセルに入射されると、ディスプレイパネル141は映像信号に応じて、各ピクセルに入射された光に対する透過率を調節して映像フレームをディスプレイする。具体的には、ディスプレイパネル141は、液晶層及びその液晶層の両表面に形成された2つの電極を含む。両電極に電圧が印加されると、磁場が生成されて両電極の間の液晶層の分子を動かして光の透過率が調節される。
視域分離部142は、ディスプレイパネル141の前面に配置されて視聴領域別に異なる視点、すなわち、マルチビューを提供することができる。この場合、視域分離部142は、レンチキュラレンズ(Lenticular lens)またはパララックスバリア(Parallax Barrier)で実現されてよい。
例えば、視域分離部142は、複数のレンズ領域を含むレンチキュラレンズで実現されてよい。それにより、レンチキュラレンズは、複数のレンズ領域を通じてディスプレイパネル141でディスプレイされる映像を屈折させることができる。各レンズ領域は、少なくとも1つのピクセルに対応するサイズで形成され、各ピクセルを透過する光を視聴領域別に異なるように分散させることができる。
別の例として、視域分離部142は、パララックスバリアで実現されてよい。パララックスバリアは、複数のバリア領域を含む透明スリットアレイで実現される。それにより、バリア領域間のスリット(slit)を介して光を遮断して視聴領域別に異なった視点の映像が出写されるようにすることができる。
一方、視域分離部142は、画質改善のために一定の角度に傾いて動作することができる。制御部160は、複数の視点から撮影した各映像の映像フレームを視域分離部142が傾いた角度に基づいて分割し、それを組み合わせて映像フレームを生成することができる。それにより、ユーザはディスプレイパネル141のサブピクセルに垂直方向または水平方向にディスプレイされた映像を視聴するのではなく、サブピクセルに一定の勾配を有するようにディスプレイされた映像を視聴するようになる。
図3は、本発明の一実施形態に係るディスプレイ部140の実現例を説明するための図である。
図3によると、ディスプレイ部120は、ディスプレイパネル141、視域分離部142及びバックライトユニット143を含む。
図3においては、視域分離部142がレンチキュラレンズアレイで実現された場合を例に挙げて説明するようにする。
図3によると、ディスプレイパネル141は、複数の列(column)に区分される複数のピクセルを含む。各列別に異なる視点のイメージが配置される。図3によると、相互異なる視点の複数のイメージ1、2、3、4が順次に繰り返し配置される形態を示す。すなわち、各ピクセル列は1、2、3、4にナンバリングされた組で配列される。パネルに印加されるグラフィック信号はピクセル列1が1番目のイメージをディスプレイし、ピクセル列2が2番目のイメージをディスプレイするように配列される。
バックライトユニット123は、ディスプレイパネル141に光を提供する。バックライトユニット123から提供される光により、ディスプレイパネル141に形成される各イメージ1、2、3、4は視域分離部142に投射され、視域分離部142は投射される各イメージ1、2、3、4の光を分散させて視聴者方向に伝達する。すなわち、視域分離部142は、視聴者の位置、すなわち視聴距離に射出瞳(exit pupils)を生成する。図示のように、レンチキュラレンズアレイで実現された場合、レンチキュラレンズの厚さ及び直径、パララックスバリアで実現された場合、スリットの間隔などは、各列によって生成される射出瞳が65mm未満の平均両眼中心距離に分離されるように設計されてよい。分離されたイメージ光は、それぞれの視聴領域を形成する。すなわち、図3に示すように、第1ないし第4ビューが形成されてユーザの左眼及び右眼がそれぞれ第2ビュー及び第3ビューに位置するようになる倍ア、3D映像を視聴することができるようになる。
ユーザインターフェース部150は、多様なユーザ命令を受信する。
特に、ユーザインターフェース部150は、ディスプレイされた3D映像に含まれた複数のOSD領域のうち、少なくとも1つのOSD領域を選択するためのユーザ命令を受信することができる。
具体的に、複数のOSD領域とともに複数のOSD領域のうち、少なくとも1つのOSD領域を選択するためのカーソル、ハイライト等のようなGUIがディスプレイされ、当該GUIの位置を移動させるユーザ命令に応じて複数のOSD領域のうち、少なくとも1つのOSD領域が選択されてよい。
一方、ユーザインターフェース部150は、ディスプレイ装置100の実現例に応じて多様な形態で実現可能である。ディスプレイ装置100がデジタルテレビで実現される場合、ユーザインターフェース部110は遠隔制御装置200からリモコン信号を受信するリモコン受信部、ユーザモーションを検知するカメラ、ユーザ音声を受信するマイク等で実現可能である。
制御部160は、ディスプレイ装置200の動作全般を制御する。
具体的に、制御部160は、ディスプレイされた映像内の複数のコンテンツのうち、フォーカシングされるコンテンツに対しては他のコンテンツと異なるデプス値を有するようにすることができる。ここで、デプス値は、フォーカシングされるコンテンツが突出して見えるようにする+デプス値だけでなく、フォーカシングされるコンテンツが窪んで見えるようにする−デプス値も含むようにすることができる。
一例として、制御部160は、3D映像に含まれた複数のOSD領域のうち、ユーザ命令に応じて選択されたOSD領域のデプスが残りのOSD領域のデプスと異なるようにデプス補正を行うようにデプス補正部120を制御することができる。
すなわち、制御部160は、複数のOSD領域の中からユーザ命令に応じて選択されたOSD領域のデプス値を再設定し、選択されたOSD領域のデプスが残りのOSD領域のデプスと異なるようにすることができる。場合によっては、異なるOSD領域のデプス値を再設定することも可能である。
具体的に、制御部160は、選択されたOSD領域のデプスを予め設定された第3デプス値に補正し、残りのOSD領域のデプスを0に補正するようにデプス補正部120を制御することができる。ここで、第3デプス値は0ではない値に設定されてよく、第3デプス値を設定する方法は、上述の第1デプス値を設定する方法と同一であるため、詳細な説明は省略する。
または、制御部160は、選択されたOSD領域のデプスを予め設定された第3デプス値に補正し、残りのOSD領域のデプスを予め設定された第4デプス値に補正するようにデプス補正部120を制御することができる。ここで、第4デプス値は、第3デプス値より小さい値であってよい。
なお、制御部160は、当該OSD領域のデプス値を順次に変更してハイライト効果が順次に鮮明になるように制御することも可能である。例えば、当該OSD領域のデプス値が−4から0に変更される場合、制御部160は、当該OSD領域のデプス値−3、−2、−1でそれぞれ1回ずつ表示することで、−4から0までハイライト効果が次第に鮮明になるように表示されるようにすることができる。
それにより、OSD領域の歪みが軽減するとともに、ユーザは選択されたOSD領域のみに対して立体感を感じることができるため、選択されたOSD領域に対する識別力が向上することができる。なお、フォーカシング効果を当該コンテンツの左眼映像及び右眼映像の時差のみを調整して実現することができるため、別途のイメージ処理過程(ハイライト、スケーリング、テクスチャ、遠近感効果処理等)を経る必要がなく、フォーカシング効果を提供することができるようになる。
一方、上述の実施形態においては、フォーカシングされるコンテンツとしてOSD領域を一例として説明したが、それは説明の便宜上のものであり、コンテンツはメニュー画面、警告フレーズ、時間やチャネル番号等の文字、図形、アプリケーション等、多様であってよい。例えば、複数のアプリケーションのそれぞれを示す複数のアイコンがディスプレイされた場合、選択されたアイコンが沈降または***して見えるように選択されたアイコン及び残りのアイコンのうち、少なくとも1つのデプス値を調整することができる。
図4A及び図4Bは、本発明の一実施形態に係るOSDマスク情報を説明するための図である。
図4Aに示すように、ステレオ映像または多視点映像にOSD領域が含まれている場合、図4Bに示すようなOSDマスクを用いてOSD領域を識別することができるようになる。
ここで、OSDマスク情報は、OSD領域を含む左眼及び右眼映像とともに入力されることもできるが、当該情報がない場合にはOSD情報に基づいてOSDマスク情報を算出することも可能である。例えば、OSD領域を検出し、検出されたOSD領域によってマスクを拡張し、フィルタリングしてOSD領域に対応するマスクを生成することができる。
一例によると、OSDマスク情報は図4Bに示す映像のように、OSD領域は1の値に設定され、残りの領域は0の値に設定されてよいが、OSD領域を識別することができる情報なら、それに限定されずに適用可能である。
図5Aないし図5Cは、本発明の多様な実施形態に係るデプス補正方法を説明するための図である。
本発明の一実施形態によると、3D視聴モードでOSD情報510が入力される場合、図5Aに示すように、3D視聴モードを維持する状態で抽出されたデプス情報を無視し、全てのデプス情報にディパリティ0を与えて、デプスの補正された映像を用いて多視点映像をレンダリングすることができる。それにより、OSD領域の3次元立体感を解除することで、OSD領域の映像の歪みを防止することができる。
本発明の更に別の実施形態によると、3D視聴モードでOSD情報510が入力される場合、図5Bに示すように、3D視聴モードを維持する状態で、OSDマスク情報によって識別されるOSD領域520に同一のデプス値を与えて、すなわち、OSD領域のデプスを均一に設定し、デプスの補正された映像を用いて多視点映像をレンダリングすることができる。ここで、OSD領域520に与えるデプス値は、0を含むデフォルト値、テキスト領域に対して算出されたデプス値のうち最大値、背景映像に含まれた客体のうち最も高いデプス値、または、平均値より所定値の分大きいデプス値、OSD領域の中央におけるデプス値または境界におけるデプス値、ユーザによって入力された値等に設定されてよい。ただ、OSD領域520に適用されるデプス値はそれに限定されるわけではない。
それにより、OSD領域に対する3次元立体感を制御することによりOSD領域の映像の歪みを防止することができる。
本発明の更に別の実施形態によると、3D視聴モードでOSD情報510が入力される場合、図5Cに示すように3D視聴モードを維持する状態で、OSDマイク情報によって識別されるOSD領域520に同一のデプス値を与えて残りの領域530に対しては、OSD領域に与えられたデプス値と異なるデプス値を与えた後、デプスの補正された映像を用いて多視点映像をレンダリングすることができる。それにより、OSD領域の映像の歪みを防止するとともにOSD領域に対する立体効果を与えることができる。
図6は、本発明の別の実施形態に係るデプス補正方法を説明するための図である。
図6に示すように、図5Aないし図5Cに示すように、OSD領域のデプス補正後、多視点映像をレンダリングするわけではなく、多視点映像レンダリング後、レンダリングされた映像にOSD領域をオーバーレイすることもできる。具体的に、図示のように、それぞれの多視点映像に任意に設定された時差の分のディスパリティを与えてOSD領域をオーバーレイさせることができる。すなわち、図6に示すように、Nの多視点映像上のOSD領域に対してd分だけディスパリティを追加的に与えてOSD領域をオーバーレイすることができる。ここで、dは任意の誤り値を有してよい。例えば、dは背景映像に含まれた客体のうち、最も高いデプス値または平均値、OSD領域の中央におけるデプス値または境界におけるデプス値、ユーザによって入力された値等に基いて適切な値に設定されてよい。
図7A及び図7Bは、本発明の別の実施形態に係るデプス補正方法を説明するための図である。
図7A及び図7Bに示すように、3D映像に複数のOSD領域711ないし714が含まれている場合、ユーザによって選択されたOSD領域に対して別のOSD領域と異なるデプス値を与えるように3D映像のデプスを補正することができる。
例えば、図7Aに示すように、3D映像に複数のOSD領域が含まれている場合、OSD領域711ないし714のうち、ユーザによって選択されたOSD領域712には0ではない、予め設定されたデプス値を与えて、残りのOSD領域及び背景映像領域にはデプス値0を与えて立体感が感じることができないようにすることができる。
次いで、図7Bに示すように、ユーザによって別のOSD領域713が選択されると、当該OSD領域713には0ではない、予め設定されたデプス値を与え、残りのOSD領域及び背景映像領域にはデプス値0を与えて立体感が感じられないようにすることができる。
ただ、上述の実施形態は一実施形態に過ぎず、別の実施形態によると、選択されたOSD領域に対しては特定デプス値を与え、残りのOSD領域及び背景映像領域に対しては選択されたOSD領域に与えられたデプス値より小さいデプス値を与えて、相対的に選択されたOSD領域の立体感が協調されるようにすることもできる。
更に別の実施形態によると、選択されたOSD領域に対しては特定デプス値を与え、残りのOSD領域に対しては選択されたOSD領域に与えられたデプス値より小さいデプス値を与え、背景映像領域に対しては残りのOSD領域に与えられたデプス値より更に小さい値を与えることも可能である。
図8Aないし図8Cは、本発明の更に別の実施形態に係るデプス補正方法を説明するための図である。
図8Aないし図8Cに示すように、OSD領域ではない場合にも、映像内の特定コンテンツ領域に対して均一のデプス値を与えることも可能である。ここで、映像内の特定コンテンツ領域は、メニュー画面、警告フレーズ、時間、チャネル番号、放送局名称等の文字、図形、アプリケーション、音量調整バー、コンテンツ再生バー等のグラフィック要素等を含む領域であってよい。すなわち、映像内にオーバーレイされて表示される特定コンテンツを含む領域に対して均一のデプス値を与えることができる。
一例として、図8Aに示すように、チャネル番号が表示される領域810に予め設定された均一のデプス値を与えることができる。ただ、図8Aにおいては、映像が2D形態でディスプレイされ、チャネル番号の表示される領域810が予め設定されたデプス値を有する3D形態でディスプレイされるものとして説明したが、それは説明の便宜のためである。実質的には、3D映像上にチャネル番号が表示される場合、チャネル番号を表示する領域に均一のデプス値(例えば、デプス値0)を与えて当該領域で歪みが生じないようにすることができる。
別の例として、図8Bに示すように、音量調節バーの表示される領域820に予め設定された均一のデプス値を与えることができる。図8Bの場合にも、図8Aと同一の例が適用されることができるため、詳細な説明は省略する。
更に別の例として、図8Cに示すように、複数のアプリケーションのそれぞれを示すアイコンがディスプレイされた場合、ユーザ命令に応じて選択されたアイコン830が予め設定されたデプス値を有する形態でディスプレイされてよい。例えば、背景画面及び選択されたアイコン830を除く残りのアイコンはデプス値0または予め設定された値以下のデプス値を与え、選択されたアイコン830に対しては予め設定された値以上のデプス値を与えて選択されたアイコン830が別のアイコンと識別されるようにすることができる。
一方、図8Aないし図8Cは、説明の便宜のための一例であり、本発明は画面にディスプレイされる映像内に含まれるコンテンツ、特に、映像にオーバーレイされてディスプレイされるコンテンツなら、限定されずに適用されることができる。
図9は、本発明の一実施形態に係る多視点映像処理装置の制御方法を説明するためのフローチャートである。
図9に示す多視点映像処理装置の制御方法によると、まず、入力された3D映像のデプス情報を抽出する(S910)。
次いで、3D映像に含まれたOSD(On Screen Display)領域に対等するOSDマスク情報及び抽出されたデプス情報に基づいてOSD領域のデプスを補正する(S920)。
その後、デプスの補正された3D映像を用いて多視点映像をレンダリングする(S930)。
具体的に、デプス情報を抽出するステップS910においては、抽出されたデプス情報に基づいてデプスマップ(depth map)を生成し、デプスを補正するステップS920では、デプスマップでOSD領域のデプス値を補正することができる。
なお、デプスを補正するステップS920においては、デプスマップでOSD領域のデプス値を第1デプス値に補正することができる。
なお、デプスを補正するステップS920においては、デプスマップでOSD領域を除く残りの領域のデプス値を第2デプス値に補正することができる。
なお、デプスを補正するステップ920においては、デプスマップでOSD領域を含む全領域のデプス値を0に補正することができる。
なお、複数のOSD領域を含む3D映像をディスプレイするステップ、複数のOSD領域のうちの少なくとも1つを選択するためのユーザ命令を受信するステップと、ユーザ命令に応じて選択されたOSD領域のデプスが残りのOSD領域のデプスと異なるようにデプス補正を行うステップを更に含んでよい。
この場合、デプス補正を行うステップにおいては、選択されたOSD領域のデプスを予め設定された第2デプス値に補正し、残りのOSD領域のデプスを0に補正することができる。
以上のように、本発明の多様な実施形態によると、3D映像に含まれたOSD領域における映像の歪みを防止することができる裸眼式3Dシステムを提供することができるようになる。なお、本発明によると、裸眼式3Dシステムで部分3D機能を実現することができるようになる。
上述の多様な実施形態に係る多視点映像処理装置の制御方法は、プログラムで実現されてディスプレイ装置に提供されてよい。
一例として、入力された3D映像のデプス情報を抽出するステップ、3D映像に含まれたOSD領域に対応するOSDマスク情報及び抽出されたデプス情報に基づいてOSD領域のデプスを補正するステップ、及びデプスの補正された3D映像を用いて多視点映像をレンダリングするステップを行うプログラムが保存された非一時的な読み取り可能な媒体(Non−transitory computer readable medium)が提供されてよい。
非一時的な読み取り可能な媒体とは、レジスタやキャッシュ、メモリ等のような短い間データを保存する媒体ではなく、半永久的にデータを保存し、機器によって読み取り(Reading)が可能な媒体を意味する。具体的には、上述の多様なアプリケーションまたはプログラムは、CDやDVD、ハードディスク、ブルーレイディスク、USB、メモリカード、ROM等のような非一時的な読み取り可能な媒体に保存されて提供されてよい。
一方、本発明の多様な実施形態において、デプス抽出部110、デプス補正部120、レンダリング部130、ディスプレイ部140、ユーザインターフェース部150及び制御部170のうちの少なくとも1つは、それらのそれぞれの機能を行うためのプロセッサ、ハードウェアモジュールまたは回路のうち少なくとも1つを含むことができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。

Claims (14)

  1. 入力された3D入力映像のデプス情報を抽出するデプス抽出部と、
    前記3D入力映像に含まれた複数のOSD(On Screen Display)領域のうちの1つに対応するOSDマスク情報及び前記抽出されたデプス情報に基づいて、前記3D入力映像で当該OSD領域のデプスを補正するデプス補正と、
    前記デプスの補正された3D入力映像を用いて多視点映像をレンダリングするレンダリング部と、
    前記多視点映像をディスプレイするディスプレイ部と、
    前記複数のOSD領域のうち、前記OSD領域のデプスが残りのOSD領域のデプスと異なるように前記デプス補正部を制御し、前記補正されたデプスに基づき前記OSD領域のデプスを順次変更し表示するよう前記ディスプレイ部を制御する制御部と、
    を含み、
    前記レンダリング部は、前記補正された3D入力映像に基づいて最左側ビュー及び最右側ビューを生成し、前記多視点映像をレンダリングする前に前記最左側ビュー及び最右側ビューに存在するホールにホールフィーリングを行う、多視点映像処理装置。
  2. 前記デプス抽出部は、
    前記抽出されたデプス情報に基づいてデプスマップ(depth map)を生成し、
    前記デプス補正部は、
    前記デプスマップで前記OSD領域のデプス値を補正することを特徴とする請求項1に記載の多視点映像処理装置。
  3. 前記デプス補正部は、
    前記デプスマップで前記OSD領域のデプス値を第1デプス値に補正することを特徴とする請求項2に記載の多視点映像処理装置。
  4. 前記デプス補正部は、
    前記デプスマップで前記OSD領域を除く残りの領域の複数のデプス値を第2デプス値に補正することを特徴とする請求項3に記載の多視点映像処理装置。
  5. 前記デプス補正部は、
    前記デプスマップで前記OSD領域を含む全領域のデプス値を0に補正することを特徴とする請求項2に記載の多視点映像処理装置。
  6. ユーザ命令を受信するユーザインターフェース部を更に含み、
    前記制御部は、
    前記3D入力映像に含まれた複数のOSD領域の中からユーザ命令に応じて選択された少なくとも1つのOSD領域のデプスが、前記選択された少なくとも1つのOSD領域を除く残りのOSD領域の複数のデプスと異なるようにデプス補正を行うように前記デプス補正部を制御することを特徴とする請求項1に記載の多視点映像処理装置。
  7. 前記制御部は、
    前記選択された少なくとも1つのOSD領域のデプスを予め設定された第3デプス値に補正し、前記選択された少なくとも1つのOSD領域を除く残りのOSD領域の複数のデプスを0に補正するように前記デプス補正部を制御することを特徴とする請求項6に記載の多視点映像処理装置。
  8. 入力された3D入力映像のデプス情報を抽出するステップと、
    前記3D入力映像に含まれた複数のOSD(On Screen Display)領域のうちの1つに対応するOSDマスク情報及び前記抽出されたデプス情報に基づいて、前記3D入力映像で当該OSD領域のデプスを補正するステップと、
    前記デプスの補正された3D入力映像に基づいて最左側ビュー及び最右側ビューを生成し、前記最左側ビュー及び最右側ビューに存在するホールにホールフィーリングを行った後に、多視点映像をレンダリングするステップと、
    前記多視点映像をディスプレイするステップと、
    を含み、
    前記デプスを補正するステップは、前記複数のOSD領域のうち、前記OSD領域のデプスが残りのOSD領域のデプスと異なるようにデプスを補正し、
    前記ディスプレイするステップは、前記デプス補正に基づき前記OSD領域のデプスを順次変更し表示する、
    多視点映像処理方法。
  9. 前記デプス情報を抽出するステップは、
    前記抽出されたデプス情報に基づいてデプスマップ(depth map)を生成し、
    前記デプスを補正するステップは、
    前記デプスマップで前記OSD領域のデプス値を補正することを特徴とする請求項8に記載の多視点映像処理方法。
  10. 前記デプスを補正するステップは、
    前記デプスマップで前記OSD領域のデプス値を第1デプス値に補正することを特徴とする請求項9に記載の多視点映像処理方法。
  11. 前記デプスを補正するステップは、
    前記デプスマップで前記OSD領域を除く残りの領域の複数のデプス値を第2デプス値に補正することを特徴とする請求項10に記載の多視点映像処理方法。
  12. 前記デプスを補正するステップは、
    前記デプスマップで前記OSD領域を含む全領域のデプス値を0に補正することを特徴とする請求項9に記載の多視点映像処理方法。
  13. 前記複数のOSD領域の中から少なくとも1つを選択するためのユーザ命令を受信するステップを更に含み、
    前記デプスを補正するステップは、
    前記ユーザ命令に応じて選択された少なくとも1つのOSD領域のデプスが、前記選択された少なくとも1つのOSD領域を除く残りのOSD領域の複数のデプスと異なるようにデプスを補正する、
    ことを特徴とする請求項8に記載の多視点映像処理方法。
  14. 前記選択された少なくとも1つのOSD領域のデプスを予め設定された第3デプス値に補正し、前記選択された少なくとも1つのOSD領域を除く残りのOSD領域の複数のデプスを0に補正することを特徴とする請求項13に記載の多視点映像処理方法。
JP2016529712A 2013-07-26 2014-07-24 多視点映像処理装置及びその映像処理方法 Expired - Fee Related JP6377155B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361858810P 2013-07-26 2013-07-26
US61/858,810 2013-07-26
KR10-2013-0137519 2013-11-13
KR1020130137519A KR102143472B1 (ko) 2013-07-26 2013-11-13 다시점 영상 처리 장치 및 그 영상 처리 방법
PCT/KR2014/006729 WO2015012606A1 (en) 2013-07-26 2014-07-24 Multi view image processing apparatus and image processing method thereof

Publications (2)

Publication Number Publication Date
JP2016535516A JP2016535516A (ja) 2016-11-10
JP6377155B2 true JP6377155B2 (ja) 2018-08-22

Family

ID=52488905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016529712A Expired - Fee Related JP6377155B2 (ja) 2013-07-26 2014-07-24 多視点映像処理装置及びその映像処理方法

Country Status (9)

Country Link
US (1) US9092904B2 (ja)
EP (1) EP3025497A4 (ja)
JP (1) JP6377155B2 (ja)
KR (1) KR102143472B1 (ja)
CN (1) CN105453560A (ja)
BR (1) BR112016001562B1 (ja)
CA (1) CA2919334C (ja)
MX (1) MX348438B (ja)
WO (1) WO2015012606A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9560103B2 (en) * 2013-06-26 2017-01-31 Echostar Technologies L.L.C. Custom video content
US9569812B1 (en) * 2016-01-07 2017-02-14 Microsoft Technology Licensing, Llc View rendering from multiple server-side renderings
KR20240020051A (ko) * 2022-08-05 2024-02-14 숙명여자대학교산학협력단 자동차 내부 카메라를 이용한 hud 캘리브레이션 방법 및 장치

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
JP2001346226A (ja) * 2000-06-02 2001-12-14 Canon Inc 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体
AU2003234905A1 (en) * 2003-05-07 2004-11-26 Seijiro Tomita Method and device for displaying image
JP4440066B2 (ja) * 2004-10-14 2010-03-24 キヤノン株式会社 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法
JP4792250B2 (ja) * 2005-07-11 2011-10-12 株式会社リコー 動画像処理装置、及び動画像処理方法
EP2452506A4 (en) * 2009-07-07 2014-01-22 Lg Electronics Inc METHOD FOR DISPLAYING A THREE-DIMENSIONAL USER INTERFACE
JP5338549B2 (ja) * 2009-08-05 2013-11-13 ソニー株式会社 表示装置及び表示方法
US9681112B2 (en) * 2009-11-05 2017-06-13 Lg Electronics Inc. Image display apparatus and method for controlling the image display apparatus
KR20110053160A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR101214536B1 (ko) * 2010-01-12 2013-01-10 삼성전자주식회사 뎁스 정보를 이용한 아웃 포커스 수행 방법 및 이를 적용한 카메라
JP2011211551A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 画像処理装置および画像処理方法
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置
EP2553931A1 (en) * 2010-04-01 2013-02-06 Thomson Licensing Subtitles in three-dimensional (3d) presentation
JP5143856B2 (ja) * 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
KR101435594B1 (ko) 2010-05-31 2014-08-29 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
JP2012004654A (ja) * 2010-06-14 2012-01-05 Sharp Corp 映像表示装置及びその表示制御方法
JP5505637B2 (ja) * 2010-06-24 2014-05-28 ソニー株式会社 立体表示装置および立体表示装置の表示方法
JP2012023648A (ja) * 2010-07-16 2012-02-02 Sony Corp 再生装置、再生方法、およびプログラム
KR101816846B1 (ko) * 2010-08-19 2018-01-12 삼성전자주식회사 디스플레이 장치 및 이에 적용되는 osd 제공방법
US20120044241A1 (en) 2010-08-20 2012-02-23 Himax Technologies Limited Three-dimensional on-screen display imaging system and method
DE112010005948B4 (de) * 2010-10-20 2018-08-09 Mitsubishi Electric Corporation Stereskopische Dreidimensionen-Anzeigevorrichtung
JP5678643B2 (ja) * 2010-12-21 2015-03-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5852093B2 (ja) * 2011-03-01 2016-02-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 映像処理装置、映像処理方法、プログラム
JP2013017146A (ja) * 2011-07-06 2013-01-24 Sony Corp 表示制御装置、表示制御方法およびプログラム
KR101975247B1 (ko) * 2011-09-14 2019-08-23 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
KR101287786B1 (ko) * 2011-09-22 2013-07-18 엘지전자 주식회사 3차원 입체영상 표시 방법 및 그를 이용한 영상 표시 장치
JP5337218B2 (ja) * 2011-09-22 2013-11-06 株式会社東芝 立体画像変換装置、立体画像出力装置および立体画像変換方法
CN103135889B (zh) * 2011-12-05 2017-06-23 Lg电子株式会社 移动终端及其3d图像控制方法
KR101872864B1 (ko) * 2011-12-19 2018-06-29 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법

Also Published As

Publication number Publication date
WO2015012606A1 (en) 2015-01-29
EP3025497A4 (en) 2017-02-22
CA2919334A1 (en) 2015-01-29
JP2016535516A (ja) 2016-11-10
BR112016001562A2 (ja) 2017-07-25
MX348438B (es) 2017-06-13
BR112016001562B1 (pt) 2023-01-17
MX2016001088A (es) 2016-04-25
CA2919334C (en) 2020-11-03
CN105453560A (zh) 2016-03-30
KR102143472B1 (ko) 2020-08-12
EP3025497A1 (en) 2016-06-01
KR20150012976A (ko) 2015-02-04
US9092904B2 (en) 2015-07-28
US20150029179A1 (en) 2015-01-29

Similar Documents

Publication Publication Date Title
KR102140080B1 (ko) 다시점 영상 디스플레이 장치 및 제어 방법
KR101856568B1 (ko) 다시점 영상 디스플레이 장치 및 제어 방법
KR102030830B1 (ko) 곡면형 다시점 영상 디스플레이 장치 및 그 제어 방법
US8884952B2 (en) 3D display apparatus and method for processing image using the same
KR102121389B1 (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
KR102130123B1 (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
US10694173B2 (en) Multiview image display apparatus and control method thereof
US9167237B2 (en) Method and apparatus for providing 3-dimensional image
KR20170029210A (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
KR101975246B1 (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
US10939092B2 (en) Multiview image display apparatus and multiview image display method thereof
JP6377155B2 (ja) 多視点映像処理装置及びその映像処理方法
CN106559662B (zh) 多视图图像显示设备及其控制方法
KR101980275B1 (ko) 다시점 영상 디스플레이 장치 및 디스플레이 방법
US20130127843A1 (en) Display apparatus and display method thereof
JP6131256B6 (ja) 映像処理装置及びその映像処理方法
JP6131256B2 (ja) 映像処理装置及びその映像処理方法
JP2014225736A (ja) 画像処理装置
KR20190010060A (ko) 디스플레이 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180130

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180724

R150 Certificate of patent or registration of utility model

Ref document number: 6377155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees