JP2011035858A - Video processing apparatus - Google Patents
Video processing apparatus Download PDFInfo
- Publication number
- JP2011035858A JP2011035858A JP2009183018A JP2009183018A JP2011035858A JP 2011035858 A JP2011035858 A JP 2011035858A JP 2009183018 A JP2009183018 A JP 2009183018A JP 2009183018 A JP2009183018 A JP 2009183018A JP 2011035858 A JP2011035858 A JP 2011035858A
- Authority
- JP
- Japan
- Prior art keywords
- video
- video signal
- eye
- unit
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、二眼式の3D映像処理装置に関する。 The present invention relates to a twin-lens 3D video processing apparatus.
古くから、左右の目に対して視差を持つ映像を提示する事で立体視効果が得られる事が知られている。(以下、二眼式3D方式と呼ぶ)。二眼式3D方式の一例として、例えば、特許文献1に記載の技術がある。従来からこの原理を応用した3D映像再生装置が実用化されており、近年は、通常のビデオ動画素材に加えて、コンピューターグラフィックスによる動画素材やタイトルメニューなどのグラフィックスなど、複数の素材を合成して3Dとして表示される事も多い。3D再生表示装置では、ディスプレイ面に対して映像がどれくらい飛び出すか、あるいは引っ込むか、という立体視の度合いを正しく制御する事が重要であるが、特に複数の素材を合成する場合は、それらの立体視の関係を適切に制御する必要がある。(以下、奥行方向の立体視の度合いを「立体深度」或いは「深度」と呼び、ディスプレイ面から視聴位置に近づく方向を「手前方向」、視聴位置から遠ざかる方向を「奥方向」と呼ぶ) For a long time, it has been known that a stereoscopic effect can be obtained by presenting an image having parallax to the left and right eyes. (Hereinafter referred to as a binocular 3D system). As an example of the twin-lens 3D system, for example, there is a technique described in Patent Document 1. Conventionally, 3D video playback devices that apply this principle have been put into practical use. In recent years, in addition to ordinary video and moving image materials, multiple materials such as moving images using computer graphics and graphics such as title menus have been synthesized. Often displayed as 3D. In a 3D playback display device, it is important to correctly control the degree of stereoscopic vision, such as how much the image pops out or retracts from the display surface. However, especially when a plurality of materials are combined, those three-dimensional images are displayed. It is necessary to appropriately control the visual relationship. (Hereinafter, the degree of stereoscopic vision in the depth direction is called “stereoscopic depth” or “depth”, the direction approaching the viewing position from the display surface is called “front side”, and the direction moving away from the viewing position is called “depth direction”)
二眼式3Dの映像再生装置において、複数の映像素材を拡大もしくは縮小した後に合成する場合、拡大もしくは縮小により映像素材の立体深度が変化する。これにより、拡大率もしくは縮小率が異なる映像素材同士を合成した場合には立体深度の関係が変化するため、合成後の3D映像全体として適切な立体深度が得られないという課題がある。 In a twin-lens 3D video playback device, when a plurality of video materials are enlarged or reduced and then combined, the stereoscopic depth of the video material changes due to the expansion or reduction. As a result, when video materials having different enlargement ratios or reduction ratios are combined, the relationship of the three-dimensional depth changes, so that there is a problem that an appropriate three-dimensional depth cannot be obtained as a whole 3D video after combining.
本発明は、二眼式3D映像再生装置において、複数の映像素材を拡大もしくは縮小した後に合成して3D表示する場合に、各映像素材間の立体深度の関係を適切に制御する映像処理装置を提供することである。 The present invention provides a video processing apparatus that appropriately controls the relationship of the three-dimensional depth between video materials when a plurality of video materials are enlarged or reduced and then combined and displayed in 3D in a twin-lens 3D video playback device. Is to provide.
本発明の映像処理装置は、第1の3D映像信号と第2の3D映像信号とを合成し、左目用の映像信号と右目用の映像信号とを含む3D映像信号を生成可能な再生装置12であって、第1の3D映像信号が入力され、少なくとも拡大もしくは縮小のいずれかの処理が可能であり、その処理後の第1の3D映像信号を出力する第1のスケーリング部305と、第2の3D映像信号が入力され、その入力された第2の3D映像信号の深度を調整して出力するオフセット印加部306と、第1のスケーリング部305の出力とオフセット印加部306との出力とを合成して出力する合成部307とを備え、オフセット印加部306は、第1のスケーリング部305における拡大もしくは縮小の比率に応じて、第2の3D映像信号の深度を調整する。
The video processing apparatus of the present invention combines a first 3D video signal and a second 3D video signal, and generates a 3D video signal including a left-eye video signal and a right-eye video signal. The
上記手段により、各映像素材を任意に拡大もしくは縮小した場合でも、他の素材との立体深度の関係を常に適切に保った立体映像を得る事ができる。 By the above means, even when each video material is arbitrarily enlarged or reduced, it is possible to obtain a stereoscopic video in which the relationship of the stereoscopic depth with other materials is always properly maintained.
(実施の形態1)
本実施の形態について、図1、2、3、4、5、6、7を用いて説明する。図1は、本実施の形態における3D再生表示システムの全体構成図である。図1において、表示装置11は3D映像を表示するディスプレイなどの表示装置である。再生装置12は、記憶媒体やネットワ−クなどから映像素材を読み出して3D映像として再生する再生装置である。立体メガネ13は、表示装置11が表示する3D映像を右目用と左目用に分離する液晶シャッタを備えた偏光メガネである。
(Embodiment 1)
This embodiment will be described with reference to FIGS. 1, 2, 3, 4, 5, 6, and 7. FIG. FIG. 1 is an overall configuration diagram of a 3D playback / display system according to the present embodiment. In FIG. 1, a
図2は、本実施の形態における3D表示装置の構成図であり、図1の表示装置11の内部構成を示す。図2において、第1の入出力部101は、図1の再生装置12の出力を受ける第1の入出力部であり、例えば、HDMI信号入力部などである。第1のAV処理部102は、第1の入出力部101の出力を受けて映像及び音声信号を処理して表示部103の駆動信号を生成する第1のAV処理部である。表示部103は、第1のAV処理部102の出力を受けて3D映像を表示する表示部である。第1のリモコン信号受信部104は、ユーザーが操作するリモコンの信号を受ける第1のリモコン信号受信部である。送信部105は、第1のAV処理部102の出力に応じて、図1の立体メガネ13に対して、左目用或いは右目用右のどちらの映像を表示するかを切り替える同期信号送信する送信部である。一般的には、赤外線信号などを使って送信される。
FIG. 2 is a configuration diagram of the 3D display device according to the present embodiment, and shows an internal configuration of the
図3は、本実施の形態における3D再生装置の構成図であり、図1の再生装置12の内部構成を示す。図3において、ディスク200は、3D映像素材を記録する光ディスクやHDDなどの記録媒体であり、ビデオ映像、グラフィックス映像、字幕映像などの映像データ及び音声データが、圧縮されたストリーム信号として記録されている。ディスクドライブ部201は、ディスク200から記録されたストリーム信号を読み出す。第2のAV処理部202は、ディスクドライブ部201から得られた複数の映像ストリーム信号(ビデオ、グラフィックス、字幕など)を合成して、左目用及び右目用が多重化された映像信号として出力する。第2の入出力部203は、第2のAV処理部202から受けた映像信号を図1の表示装置11に出力する。第2のリモコン信号受信部205は、ユーザーが操作するリモコンの信号を受信する。CPU204は、第2のリモコン信号受信部205から受けたユーザー操作指令を受けて、第2のAV処理部202を制御する。
FIG. 3 is a configuration diagram of the 3D playback device according to the present embodiment, and shows an internal configuration of the
このように構成された全体システムにおいて、図1の再生装置12では、ユーザーの操作に応じて、記録媒体やネットワーク等から3D映像ストリームを読み出して再生し、左目用の映像信号と右目用の映像信号を多重化して表示装置11に転送する。表示装置11では、入力した左目用と右目用の映像をディスプレイ上で時分割表示し、この時分割の切替タイミングを、赤外線による同期信号などの手段で立体メガネ13に伝える。立体メガネ13は、表示装置11から受けた同期信号に応じて液晶シャッタの透過率を切替え、左目側或いは右目側の何れかの光を交互に透過させる事により、左目用の映像信号は左目だけに、右目用の映像信号は右目だけに提示する。このようにして3D立体視を実現するものである。
In the overall system configured as described above, the
図4は、図3の第2のAV処理部202の内部構成を示す。図4において、ストリーム制御部301は、図3のディスクドライブ部201から読み出した記録ストリーム信号から、ビデオ映像ストリーム、グラフィックス映像ストリーム、字幕映像ストリームなどを分離して出力する。ビデオデコーダ302は、ストリーム制御部301が出力するビデオ映像ストリームをデコードして、左目用のビデオ映像信号(L)と右目用のビデオ映像信号(R)を出力する。
FIG. 4 shows an internal configuration of the second
第1のスケーリング部305は、CPU204が出力する制御信号に応じて、ビデオデコーダ302が出力する左目用のビデオ映像信号(L)と右目用のビデオ映像信号(R)を、各々所定の倍率で拡大もしくは縮小する。グラフィックデコーダ303は、ストリーム制御部301が出力するグラフィックス映像ストリームをデコードして、左目用のグラフィクス映像信号(L)と右目用のグラフィックス映像信号(R)を出力する。この場合のグラフィックス映像とは、例えば、記録されたコンテンツを選択するためのメニュ−画面などである。
The
字幕デコーダ304は、ストリーム制御部301が出力する字幕映像ストリームをデコードして、2Dの基準字幕映像データと、これに3D方向の深度を与えるオフセットデータを出力する。第2のスケーリング部313は、字幕デコーダ304が出力する基準字幕映像データを、CPU204が出力する制御信号に応じて所定の倍率で拡大もしくは縮小する。オフセット印加部306は、第2のスケーリング部313が出力するスケーリングされた基準字幕映像データと、字幕デコーダ304が出力するオフセットデータを受けて、基準字幕映像データから、オフセットデータに応じて画面水平左方向に位置をずらした字幕映像データ(L’)と、これと対称に右方向に位置をずらした字幕映像デ−タ(R’)を出力する。二眼式3D方式では、人間の立体視が、左右の目の水平方向の視差に依ることを利用している。そのため、通常の2Dで表現された字幕データであっても、これを画面の水平方向に左右対称にずらせた2つの映像を作り、これを各々左目、右目用の映像とする事で、3D方向の深度を与える事ができる。これについては後に詳しく説明する。
The
合成部307は、第1のスケーリング部305、グラフィックデコーダ303、オフセット印加部306の出力を左目用と右目用に分けて各々合成する合成部である。第1の加算部308、第2の加算部309、第3の加算部310、第4の加算部311、多重化部312は、各々合成部307の構成要素である。第1の加算部308は、第1のスケーリング部305が出力する左目用ビデオ映像データ(L)とグラフィックデコーダ303が出力する左目用グラフィックス映像データ(L)を合成する。第2の加算部309は、第1のスケーリング部305が出力する右目用ビデオ映像データ(R)とグラフィックデコーダ303が出力する右目用グラフィックス映像データ(R)を合成する。第3の加算部310は、第1の加算部308が出力する左目用のビデオ映像とグラフィックス映像の合成データと、オフセット印加部306が出力する左目用字幕映像データ(L’)を合成する。第4の加算部311は、第2の加算部309が出力する右目用のビデオ映像とグラフックス映像の合成データと、オフセット印加部306が出力する右目用字幕映像データ(R’)を合成する。多重化部312は、第3の加算部310、第4の加算部311の出力を受けて、左目用と右目用の信号を多重化して出力する。
The combining unit 307 is a combining unit that combines the outputs of the
CPU204は、図1の第2のリモコン信号受信部205のリモコン受信データに応じて、ストリーム制御部301、オフセット印加部306の動作を制御するとともに、ストリーム制御部301からストリーム中記録された拡大或いは縮小情報を読み出し、これに基づいて第1のスケーリング部305及び第2のスケーリング部313に拡大縮小率を出力する。
The
以下に、このように構成された第2のAV処理部202の動作を説明する。まず、3Dビデオ映像を通常動作モードとして字幕付きで再生する場合について説明する。ストリーム制御部301は、ディスクに記録された圧縮ストリームから3Dビデオ映像ストリームを抽出し、これをビデオデコーダ302でデコードし、左目用(L)、右目用(R)の映像信号を得る。ここでは、第1のスケーリング部305でのスケーリングは行わず(拡大縮小率=1.0)、またグラフィックス映像データは表示しないものとする。また、ストリーム制御部301は、ディスクに記録された圧縮ストリームから字幕映像ストリームを抽出し、これを字幕デコーダ304でデコードし、2Dの基準字幕映像信号と、これに3D方向の深度を与えるオフセットデータを出力する。ここでは、第2のスケーリング部313でのスケーリングは行わない(拡大縮小率=1.0)ため、2Dの基準字幕映像信号は第2のスケーリング部313を経由し、オフセット印加部306で3D方向の深度を与えるオフセットが印加され、左目用の字幕映像データ(L)と右目用の字幕映像データ(R)を出力する。
Hereinafter, an operation of the second
ビデオデコーダ302が出力する左目用ビデオ映像データ(L)は、第1のスケーリング部305と第1の加算部308を経由し、第3の加算部310において、オフセット印加部306が出力する左目用字幕映像データ(L’)と合成される。またビデオデコーダ302が出力する右目用ビデオ映像データ(R)は、第1のスケーリング部305と第2の加算部309を経由し、第4の加算部311において、オフセット印加部306が出力する右目用の字幕映像データ(R’)と合成される。これらの右目用と左目用の映像データは、多重化部312で多重化されてディスプレイに転送される。
The left-eye video image data (L) output from the
ここで、二眼式3Dの立体視の仕組みについて説明する。図5は、立体視の原理を示す模式図である。ディスプレイに正対して視聴する様子を頭の上方向から見た図であり、ディスプレイ面での映像の水平方向位置と、それを見る左右の目の視線(角度)を示している。図5(1)は、ビデオ映像を見たときの様子、図5(2)は、字幕映像を見た時の様子を示す。図5(1)において、まず、左目用のビデオ映像と右目用のビデオ映像をディスプレイ面で水平方向の同じ位置(点O)に表示した場合、人間はこのビデオ映像が点0の深度(ディスプレイ面)にあると認識する。左目用のビデオ映像を点Lb、右目用のビデオ映像を点Rbの位置に表示すると、人間はこのビデオ映像が点bの深度にある(ディスプレイ面より奥方向に位置する)と認識する。また、左目用のビデオ映像を点La、右目用のビデオ映像を点Raに表示すると、人間はこのビデオ映像が点aの深度にある(ディスプレイ面より手前方向に位置する)と認識する。このように、左右の目が映像を見る視線の角度によって、立体深度が認識される。一般的な3Dビデオ映像では、立体深度は映像に応じて常に変化している。ここでは、3Dビデオ映像の立体深度を点bから点aの範囲にあるとする。 Here, the mechanism of the binocular 3D stereoscopic vision will be described. FIG. 5 is a schematic diagram showing the principle of stereoscopic vision. It is the figure which looked at a mode that it watches and faces a display from the upper direction of a head, and shows the horizontal direction position of a picture on a display side, and the eyes (angle) of the right and left eyes which see it. FIG. 5 (1) shows a state when a video image is viewed, and FIG. 5 (2) shows a state when a subtitle image is viewed. In FIG. 5A, first, when the left-eye video image and the right-eye video image are displayed at the same position in the horizontal direction (point O) on the display surface, the human being has the depth of 0 (display Recognize that the When the left-eye video image is displayed at the point Lb and the right-eye video image is displayed at the point Rb, the human recognizes that the video image is at the depth of the point b (located in the back direction from the display surface). When the left-eye video image is displayed at the point La and the right-eye video image is displayed at the point Ra, the human recognizes that the video image is at the depth of the point a (positioned in front of the display surface). In this way, the three-dimensional depth is recognized by the angle of the line of sight when the left and right eyes see the video. In a general 3D video image, the stereoscopic depth constantly changes according to the image. Here, it is assumed that the stereoscopic depth of the 3D video image is in the range from point b to point a.
次に、字幕映像について図5(2)で説明する。基本的な立体視の考え方は図5(1)のビデオ映像と同じである。ここでは、字幕映像を基本的に通常の2D映像としている。つまり、ディスクから読み出したデータに左目用や右目用の区別はなく、そのままではいずれも同じ点(点O)に表示されるので、字幕映像はディスプレイ面上に位置すると認識される。ここで、図5の(1)のビデオ映像において、立体深度が点Aから点Oの範囲にある場合に、(2)の字幕映像(点Oに位置する場合)を合成して一つの3D映像として見ると、ディスプレイ面より手前方向に飛び出して見えるビデオ映像の一部分に、プレーン上はその上に重なる状態(字幕が重なった部分のビデオ映像は字幕に隠れて見えない)でありながら、立体視としてはそれより奥方向に引っ込んだ字幕が表示される。しかし現実の世界では、このような見え方になる事は基本的にあり得ない。そのためこのような表示では人間の立体視認識がうまく働かず、気分が悪くなるなどのいわゆる3D酔いと呼ばれる状態になる恐れがある。また逆に、字幕映像をビデオ映像より過度に手前に飛び出した深度に表示すると、やはり人間の立体視の認識能力に負荷がかかり、疲れやすいという問題が発生する。このような問題を避けるため、字幕を表示する深度は、ビデオ映像の深度と大きく乖離しない範囲で、かつビデオ映像より若干手前に表示する事が望ましい。 Next, the caption video will be described with reference to FIG. The basic concept of stereoscopic vision is the same as the video image of FIG. Here, the subtitle video is basically a normal 2D video. That is, there is no distinction between left-eye and right-eye data read from the disc, and both are displayed at the same point (point O) as they are, so that the subtitle video is recognized as being located on the display surface. Here, in the video image of (1) in FIG. 5, when the stereoscopic depth is in the range from the point A to the point O, the subtitle image (when located at the point O) of (2) is synthesized to form one 3D. When viewed as a video, a part of the video image that appears to jump out from the display surface overlaps on the plane (the video image where the subtitles overlap is hidden behind the subtitles and cannot be seen). As a visual indication, the subtitles that are retracted in the depth direction are displayed. However, in the real world, this kind of appearance is basically impossible. Therefore, in such a display, human stereoscopic recognition does not work well, and there is a risk of a so-called 3D sickness state in which the person feels sick. On the other hand, if the subtitle image is displayed at a depth that protrudes too far from the video image, there is still a problem that a human's ability to recognize stereoscopic vision is burdened and easily fatigued. In order to avoid such a problem, it is desirable to display the subtitles in a range that does not greatly deviate from the depth of the video image and slightly before the video image.
このため図5(2)に示すように、ディスプレイ面上の字幕映像を、左目用と右目用の2つに分けて表示する。具体的には、左目の字幕映像デ−タは、点Oから所定オフセット量だけ右方向にずらした点Lcに表示し、右目用の字幕映像データは、点Oから所定オフセット量だけ左方向にずらした点Rcに表示する。これにより、字幕映像そのものは2Dで平板に見えるが、3D方向の位置としては点cの深度にあると認識される。このように、ビデオ映像の最も手前方向の深度(点A)から、dだけ手前方向の深度(点C)に字幕を表示する事により、ビデオ映像と字幕を合成した場合でも自然な3D立体視を得る事ができる。 Therefore, as shown in FIG. 5 (2), the subtitle video on the display screen is displayed separately for the left eye and the right eye. Specifically, the left-eye caption video data is displayed at a point Lc shifted rightward from the point O by a predetermined offset amount, and the right-eye caption video data is leftward from the point O by a predetermined offset amount. Displayed at the shifted point Rc. As a result, the subtitle video itself appears to be a flat plate in 2D, but the position in the 3D direction is recognized to be at the depth of point c. In this way, by displaying subtitles from the depth closest to the video image (point A) to the depth d closest to the video image (point C), natural 3D stereoscopic viewing is possible even when the video image and the subtitle are synthesized. Can be obtained.
次に、ビデオ映像を縮小するとともに、その縮小するビデオ信号に字幕が重畳される場合について説明する。まず、図3の第2のリモコン信号受信部205が、ユーザーのリモコン操作「メニュー表示」の信号を受信したとする。これをCPU204で検出し、図4のストリーム制御部301を制御して、記録ストリームデータからグラフィックス映像ストリームを抽出する。このグラフィックス映像ストリームをグラフィックデコーダ303がデコードし、メニュー画面を構成するグラフィックス映像データを出力する。ここでは、メニュー画面も3D映像とし、左目用データ(L)と右目用データ(R)が出力される。ここで、メニュー表示時はビデオ映像を縮小してメニュー画面の一部の領域に表示するものとする。
Next, a case where a video image is reduced and captions are superimposed on the reduced video signal will be described. First, it is assumed that the second remote control
このメニュー画面の一部の領域に表示するために、左目用ビデオ映像(L)と右目用ビデオ映像(R)とを1/2にスケーリングする場合を例に説明する。CPU204の制御に応じて、第1のスケーリング部305で左目用ビデオ映像(L)、右目用ビデオ映像(R)を各々1/2に縮小スケーリングし、これらを、第1の加算部308、第2の加算部309でグラフィックス映像データと合成する。さらに、ビデオ映像データに付加する字幕の基準映像データも、CPU204の制御に応じて、第2のスケーリング部313で1/2に縮小する。これに、オフセット印加部306で水平方向のオフセットを印加し、左目用字幕データ(L’)、右目用字幕データ(R’)として出力し、第3の加算部310、第4の加算部311でビデオ映像及びグラフィックス映像と合成する。これにより、縮小されたビデオ映像と字幕が合成されたメニュー画面が構成される。
An example will be described in which the left-eye video image (L) and the right-eye video image (R) are scaled to ½ in order to display in a partial area of the menu screen. Under the control of the
図6は、1/2にスケーリングしたにも関わらず、オフセット量を調整しなかった場合の例を示す。この時の立体視の様子を図6(1)及び(2)を用いて説明する。図6は、図5と同様に、ディスプレイに正対して視聴する様子を頭の上から見た図であり、ディスプレイ上の水平方向の映像の位置と、それを見る左右の目の視線(角度)を示している。図6(1)は、ビデオ映像を見たときの様子、図6(2)は、字幕映像を見た時の様子を示す。 FIG. 6 shows an example in which the offset amount is not adjusted despite being scaled to ½. The state of stereoscopic vision at this time will be described with reference to FIGS. FIG. 6 is a view of viewing from the top of the head, as viewed in front of the display, as in FIG. 5, and the position of the horizontal image on the display and the line of sight (angle) of the left and right eyes viewing it. ). FIG. 6 (1) shows a state when a video image is viewed, and FIG. 6 (2) shows a state when a subtitle image is viewed.
まずビデオ映像は、図5(1)と比べて1/2に縮小されるので、全ての画素間隔が1/2に縮小される。ゆえに、映像が奥方向の深度にある時は、左目用のビデオ映像は点Lb’、右目用のビデオ映像は点Rb’に表示され、ビデオ映像は点b’の深度にあると認識される。また映像が手前方向の深度にある時は、左目用のビデオ映像は点La’、右目用のビデオ映像は点Ra’に表示され、ビデオ映像は点a’の深度にあると認識される。このように、二眼式3D方式の左目用及び右目用の映像を各々2次元空間で水平方向に縮小すると、それに比例して立体深度が小さくなる。反対に、水平方向に拡大するとそれに比例して立体深度が大きくなる。これは二眼式3D方式が、水平方向の視差によって深度が決まるためであり、原理的な現象である。 First, since the video image is reduced to ½ compared to FIG. 5A, all pixel intervals are reduced to ½. Therefore, when the image is at a depth in the depth direction, the video image for the left eye is displayed at the point Lb ′, the video image for the right eye is displayed at the point Rb ′, and the video image is recognized as being at the depth of the point b ′. . When the image is at the depth in the front direction, the video image for the left eye is displayed at the point La ', the video image for the right eye is displayed at the point Ra', and the video image is recognized as being at the depth of the point a '. In this way, when the left-eye and right-eye images of the binocular 3D system are reduced in the horizontal direction in the two-dimensional space, the stereoscopic depth is reduced in proportion thereto. On the other hand, when the image is expanded in the horizontal direction, the three-dimensional depth increases in proportion thereto. This is because the depth of the binocular 3D system is determined by the parallax in the horizontal direction, which is a fundamental phenomenon.
つぎに字幕映像は、第2のスケーリング部313で2Dの基準字幕映像信号として縮小され、左右の視差を決めるオフセットは変わらない。ゆえに、左目用字幕映像データは点Lcの位置に、右目用字幕映像データは点Rcの位置に表示され、字幕映像は点cの深度にあると認識される。
Next, the subtitle video is reduced as a 2D reference subtitle video signal by the
このように、3Dビデオ映像とオフセット付き2D字幕映像を各々1/2に縮小した場合、ビデオ映像の深度は1/2に低減するのに対し、字幕映像の深度は変わらないため、ビデオ映像と字幕映像の立体深度の差d’が大きくなる。すなわち、字幕映像がビデオ映像より過度に手前に飛び出した深度に表示されるため、人間の立体視の認識能力に負荷がかかり、疲れやすいという問題が生じる。ここでは縮小する例を述べたが、逆に2倍に拡大する場合を考えると、ビデオ映像の映像深度が2倍に拡大され、字幕の深度は変わらないため、ビデオ映像が字幕より手前に表示される状態になる。この場合も、前述したように、人間の立体視認識がうまく働かず、気分が悪くなるなどのいわゆる3D酔いと呼ばれる状態になる恐れがある。 As described above, when the 3D video image and the offset 2D subtitle image are reduced to ½, the video image depth is reduced to ½, while the subtitle image depth does not change. The difference d ′ in the stereoscopic depth of the caption video increases. That is, since the subtitle image is displayed at a depth that protrudes too far from the video image, there is a problem that a human's ability to recognize stereoscopic vision is burdened and easily fatigued. Here, an example of reduction was described, but conversely, considering the case of enlarging twice, the video depth of the video image is doubled and the subtitle depth does not change, so the video image is displayed in front of the subtitle. It becomes a state to be. Also in this case, as described above, there is a risk that human stereoscopic recognition does not work well and a so-called 3D sickness state such as a feeling of badness may occur.
そこで、本実施の形態では、この問題を解決するために、ビデオ映像を拡大もしくは縮小した場合に、字幕に印加するオフセット量を可変する。以下にその手順と仕組みを説明する。まず、図3の第2のリモコン信号受信部205が、ユーザーのリモコン操作「メニュー表示」の信号を受信した場合、これを図4のCPU204で検出する。さらにCPU204は、ストリーム中に記録されたか縮小或いは拡大率をストリーム制御部301から読み出し、これに応じて、オフセット印加部306で印加するオフセットを制御する。具体的には、例えば拡大率が2倍であれば、印加するオフセット量も2倍、拡大率が1/2であれば印加するオフセット量も1/2にする。
Therefore, in this embodiment, in order to solve this problem, when the video image is enlarged or reduced, the offset amount applied to the subtitle is varied. The procedure and mechanism are described below. First, when the second remote control
図7にこの時の立体視の様子を示す。図7は、図5及び6と同様に、ディスプレイに正対して視聴する様子を頭の上から見た図であり、ディスプレイ上の水平方向の映像の位置と、それを見る左右の目の視線(角度)を示している。図7(1)は、ビデオ映像を見たときの様子、図7(2)は、字幕映像を見た時の様子を示す。 FIG. 7 shows a stereoscopic view at this time. FIG. 7 is a view of viewing from the top of the head, as viewed in FIG. 5 and 6, with the position of the image on the display in the horizontal direction and the eyes of the left and right eyes viewing it. (Angle) is shown. FIG. 7 (1) shows a state when a video image is viewed, and FIG. 7 (2) shows a state when a subtitle image is viewed.
ビデオ映像は1/2に縮小されるため、図6(1)と同様に立体深度も1/2となり、点a’から点b’の深度と認識される。字幕映像は、オフセットが1/2に低減されるため、左目用字幕映像データは点Lc’の位置に、右目用字幕映像データは点Rc’の位置に表示され、この字幕映像は点c’の深度にあると認識される。これにより、ビデオ映像と字幕の相対的な深度の関係が保存され、字幕とビデオ映像の深度が大きく乖離せす、かつ字幕がビデオ映像より若干手前に表示する事ができる。 Since the video image is reduced to ½, the stereoscopic depth is also halved similarly to FIG. 6A, and the depth is recognized as the depth from the point a ′ to the point b ′. Since the offset of the subtitle video is reduced to ½, the subtitle video data for the left eye is displayed at the position of the point Lc ′, and the subtitle video data for the right eye is displayed at the position of the point Rc ′. Perceived to be at a depth of. As a result, the relationship between the relative depths of the video image and the subtitle is stored, the depth of the subtitle and the video image greatly deviates, and the subtitle can be displayed slightly before the video image.
ここで、拡大縮小率に応じてオフセットを算出する場合に、デジタル演算の語調によるビット丸めが発生する場合がある。例えば、字幕映像のオフセットが、左目用と右目用で±7画素であった場合、これを1/2に縮小すると、オフセットは±3.5画素になる。一般に、小数点点以下の画素位置に映像の位相を正確に合わせるのは非常に困難である。ゆえに、画素位置を丸める事になるが、その場合、字幕映像データがビデオ映像データより手前方法にずれるように丸める事が有効である。図7(2)の例であれば、左目用字幕映像データ(Lc’)は右側寄りに、右目用字幕映像データ(Rc’)は左側寄りになるように丸める。(この場合、オフセット値は切り上げ方向になる)。図7(2)は字幕映像の深度がディスプレイより手前方向にある場合であるが、字幕映像の深度がディスプレイより奥方向にある場合も、同様に、左目用字幕映像データは右側寄りに、右目用字幕映像データは左側寄りになるように丸める。但しこの場合は、オフセット値は切り捨て方向になる。つまり、オフセット印加部306によるオフセットの縮小比率は、第1のスケーリング部305における縮小比率よりも小さい。
Here, when the offset is calculated in accordance with the enlargement / reduction ratio, bit rounding may occur due to a digital tone. For example, if the offset of the caption video is ± 7 pixels for the left eye and for the right eye, if this is reduced to ½, the offset becomes ± 3.5 pixels. In general, it is very difficult to accurately adjust the phase of an image to a pixel position below the decimal point. Therefore, the pixel position is rounded. In this case, it is effective to round the subtitle video data so that the subtitle video data is shifted in the foreground method from the video video data. In the example of FIG. 7B, the left-eye caption video data (Lc ′) is rounded to the right and the right-eye caption video data (Rc ′) is rounded to the left. (In this case, the offset value is in the round-up direction). FIG. 7 (2) shows the case where the depth of the caption video is in the front direction from the display. Similarly, when the depth of the caption video is in the depth direction from the display, the left-eye caption video data is also shifted to the right side, The closed caption video data is rounded to the left. However, in this case, the offset value is cut off. That is, the reduction ratio of the offset by the offset
これらの処理により、映像の拡大縮小に依らず、常に自然でかつ疲れにくい立体映像を得る事ができる。 Through these processes, a 3D image that is always natural and less tiring can be obtained regardless of the enlargement / reduction of the image.
なお、上記においては、ビデオ映像を1/2に縮小する例について説明したが、1.5倍に拡大する場合も同様にオフセット量を調整すれば良い。この場合は、オフセット量を1.5倍にすれば良い。また、例えば、1.5倍に拡大する場合に画素位置を丸めることが必要な場合は、同様に幕映像データがビデオ映像データより手前方法にずれるように丸める事が有効である。つまり、オフセット印加部306によるオフセットの拡大比率は、第1のスケーリング部305における拡大比率よりも大きい。
In the above description, an example in which the video image is reduced to ½ has been described. However, the offset amount may be adjusted in the same manner even when the video image is enlarged to 1.5 times. In this case, the offset amount may be increased by 1.5 times. Further, for example, when the pixel position needs to be rounded when enlarging to 1.5 times, it is effective to round the curtain video data so that it is shifted in a forward manner from the video video data. That is, the offset enlargement ratio by the offset
つまり、本実施の形態の映像処理装置は、第1の3D映像信号と第2の3D映像信号とを合成し、左目用の映像信号と右目用の映像信号とを含む3D映像信号を生成可能な再生装置12であって、第1の3D映像信号が入力され、少なくとも拡大もしくは縮小のいずれかの処理が可能であり、その処理後の第1の3D映像信号を出力する第1のスケーリング部305と、第2の3D映像信号が入力され、その入力された第2の3D映像信号の深度を調整して出力するオフセット印加部306と、第1のスケーリング部305の出力とオフセット印加部306との出力とを合成して出力する合成部307とを備え、オフセット印加部306は、第1のスケーリング部305における拡大もしくは縮小の比率に応じて、第2の3D映像信号の深度を調整する。
That is, the video processing apparatus according to the present embodiment can generate a 3D video signal including the left-eye video signal and the right-eye video signal by combining the first 3D video signal and the second 3D video signal. A
これにより、各映像素材を任意に拡大もしくは縮小した場合でも、他の素材との3D深度の関係を常に適切に保った3D映像を得る事ができる。 Thereby, even when each video material is arbitrarily enlarged or reduced, it is possible to obtain a 3D video in which the 3D depth relationship with other materials is always properly maintained.
また、本実施の形態の映像処理装置は、
第2の3D映像信号は、2D映像信号と、その2D映像信号から左目用の映像信号と右目用の映像信号とを生成する場合に用いられる、その左目用の映像信号と右目用の映像信号の画面における位置ズレ量を示すオフセットとを含み、
オフセット印加部306は、2D映像信号とオフセットに基づき左目用の映像信号と右目用の映像信号とを生成する場合において、第1のスケーリング部305における拡大もしくは縮小の比率に応じて、オフセットを調整する。
In addition, the video processing apparatus of the present embodiment is
The second 3D video signal is a 2D video signal and the left-eye video signal and the right-eye video signal used when generating the left-eye video signal and the right-eye video signal from the 2D video signal. Including an offset indicating the amount of positional deviation on the screen,
The offset
これにより、字幕情報がオフセット量を持つ2D映像であった場合も、他の素材との3D深度の関係を常に適切に保った3D映像を得る事ができる。 As a result, even when the caption information is a 2D video having an offset amount, it is possible to obtain a 3D video in which the 3D depth relationship with other materials is always properly maintained.
また、本実施の形態の映像処理装置は、オフセット印加部306によるオフセットの縮小比率は、第1のスケーリング部305における縮小比率よりも小さい。
In the video processing apparatus according to the present embodiment, the offset reduction ratio by the offset
これにより縮小時に丸め誤差が発生する場合であっても、他の素材との3D深度の関係を常に適切に保った3D映像を得る事ができる。 As a result, even when a rounding error occurs at the time of reduction, it is possible to obtain a 3D image in which the 3D depth relationship with other materials is always properly maintained.
また、本実施の形態の映像処理装置は、オフセット印加部306によるオフセットの拡大比率は、第1のスケーリング部305における拡大比率よりも大きい
これにより拡大時に丸め誤差が発生する場合であっても、他の素材との3D深度の関係を常に適切に保った3D映像を得る事ができる。
Further, in the video processing apparatus according to the present embodiment, the offset enlargement ratio by the offset
なお、本実施の形態における説明において、図4を用いて、3Dビデオ映像とオフセット付きの字幕映像を合成する場合について説明した。通常、字幕はビデオ映像に合わせて拡大や縮小を行うため、図4の第2のスケーリング部313に示すスケーリング部を設けたが、この構成を設けない他の実施の形態もあり得る。それは、例えば、3Dビデオ映像を、オフセット付きのメニューや、表示画面全体にオフセットが付与されたグラフィックス映像と合成する場合である。この場合、ビデオ映像を拡大や縮小を行っても、メニューやグラフィックスは拡大や縮小は行わない。そのため、オフセット付きのメニューや表示画面全体に付与されたグラフィックスは、拡大や縮小を行う事無く、オフセットのみを適切に補正すればよい。
In the description of the present embodiment, the case of synthesizing a 3D video image and a subtitle image with an offset has been described with reference to FIG. Usually, since the subtitle is enlarged or reduced in accordance with the video image, the scaling unit shown in the
また、本実施の形態における説明において、3D映像素材は主に光ディスクやHDDなどの記録媒体から読み出すとしたが、半導体メモリ等の記録媒体、LANなどのネットワークから読み出してもよい。 In the description of the present embodiment, the 3D video material is mainly read from a recording medium such as an optical disk or an HDD, but may be read from a recording medium such as a semiconductor memory or a network such as a LAN.
また、本実施の形態における説明において、左目用の映像と右目用の映像は、ディスプレイで時分割に表示し、これに同期した液晶シャッタを用いたメガネで視聴するとしたが、このような構成に限定されるものではない。ディスプレイ表面に貼り付けた偏光フィルタなどで空間方向に分割して表示する方法など、多くの方式が提案されており、いわゆる二眼式の3D再生装置であれば、広く適用が可能である。 In the description of the present embodiment, the left-eye video and the right-eye video are displayed on a display in a time-sharing manner and viewed with glasses using a liquid crystal shutter synchronized with the video. It is not limited. Many methods have been proposed, such as a method of dividing and displaying in the spatial direction with a polarizing filter or the like attached to the surface of the display, and any so-called binocular 3D playback device can be widely applied.
本発明は、ハードディスクレコーダなど、立体映像を再生可能な再生装置などに適用できる。 The present invention can be applied to a playback apparatus capable of playing back stereoscopic video, such as a hard disk recorder.
11 表示装置
12 再生装置
13 立体メガネ
101 第1の入出力部
102 第1のAV処理部
103 表示部
104 第1のリモコン信号受信部
105 送信部
200 ディスク
201 ディスクドライブ部
202 第2のAV処理部
203 第2の入出力部
204 CPU
205 第2のリモコン信号受信部
301 ストリーム制御部
302 ビデオデコーダ
303 グラフィックデコーダ
304 字幕デコーダ
305 第1のスケーリング部
306 オフセット印加部
307 合成部
308 第1の加算部
309 第2の加算部
310 第3の加算部
311 第4の加算部
312 多重化部
313 第2のスケーリング部
DESCRIPTION OF
205 Second remote control
Claims (4)
前記第1の立体映像信号が入力され、少なくとも拡大もしくは縮小のいずれかの処理が可能であり、その処理後の第1の立体映像信号を出力する第1のスケーリング部と、
前記第2の立体映像信号が入力され、その入力された第2の立体映像信号のデプスを調整して出力するデプス調整部と、
前記第1のスケーリング部の出力とデプス調整部との出力とを合成して出力する合成部とを備え、
前記デプス調整部は、前記第1のスケーリング部における拡大もしくは縮小の比率に応じて、前記第2の立体映像信号のデプスを調整する、映像処理装置。 A video processing apparatus capable of generating a stereoscopic video signal including a left-eye video signal and a right-eye video signal by combining a first stereoscopic video signal and a second stereoscopic video signal, wherein the first stereoscopic video signal is generated A first scaling unit which receives a video signal and is capable of at least either enlargement or reduction processing, and outputs a first stereoscopic video signal after the processing;
A depth adjusting unit that receives the second stereoscopic video signal and adjusts and outputs the depth of the input second stereoscopic video signal;
A synthesis unit that synthesizes and outputs the output of the first scaling unit and the output of the depth adjustment unit;
The depth adjustment unit adjusts the depth of the second stereoscopic video signal in accordance with an enlargement or reduction ratio in the first scaling unit.
非立体映像信号と、その非立体映像信号から左目用の映像信号と右目用の映像信号とを生成する場合に用いられる、その左目用の映像信号と右目用の映像信号の画面における位置ズレ量を示すオフセットとを含み、
前記デプス調整部は、前記非立体映像信号と前記オフセットに基づき左目用の映像信号と右目用の映像信号とを生成する場合において、前記第1のスケーリング部における拡大もしくは縮小の比率に応じて、前記オフセットを調整する、請求項1に記載の映像処理装置。 The second stereoscopic video signal is
The amount of misalignment on the screen of the non-stereo video signal and the left-eye video signal and right-eye video signal used to generate the left-eye video signal and the right-eye video signal from the non-stereo video signal. And an offset indicating
In the case where the depth adjustment unit generates a left-eye video signal and a right-eye video signal based on the non-stereoscopic video signal and the offset, according to the enlargement or reduction ratio in the first scaling unit, The video processing apparatus according to claim 1, wherein the offset is adjusted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009183018A JP2011035858A (en) | 2009-08-06 | 2009-08-06 | Video processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009183018A JP2011035858A (en) | 2009-08-06 | 2009-08-06 | Video processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011035858A true JP2011035858A (en) | 2011-02-17 |
Family
ID=43764431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009183018A Pending JP2011035858A (en) | 2009-08-06 | 2009-08-06 | Video processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011035858A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012118231A1 (en) * | 2011-03-02 | 2012-09-07 | Sharp Kabushiki Kaisha | Method and device for displaying a pair of stereoscopic images |
WO2012147354A1 (en) * | 2011-04-28 | 2012-11-01 | パナソニック株式会社 | Video processing device and video processing method |
-
2009
- 2009-08-06 JP JP2009183018A patent/JP2011035858A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012118231A1 (en) * | 2011-03-02 | 2012-09-07 | Sharp Kabushiki Kaisha | Method and device for displaying a pair of stereoscopic images |
WO2012147354A1 (en) * | 2011-04-28 | 2012-11-01 | パナソニック株式会社 | Video processing device and video processing method |
US9357200B2 (en) | 2011-04-28 | 2016-05-31 | Panasonic Intelectual Property Management Co., Ltd. | Video processing device and video processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5820276B2 (en) | Combining 3D images and graphical data | |
JP5809064B2 (en) | Transfer of 3D image data | |
WO2011135857A1 (en) | Image conversion device | |
WO2010084724A1 (en) | Image processing device, program, image processing method, recording method, and recording medium | |
JP5573682B2 (en) | 3D image viewing system, display system, optical shutter, and 3D image viewing method | |
US8994787B2 (en) | Video signal processing device and video signal processing method | |
WO1998009445A1 (en) | Method for producing a synthesized stereoscopic image | |
JP2005073013A (en) | Device and method for stereo image display, program for making computer execute the method, and recording medium recording the program | |
JPWO2011016240A1 (en) | Video playback device | |
JP2011216937A (en) | Stereoscopic image display device | |
JP2011172172A (en) | Stereoscopic video processing device and method, and program | |
JP5396877B2 (en) | Image processing apparatus, program, image processing method, and recording method | |
JP5505637B2 (en) | Stereoscopic display device and display method of stereoscopic display device | |
JP4806082B2 (en) | Electronic apparatus and image output method | |
US20110134226A1 (en) | 3d image display apparatus and method for determining 3d image thereof | |
US9407901B2 (en) | Method of displaying content list using 3D GUI and 3D display apparatus applied to the same | |
JP4733764B2 (en) | 3D image processing apparatus and 3D image processing method | |
JP2011035858A (en) | Video processing apparatus | |
WO2013027305A1 (en) | Stereoscopic image processing device and stereoscopic image processing method | |
JP5367031B2 (en) | Information processing method and information processing apparatus | |
JP2011077984A (en) | Video processing apparatus | |
JP2006128842A (en) | Stereoscopic video signal generator | |
JP2011103504A (en) | Stereoscopic display device, stereoscopic display method and stereoscopic display system | |
JP2013214787A (en) | Video signal processing apparatus and video signal processing method | |
JP2002341289A (en) | Stereoscopic video observation device |