JP2012231251A - Stereoscopic video processing device and stereoscopic video processing method - Google Patents

Stereoscopic video processing device and stereoscopic video processing method Download PDF

Info

Publication number
JP2012231251A
JP2012231251A JP2011097471A JP2011097471A JP2012231251A JP 2012231251 A JP2012231251 A JP 2012231251A JP 2011097471 A JP2011097471 A JP 2011097471A JP 2011097471 A JP2011097471 A JP 2011097471A JP 2012231251 A JP2012231251 A JP 2012231251A
Authority
JP
Japan
Prior art keywords
stereoscopic
image
unit
glasses
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011097471A
Other languages
Japanese (ja)
Inventor
Mitsuo Yamazaki
充夫 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011097471A priority Critical patent/JP2012231251A/en
Publication of JP2012231251A publication Critical patent/JP2012231251A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic video processing device and a stereoscopic video processing method that are capable of providing a viewing environment suitable for each viewer.SOLUTION: A stereoscopic video processing method for a stereoscopic video processing device that displays, for a viewer, first and second videos for stereoscopic display having parallax therebetween, includes: setting a mode suitable for the viewer from among plural modes for which adjustment amounts related to the parallax between the first and second videos are set; generating videos obtained by adjusting the parallax between the first and second videos with the adjustment amount corresponding to the set mode; and outputting the generated first and second videos.

Description

本発明の実施形態は、立体視映像処理装置及び立体視映像処理方法に関する。   Embodiments described herein relate generally to a stereoscopic video processing apparatus and a stereoscopic video processing method.

従来、視聴者に立体感のある映像を認識させるため、視聴者の両眼に対応した視差を有する2種類の映像を用意する立体視映像処理装置がある。この立体視映像処理装置が用意した2種類の映像は、視聴者が装着した立体視用眼鏡により、右目用映像が視聴者の右眼に視認され、左眼用映像が視聴者の左眼に視認される(例えば、特許文献1参照。)。   2. Description of the Related Art Conventionally, there is a stereoscopic image processing apparatus that prepares two types of images having parallax corresponding to the viewer's eyes in order to make the viewer recognize a stereoscopic image. The two types of videos prepared by the stereoscopic video processing apparatus are such that the right-eye video is visually recognized by the viewer's right eye and the left-eye video is viewed by the viewer's left eye by the stereoscopic glasses worn by the viewer. It is visually recognized (for example, refer to Patent Document 1).

従来例において、入力された立体視に対応した画像データは、例えば立体視画像処理部に入力される。入力された立体視に対応した画像データは、立体視画像処理部において、立体視専用のフォーマットから、LCD等のディスプレイに出力する60Hzの画像フォーマットに変換される。その際に、通常の立体視の場合、左右の画像を例えば交互に出力するためには、60Hzのフレームフォーマットの2倍の120Hzのフレーム周波数で、左右の画像をそれぞれ出力する。また、左右の画像のクロストークを防止するために、左右の画像の間に黒画面等を挿入するので、さらに2倍の240Hzのフレーム周波数で、左右の画像をそれぞれ出力する。   In the conventional example, the input image data corresponding to the stereoscopic vision is input to the stereoscopic image processing unit, for example. In the stereoscopic image processing unit, the input image data corresponding to the stereoscopic vision is converted from a dedicated format for stereoscopic vision into a 60 Hz image format to be output to a display such as an LCD. At this time, in the case of normal stereoscopic vision, in order to output the left and right images alternately, for example, the left and right images are output at a frame frequency of 120 Hz, which is twice the frame format of 60 Hz. Further, in order to prevent crosstalk between the left and right images, a black screen or the like is inserted between the left and right images, so that the left and right images are respectively output at a double frame frequency of 240 Hz.

次に、出力された画像データを立体視するためには、視聴する者側では、左目の画像は、左目だけで見て、右目の画像は、右目だけで見なければならない、そのためには、専用のメガネを付けて、左目の画像が出力されている時間は、右目には画像が見えないようする。逆に右目の画像が出力されている時間は、左目には画像が見えないようする。この動作のシャッタータイミングのL信号の“H”区間では、メガネの左が見えるようにして、“L”区間では、メガネの左側が見えないようにする。この信号をメガネに赤外線等で伝送して、メガネのLレンズを制御する(シャッター動作)。また、シャッタータイミングのR信号の“H”区間では、メガネの右が見えるようにして、“L”区間では、メガネの右側が見えないようにするこの信号をメガネに赤外線等で伝送して、メガネの右レンズを制御する(シャッター動作)。これによって、左目と右目がそれぞれ120Hzの周期で、交互に見えたり見えなかったりを繰り返すことになる。   Next, in order to stereoscopically view the output image data, on the viewer side, the image of the left eye must be viewed only with the left eye, and the image of the right eye must be viewed only with the right eye. Wear special glasses to keep the right eye from seeing the image while the left eye is being output. Conversely, during the time that the right-eye image is output, the left eye does not see the image. In the “H” section of the L signal of the shutter timing of this operation, the left side of the glasses is visible, and in the “L” section, the left side of the glasses is not visible. This signal is transmitted to the glasses by infrared rays or the like to control the L lens of the glasses (shutter operation). Also, this signal is transmitted to the glasses by infrared rays so that the right side of the glasses can be seen in the “H” section of the R signal of the shutter timing, and the right side of the glasses cannot be seen in the “L” section. Controls the right lens of the glasses (shutter operation). As a result, the left eye and the right eye repeatedly appear and disappear alternately at a period of 120 Hz.

しかしながら一般の従来例では、立体視の出力形式は、1種類であり、複数の視聴者がTVを見ている場合、それぞれの視聴者の健康、体質は各人それぞれ異なっているのに、それに対して最適な視聴環境を提供できないという問題点があった。   However, in a general conventional example, there is one type of stereoscopic output format, and when multiple viewers watch TV, each viewer's health and constitution are different from each other. On the other hand, there was a problem that an optimal viewing environment could not be provided.

即ち、各視聴者に適する視聴環境を提供することへの要望があるが、かかる要望を実現するための手段は知られていない。   That is, there is a request to provide a viewing environment suitable for each viewer, but means for realizing such a request is not known.

特開2006−262191号公報JP 2006-262191 A

本発明の実施の形態は、各視聴者に適する視聴環境を提供することができる立体視映像処理装置及び立体視映像処理方法を提供することを目的とする。   An object of the embodiment of the present invention is to provide a stereoscopic video processing apparatus and a stereoscopic video processing method capable of providing a viewing environment suitable for each viewer.

上記課題を解決するために、実施形態によれば立体視映像処理方法は、相互に視差を有する立体視表示用の第1及び第2の映像を視聴者へ表示する立体視映像処理装置の立体視映像処理方法であって、前記第1及び第2の映像の視差にかかる調整量が設定された複数のモードの中から、視聴者に合うモードを設定し、前記第1及び第2の映像の視差を、設定された前記モードに応じた調整量で調整した映像を生成し、生成された前記第1及び第2の映像を出力する。   In order to solve the above problem, according to the embodiment, a stereoscopic video processing method includes a stereoscopic video processing apparatus that displays first and second stereoscopic display images having parallax to a viewer. A visual image processing method, wherein a mode suitable for a viewer is set from a plurality of modes in which adjustment amounts for parallax of the first and second images are set, and the first and second images are set. Is generated with an adjustment amount corresponding to the set mode, and the generated first and second images are output.

この発明の一実施形態を示すテレビジョン放送受信装置のブロック構成図。The block block diagram of the television broadcast receiver which shows one Embodiment of this invention. 同実施形態の一部である合成処理部を示すブロック構成図。The block block diagram which shows the synthetic | combination process part which is a part of the embodiment. 同実施形態の装置(システム)を示す概略機能ブロック図。FIG. 2 is a schematic functional block diagram showing an apparatus (system) according to the embodiment. 図3の機能ブロックの動作を示す信号波形を表す図。The figure showing the signal waveform which shows operation | movement of the functional block of FIG. 実施形態の装置(システム)を示す概略機能ブロック図。1 is a schematic functional block diagram showing an apparatus (system) of an embodiment. 図5の機能ブロックの動作を示す信号波形を表す図。The figure showing the signal waveform which shows operation | movement of the functional block of FIG. 他の実施例の動作を示す信号波形を表す図。The figure showing the signal waveform which shows operation | movement of another Example. 他の実施例の動作を示す信号波形を表す図。The figure showing the signal waveform which shows operation | movement of another Example.

以下に添付図面を参照して、実施形態にかかる立体視映像処理装置及び立体視映像処理方法を詳細に説明する。以下では、立体視映像処理装置としてテレビジョン放送受信装置を例に説明する。   Hereinafter, a stereoscopic video processing apparatus and a stereoscopic video processing method according to embodiments will be described in detail with reference to the accompanying drawings. Hereinafter, a television broadcast receiving device will be described as an example of the stereoscopic video processing device.

図1は、テレビジョン放送受信装置10の構成を示すブロック図である。なお、テレビジョン放送受信装置10は、通常の平面視(二次元)表示用の映像信号に基づく映像表示、及び、立体視(三次元)表示用の映像信号に基づく映像表示を行うことが可能な映像表示装置である。   FIG. 1 is a block diagram showing a configuration of the television broadcast receiver 10. Note that the television broadcast receiving apparatus 10 can perform video display based on a normal planar (two-dimensional) display video signal and video display based on a stereoscopic (three-dimensional) display video signal. This is an image display device.

アンテナ11で受信したデジタルテレビジョン放送信号は、入力端子10aを介してチューナ部12に供給される。チューナ部12では、制御部22の制御の下、所望のチャンネルのデジタルテレビジョン放送信号が選局される。チューナ部12で選局された放送信号は、復調復号部13に供給されてデジタルの映像信号及び音声信号等に復元された後、信号処理部14に出力される。   The digital television broadcast signal received by the antenna 11 is supplied to the tuner unit 12 via the input terminal 10a. In the tuner unit 12, a digital television broadcast signal of a desired channel is selected under the control of the control unit 22. The broadcast signal selected by the tuner unit 12 is supplied to the demodulation / decoding unit 13, restored to a digital video signal, an audio signal, and the like, and then output to the signal processing unit 14.

信号処理部14は、復調復号部13から供給されたデジタルの映像信号及び音声信号に対して、それぞれ所定のデジタル信号処理を施している。この信号処理部14が行う所定のデジタル信号処理には、通常の平面視表示用の映像信号を立体視表示用の映像信号に変換する処理や、立体視表示用の映像信号(右眼用の映像にかかる映像信号、左眼用の映像にかかる映像信号)を平面視表示用の映像信号に変換する処理等も含まれている。そして、信号処理部14は、デジタルの映像信号を合成処理部15に出力し、デジタルの音声信号を音声処理部16に出力している。   The signal processing unit 14 performs predetermined digital signal processing on the digital video signal and audio signal supplied from the demodulation / decoding unit 13. The predetermined digital signal processing performed by the signal processing unit 14 includes processing for converting a normal planar display video signal into a stereoscopic display video signal, and a stereoscopic display video signal (for the right eye). Processing for converting a video signal related to video and a video signal related to video for the left eye into a video signal for planar display is also included. Then, the signal processing unit 14 outputs a digital video signal to the synthesis processing unit 15 and outputs a digital audio signal to the audio processing unit 16.

このうち、合成処理部15は、信号処理部14から供給されるデジタルの映像信号に、OSD信号生成部17(On Screen Display)で生成されるOSD信号を重畳して出力している。この場合、合成処理部15は、信号処理部14から供給される映像信号が通常の平面視表示用の映像信号であれば、その映像信号にOSD信号生成部17から供給されたOSD信号をそのまま重畳して出力している。   Among these, the synthesis processing unit 15 superimposes and outputs the OSD signal generated by the OSD signal generation unit 17 (On Screen Display) on the digital video signal supplied from the signal processing unit 14. In this case, if the video signal supplied from the signal processing unit 14 is a normal planar display video signal, the synthesis processing unit 15 directly uses the OSD signal supplied from the OSD signal generation unit 17 as the video signal. It is superimposed and output.

また、合成処理部15は、信号処理部14から供給される映像信号が立体視表示用の映像信号である場合、詳細は後述するが、制御部22より出力されるモード選択信号をもとにしたモードに応じた調整量で、右眼用の映像と左眼用の映像との視差を調整した映像信号を生成する。次いで、合成処理部15は、OSD信号生成部17から供給されたOSD信号を立体視表示用の映像信号に重畳して出力する。   Further, when the video signal supplied from the signal processing unit 14 is a video signal for stereoscopic display, the synthesis processing unit 15 will be described later in detail, but based on the mode selection signal output from the control unit 22. A video signal in which the parallax between the video for the right eye and the video for the left eye is adjusted with an adjustment amount corresponding to the selected mode is generated. Next, the composition processing unit 15 superimposes and outputs the OSD signal supplied from the OSD signal generation unit 17 on the video signal for stereoscopic display.

合成処理部15から出力されたデジタルの映像信号は、映像処理部18に供給される。映像処理部18は、入力されたデジタルの映像信号を、後段の、例えば液晶表示パネル等を有する平面型の映像表示部19で表示可能なフォーマットのアナログ映像信号に変換している。そして、この映像処理部18から出力されたアナログ映像信号が、映像表示部19に供給されて映像表示に供される。   The digital video signal output from the synthesis processing unit 15 is supplied to the video processing unit 18. The video processing unit 18 converts the input digital video signal into an analog video signal in a format that can be displayed by a flat-type video display unit 19 having a liquid crystal display panel or the like at a subsequent stage. The analog video signal output from the video processing unit 18 is supplied to the video display unit 19 and used for video display.

本体側通信部20は、右眼用の映像と左眼用の映像とを選択して視聴者に視認させる立体視用眼鏡30と通信を行う。具体的には、本体側通信部20は、合成処理部15に接続され、後述する眼鏡制御部48(図2参照)から出力された左眼用及び右眼用のシャッター制御信号を各立体視用眼鏡30に送信する。また、本体側通信部20は、立体視用眼鏡30より通知されたデータ(例えば立体視用眼鏡30との間で通信が確立された際に通知された装置固有の識別情報)を制御部22に出力する。なお、本体側通信部20の通信方式は、特に問わず、例えば、Bluetooth(登録商標)や赤外線通信方式、DLP−LINK(登録商標)方式等を用いることができる。   The main body side communication unit 20 performs communication with the stereoscopic glasses 30 that select the right-eye video and the left-eye video and make the viewer visually recognize the video. Specifically, the main body side communication unit 20 is connected to the synthesis processing unit 15 and outputs the left-eye shutter control signal and the right-eye shutter control signal output from the eyeglass control unit 48 (see FIG. 2) described later for each stereoscopic view. To the eyeglasses 30. Further, the main body side communication unit 20 controls the data notified from the stereoscopic eyeglasses 30 (for example, identification information unique to the apparatus notified when communication with the stereoscopic eyeglasses 30 is established) to the control unit 22. Output to. The communication method of the main body side communication unit 20 is not particularly limited, and for example, Bluetooth (registered trademark), infrared communication method, DLP-LINK (registered trademark) method, or the like can be used.

ここで、合成処理部15の詳細について説明する。図2は、合成処理部15の構成を示すブロック図である。信号処理部14から出力されるデジタルの映像信号は、入力端子37を介して映像変換部38に供給される。   Here, details of the composition processing unit 15 will be described. FIG. 2 is a block diagram showing a configuration of the composition processing unit 15. The digital video signal output from the signal processing unit 14 is supplied to the video conversion unit 38 via the input terminal 37.

映像変換部38は、入力された映像信号が立体視表示用の映像信号である場合、その映像信号を特定の映像フォーマットに変換して、画質制御部39に出力している。すなわち、立体視表示用の映像信号には、例えば1フレーム同期期間内で左目用映像フレーム後に右目用映像フレームを送出するフレームパッキング方式や、1水平期間内で左目用映像ライン後に右目用映像ラインを送出するサイドバイサイド方式等、様々な映像フォーマットが存在する。さらに、各映像フォーマットの中でも、映像のサイズや走査方式(インターレース/プログレッシブ)等が種々存在する。このため、アンテナ11においては、映像変換部38が、入力された立体視表示用の映像信号に対して、スケーリング処理やIP(Interlace/Progressive)変換処理等の適切な処理を施すことにより、水平方向1920画素×垂直方向1080ラインの映像サイズのフレームパッキング方式の映像フォーマットに変換し、垂直同期信号に同期させて画質制御部39に出力するものとする。   When the input video signal is a stereoscopic display video signal, the video conversion unit 38 converts the video signal into a specific video format and outputs the video signal to the image quality control unit 39. That is, for a stereoscopic display video signal, for example, a frame packing method in which a right-eye video frame is transmitted after a left-eye video frame within one frame synchronization period, or a right-eye video line after a left-eye video line within one horizontal period. There are various video formats, such as a side-by-side method for transmitting the video. Furthermore, among the various video formats, there are various video sizes, scanning methods (interlace / progressive), and the like. For this reason, in the antenna 11, the video conversion unit 38 performs appropriate processing such as scaling processing and IP (Interlace / Progressive) conversion processing on the input video signal for stereoscopic display, thereby performing horizontal processing. It is assumed that the video format is converted into a frame packing video format of video size of 1920 pixels in the vertical direction and 1080 lines in the vertical direction, and is output to the image quality control unit 39 in synchronization with the vertical synchronization signal.

また、映像変換部38は、入力された映像信号が立体視(3次元)表示用の映像信号である場合、モード選択信号に応じて視差量調整部60から出力される調整量をもとに、右眼用の映像と左眼用の映像との間の視差を調整する。具体的には、左目用映像フレームと右目用映像フレームとの間の水平方向の位置や、左目用映像ラインと右目用映像ラインとの間の水平方向の位置を、視差量調整部60から出力される調整量分ずらすなどして視差の調整を行う。視差量調整部60は、相互に視差を有する右目用の映像と左眼用の映像との視差にかかる調整量がモードごとに設定されたモード/調整量テーブル61を参照することで、制御部22より出力されるモード選択信号が示すモードに対応した調整量を映像変換部38に出力する。   Further, when the input video signal is a stereoscopic (three-dimensional) display video signal, the video conversion unit 38 is based on the adjustment amount output from the parallax adjustment unit 60 according to the mode selection signal. The parallax between the video for the right eye and the video for the left eye is adjusted. Specifically, the horizontal position between the left-eye video frame and the right-eye video frame and the horizontal position between the left-eye video line and the right-eye video line are output from the parallax adjustment unit 60. The parallax is adjusted by shifting the adjustment amount. The parallax amount adjustment unit 60 refers to the mode / adjustment amount table 61 in which the adjustment amount related to the parallax between the right-eye video and the left-eye video having parallax is set for each mode. 22, the adjustment amount corresponding to the mode indicated by the mode selection signal output to the video conversion unit 38 is output.

画質制御部39は、入力された映像信号に対して、制御部22の制御に基づいた明るさ調整、コントラスト調整及び色相調整等の画質調整処理を施し、垂直同期信号に同期させて合成部41に出力する。OSDバッファ45は、OSD信号生成部17から出力され、入力端子44を介して供給されるOSD信号を記憶する。合成部41は、画質制御部39から出力される映像信号と、OSDバッファ45に記憶されているOSD信号とを合成して、フレーム変換部46へ出力する。   The image quality control unit 39 performs image quality adjustment processing such as brightness adjustment, contrast adjustment, and hue adjustment on the input video signal based on the control of the control unit 22, and synchronizes with the vertical synchronization signal to synthesize the unit 41. Output to. The OSD buffer 45 stores an OSD signal output from the OSD signal generation unit 17 and supplied via the input terminal 44. The combining unit 41 combines the video signal output from the image quality control unit 39 and the OSD signal stored in the OSD buffer 45 and outputs the combined signal to the frame conversion unit 46.

合成部41で合成された映像信号は、フレーム変換部46に出力されて、少なくとも垂直同期周波数を2倍に変換されて、つまり、フレーム周波数を倍速化された後、出力端子47から映像処理部18を介して映像表示部19に出力される。これにより、映像表示部19では、左目用映像フレームと、右目用映像フレームとが交互に表示される。   The video signal synthesized by the synthesizing unit 41 is output to the frame converting unit 46, and at least the vertical synchronization frequency is converted to double, that is, the frame frequency is doubled, and then the video processing unit is output from the output terminal 47. 18 to the video display unit 19. As a result, the video display unit 19 alternately displays the left-eye video frame and the right-eye video frame.

フレーム変換部46で生成されるフレーム同期信号は、眼鏡制御部48に供給される。眼鏡制御部48は、フレーム変換部46から供給されたフレーム同期信号に基づいて左目用及び右目用のシャッター制御信号を生成し、出力端子49を介して接続する本体側通信部20より立体視用眼鏡30へ出力している。   The frame synchronization signal generated by the frame conversion unit 46 is supplied to the eyeglass control unit 48. The eyeglass controller 48 generates shutter control signals for the left eye and right eye based on the frame synchronization signal supplied from the frame converter 46, and for stereoscopic viewing from the main body side communication unit 20 connected via the output terminal 49. Output to the glasses 30.

図1に戻り、音声処理部16は、信号処理部14から入力されたデジタルの音声信号を、後段のスピーカ21で再生可能なフォーマットのアナログ音声信号に変換する。音声処理部16から出力されたアナログ音声信号は、スピーカ21に供給されることにより音声再生に供される。   Returning to FIG. 1, the audio processing unit 16 converts the digital audio signal input from the signal processing unit 14 into an analog audio signal in a format that can be reproduced by the speaker 21 in the subsequent stage. The analog audio signal output from the audio processing unit 16 is supplied to the speaker 21 for audio reproduction.

制御部22は、テレビジョン放送受信装置10の各部の動作を統括的に制御する。制御部22は、CPU22a(Central Processing Unit)を内蔵しており、テレビジョン放送受信装置10の本体に設置された操作部23からの操作情報を受けて、または、リモートコントローラ50から送出され受信部24で受信した操作情報を受けて、その操作内容が反映されるように各部をそれぞれ制御している。   The control unit 22 comprehensively controls the operation of each unit of the television broadcast receiving apparatus 10. The control unit 22 incorporates a CPU 22a (Central Processing Unit), receives operation information from the operation unit 23 installed in the main body of the television broadcast receiving apparatus 10, or is sent from the remote controller 50 and received by the reception unit. Receiving the operation information received at 24, each unit is controlled so that the operation content is reflected.

この統括的に制御する動作の実行時において、制御部22は、メモリ部22bを利用している。メモリ部22bは、主として、CPU22aが実行する制御プログラムを格納したROM(Read Only Memory)と、CPU22aに作業エリアを提供するためのRAM(Random Access Memory)と、各種の設定情報及び制御情報等が格納される不揮発性メモリとを有している。   At the time of executing the operation that performs the overall control, the control unit 22 uses the memory unit 22b. The memory unit 22b mainly includes a ROM (Read Only Memory) storing a control program executed by the CPU 22a, a RAM (Random Access Memory) for providing a work area to the CPU 22a, various setting information, control information, and the like. And a non-volatile memory to be stored.

また、制御部22には、ディスクドライブ部25が接続されている。ディスクドライブ部25は、例えばDVD(Digital Versatile Disk)等の光ディスクMを着脱自在とするもので、装着された光ディスクMに対してデジタルデータの記録再生を行なう機能を有している。   In addition, a disk drive unit 25 is connected to the control unit 22. The disk drive unit 25 is a unit that allows an optical disk M such as a DVD (Digital Versatile Disk) to be detachable, and has a function of recording and reproducing digital data with respect to the mounted optical disk M.

制御部22は、ユーザ(視聴者)による操作部23やリモートコントローラ50の操作に基づいて、上記復調復号部13から得られるデジタルの映像信号及び音声信号を、記録再生処理部26によって暗号化し所定の記録フォーマットに変換した後、ディスクドライブ部25に供給して光ディスクMに記録させるように制御することができる。   The control unit 22 encrypts the digital video signal and audio signal obtained from the demodulation / decoding unit 13 by the recording / playback processing unit 26 based on the operation of the operation unit 23 and the remote controller 50 by the user (viewer). After being converted into the recording format, it can be controlled to be supplied to the disk drive unit 25 and recorded on the optical disk M.

また、制御部22は、視聴者による操作部23やリモートコントローラ50の操作に基づいて、ディスクドライブ部25により光ディスクMからデジタルの映像信号及び音声信号を読み出させ、上記記録再生処理部26によって復号化した後、信号処理部14に供給することによって、以後、上記した映像表示及び音声再生に供させるように制御することができる。   Further, the control unit 22 causes the disc drive unit 25 to read out digital video signals and audio signals from the optical disc M based on the operation of the operation unit 23 and the remote controller 50 by the viewer. After decoding, the signal is supplied to the signal processing unit 14 so that it can be controlled to be used for the above-described video display and audio reproduction.

また、制御部22には、HDD27(Hard Disk Drive)が接続されている。制御部22は、視聴者による操作部23やリモートコントローラ50の操作に基づいて、上記復調復号部13から得られるデジタルの映像信号及び音声信号を、記録再生処理部26によって暗号化し所定の記録フォーマットに変換した後、HDD27に記録させるように制御することができる。   The control unit 22 is connected to an HDD 27 (Hard Disk Drive). The control unit 22 encrypts the digital video signal and audio signal obtained from the demodulation / decoding unit 13 by the recording / playback processing unit 26 based on the operation of the operation unit 23 and the remote controller 50 by the viewer, and a predetermined recording format. After being converted to, it can be controlled to record in the HDD 27.

また、制御部22は、視聴者による操作部23やリモートコントローラ50の操作に基づいて、HDD27からデジタルの映像信号及び音声信号を読み出させ、上記記録再生処理部26によって復号化した後、信号処理部14に供給することによって、以後、上記した映像表示及び音声再生に供させるように制御することができる。   Further, the control unit 22 reads out the digital video signal and audio signal from the HDD 27 based on the operation of the operation unit 23 and the remote controller 50 by the viewer, and after decoding by the recording / reproduction processing unit 26, By supplying the data to the processing unit 14, it can be controlled to be used for the video display and audio reproduction described above.

さらに、テレビジョン放送受信装置10には、入力端子10bが接続されている。入力端子10bは、テレビジョン放送受信装置10の外部からデジタルの映像信号及び音声信号を直接入力するためのものである。入力端子10bを介して入力されたデジタルの映像信号及び音声信号は、制御部22の制御に基づいて、記録再生処理部26を介した後、信号処理部14に供給されて、以後、上記した映像表示及び音声再生に供される。   Further, the television broadcast receiver 10 is connected to an input terminal 10b. The input terminal 10b is for directly inputting a digital video signal and an audio signal from the outside of the television broadcast receiving apparatus 10. The digital video signal and audio signal input through the input terminal 10b are supplied to the signal processing unit 14 through the recording / playback processing unit 26 based on the control of the control unit 22, and thereafter described above. It is used for video display and audio playback.

また、入力端子10bを介して入力されたデジタルの映像信号及び音声信号は、制御部22の制御に基づいて、記録再生処理部26を介した後、ディスクドライブ部25による光ディスクMに対しての記録再生や、HDD27に対しての記録再生に供される。   Further, the digital video signal and audio signal input through the input terminal 10b are transmitted to the optical disc M by the disk drive unit 25 after passing through the recording / playback processing unit 26 based on the control of the control unit 22. It is used for recording / reproduction and recording / reproduction for the HDD 27.

なお、制御部22は、視聴者による操作部23やリモートコントローラ50の操作に基づいて、ディスクドライブ部25とHDD27との間で、光ディスクMに記録されているデジタルの映像信号及び音声信号をHDD27に記録したり、HDD27に記録されているデジタルの映像信号及び音声信号を光ディスクMに記録したりすることも制御している。   The control unit 22 receives digital video signals and audio signals recorded on the optical disk M between the disk drive unit 25 and the HDD 27 based on the operation of the operation unit 23 and the remote controller 50 by the viewer. And recording digital video signals and audio signals recorded on the HDD 27 onto the optical disk M is also controlled.

また、制御部22には、ネットワークインタフェース28が接続されている。ネットワークインタフェース28は、外部のネットワークNに接続されている。ネットワークインタフェース28はネットワークNを介し、図示しない外部装置との間で通信を行う。このため、制御部22は、ネットワークインタフェース28を介し、ネットワークNに接続された外部装置にアクセスして情報通信を行なうことにより、そこで提供しているサービスを利用することができるようになっている。   A network interface 28 is connected to the control unit 22. The network interface 28 is connected to an external network N. The network interface 28 communicates with an external device (not shown) via the network N. For this reason, the control unit 22 can use the service provided there by accessing an external device connected to the network N via the network interface 28 to perform information communication. .

また、制御部22は、CPU22aがメモリ部22bのROMなどに記憶されたプログラムをRAMに展開して順次実行することで、モード設定部22cとしての機能を有する。モード設定部22cは、視聴者による操作部23やリモートコントローラ50の操作、視聴者が使用している立体視用眼鏡30から本体側通信部20を介して通知される情報(識別情報やモードを示すモード情報)も必要に応じて用い、調整量にかかるモードを設定する(モード設定については後述する)。モード設定部22cにより設定されたモードは、そのモードを示すモード選択信号として合成処理部15へ通知される。   In addition, the control unit 22 has a function as the mode setting unit 22c by causing the CPU 22a to develop a program stored in the ROM or the like of the memory unit 22b on the RAM and sequentially execute the program. The mode setting unit 22c operates the operation unit 23 and the remote controller 50 by the viewer, and information (identification information and mode) notified from the stereoscopic glasses 30 used by the viewer via the main body side communication unit 20. Mode information) is also used as necessary to set the mode for the adjustment amount (mode setting will be described later). The mode set by the mode setting unit 22c is notified to the synthesis processing unit 15 as a mode selection signal indicating the mode.

立体映像を中心とする実施例を図3、図4を用いて、説明する。図3は、実施形態の装置(システム)を示す概略機能ブロック図である。また図4は、図3の機能ブロックの動作を示す信号波形を表す図である。   An embodiment centered on a stereoscopic image will be described with reference to FIGS. FIG. 3 is a schematic functional block diagram showing an apparatus (system) according to the embodiment. FIG. 4 is a diagram showing signal waveforms indicating the operation of the functional block of FIG.

図3の機能ブロックは、立体画像処理部301、立体画像処理部302、出力画像選択部303、画像出力部304、タイミング生成部305、メガネ制御部306、メガネ307、メガネ制御部308、メガネ309から構成されている。   The functional blocks in FIG. 3 include a stereoscopic image processing unit 301, a stereoscopic image processing unit 302, an output image selection unit 303, an image output unit 304, a timing generation unit 305, glasses control unit 306, glasses 307, glasses control unit 308, and glasses 309. It is composed of

立体画像処理部301、立体画像処理部302、出力画像選択部303、タイミング生成部305、メガネ制御部306、メガネ制御部308は合成処理部15に属している。また、メガネ307、メガネ309は立体視用眼鏡30に相当する。また、画像出力部304は映像処理部18と映像表示部19に相当する。   The stereoscopic image processing unit 301, the stereoscopic image processing unit 302, the output image selection unit 303, the timing generation unit 305, the glasses control unit 306, and the glasses control unit 308 belong to the composition processing unit 15. The glasses 307 and 309 correspond to the stereoscopic glasses 30. The image output unit 304 corresponds to the video processing unit 18 and the video display unit 19.

図3において、入力された立体視に対応した画像データは、立体視画像処理部301、立体視画像処理部302に入力される。入力された立体視に対応した画像データは、立体視画像処理部301において、立体視専用のフォーマットから、LCD等のディスプレイに出力する60Hzの画像フォーマットに変換する。その際に、通常の立体視の場合、左右の画像を交互に出力するためには、60Hzのフレームフォーマットの2倍の120Hzのフレーム周波数で、左右の画像をそれぞれ出力する。また、左右の画像のクロストークを防止するために、左右の画像の間に黒画面等(図の斜線部)を挿入するので、さらに2倍の240Hzのフレーム周波数で、左右の画像をそれぞれ出力する。この発明の立体視画像処理部301においては、さらに2倍のフレームフォーマットの480Hzのフレーム周波数で、画像出力する。これに対して、立体視画像処理部302では、基本的には、立体視画像処理部301と同様な画像処理を行う。ただし、立体視画像処理部302では、左右の画像を入力された立体視に対応した画像データをそのまま立体視の左右の画像に変換するのではなく、視聴条件に合わせた信号処理を行う。   In FIG. 3, the input image data corresponding to the stereoscopic vision is input to the stereoscopic vision image processing unit 301 and the stereoscopic vision image processing unit 302. In the stereoscopic image processing unit 301, the input image data corresponding to stereoscopic vision is converted from a format dedicated to stereoscopic vision into a 60 Hz image format output to a display such as an LCD. At this time, in the case of normal stereoscopic vision, in order to output the left and right images alternately, the left and right images are output at a frame frequency of 120 Hz, which is twice the frame format of 60 Hz. Also, to prevent crosstalk between the left and right images, a black screen or the like (shaded area in the figure) is inserted between the left and right images, so that the left and right images are output at a frame frequency of 240 Hz, which is doubled. To do. The stereoscopic image processing unit 301 according to the present invention further outputs an image at a frame frequency of 480 Hz in a double frame format. On the other hand, the stereoscopic image processing unit 302 basically performs image processing similar to that of the stereoscopic image processing unit 301. However, the stereoscopic image processing unit 302 does not convert the image data corresponding to the stereoscopic vision to which the left and right images are input into the left and right images of the stereoscopic vision, but performs signal processing according to viewing conditions.

例えば、立体視の度合いが小さい状態での視聴をする場合には、左右の画像の差分が、入力された立体視に対応した画像データの左右の画像の差分に比べて、小さくする事によって、それを実現することができる。また、逆に、立体視の度合いが大きい状態での視聴をする場合には、左右の画像の差分が、入力された立体視に対応した画像データの左右の画像の差分に比べて、大きくする事によって、それを実現することができる。   For example, when viewing in a state where the degree of stereoscopic vision is small, by making the difference between the left and right images smaller than the difference between the left and right images of the image data corresponding to the input stereoscopic vision, It can be realized. Conversely, when viewing in a state where the degree of stereoscopic vision is large, the difference between the left and right images is made larger than the difference between the left and right images of the image data corresponding to the input stereoscopic vision. You can make it happen.

また、後述のメガネの左右のレンズ距離が、異なるメガネを使用した場合は、そのメガネの左右の距離に最適な信号処理結果を出力する。また、一方のメガネを利用した視聴は、左右の画像を同じ画像を出力して、平面視(2D)の視聴にすることができる。また、別々の画像(2放送局、放送再生画像−ライン入力)を出力して、メガネを変えることによって切り替えることも可能である。または、メガネの設定を変える事によっても可能である。   In addition, when glasses having different left and right lens distances are used, a signal processing result that is optimal for the distance between the left and right glasses is output. Also, viewing using one of the glasses can be performed in a plan view (2D) by outputting the same image for the left and right images. It is also possible to switch by changing the glasses by outputting different images (two broadcast stations, broadcast reproduction image-line input). Alternatively, it is possible to change the setting of the glasses.

次に、出力された画像データを立体視するためには、視聴する者側では、左目の画像は左目だけで見て、右目の画像は、右目だけで見なければならない。そのためには、専用のメガネを付けて、左目の画像が出力されている時間は、右目には画像が見えないようする。逆に右目の画像が出力されている時間は、左目には画像が見えないようする。この動作は、図4のシャッタータイミングで示す。この図のシャッタータイミングのL信号の“H”区間では、メガネの左が見えるようにして、“L”区間では、メガネの左側が見えないようにするこの信号をメガネに赤外線等で伝送して、メガネの左レンズを制御する(シャッター動作)。また、シャッタータイミングのR信号の“H”区間では、メガネの右が見えるようにして、“L”区間では、メガネの右側が見えないようにするこの信号をメガネに赤外線等で伝送して、メガネの右レンズを制御する(シャッター動作)。これによって、左目と右目がそれぞれ60Hzの周期で、交互に見えたり見えなかったりを繰り返すことになる。本実施形態では、このシャッター動作を図4のシャッタータイミングに示すように動作させる。この図で示すように、出力画面は、60Hzの8倍の480Hzのフレーム周波数で出力される。黒画面画像、メガネA用の左目用画像、黒画面画像、メガネB用の左目用画像、黒画面画像、メガネA用の右目用画像・・・・の順で画像が出力され、それに同期して、それぞれメガネA用の左目制御信号(A_L)、メガネA用の右目制御信号(A_R)、メガネB用の左目制御信号(B_L)、メガネB用の左目制御信号(B_R)が生成され、この信号で、メガネA、メガネBのそれぞれの左右のレンズのシャッター動作を制御する事によって、メガネAを用いて視聴する画像とメガネBを用いて視聴する画像が独立して見ることができる。メガネを独立に制御することによって、視聴条件を変えた画像を視聴する者に応じて最適な視聴環境を提供することができる。   Next, in order to stereoscopically view the output image data, the viewer must view the left eye image only with the left eye and the right eye image only with the right eye. For this purpose, dedicated glasses are attached so that the right eye cannot see the image while the left eye image is being output. Conversely, during the time that the right-eye image is output, the left eye does not see the image. This operation is shown by the shutter timing in FIG. This signal is transmitted to the glasses by infrared rays so that the left side of the glasses can be seen in the “H” section of the L signal of the shutter timing in this figure and the left side of the glasses cannot be seen in the “L” section. Control the left lens of the glasses (shutter operation). Also, this signal is transmitted to the glasses by infrared rays so that the right side of the glasses can be seen in the “H” section of the R signal of the shutter timing, and the right side of the glasses cannot be seen in the “L” section. Controls the right lens of the glasses (shutter operation). As a result, the left eye and the right eye repeatedly appear or disappear alternately at a period of 60 Hz. In the present embodiment, this shutter operation is operated as shown by the shutter timing in FIG. As shown in this figure, the output screen is output at a frame frequency of 480 Hz, which is eight times 60 Hz. Images are output in the order of black screen image, left eye image for glasses A, black screen image, left eye image for glasses B, black screen image, right eye image for glasses A, and so on. The left eye control signal for glasses A (A_L), the right eye control signal for glasses A (A_R), the left eye control signal for glasses B (B_L), and the left eye control signal for glasses B (B_R) are generated, By controlling the shutter operation of the left and right lenses of the glasses A and B with this signal, an image viewed using the glasses A and an image viewed using the glasses B can be viewed independently. By controlling the glasses independently, it is possible to provide an optimal viewing environment according to the person viewing the image with different viewing conditions.

上記の説明では、2種類のメガネに対応した場合であるが、3種類のメガネに対応した場合は、図5、6に示す。この場合、フレーム周波数は、60Hzの4×3倍(=12倍)の周波数である720Hzとなる。構成は次のようであるが、動作は図3、4とこの周波数以外の点では同様である。   In the above description, two types of glasses are supported. However, three types of glasses are illustrated in FIGS. In this case, the frame frequency is 720 Hz, which is 4 × 3 times (= 12 times) of 60 Hz. The configuration is as follows, but the operation is the same as in FIGS. 3 and 4 except for this frequency.

図5の機能ブロックは、立体画像処理部501、立体画像処理部502、立体画像処理部503、出力画像選択部504、画像出力部505、タイミング生成部506、メガネ制御部507、メガネ508、メガネ制御部509、メガネ510、メガネ制御部511、メガネ512から構成されている。   5 includes a stereoscopic image processing unit 501, a stereoscopic image processing unit 502, a stereoscopic image processing unit 503, an output image selection unit 504, an image output unit 505, a timing generation unit 506, a glasses control unit 507, glasses 508, and glasses. The controller 509 includes glasses 510, glasses controller 511, and glasses 512.

立体画像処理部501、立体画像処理部502、立体画像処理部503、出力画像選択部504、タイミング生成部506、メガネ制御部507、メガネ制御部509、メガネ制御部511は合成処理部15に属している。また、メガネ508、メガネ510、メガネ512は立体視用眼鏡30に相当する。また、画像出力部505は映像処理部18と映像表示部19に相当する。   The stereoscopic image processing unit 501, the stereoscopic image processing unit 502, the stereoscopic image processing unit 503, the output image selection unit 504, the timing generation unit 506, the glasses control unit 507, the glasses control unit 509, and the glasses control unit 511 belong to the composition processing unit 15. ing. Further, the glasses 508, the glasses 510, and the glasses 512 correspond to the stereoscopic glasses 30. The image output unit 505 corresponds to the video processing unit 18 and the video display unit 19.

他の実施例に関して、図3,図7を用いて説明する。図7は、第一の実施例と比較すると立体視画像処理部301と立体視画像処理部302で生成される左目用の画像を共通にしたことが最大の相違である。ただし、右目用の画像は、立体視画像処理部301と立体視画像処理部302とでは、視聴条件に合わせた信号処理を行う。これによって、画像出力は、左目共通画像、メガネA対応の右目用画像、メガネB対応の右目用画像の3種類の画像が出力されることになる。共通の左目画像は、立体視画像処理部301と立体視画像処理部302どちらかで生成可能であるが、どちらの画像処理部の出力信号(立体画像1,立体画像2)を選択するかは、任意に選択することができる。また、共通の左目画像は、どちらか一方の画像処理部でのみ処理を行い、もう一方の画像処理部では、右目だけの画像を生成することしか行わないことでも可能である。これらのことにより、立体視画像処理部301、立体視画像処理部302で生成される画像は、フレーム周波数が入力信号のフレーム周波数60Hzの6倍の360Hzとなっている。これによって、出力画像は、黒画面画像、(メガネA、メガネB)共通の左目用画像、黒画面画像、メガネA用の右目用画像、黒画面画像、メガネB用の右目用画像、黒画面画像、(メガネA、メガネB)共通の左目用画像といった順で画像が出力される。これに同期して、メガネA、メガネBを制御する信号(A_L,A_R,B_L,B_R)の内、A_L,B_L信号は同じ信号となる。これら信号で、メガネA、メガネBのそれぞれの左右のレンズのシャッター動作を制御する事によって、メガネAを用いて視聴する画像とメガネBを用いて視聴する画像が独立してみることができる。メガネを独立に制御することによって、視聴条件を変えた画像を視聴する者に応じて最適な視聴環境を提供することができる。   Another embodiment will be described with reference to FIGS. FIG. 7 differs from the first embodiment in that the image for the left eye generated by the stereoscopic image processing unit 301 and the stereoscopic image processing unit 302 is shared in the greatest difference. However, for the right-eye image, the stereoscopic image processing unit 301 and the stereoscopic image processing unit 302 perform signal processing according to viewing conditions. As a result, three types of images are output: a left-eye common image, a right-eye image corresponding to glasses A, and a right-eye image corresponding to glasses B. A common left-eye image can be generated by either the stereoscopic image processing unit 301 or the stereoscopic image processing unit 302. Which of the image processing units output signals (stereoscopic image 1, stereoscopic image 2) is selected? Can be selected arbitrarily. The common left-eye image may be processed only by one of the image processing units, and the other image processing unit may only generate an image for the right eye. As a result, the images generated by the stereoscopic image processing unit 301 and the stereoscopic image processing unit 302 have a frame frequency of 360 Hz, which is six times the frame frequency 60 Hz of the input signal. Thus, the output image is a black screen image, (eyeglasses A, glasses B) common left eye image, black screen image, right eye image for glasses A, black screen image, right eye image for glasses B, black screen The images are output in the order of an image and a common left eye image (glasses A, glasses B). In synchronization with this, among the signals (A_L, A_R, B_L, B_R) for controlling the glasses A and B, the A_L and B_L signals are the same signal. By controlling the shutter operations of the left and right lenses of the glasses A and B with these signals, the image viewed using the glasses A and the image viewed using the glasses B can be viewed independently. By controlling the glasses independently, it is possible to provide an optimal viewing environment according to the person viewing the image with different viewing conditions.

上記の説明では、2種類のメガネに対応した場合であるが、3種類のメガネに対応した場合を、図8に示す。この場合、フレーム周波数は、60Hzの2×(3+1)倍(=8倍)の周波数である480Hzとなる。   In the above description, the case where two types of glasses are supported is shown in FIG. In this case, the frame frequency is 480 Hz, which is a frequency 2 × (3 + 1) times (= 8 times) 60 Hz.

なお、前記モードのモード情報は、視差を大人用に調整する大人用モード、視差を小人用に調整する小人用モード(詳細は後述する)などを識別するコードなどである。例えば、大人が使用するために設計された大人用の立体視用眼鏡30には、モード情報として大人用モードを示すコードが設定されている。また、小人が使用するために設計された小人用の立体視用眼鏡30には、モード情報として小人用モードを示すコードが設定されている。これらのコードは2種だけでなく微調整を表すために更に細分化されていてもよい。   The mode information of the mode is a code for identifying an adult mode for adjusting parallax for adults, a dwarf mode for adjusting parallax for dwarfs (details will be described later), and the like. For example, a code indicating an adult mode is set as mode information in adult stereoscopic glasses 30 designed for use by an adult. In addition, a code indicating the mode for the dwarf is set as mode information in the stereoscopic glasses 30 for the dwarf designed for use by the dwarf. These codes may be further subdivided to represent fine tuning as well as two types.

次に、視差の調整にかかるモードの設定について説明する。概念として、例えば両眼距離ED1の視聴者U1において、視差Dの虚像IMは距離L1として体感される。しかしながら、両眼距離ED1より狭い両眼距離ED2の視聴者U2では、視差Dの虚像IMは距離L1より迫った距離L2として体感される。すなわち、両眼距離ED1の視聴者U1(大人)を基準にした視差Dの立体視用の映像は、小人などの視聴者U2では実際より奥行き量が誇張されてしまう。このように、小人などの視聴者U2は、大人である視聴者U1を基準とした視差Dより狭く調整した、視差D1の立体視用の映像を画面に表示させることで、虚像IMを距離L1として体感することができる。実施形態にかかるテレビジョン放送受信装置10は、視差を調整するモードを設定することで、上述した視差の調整をより簡便に行うものである。   Next, setting of a mode related to parallax adjustment will be described. As a concept, for example, in the viewer U1 with the binocular distance ED1, the virtual image IM with the parallax D is experienced as the distance L1. However, the viewer U2 having the binocular distance ED2 narrower than the binocular distance ED1 feels the virtual image IM of the parallax D as the distance L2 that is closer than the distance L1. In other words, the stereoscopic video with parallax D based on the viewer U1 (adult) at the binocular distance ED1 is exaggerated in depth by the viewer U2 such as a dwarf. In this way, the viewer U2 such as a dwarf displays the stereoscopic image of the parallax D1, which is adjusted to be narrower than the parallax D based on the adult viewer U1, on the screen, so that the virtual image IM is displayed in the distance. You can experience it as L1. The television broadcast receiver 10 according to the embodiment performs the above-described parallax adjustment more easily by setting a mode for adjusting parallax.

このように視聴者が視差Dより狭く調整した、視差D1用の映像を得られるためには、例えばテレビ側にカメラを備えていてメガネや顔(両眼距離)の認識技術や測距技術を用いれば、連続的に微調整されたD1の値をテレビ側が自動設定することができる。   In order to obtain an image for the parallax D1 that is adjusted narrower than the parallax D by the viewer in this way, for example, a camera is provided on the television side, and glasses or face (binocular distance) recognition technology or ranging technology is used. If used, the television side can automatically set the continuously fine-adjusted value of D1.

上記のように健康重視の立体視最適化技術として、フレーム周波数を上げることによって、立体視の出力形式が、複数種類になり、複数の視聴者がTVを見ている場合、それぞれの視聴者の健康、体質に合わせた最適な視聴環境を提供できる。また、立体視と平面視を同時に行うことができる。以下に実施形態のポイントを列挙する。   As described above, as a health-oriented stereoscopic optimization technology, by increasing the frame frequency, there are multiple types of stereoscopic output formats, and when multiple viewers are watching TV, each viewer's Provide the optimal viewing environment according to health and constitution. In addition, stereoscopic viewing and planar viewing can be performed simultaneously. The points of the embodiment are listed below.

(1)立体視TVの複数人での視聴において、立体視による健康、体質に対する影響に考慮して、視聴する各人に合わせて、立体視の見え方の度合いが異なる画像による立体視できるように、TVに映し出す立体視画像を複数種類の立体視画像を時分割で映し出し、その画像をそれぞれの立体画像に同期した立体用のメガネによって、視聴する。 (1) In viewing a stereoscopic TV by a plurality of people, in consideration of the effects on the health and constitution by stereoscopic viewing, it is possible to perform stereoscopic viewing with images having different degrees of stereoscopic viewing according to each viewer. In addition, a plurality of types of stereoscopic images projected on a TV are projected in a time-sharing manner, and the images are viewed with stereoscopic glasses synchronized with the respective stereoscopic images.

(2)子供用のメガネ(例えばメガネの目の間隔)を検出し、検出した場合は、子供の健康、体質に配慮して、立体視の度合いを弱くした画像を視聴するようにする。
(3)立体視の見え方の視聴者の立体視を行うときに、パネルのフレームレートを通常の立体視を行う周波数(通常のフレーム周波数の4倍:60Hz*4=240Hz)より高くする(60Hz*6=360Hz, 60Hz*8=480Hz)ことのよって、立体視をしている複数の人の視聴環境に合わせた立体視を実現する。
(2) Eyeglasses for children (for example, eyeglass eye intervals) are detected, and if they are detected, an image with a reduced degree of stereoscopic vision is viewed in consideration of the health and constitution of the child.
(3) When performing stereoscopic viewing of the viewer who is viewing stereoscopic vision, the frame rate of the panel is set higher than the frequency at which normal stereoscopic vision is performed (four times the normal frame frequency: 60 Hz * 4 = 240 Hz) ( 60Hz * 6 = 360Hz, 60Hz * 8 = 480Hz), thereby realizing stereoscopic viewing that matches the viewing environment of multiple people who are viewing stereoscopically.

(4)上記において、フレーム周波数を通常の立体視を行うフレーム周波数の4*n倍にして、n種類の立体視に必要な左右フレームをパネルに映し出し、n種類の立体視環境を実現する。(図3 n=2) (4) In the above, the frame frequency is set to 4 * n times the frame frequency at which normal stereoscopic viewing is performed, and left and right frames necessary for n types of stereoscopic viewing are displayed on the panel, thereby realizing n types of stereoscopic viewing environments. (Fig. 3 n = 2)

(5)上記において、フレーム周波数を通常の立体視を行うフレーム周波数の2*(n+1)倍にして、n種類の立体視に必要な左右フレームをパネルに映し出し、n種類の立体視環境を実現する。ただし、n種類の立体視の必要な左右フレームのうち、どちらか一方のフレームは共通の画像(A_L,B_L)をパネルに映し出し、もう一方のフレーム(A_R,B_R)をn種類の画像をパネルに映し出す事によって、n種類の立体視環境を実現する。(図7 n=2) (5) In the above, the frame frequency is 2 * (n + 1) times the frame frequency at which normal stereoscopic viewing is performed, and the left and right frames necessary for n types of stereoscopic viewing are displayed on the panel, thereby realizing n types of stereoscopic viewing environments. To do. However, of the n types of left and right frames that require stereoscopic viewing, either one of the frames displays a common image (A_L, B_L) on the panel, and the other frame (A_R, B_R) displays n types of images. N types of stereoscopic environments can be realized by projecting images. (Fig. 7 n = 2)

(6)n種類の立体視環境は、視聴する人物のパネルに対する角度、向き、シャッターメガネの左右のガラス間の距離の違うシャッターメガネの違い、立体視度合いによって、区別する。 (6) The n types of stereoscopic environments are distinguished based on the angle and direction of the viewer's panel with respect to the panel, the difference in the distance between the left and right glasses of the shutter glasses, and the degree of stereoscopic vision.

(7)n種類の立体視環境の内で、1種類を平面(2D)にすると、立体視(3D)と平面(2D)を同時に鑑賞することができる。
なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。例えばメガネを用いない、グラスレス3D(所謂裸眼3D)にも同様に実施することができる。
(7) If one type is set to the plane (2D) among the n types of stereoscopic environments, the stereoscopic (3D) and the plane (2D) can be viewed simultaneously.
In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary, it can implement in various modifications. For example, the same can be applied to glassless 3D (so-called naked eye 3D) without using glasses.

また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる構成要素を適宜組み合わせても良いものである。   Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements according to different embodiments may be appropriately combined.

10…テレビジョン放送受信装置、11…アンテナ、12…チューナ部、13…復調復号部、14…信号処理部、15…合成処理部、16…音声処理部、17…OSD信号生成部、18…映像処理部、19…映像表示部、20…本体側通信部、21…スピーカ、22…制御部、22a…CPU、22b…メモリ部、22c…モード設定部、23…操作部、30…立体視用眼鏡、38…映像変換部、39…画質制御部、41…合成部、45…OSDバッファ、46…フレーム変換部、48…眼鏡制御部、60…視差量調整部、61…モード/調整量テーブル、50…リモートコントローラ。   DESCRIPTION OF SYMBOLS 10 ... Television broadcast receiver, 11 ... Antenna, 12 ... Tuner part, 13 ... Demodulation decoding part, 14 ... Signal processing part, 15 ... Synthesis processing part, 16 ... Audio processing part, 17 ... OSD signal generation part, 18 ... Image processing unit, 19 ... Video display unit, 20 ... Main body side communication unit, 21 ... Speaker, 22 ... Control unit, 22a ... CPU, 22b ... Memory unit, 22c ... Mode setting unit, 23 ... Operation unit, 30 ... Stereoscopic view Eyeglasses 38 ... Video conversion unit 39 ... Image quality control unit 41 ... Composition unit 45 ... OSD buffer 46 ... Frame conversion unit 48 ... Glasses control unit 60 ... Parallax amount adjustment unit 61 ... Mode / adjustment amount Table, 50 ... Remote controller.

Claims (7)

相互に視差を有する立体視表示用の第1及び第2の映像の視差にかかる調整量が設定された複数のモードの中から、視聴者に合うモードを設定するモード設定手段と、
前記第1及び第2の映像の視差を、設定された前記モードに応じた調整量で調整した映像を生成する映像生成手段と、
生成された前記第1及び第2の映像を出力する出力手段と、
を備える立体視映像処理装置。
Mode setting means for setting a mode suitable for the viewer from among a plurality of modes in which adjustment amounts for parallax of the first and second images for stereoscopic display having parallax with each other are set;
Image generation means for generating an image in which the parallax between the first and second images is adjusted by an adjustment amount according to the set mode;
Output means for outputting the generated first and second images;
A stereoscopic image processing apparatus comprising:
前記調整量は、子供用の調整量の場合を含む請求項1に記載の立体視映像処理装置。   The stereoscopic image processing apparatus according to claim 1, wherein the adjustment amount includes a case of an adjustment amount for a child. 前記出力手段は、前記第1及び第2の映像を複数(n人)の視聴者の視聴環境に合わせる頻度で出力する請求項1に記載の立体視映像処理装置。   The stereoscopic video processing apparatus according to claim 1, wherein the output unit outputs the first and second videos at a frequency that matches a viewing environment of a plurality (n) viewers. 前記頻度は、パネルのフレームレートを通常の立体視を行う周波数の4n倍である請求項3に記載の立体視映像処理装置。   The stereoscopic video processing apparatus according to claim 3, wherein the frequency is 4n times the frequency at which the panel frame rate performs normal stereoscopic vision. 前記頻度は、パネルのフレームレートを通常の立体視を行う周波数の2(n+1)倍である請求項3に記載の立体視映像処理装置。   The stereoscopic video processing apparatus according to claim 3, wherein the frequency is 2 (n + 1) times the frequency at which the panel frame rate is used for normal stereoscopic viewing. 前記出力手段から出力される前記第1及び第2の映像を表示するパネルを更に備えた請求項1に記載の立体視映像処理装置。   The stereoscopic video processing apparatus according to claim 1, further comprising a panel that displays the first and second videos output from the output unit. 相互に視差を有する立体視表示用の第1及び第2の映像を視聴者へ表示する立体視映像処理装置の立体視映像処理方法であって、
前記第1及び第2の映像の視差にかかる調整量が設定された複数のモードの中から、視聴者に合うモードを設定し、
前記第1及び第2の映像の視差を、設定された前記モードに応じた調整量で調整した映像を生成し、
生成された前記第1及び第2の映像を出力する立体視映像処理方法。
を含むことを特徴とする立体視映像処理方法。
A stereoscopic video processing method of a stereoscopic video processing device for displaying first and second stereoscopic display images having parallax with each other to a viewer,
From among a plurality of modes in which adjustment amounts for parallax of the first and second images are set, a mode suitable for the viewer is set,
Generating an image in which the parallax of the first and second images is adjusted by an adjustment amount according to the set mode;
A stereoscopic image processing method for outputting the generated first and second images.
A stereoscopic video processing method comprising:
JP2011097471A 2011-04-25 2011-04-25 Stereoscopic video processing device and stereoscopic video processing method Pending JP2012231251A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011097471A JP2012231251A (en) 2011-04-25 2011-04-25 Stereoscopic video processing device and stereoscopic video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011097471A JP2012231251A (en) 2011-04-25 2011-04-25 Stereoscopic video processing device and stereoscopic video processing method

Publications (1)

Publication Number Publication Date
JP2012231251A true JP2012231251A (en) 2012-11-22

Family

ID=47432469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011097471A Pending JP2012231251A (en) 2011-04-25 2011-04-25 Stereoscopic video processing device and stereoscopic video processing method

Country Status (1)

Country Link
JP (1) JP2012231251A (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260485A (en) * 1997-03-19 1998-09-29 Atr Chinou Eizo Tsushin Kenkyusho:Kk Stereoscopic video display device
JPH11164329A (en) * 1997-11-27 1999-06-18 Toshiba Corp Stereoscopic video image display device
JP2001075047A (en) * 1999-09-01 2001-03-23 Idemitsu Kosan Co Ltd Method and device for displaying stereoscopic picture
JP2009135686A (en) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp Stereoscopic video recording method, stereoscopic video recording medium, stereoscopic video reproducing method, stereoscopic video recording apparatus, and stereoscopic video reproducing apparatus
JP2010503888A (en) * 2006-09-19 2010-02-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image observation using multiple individual settings
JP2010039398A (en) * 2008-08-08 2010-02-18 Sony Corp Display panel module, semiconductor integrated circuit, driving method of pixel array section, and electronic device
WO2010033181A1 (en) * 2008-09-18 2010-03-25 Eastman Kodak Company Stereoscopic display for multiple simultaneous observers
WO2010084849A1 (en) * 2009-01-22 2010-07-29 日本電気株式会社 Stereoscopic video viewing system, display system, optical shutter and stereoscopic video viewing method
JP2010224547A (en) * 2010-04-19 2010-10-07 Nano Loa Inc Liquid crystal display device
WO2011033674A1 (en) * 2009-09-18 2011-03-24 株式会社 東芝 3d image display apparatus

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260485A (en) * 1997-03-19 1998-09-29 Atr Chinou Eizo Tsushin Kenkyusho:Kk Stereoscopic video display device
JPH11164329A (en) * 1997-11-27 1999-06-18 Toshiba Corp Stereoscopic video image display device
JP2001075047A (en) * 1999-09-01 2001-03-23 Idemitsu Kosan Co Ltd Method and device for displaying stereoscopic picture
JP2010503888A (en) * 2006-09-19 2010-02-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image observation using multiple individual settings
JP2009135686A (en) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp Stereoscopic video recording method, stereoscopic video recording medium, stereoscopic video reproducing method, stereoscopic video recording apparatus, and stereoscopic video reproducing apparatus
JP2010039398A (en) * 2008-08-08 2010-02-18 Sony Corp Display panel module, semiconductor integrated circuit, driving method of pixel array section, and electronic device
WO2010033181A1 (en) * 2008-09-18 2010-03-25 Eastman Kodak Company Stereoscopic display for multiple simultaneous observers
WO2010084849A1 (en) * 2009-01-22 2010-07-29 日本電気株式会社 Stereoscopic video viewing system, display system, optical shutter and stereoscopic video viewing method
WO2011033674A1 (en) * 2009-09-18 2011-03-24 株式会社 東芝 3d image display apparatus
JP2010224547A (en) * 2010-04-19 2010-10-07 Nano Loa Inc Liquid crystal display device

Similar Documents

Publication Publication Date Title
US8994795B2 (en) Method for adjusting 3D image quality, 3D display apparatus, 3D glasses, and system for providing 3D image
US10051257B2 (en) 3D image reproduction device and method capable of selecting 3D mode for 3D image
JP5039182B2 (en) Stereoscopic image output apparatus and backlight control method
JP5745822B2 (en) Playback mode switching method, output mode switching method, display device using the same, and 3D video providing system
JP2012015774A (en) Stereoscopic image processing device and stereoscopic image imaging method
WO2010122711A1 (en) 3d image display apparatus, 3d image playback apparatus, and 3d image viewing system
US20110248989A1 (en) 3d display apparatus, method for setting display mode, and 3d display system
KR20110044573A (en) Display device and image display method thereof
US20130038611A1 (en) Image conversion device
KR20110029319A (en) Video processing system and video processing method
JP5573682B2 (en) 3D image viewing system, display system, optical shutter, and 3D image viewing method
US20110164118A1 (en) Display apparatuses synchronized by one synchronization signal
JP5025772B2 (en) Stereoscopic glasses and stereoscopic video display system
US20110149052A1 (en) 3d image synchronization apparatus and 3d image providing system
US20150222890A1 (en) Dual-channel three-dimension projector
JP4960517B1 (en) Video display device and video display method
US20110134226A1 (en) 3d image display apparatus and method for determining 3d image thereof
KR101885215B1 (en) Display apparatus and display method using the same
JP5010732B2 (en) Stereoscopic image processing apparatus and stereoscopic image processing method
KR101768538B1 (en) Method for adjusting 3-Dimension image quality, 3D display apparatus, 3D glasses and System for providing 3D image
US20110310222A1 (en) Image distributing apparatus, display apparatus, and image distributing method thereof
JP2012231251A (en) Stereoscopic video processing device and stereoscopic video processing method
JP5367031B2 (en) Information processing method and information processing apparatus
KR101722213B1 (en) 3D video converting system
KR20110062983A (en) Display apparatus for displaying gui which sets adjustment element for 3 dimensional effect of 3d image and method for providing graphic user interface applied to the same

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130129