JP5025787B2 - 画像処理装置、及び画像処理方法 - Google Patents
画像処理装置、及び画像処理方法 Download PDFInfo
- Publication number
- JP5025787B2 JP5025787B2 JP2010284581A JP2010284581A JP5025787B2 JP 5025787 B2 JP5025787 B2 JP 5025787B2 JP 2010284581 A JP2010284581 A JP 2010284581A JP 2010284581 A JP2010284581 A JP 2010284581A JP 5025787 B2 JP5025787 B2 JP 5025787B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- image
- unit
- additional information
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
本発明の実施形態は、画像処理装置、及び画像処理方法に関する。
近年、2次元画像を立体感のある画像としてユーザに知覚させることができる画像処理装置(立体映像表示装置)が実用化されている。立体映像表示装置は、左目で知覚可能な左目用画像と、右目で知覚可能な右目用画像とを表示部に表示する。画像処理装置は、ユーザの左目に左目用画像を知覚させ、ユーザの右目に右目用画像を知覚させることにより、ユーザに画像を立体として認識させることができる。
文字などを含む映像をユーザに立体的に視覚させる場合、文字がぼやける場合がある。この為、電子番組表(EPG)、または番組情報表示などをユーザに立体的に視覚させるように画面を生成する場合、文字がぼやけてユーザに文字情報を認識させることができな
い場合があるという課題がある。
い場合があるという課題がある。
そこで、より効果的に立体を表現することができる画像処理装置、及び画像処理方法を提供することを目的とする。
一実施形態に係る画像処理装置は、背景画像を生成する背景画像生成部と、付加情報を受け取る受取部と、前記付加情報の種別毎に深度を予め記憶する深度記憶部と、前記受取部により受け取った付加情報の種別を判別し、判別した前記種別に対応付けられている深度を前記深度記憶部から読み出す深度決定部と、前記付加情報に基づいてオブジェクト画像を生成し、前記オブジェクト画像と前記深度決定部により読み出された深度とに基づいて、立体視画像を生成する立体視画像生成部と、前記背景画像を表示し、前記立体視画像を表示してビデオ信号を生成する画像合成部と、前記画像合成部により生成されたビデオ信号を出力する出力部と、を具備し、前記立体視画像生成部は、文字表示を含むオブジェクト画像を生成した場合、予め設定された基準面の深度から所定範囲内で設定される深度で前記立体視画像を生成する。
以下、図を参照しながら、一実施形態に係る画像処理装置、及び画像処理方法ついて詳細に説明する。
図1は、一実施形態に係る立体表示装置1について説明するための説明図である。
先ず、立体映像表示の原理を説明する。図1は、立体表示装置の一部を断面として示す図である。
先ず、立体映像表示の原理を説明する。図1は、立体表示装置の一部を断面として示す図である。
立体表示装置1は、表示ユニット10と、マスク20と、バックライト30とを備える。
表示ユニット10は、縦横に配列された多数の画素11を有する。マスク20は、多数の窓部22を有する。マスク板20は、表示ユニット10と所定距離離間されて配置される。窓部22は、画素11と対応する位置に設けられる。
マスク20は、光を透過する光学的開口を有する。マスク20は、上記の画素11から放出される光線を制御する機能を有する。マスク20は、視差バリア、または光線制御素子とも呼ばれる。
マスク20は、例えば、多数の窓部22に対応した多数の開口により遮光体パターンが形成された透明基板などにより構成される。また、マスク20は、例えば、多数の窓部22に対応した多数の貫通孔が形成された遮光板などにより構成される。
また、マスク20は、多数の微小なレンズが2次元的に配列されて形成されるフライアイレンズなどにより構成されていてもよい。また、マスク20は、垂直方向に直線状に延びた光学的開口が水平方向に周期的に複数配列されて形成されるレンチキュラーレンズなどにより構成されていてもよい。なお、マスク20の、窓部22の配置、寸法、及び形状は、表示ユニット10の画素11の配置に応じて任意に変更可能である。
バックライト30は、光を放出する光源である。バックライト30は、例えば、冷陰極管、またはLED素子などの光源を有する。バックライト30から放出された光は、表示ユニット10の各画素11を透過し、マスク20を通る。表示ユニット10の各画素11は、透過する光を偏光する。これにより、各画素11は、種々の色を表示することができる。
また、マスク20は、窓部22と直線上に存在する画素11から放出される光を透過する。この結果、立体表示装置1は、種々の色の光を図1に示す光線41の方向に放出することができる。
なお、上記したように、インテグラル方式による立体視の例を説明したが、立体表示装置1は、上記の構成に限定されない。立体表示装置1の立体視の方式は、他の裸眼方式、シャッターメガネ方式、または偏光メガネ方式などであってもよい。
図2は、一実施形態に係る画像処理装置100について説明するための説明図である。
画像処理装置100は、入力端子223、チューナ224、デコーダ225、及びセレクタ226を備える。
画像処理装置100は、入力端子223、チューナ224、デコーダ225、及びセレクタ226を備える。
入力端子223は、例えばアンテナ222により受信されるディジタル放送信号が入力される入力端子である。アンテナ222は、例えば、地上ディジタル放送信号、BS(broadcasting satellite)ディジタル放送信号、及び/または、110度CS(communication satellite)ディジタル放送信号を受信する。即ち、入力端子223は、放送信号により供給される番組などのコンテンツを受信する。
入力端子223は、受信したディジタル放送信号をチューナ224に供給する。チューナ224は、ディジタル放送信号用のチューナである。チューナ224は、アンテナ222から供給されるディジタル放送信号のチューニング(選局)を行う。チューナ224は、チューニングしたディジタル放送信号をデコーダ225に送信する。
デコーダ225は、チューナ224から供給されるディジタル放送信号の復調を行う。デコーダ225は、復調したディジタル放送信号(コンテンツ)をセレクタ226に入力する。即ち、入力端子223、チューナ224、及びデコーダ225は、コンテンツを受信する受信手段として機能する。なお、入力端子223により受信した信号がエンコードされていない場合、画像処理装置100は、チューナ224が信号をセレクタ226に入力する構成であってもよい。
また、画像処理装置100は、入力端子228、チューナ229、及びA/Dコンバータ230を備える。
入力端子228は、例えばアンテナ227により受信されるアナログ放送信号が入力される入力端子である。アンテナ227は、アナログ放送信号を受信する。即ち、入力端子228は、アナログ放送信号により供給される番組などのコンテンツを受信する。
入力端子228は、受信したアナログ放送信号をチューナ229に供給する。チューナ229は、アナログ放送信号用のチューナである。チューナ229は、アンテナ227から供給されるアナログ放送信号のチューニング(選局)を行う。チューナ229は、チューニングしたアナログ放送信号をA/Dコンバータ230に送信する。
A/Dコンバータ230は、チューナ229から供給されるアナログ放送信号をディジタル信号に変換する。A/Dコンバータ230は、ディジタルに変換した放送信号(コンテンツ)をセレクタ226に入力する。
また、画像処理装置100は、入力端子231、及びA/Dコンバータ232を備える。
入力端子231は、アナログ信号を受信する為の入力端子である。入力端子231は、アナログのビデオ信号及びオーディオ信号を出力する機器に接続される。入力端子231は、これらのアナログ機器から入力されるアナログ信号を受信する。入力端子231は、受信したアナログ信号をA/Dコンバータ232に供給する。
入力端子231は、アナログ信号を受信する為の入力端子である。入力端子231は、アナログのビデオ信号及びオーディオ信号を出力する機器に接続される。入力端子231は、これらのアナログ機器から入力されるアナログ信号を受信する。入力端子231は、受信したアナログ信号をA/Dコンバータ232に供給する。
A/Dコンバータ232は、入力端子231から供給されるアナログ信号をディジタル信号に変換する。A/Dコンバータ232は、ディジタルに変換した信号をセレクタ226に入力する。
また、画像処理装置100は、入力端子233を備える。入力端子233は、ディジタル信号を受信する為の入力端子であり、例えばHDMI(High Definition Multimedia Interface)端子を備える。入力端子233は、ディジタルのビデオ信号及びオーディオ信号を出力する機器に接続される。入力端子233は、例えば、HDMI形式でデータを送受信が可能な機器(HDMI機器)261に接続される。入力端子233は、HDMI機器から入力されるディジタル信号を受信する。入力端子233は、受信したディジタル信号をセレクタ226に供給する。
セレクタ226は、デコーダ225から供給されるディジタル放送信号、A/Dコンバータ230から供給されるディジタル信号、A/Dコンバータ232から供給されるディジタル信号、及び入力端子233から供給されるディジタル信号のうちのいずれか1つを選択し、選択した信号を信号処理器234に供給する。
画像処理装置100は、信号処理器234、制御部235、エンコーダ/デコーダ236、オーディオ出力回路237、出力端子238、ビデオ出力回路239、及び出力端子242をさらに備える。
信号処理器234は、入力されたディジタル信号をオーディオ信号、ビデオ信号、及び他のデータ(例えばメタデータなど)に分割する。信号処理器234は、分割したオーディオ信号、及びビデオ信号に対して種々の信号処理を施す。
例えば、信号処理器234は、オーディオ信号に対して、オーディオデコード、音質調整、及びミックス処理などを任意で行う。また、信号処理器234は、ビデオ信号に対して、カラー及び輝度の分離処理、カラーの調整処理、及び画質の調整処理などを行う。また、信号処理器234は、ビデオ信号に対して、例えば、制御部235からの制御に基づいて、色味、明るさ、シャープ、コントラスト、またはその他の画質調整処理を行う。
信号処理器234は、オーディオ出力回路237にオーディオ信号を供給する。また、信号処理器234は、ビデオ出力回路239にビデオ信号を供給する。さらに、信号処理器234は、制御部235に他のデータを供給する。
オーディオ出力回路237は、信号処理器234から受信したオーディオ信号を、スピーカ2102により再生可能なフォーマットのオーディオ信号に変換する。オーディオ出力回路237は、オーディオ信号を出力端子238に出力する。出力端子238は、供給されるオーディオ信号を装置外部に出力する。これにより、出力端子238に接続されるスピーカ2102は、供給されるオーディオ信号に基づいて音を再生する。
ビデオ出力回路239は、信号処理器234から受信したビデオ信号を、立体表示装置1で再生可能なフォーマットのビデオ信号に変換する。即ち、ビデオ出力回路239は、信号処理器234から受信したビデオ信号を、立体表示装置1で再生可能なフォーマットのビデオ信号にデコード(再生)する。ビデオ出力回路239は、ビデオ信号を出力端子242に出力する。出力端子242に接続される立体表示装置1は、供給されるビデオ信号に基づいて映像を表示する。
なお、画像処理装置100は、出力端子242の代わりに、立体表示装置1を内部に備える構成であってもよい。また、画像処理装置100は、出力端子238の代わりに、スピーカ2102を内部に備える構成であってもよい。
制御部235は、画像処理装置100の各部の動作を制御する制御手段として機能する。制御部235は、CPU、ROM、RAM、及びEEPROMなどを備えている。制御部235は、操作部247またはリモコン信号受信部248から供給される操作信号に基づいて、種々の処理を行う。
CPUは、種々の演算処理を実行する演算素子などを備える。CPUは、ROM、またはEEPROMなどに記憶されているプログラムを実行することにより種々の機能を実現する。
ROMは、画像処理装置100を制御する為のプログラム、及び各種の機能を実現する為のプログラムなどを記憶する。CPUは、操作部247またはリモコン信号受信部248から供給される操作信号に基づいて、ROMに記憶されているプログラムを起動する。これにより、制御部235は、各部の動作を制御する。
RAMは、CPUのワークメモリとして機能する。即ち、RAMは、CPUの演算結果、CPUにより読み込まれたデータなどを記憶する。
EEPROMは、各種の設定情報、及びプログラムなどを記憶する不揮発性メモリである。
制御部235は、上記のCPU、ROM、RAM及びEEPROMなどにより実現される記録制御部235a及び再生制御部235bを備える。記録制御部235aは、セレクタ226により選択された信号を録画するように各部を制御する。また、再生制御部235bは、画像処理装置100内に記録されているコンテンツ、または当該画像処理装置100に接続される機器に記録されているコンテンツの再生処理を行うように各部を制御する。
また、制御部235は、GUI(グラフィック ユーザ インタフェース)などのオブジェクトを画面に表示させる為の情報(GUIアイテム)を生成する。制御部235は、例えば、予めROM、EEPROMなどの記憶装置に記録されているGUIアイテムを読み出す。さらに、制御部235は、セレクタ226から供給される情報に基づいて、字幕、時刻、番組情報、メニュー画面、または他の情報を表示させるためのGUIアイテムを生成する。制御部235は、生成したGUIアイテムを信号処理器234に供給する。信号処理器234は、制御部235から供給されるGUIアイテムに基づいて種々のオブジェクトをビデオ信号中に描画する。
画像処理装置100は、接続端子244、送受信器245、変調復調器246、操作部247、リモコン信号受信部248、コネクタ251、及び端子256をさらに備える。
接続端子244は、例えば、LANポートなどのネットワークに接続する為の接続端子を備える。また、画像処理装置100は、接続端子244の代わりに無線LANモジュールを備えていても良い。
送受信器245は、接続端子244を介してネットワーク上のサーバなどとデータの送受信を行う。変調復調器246は、送受信器245により送受信するデータに対して変調、及び復調を施す。これにより、画像処理装置100は、ネットワーク上の動画のコンテンツデータを取得し、再生することができる。
操作部247は、例えば、操作キー、キーボード、マウス、タッチパッドまたは操作入力に応じて操作信号を生成する事ができる他の入力装置などを備える操作入力モジュールである。例えば、操作部247は、操作入力に応じて操作信号を生成する。操作部247は、生成した操作信号を制御部235に供給する。
なお、タッチパッドは、静電センサ、サーモセンサ、または他の方式に基づいて位置情報を生成するデバイスを含む。また、画像処理装置100が立体表示装置1、または他の表示装置を備える場合、操作部247は、表示装置と一体に形成されるタッチパネルなどを備える構成であってもよい。
リモコン信号受信部248は、例えば、リモートコントローラ2104からの操作信号を受信するセンサなどを備える。リモコン信号受信部248は、受信した操作信号を制御部235に供給する。リモートコントローラ2104は、ユーザの操作入力に基づいて操作信号を生成する。リモートコントローラ2104は、生成した操作信号を赤外線通信によりリモコン信号受信部248に送信する。なお、リモコン信号受信部248及びリモートコントローラ2104は、光通信、電波通信などの他の無線通信により操作信号の送受信を行う構成であってもよい。
コネクタ252は、種々のメモリカードを接続することが出来るカードコネクタを有する。コネクタ252は、例えば、動画コンテンツを記憶するメモリカードと通信を行う為のインターフェースである。コネクタ252は、接続されるメモリカードから動画のコンテンツデータを読み出し、制御部235に供給する。
端子256は、ハードディスクドライブ(HDD)257などの記憶装置を接続することが出来る端子である。端子256は例えば、動画コンテンツを記憶するHDD257から動画のコンテンツデータを読み出し、制御部235に供給する。
なお、端子256に接続される記憶装置は、ソリッドステイトディスク(SSD)、または半導体メモリなどの記憶装置などであってもよい。画像処理装置100は、この記憶装置に記憶されているコンテンツを読み出し、再生することが出来る。また、画像処理装置100は、この記憶装置に例えば放送信号、またはネットワークなどにより供給されるコンテンツを記憶することができる。
さらに、画像処理装置100は、USB機器と通信を行う為のUSBコネクタを備えていてもよい。USBコネクタは、接続されるUSB機器から供給される信号を制御部235に供給する。
例えば、USB機器がキーボードなどの操作入力機器である場合、USBコネクタは、操作信号をUSB機器から受け取る。USBコネクタは、受け取った操作信号を制御部235に供給する。この場合、制御部235は、USBコネクタから供給される操作信号に基づいて種々の処理を実行する。
また、例えば、USB機器が動画のコンテンツデータを記憶する記憶装置である場合、USBコネクタは、コンテンツをUSB機器から取得することができる。USBコネクタは、取得したコンテンツを制御部235に供給する。
またさらに、画像処理装置100は、ディスクドライブを備えていても良い。ディスクドライブは、例えば、コンパクトディスク(CD)、ディジタルバーサタイルディスク(DVD)、ブルーレイディスク(BD)、または動画のコンテンツデータを記録可能な他の光ディスクを装着可能なドライブを有する。ディスクドライブは、装着される光ディスクからコンテンツを読み出し、読み出したコンテンツを制御部235に供給する。
また、画像処理装置100は、図示しない電源部を備える。電源部は、画像処理装置100の各部に電力を供給する。電源部は、例えば、ACアダプタなどを介して供給される電力を変換し各部へ供給する。また、電源部は、バッテリーを備えていても良い。この場合、電源部は、ACアダプタなどを介して供給される電力をバッテリーに充電する。電源部は、バッテリーに充電されている電力を画像処理装置100の各部に供給する。
またさらに、信号処理器234は、立体視処理部80を備える。立体視処理部80は、視差が存在する右目用画像と左目用画像とを含むコンテンツに基づいて、立体視表示を行う。即ち、立体視処理部80は、右目用画像と左目用画像とに基づいて、ユーザが立体として認識するようにビデオ信号を処理する。
さらに、立体視処理部80は、制御部235から供給されるGUIアイテム(付加情報と称する)に基づいて、メニュー画面、EPG画面、番組情報、またはアラートなどのオブジェクトを立体表示する。
図3は、立体視処理部80の構成例について説明するための説明図である。
図3に示すように、立体視処理部80は、背景画像生成部81、立体視画像生成部82、及び画像合成部83を備える。
図3に示すように、立体視処理部80は、背景画像生成部81、立体視画像生成部82、及び画像合成部83を備える。
背景画像生成部81は、表示画面上に提示される背景映像を生成する。背景画像生成部81は、例えば、通常の放送表示画面を生成する。
立体視画像生成部82は、種々のオブジェクトをユーザが立体として認識するように立体視画像を生成する。立体視画像生成部82は、付加情報に基づいて、例えば、メニュー画面、EPG画面、放送メール表示画面、アラート、番組情報、及び他の情報などのオブジェクトを表示する為の立体視画像を生成する。例えば、立体視画像生成部82は、オブジェクトをユーザが立体として認識できるように表示する為に、右目用画像と、左目用画像とを立体視画像として生成する。
画像合成部83は、背景画像生成部81により生成された背景画像と、立体視画像生成部82により生成された立体視画像とを合成する。即ち、画像合成部83は、最初に背景画像の表示を行い、背景画像より上の階層(表示上における前面)に立体視画像の表示を行う。
例えば、画像合成部83は、背景画像の表示を行い、背景画像より上の階層に立体視画像の右目用画像及び左目用画像の表示を行う。これにより、画像合成部83は、視差を有するオブジェクトのイメージを含むビデオ信号を生成する。なお、立体視表示を行う為の手法は、上記の方法に限定されず、如何なるものであってもよい。
画像合成部83は、生成したビデオ信号をビデオ出力回路239に出力する。ビデオ出力回路239は、画像合成部83から受信したビデオ信号を、立体表示装置1に出力する。これにより、立体表示装置1により、ユーザが立体として認識できる状態でオブジェクト画像を含む画面が表示される。
図4は、画像処理装置100により生成される画面の例について説明する為の説明図である。
図4に示すある点Cが飛び出ていることをユーザに認識させる場合、画像処理装置100は、ある面(例えば投影面)を基準面として、基準面に点Aと点Bとを投影するようにビデオ信号を生成する。この場合、画像処理装置100は、点Aをユーザの右目により視覚可能な状態でビデオ信号を生成する。さらに、画像処理装置100は、点Bをユーザの左目により視覚可能な状態でビデオ信号を生成する。
しかし、このようなビデオ信号が立体表示装置1により表示される場合、画面301に示すように、例えば点A及び点Bがユーザの両目により視覚される場合がある。このような場合、ユーザにとって点Cがぼやけて視覚される場合がある。
また、基準面上に点Dが存在するようにユーザに視覚させる場合、画像処理装置100は、ユーザの右目により視覚可能な画面とユーザの左目により視覚可能な画面の両方の同じ位置に点Dを表示する。このような場合、ユーザは、画面302に示すように、ぼやけていない点Dを視覚することができる。
またさらに、図4に示すある点Gが画面の奥側に存在することをユーザに認識させる場合、画像処理装置100は、基準面に点Eと点Fとを投影するようにビデオ信号を生成する。この場合、画像処理装置100は、点Eをユーザの右目により視覚可能な状態でビデオ信号を生成する。さらに、画像処理装置100は、点Fをユーザの左目により視覚可能な状態でビデオ信号を生成する。
この場合も、このようなビデオ信号が立体表示装置1により表示される場合、画面303に示すように、例えば点E及び点Fがユーザの両目により視覚される場合がある。このような場合、ユーザにとって点Gがぼやけて視覚される場合がある。文字の表示を含むGUIアイテムは、他のGUIアイテムに比べてぼやけることの問題が大きい。
なお、基準面から立体視画像が離れるほど、右目用画像における点と左目用画像における点との表示位置の差が大きい。基準面から立体視画像が離れるほど、ユーザにより視覚される映像がぼやけ易くなる可能性がある。そこで、画像処理装置100は、GUIアイテムの性質に応じて、立体視画像を表示させる深度(Depth)を制御する。
図5は、立体視画像生成部82について説明するための説明図である。立体視画像生成部82は、深度記憶部821、深度決定部822、及びオブジェクト生成部823を備える。
深度記憶部821は、GUIアイテム毎に深度を記憶したテーブルである。図6は、深度記憶部821の構成を示す図である。図6に示すように、深度記憶部821は、GUIアイテムを示すID(識別情報)と、GUIアイテムの深度とを対応付けて記憶したテーブルである。画像処理装置100は、ユーザにより入力される操作に基づいて、深度記憶部821により記憶されている深度の値を設定することができる。さらに、画像処理装置100は、深度の値を変える場合、予め設定されるパスワードを用いて認証を行い、照合結果が一致である場合に深度の設定を許可する構成であってもよい。
また、深度記憶部821は、図7に示すように構成されていてもよい。図7は、深度記憶部821の他の構成を示す図である。図7に示す深度記憶部821は、GUIアイテムを示すID(識別情報)と、GUIアイテムの深度と、表示種別とを対応付けて記憶する。表示種別は、例えば、GUIアイテムが文字の表示を含むGUIアイテムであるか否かを設定する。こうすることで、例えばGUIアイテムが文字の表示を含むGUIアイテムである場合に、前記文字部分の深度を同テーブルに記載された深度よりもより基準面に近い値で設定することが可能になる。このような深度記憶部821を用いる場合、制御部235は、表示種別を示す情報を含んだGUIアイテム(付加情報)を信号処理器234に入力する。
図8及び図9は、深度について説明する為の説明図である。立体表示装置1により立体視表示が可能な表示空間内で、最も前面(視聴者側)を深度0と設定し、最も背面を深度255とし、基準面(投影面)の深度を128と仮定する。この場合において、深度記憶部821は、GUIアイテムが文字の表示を含むGUIアイテムである場合、深度を128から予め設定される範囲内(例えば、128±α)で設定する。
図9は、図8に示す表示空間を上から見た図である。図9に示すGUIアイテム901及び902は、文字の表示を含む。この為、深度記憶部821には、GUIアイテム901及び902には、基準面の深度から所定範囲内にある深度が設定されている。この為、図9に示すGUIアイテム901及び902は、基準面の深度に近い深度で表示される。図9に示すGUIアイテム903は、文字の表示を含まないGUIアイテムである。この為、GUIアイテム903は、前記901及び902と比べて3D効果の大きい基準面から離れた位置の深度で表示される。
図5に示す深度決定部822は、制御部235から供給されるGUIアイテム(付加情報)のID、または表示種別に基づいて、深度記憶部821から深度を読み出す。即ち、深度決定部822は、制御部235から供給されるGUIアイテムの種別(IDまたは表示種別)を判別し、判別した種別に対応付けられている深度を深度記憶部821から読み出す。深度決定部822は、読み出した深度をオブジェクト生成部に823に供給する。
図5に示すオブジェクト生成部823は、制御部235から供給されるGUIアイテム(付加情報)に基づいて、メニュー画面、EPG画面、放送メール表示画面、アラート、番組情報、及び他の情報などのオブジェクトを示す画像(オブジェクト画像)を生成する。
さらに、オブジェクト生成部823は、深度決定部822から出力される深度と、オブジェクト画像とに基づいて、立体視画像を生成する。立体視画像は、ユーザの右目により視聴される右目用画像とユーザの左目により視聴される左目用画像とを有する。
オブジェクト生成部823は、深度に基づいて、右目用画像におけるオブジェクト画像を表示する領域と、左目用画像におけるオブジェクト画像を表示する領域と、を決定する。オブジェクト生成部823は、決定された領域にオブジェクト画像を表示し、立体視画像を生成する。なお、右目用画像内に表示されるオブジェクト画像と、左目用画像内に表示されるオブジェクト画像とは、視差を有する。オブジェクト生成部823は、生成した立体視画像を画像合成部83に出力する。
図10は、画像合成部83について説明するための説明図である。画像合成部83は、背景画像表示部831、及び立体視画像表示部832を具備する。
画像合成部83は、背景画像生成部81により生成された背景画像と、立体視画像生成部82により生成された立体視画像とを合成する。背景画像表示部831は、背景画像生成部81により生成される背景画像の表示を行う。この場合、背景画像表示部831は、背景画像を予め設定される基準の深度(例えば基準面の深度)で表示する。基準の深度で表示される画像は、右目用画像と左目用とで視差がない状態で表示される。即ち、立体ではなくユーザに平面として認識させるように表示を行う。さらに、立体視画像表示部832は、背景画像より上の階層(表示上における前面)に立体視画像生成部82により生成される立体視画像の表示を行う。
これにより、画像合成部83は、視差を有するオブジェクトのイメージを含むビデオ信号を生成する。画像合成部83は、生成したビデオ信号をビデオ出力回路239に出力する。ビデオ出力回路239は、画像合成部83から受信したビデオ信号を、立体表示装置1に出力する。これにより、立体表示装置1により、ユーザが立体として認識できる状態でオブジェクト画像を含む画面が表示される。
図11は、画像処理装置100により生成されて立体表示装置1により表示される画面の例について説明する為の説明図である。ここでは、EPG画面の表示の例について説明する。
図11に示すウィンドウ1101は、EPG画面を表示するためのウィンドウである。ウィンドウ1101は、チャンネルバナー1102の表示領域と、番組情報1103の表示領域とを有する。
チャンネルバナー1102は、細かい文字などの表示を含まないため、深度記憶部821により基準面から離れた3D効果の高い深度が記憶されている。この為、例えば、チャンネルバナー1102は、図9に示すGUIアイテム903のような深度で表示される。なお、画像処理装置100は、制御部235から受信するGUIアイテム(付加情報)が示す深度を準拠してチャンネルバナー1102の表示を行う構成であってもよい。
また、番組情報1103は、細かい文字などの表示を含むため、深度記憶部821により基準面に対して近い深度が記憶されている。この為、例えば、番組情報1103は、図9に示すGUIアイテム901又は902のような深度で表示される。
また、画像処理装置100は、GUIアイテムが細かい文字の表示などを含む場合、基準面の深度を用いてGUIアイテムを表示する構成であってもよい。
上記したように、画像処理装置100は、立体表示を行うオブジェクトが文字などを含む場合、深度記憶部821により予め記憶されている深度を用いて立体表示を行う。これにより、画像処理装置100は、立体表示により文字などの輪郭がぼやけてしまい、文字が見づらくなる事を防ぐことができる。この結果、より効果的に立体を表現することができる画像処理装置、及び画像処理方法を提供することができる。
なお、3D効果の強度を設定できる画像処理装置が存在する。このような画像処理装置に上記記載の深度記憶部821を適用する場合、深度記憶部821は、3D効果の強度毎に深度を記憶する構成であってもよい。また、深度記憶部821は、3D効果の強度に応じて深度を単純加算する、または線形演算により各強度における深度を計算する構成であってもよい。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
背景画像を生成する背景画像生成部と、
付加情報を受け取る受取部と、
前記付加情報の種別毎に深度を予め記憶する深度記憶部と、
前記受取部により受け取った付加情報の種別を判別し、判別した前記種別に対応付けられている深度を前記深度記憶部から読み出す深度決定部と、
前記付加情報に基づいてオブジェクト画像を生成し、前記オブジェクト画像と前記深度決定部により読み出された深度とに基づいて、立体視画像を生成する立体視画像生成部と、
前記背景画像を表示し、表示された前記背景画像より前面に前記立体視画像を表示してビデオ信号を生成する画像合成部と、
前記画像合成部により生成されたビデオ信号を出力する出力部と、
を具備する画像処理装置。
[C2]
前記深度記憶部は、基準面の深度を予め設定し、付加情報が文字表示含む場合、基準面の深度から所定範囲内で設定される深度を前記付加情報の種別に対応付けて予め記憶する、C1に記載の画像処理装置。
[C3]
前記深度決定部は、前記受取部により受け取った付加情報が文字表示を含むか否かを判別し、文字表示を含むと判定した場合、判別した前記種別に対応付けられている深度を前記深度記憶部から読み出す、C2に記載の画像処理装置。
[C4]
前記深度決定部は、前記受取部により受け取った付加情報が文字表示を含むか否かを判別し、文字表示を含まないと判定した場合、前記付加情報が示す深度を前記付加情報から読み出す、C2に記載の画像処理装置。
[C5]
画像処理装置において実行される画像処理方法であって、
背景画像を生成し、
付加情報を受け取り、
前記付加情報の種別毎に深度を予め記憶し、
前記受け取った付加情報の種別を判別し、判別した前記種別に対応付けられている深度を前記予め記憶されている深度から読み出し、
前記付加情報に基づいてオブジェクト画像を生成し、前記オブジェクト画像と前記読み出された深度とに基づいて、立体視画像を生成し、
前記背景画像を表示し、表示された前記背景画像より前面に前記立体視画像を表示してビデオ信号を生成し、
前記生成されたビデオ信号を出力する、
画像処理方法。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
背景画像を生成する背景画像生成部と、
付加情報を受け取る受取部と、
前記付加情報の種別毎に深度を予め記憶する深度記憶部と、
前記受取部により受け取った付加情報の種別を判別し、判別した前記種別に対応付けられている深度を前記深度記憶部から読み出す深度決定部と、
前記付加情報に基づいてオブジェクト画像を生成し、前記オブジェクト画像と前記深度決定部により読み出された深度とに基づいて、立体視画像を生成する立体視画像生成部と、
前記背景画像を表示し、表示された前記背景画像より前面に前記立体視画像を表示してビデオ信号を生成する画像合成部と、
前記画像合成部により生成されたビデオ信号を出力する出力部と、
を具備する画像処理装置。
[C2]
前記深度記憶部は、基準面の深度を予め設定し、付加情報が文字表示含む場合、基準面の深度から所定範囲内で設定される深度を前記付加情報の種別に対応付けて予め記憶する、C1に記載の画像処理装置。
[C3]
前記深度決定部は、前記受取部により受け取った付加情報が文字表示を含むか否かを判別し、文字表示を含むと判定した場合、判別した前記種別に対応付けられている深度を前記深度記憶部から読み出す、C2に記載の画像処理装置。
[C4]
前記深度決定部は、前記受取部により受け取った付加情報が文字表示を含むか否かを判別し、文字表示を含まないと判定した場合、前記付加情報が示す深度を前記付加情報から読み出す、C2に記載の画像処理装置。
[C5]
画像処理装置において実行される画像処理方法であって、
背景画像を生成し、
付加情報を受け取り、
前記付加情報の種別毎に深度を予め記憶し、
前記受け取った付加情報の種別を判別し、判別した前記種別に対応付けられている深度を前記予め記憶されている深度から読み出し、
前記付加情報に基づいてオブジェクト画像を生成し、前記オブジェクト画像と前記読み出された深度とに基づいて、立体視画像を生成し、
前記背景画像を表示し、表示された前記背景画像より前面に前記立体視画像を表示してビデオ信号を生成し、
前記生成されたビデオ信号を出力する、
画像処理方法。
なお、上述の各実施の形態で説明した機能は、ハードウエアを用いて構成するに留まらず、ソフトウエアを用いて各機能を記載したプログラムをコンピュータに読み込ませて実現することもできる。また、各機能は、適宜ソフトウエア、ハードウエアのいずれかを選択して構成するものであっても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…立体表示装置、10…表示ユニット、11…画素、20…マスク、22…窓部、30…バックライト、80…立体視処理部、81…背景画像生成部、82…立体視画像生成部、83…画像合成部、100…画像処理装置、234…信号処理器、235…制御部、236…デコーダ、237…オーディオ出力回路、238…出力端子、239…ビデオ出力回路、242…出力端子、821…深度記憶部、822…深度決定部、823…オブジェクト生成部、831…背景画像表示部、832…立体視画像表示部。
Claims (4)
- 背景画像を生成する背景画像生成部と、
付加情報を受け取る受取部と、
前記付加情報の種別毎に深度を予め記憶する深度記憶部と、
前記受取部により受け取った付加情報の種別を判別し、判別した前記種別に対応付けられている深度を前記深度記憶部から読み出す深度決定部と、
前記付加情報に基づいてオブジェクト画像を生成し、前記オブジェクト画像と前記深度決定部により読み出された深度とに基づいて、立体視画像を生成する立体視画像生成部と、
前記背景画像を表示し、前記立体視画像を表示してビデオ信号を生成する画像合成部と、
前記画像合成部により生成されたビデオ信号を出力する出力部と、
を具備し、
前記立体視画像生成部は、文字表示を含むオブジェクト画像を生成した場合、予め設定された基準面の深度から所定範囲内で設定された深度で前記立体視画像を生成する、
画像処理装置。 - 前記深度決定部は、前記受取部により受け取った付加情報が文字表示を含むか否かを判別し、文字表示を含むと判定した場合、判別した前記種別に対応付けられている深度を前記深度記憶部から読み出す、請求項1に記載の画像処理装置。
- 前記深度決定部は、前記受取部により受け取った付加情報が文字表示を含むか否かを判別し、文字表示を含まないと判定した場合、前記付加情報が示す深度を前記付加情報から読み出す、請求項1に記載の画像処理装置。
- 画像処理装置において実行される画像処理方法であって、
背景画像を生成し、
付加情報を受け取り、
前記付加情報の種別毎に深度を予め記憶し、
前記受け取った付加情報の種別を判別し、判別した前記種別に対応付けられている深度を前記予め記憶されている深度から読み出し、
前記付加情報に基づいてオブジェクト画像を生成し、前記オブジェクト画像と前記読み出された深度とに基づいて、立体視画像を生成し、
文字表示を含むオブジェクト画像を生成した場合、予め設定された基準面の深度から所定範囲内で設定された深度で前記立体視画像を生成し、
前記背景画像を表示し、前記立体視画像を表示してビデオ信号を生成し、
前記生成されたビデオ信号を出力する、
画像処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010284581A JP5025787B2 (ja) | 2010-12-21 | 2010-12-21 | 画像処理装置、及び画像処理方法 |
US13/300,254 US20120154539A1 (en) | 2010-12-21 | 2011-11-18 | Image processing apparatus and image processing method |
US14/165,398 US20140139650A1 (en) | 2010-12-21 | 2014-01-27 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010284581A JP5025787B2 (ja) | 2010-12-21 | 2010-12-21 | 画像処理装置、及び画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012134726A JP2012134726A (ja) | 2012-07-12 |
JP5025787B2 true JP5025787B2 (ja) | 2012-09-12 |
Family
ID=46233862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010284581A Expired - Fee Related JP5025787B2 (ja) | 2010-12-21 | 2010-12-21 | 画像処理装置、及び画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (2) | US20120154539A1 (ja) |
JP (1) | JP5025787B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5050094B2 (ja) * | 2010-12-21 | 2012-10-17 | 株式会社東芝 | 映像処理装置及び映像処理方法 |
JP2014183336A (ja) * | 2013-03-18 | 2014-09-29 | Fujitsu Ltd | 入力方法、プログラム及び情報処理装置 |
JP2016032227A (ja) * | 2014-07-29 | 2016-03-07 | 日立マクセル株式会社 | 映像表示システム、三次元映像ポインティング装置、および映像表示装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4400143B2 (ja) * | 2003-08-20 | 2010-01-20 | パナソニック株式会社 | 表示装置および表示方法 |
JP2009135686A (ja) * | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
CN102150433B (zh) * | 2008-09-18 | 2014-04-09 | 松下电器产业株式会社 | 立体视觉影像再现装置及立体视觉影像显示装置 |
WO2010092823A1 (ja) * | 2009-02-13 | 2010-08-19 | パナソニック株式会社 | 表示制御装置 |
EP2278824A4 (en) * | 2009-04-21 | 2012-03-14 | Panasonic Corp | VIDEO PROCESSING DEVICE AND VIDEO PROCESSING METHOD |
-
2010
- 2010-12-21 JP JP2010284581A patent/JP5025787B2/ja not_active Expired - Fee Related
-
2011
- 2011-11-18 US US13/300,254 patent/US20120154539A1/en not_active Abandoned
-
2014
- 2014-01-27 US US14/165,398 patent/US20140139650A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
JP2012134726A (ja) | 2012-07-12 |
US20120154539A1 (en) | 2012-06-21 |
US20140139650A1 (en) | 2014-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20130050416A1 (en) | Video processing apparatus and video processing method | |
JP4892098B1 (ja) | 立体映像表示装置及び方法 | |
US20120147154A1 (en) | Stereoscopic Video Display Apparatus and Method Therefor | |
JP5025787B2 (ja) | 画像処理装置、及び画像処理方法 | |
JP4991930B2 (ja) | 立体映像信号処理装置及び方法 | |
US9774840B2 (en) | Stereoscopic video signal processing apparatus and method thereof | |
JP5127967B1 (ja) | 映像処理装置および映像処理方法 | |
JP5132804B1 (ja) | 映像処理装置および映像処理方法 | |
JP5025786B2 (ja) | 画像処理装置、及び画像処理方法 | |
JP2012134655A (ja) | 画像処理装置、画像処理方法および画像表示装置 | |
US20120154383A1 (en) | Image processing apparatus and image processing method | |
JP5050094B2 (ja) | 映像処理装置及び映像処理方法 | |
US20130136336A1 (en) | Image processing apparatus and controlling method for image processing apparatus | |
JP5355758B2 (ja) | 映像処理装置及び映像処理方法 | |
JP2012249295A (ja) | 映像処理装置 | |
JP2013055681A (ja) | 映像処理装置および映像処理方法 | |
JP2012133555A (ja) | 画像処理装置および画像処理方法 | |
JP5377731B2 (ja) | 映像処理装置および映像処理方法 | |
JP5487192B2 (ja) | 立体映像表示装置及び方法 | |
JP2012217213A (ja) | 画像処理装置および画像処理方法 | |
JP5289606B2 (ja) | 立体映像表示装置及び方法 | |
JP2013055675A (ja) | 映像処理装置および映像処理方法 | |
JP2012222622A (ja) | 映像表示装置、映像表示方法 | |
JP2012157028A (ja) | 立体映像表示装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120529 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120619 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150629 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |