JP2012015771A - 画像処理装置、画像処理プログラム、及び画像処理方法 - Google Patents

画像処理装置、画像処理プログラム、及び画像処理方法 Download PDF

Info

Publication number
JP2012015771A
JP2012015771A JP2010150036A JP2010150036A JP2012015771A JP 2012015771 A JP2012015771 A JP 2012015771A JP 2010150036 A JP2010150036 A JP 2010150036A JP 2010150036 A JP2010150036 A JP 2010150036A JP 2012015771 A JP2012015771 A JP 2012015771A
Authority
JP
Japan
Prior art keywords
image
parallax
subtitle
caption
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010150036A
Other languages
English (en)
Other versions
JP4996720B2 (ja
Inventor
Satoyuki Shimatani
智行 島谷
Takahisa Kaihatsu
貴久 開發
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010150036A priority Critical patent/JP4996720B2/ja
Priority to EP11158130A priority patent/EP2403254A1/en
Priority to US13/161,972 priority patent/US20120002010A1/en
Publication of JP2012015771A publication Critical patent/JP2012015771A/ja
Application granted granted Critical
Publication of JP4996720B2 publication Critical patent/JP4996720B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)

Abstract

【課題】 よりユーザの利便性を向上させることが出来る画像処理装置、画像処理プログラム、及び画像処理方法を提供する。
【解決手段】 画像処理装置は、第1の画像と前記第1の画像との間に視差が存在する第2の画像とを有するコンテンツが入力される入力手段と、前記入力手段により入力されるコンテンツに含まれる字幕を検出する字幕検出手段と、前記コンテンツの前記第1の画像と前記第2画像の所定オブジェクト間の視差を算出する算出手段と、前記算出手段により算出した前記視差を、前記字幕検出手段により検出した字幕の表示位置を特定する為の基準視差として出力する字幕情報出力手段と、を具備する。
【選択図】 図1

Description

本発明の実施形態は、立体映像を処理する画像処理装置、画像処理プログラム、及び画像処理方法に関する。
近年、2次元画像を立体感のある画像としてユーザに知覚させることができる立体映像表示装置が実用化されている。立体映像表示装置は、ユーザに左目のみ知覚させる左目用の二次元画像と、右目のみで知覚させる右目用の二次元画像とを表示部に表示する。ユーザは、右目で右目用画像を知覚し、左目で左目用画像を知覚することにより、立体画像を知覚することが出来る。
特開平9−172654号公報
近年、立体映像表示装置により立体映像を表示する為のコンテンツが増加しつつある。また、立体映像を表示する為のコンテンツであって、映像中に埋め込まれた字幕を有するコンテンツがある。またさらに、例えばOn Screen Display(OSD)処理により画面中に字幕を表示する為の字幕データを有するコンテンツがある。
立体映像表示装置により字幕を含む映像の表示を行う場合、ユーザが知覚する映像中のオブジェクト(例えば、人物、構造物、または他の物体など)の奥行き(奥行き距離)と、字幕の奥行き距離とに差が生じる場合がある。この為、ユーザがコンテンツの視聴において違和感を覚える可能性があるという問題がある。
そこで、よりユーザの利便性を向上させることが出来る画像処理装置、画像処理プログラム、及び画像処理方法を提供することを目的とする。
一実施形態に係る画像処理装置は、第1の画像と前記第1の画像との間に視差が存在する第2の画像とを有するコンテンツが入力される入力手段と、前記入力手段により入力されるコンテンツに含まれる字幕を検出する字幕検出手段と、
前記コンテンツの前記第1の画像と前記第2画像の所定オブジェクト間の視差を算出する算出手段と、前記算出手段により算出した前記視差を、前記字幕検出手段により検出した字幕の表示位置を特定する為の基準視差として出力する字幕情報出力手段と、を具備する。
図1は、一実施形態に係る画像処理装置の構成例について説明する為の説明図である。 図2は、図1に示す制御部の構成例について説明するための説明図である。 図3は、図1に示す画像処理装置の処理について説明する為の説明図である。 図4は、図1に示す画像処理装置の処理について概略的に説明する為の説明図である。 図5は、図1に示す画像処理装置の処理について概略的に説明する為の説明図である。 図6は、図1に示す画像処理装置の処理について説明する為の説明図である。 図7は、図1に示す画像処理装置の処理について概略的に説明する為の説明図である。 図8は、図1に示す画像処理装置の処理について概略的に説明する為の説明図である。
以下、図を参照しながら、一実施形態に係る画像処理装置、画像処理プログラム、及び画像処理方法ついて詳細に説明する。
図1は、一実施形態に係る画像処理装置100の構成例について説明するための説明図である。
なお、本実施形態では、画像処理装置100は、立体映像を表示する為のコンテンツに関する処理を行うものと仮定して説明する。
立体映像を表示する為のコンテンツは、少なくともユーザの左目に知覚させる左目用画像と、ユーザの右目に知覚させる右目用画像とを有する。立体映像を表示する為のコンテンツは、例えば、side−by−side方式、line−by−line方式、Frame−Sequential方式、Above−Below方式、Checkerboard方式、LR独立方式、及び円偏光方式などの種類が存在する。しかし、本実施形態で処理するコンテンツは、少なくとも左目用の二次元画像(左目用画像)と右目用の二次元画像(右目用画像)とを個別に有するものであれば、如何なるものに対しても適用可能である。
画像処理装置100は、放送入力端子101、チューナ111、復調部112、信号処理部113、通信インターフェース114、音声処理部121、音声出力端子122、映像処理部131、OSD処理部133、表示処理部134、映像出力端子135、制御部150、操作入力部161、受光部162、カードコネクタ164、USBコネクタ166、及びディスクドライブ170を備える。
放送入力端子101は、例えばアンテナ110により受信されるディジタル放送信号が入力される入力端子である。アンテナ110は、例えば、地上ディジタル放送信号、BS(broadcasting satellite)ディジタル放送信号、及び/または、110度CS(communication satellite)ディジタル放送信号を受信する。即ち、放送入力端子101には、放送信号により供給される番組などのコンテンツが入力される。
放送入力端子101は、受信したディジタル放送信号をチューナ111に供給する。チューナ111は、ディジタル放送信号用のチューナである。チューナ111は、アンテナ110から供給されるディジタル放送信号のチューニング(選局)を行う。チューナ111は、チューニングしたディジタル放送信号を復調部112に送信する。
復調部112は、受信するディジタル放送信号の復調を行う。復調部112は、復調したディジタル放送信号(コンテンツ)を信号処理部113に入力する。即ち、アンテナ110、チューナ111、及び復調部112は、コンテンツを受信する受信手段として機能する。
信号処理部113は、ディジタル放送信号(動画のコンテンツデータ)に対して信号処理を施す信号処理手段として機能する。信号処理部113は、復調部112から供給されるディジタル放送信号に、信号処理を施す。即ち、信号処理部113は、ディジタル放送信号を映像信号、音声信号、及びその他のデータ信号に分離する。信号処理部113は、音声処理部121に音声信号を供給する。また、信号処理部113は、映像処理部131に映像信号を供給する。さらに、信号処理部113は、制御部150、及び/またはOSD処理部133にデータ信号を供給する。
通信インターフェース114は、例えばHDMI(High Definition Multimedia Interface)(登録商標)端子などの、コンテンツを受信可能なインターフェースを備える。通信インターフェース114は、ディジタル映像信号、及びディジタル音声信号などが多重化されたコンテンツを他の機器から受信する。通信インターフェース114は、他の機器から受信したディジタル信号(コンテンツ)を信号処理部113に供給する。即ち、通信インターフェース114は、コンテンツを受信する受信手段として機能する。
信号処理部113は、通信インターフェース114から受信するディジタル信号に信号処理を施す。例えば、信号処理部113は、ディジタル信号をディジタル映像信号とディジタル音声信号とデータ信号とに分離する。信号処理部113は、音声処理部121にディジタル音声信号を供給する。また、信号処理部113は、映像処理部131にディジタル映像信号を供給する。さらに、信号処理部113は、制御部150、及び/またはOSD処理部133にデータ信号を供給する。
即ち、信号処理部113には、少なくとも右目用画像と左目用画像とを有するコンテンツが入力される。なお、信号処理部113は、通信インターフェース114に入力されるコンテンツと、放送入力端子101に入力されるコンテンツとのいずれかを選択し、処理を行う。即ち、信号処理部113は、ディジタル放送信号とディジタル信号のいずれかに対して信号の分離処理を行う。
音声処理部121は、信号処理部113から受信した音声信号を、スピーカ200により再生可能なフォーマットの音声信号に変換する。音声処理部121は、音声信号を音声出力端子122に出力する。音声出力端子122は、供給される音声信号を装置外部に出力する。これにより、音声出力端子122に接続されるスピーカ200は、供給される音声信号に基づいて音を再生する。
映像処理部131は、信号処理部113から受信した映像信号を、ディスプレイ300で再生可能なフォーマットの映像信号に変換する。即ち、映像処理部131は、信号処理部113から受信した映像信号を、ディスプレイ300で再生可能なフォーマットの映像信号にデコード(再生)する。また、映像処理部131は、OSD処理部133から供給されるOSD信号を映像信号に重畳する。映像処理部131は、映像信号を表示処理部134に出力する。
OSD処理部133は、信号処理部113から強雨されるデータ信号、及び/または制御部150から供給される制御信号に基づいて、GUI(グラフィック ユーザ インタフェース)画面、字幕、時刻、または他の情報などを画面に重畳して表示する為のOSD信号を生成する。
また、映像処理部131は、伸長処理部132を備える。伸長処理部132は、映像信号の画像の引き伸ばしを行う。例えば、伸長処理部132は、制御部150からの制御に基づいて伸長処理を行う範囲を特定し、特定した範囲の画像を制御部150からの制御に基づいて引き伸ばす。
表示処理部134は、例えば、制御部150からの制御に基づいて、受信した映像信号に対して色味、明るさ、シャープ、コントラスト、またはその他の画質調整処理を行う。表示処理部134は、画質調整を施した映像信号を映像出力端子135に出力する。これにより、映像出力端子135に接続されるディスプレイ300は、供給される映像信号に基づいて映像を表示する。
ディスプレイ300は、例えば、液晶表示装置、有機ELディスプレイ、または映像信号に応じて映像を表示することができる他の表示装置などを備える表示手段である。ディスプレイ300は、供給される映像信号に基づいて映像を表示する。
なお、画像処理装置100は、映像出力端子135の代わりに、ディスプレイ300を装置内部に備える構成であってもよい。また、画像処理装置100は、音声出力端子122の代わりに、スピーカ200を装置内部に備える構成であってもよい。
制御部150は、画像処理装置100の各部の動作を制御する制御手段として機能する。制御部150は、CPU151、ROM152、RAM153、及びEEPROM154などを備えている。制御部150は、操作入力部161から供給される操作信号に基づいて、種々の処理を行う。
CPU151は、種々の演算処理を実行する演算素子などを備える。CPU151は、ROM152、またはEEPROM154などに記憶されているプログラムを実行することにより種々の機能を実現する。
ROM152は、画像処理装置100を制御する為のプログラム、及び各種の機能を実現する為のプログラムなどを記憶する。CPU151は、操作入力部161から供給される操作信号に基づいて、ROM152に記憶されているプログラムを起動する。これにより、制御部150は、各部の動作を制御する。
RAM153は、CPU151のワークメモリとして機能する。即ち、RAM153は、CPU151の演算結果、CPU151により読み込まれたデータなどを記憶する。
EEPROM154は、各種の設定情報、及びプログラムなどを記憶する不揮発性メモリである。
操作入力部161は、例えば、操作キー、キーボード、マウス、タッチパッドまたは操作入力に応じて操作信号を生成する事ができる他の入力装置などを備える入力手段である。例えば、操作入力部161は、操作入力に応じて操作信号を生成する。操作入力部161は、生成した操作信号を制御部150に供給する。
なお、タッチパッドは、静電センサ、サーモセンサ、または他の方式に基づいて位置情報を生成するデバイスを含む。また、画像処理装置100がディスプレイ300を備える場合、操作入力部161は、ディスプレイ300と一体に形成されるタッチパネルなどを備える構成であってもよい。
受光部162は、例えば、リモートコントローラ163からの操作信号を受信するセンサなどを備える。受光部162は、受信した操作信号を制御部150に供給する。リモートコントローラ163は、ユーザの操作入力に基づいて操作信号を生成する。リモートコントローラ163は、生成した操作信号を赤外線通信により受光部162に送信する。なお、受光部162及びリモートコントローラ163は、電波などの他の無線通信により操作信号の送受信を行う構成であってもよい。
カードコネクタ164は、例えば、動画コンテンツを記憶するメモリカード165と通信を行う為のインターフェースである。カードコネクタ164は、接続されるメモリカード165から動画のコンテンツデータを読み出し、制御部150に供給する。
USBコネクタ166は、USB機器167と通信を行う為のインターフェースである。USBコネクタ166は、接続されるUSB機器167から供給される信号を制御部150に供給する。
例えば、USB機器167がキーボードなどの操作入力機器である場合、USBコネクタ166は、操作信号をUSB機器167から受け取る。USBコネクタ166は、受け取った操作信号を制御部150に供給する。この場合、制御部150は、USBコネクタ166から供給される操作信号に基づいて種々の処理を実行する。
また、例えば、USB機器167が動画のコンテンツデータを記憶する記憶装置である場合、USBコネクタ166は、コンテンツをUSB機器167から取得することができる。USBコネクタ166は、取得したコンテンツを制御部150に供給する。
ディスクドライブ170は、例えば、コンパクトディスク(CD)、ディジタルバーサタイルディスク(DVD)、ブルーレイディスク(BD)、または動画のコンテンツデータを記録可能な他の光ディスクMを装着可能なドライブを有する。ディスクドライブ170は、装着される光ディスクMからコンテンツを読み出し、読み出したコンテンツを制御部150に供給する。
また、画像処理装置100は、図示しない電源部を備える。電源部は、画像処理装置100の各部に電力を供給する。電源部は、例えば、ACアダプタなどを介して供給される電力を変換し各部へ供給する。また、電源部は、バッテリーを備えていても良い。この場合、電源部は、ACアダプタなどを介して供給される電力をバッテリーに充電する。電源部は、バッテリーに充電されている電力を画像処理装置100の各部に供給する。
また、画像処理装置100は、さらに他のインターフェースを備えていても良い。インターフェースは、例えば、Serial−ATA、LANポートなどである。画像処理装置100は、インターフェースにより接続される機器に記録されているコンテンツを取得し、再生することができる。また、画像処理装置100は、再生した音声信号及び映像信号を、インターフェースにより接続される機器に出力することが出来る。
また、画像処理装置100がインターフェースを介してネットワークに接続される場合、画像処理装置100は、ネットワーク上の動画のコンテンツデータを取得し、再生することができる。
またさらに、画像処理装置100は、ハードディスク(HDD)、ソリッドステイトディスク(SSD)、または半導体メモリなどの記憶装置を備えていても良い。この記憶装置が動画のコンテンツデータを記憶する場合、画像処理装置100は、この記憶装置に記憶されているコンテンツを読み出し、再生することが出来る。また、画像処理装置100は、この記憶装置に例えば放送信号、またはネットワークなどにより供給されるコンテンツを記憶することができる。
図2は、図1に示す制御部150の構成例について説明するための説明図である。
図2に示すように、制御部150は、字幕データ検出部155、映像奥行算出部156、字幕制御部157、左右画面生成部158、及び字幕奥行算出部159を備える。
字幕データ検出部155は、信号処理部113に供給されるコンテンツに含まれる字幕を検出する。即ち、例えば、字幕データ検出部155は、字幕をデータとして保持する字幕データパケットをコンテンツから検出する。字幕データパケットがコンテンツに含まれる場合、画像処理装置100は、OSD処理部133により字幕を映像に重畳する為のOSD信号を生成する。
映像奥行算出部156は、コンテンツの映像信号の中に存在するオブジェクト(対象物)を検出し、各オブジェクトの奥行き距離を算出する。映像奥行算出部156は、映像処理部131によりデコードした映像信号において、人物、構造物、または他の物体などのオブジェクトを検出する。
映像奥行算出部156は、各オブジェクトの奥行きを検出する。即ち、映像奥行算出部156は、左目用画像と右目用画像との間に存在する視差に基づいて、ユーザが奥行きとして認識する距離(奥行き距離)を各オブジェクト毎に算出する。具体的には、映像奥行算出部156は、左目用画像と、右目用画像と、において同一のオブジェクトの視差をそれぞれ算出する。なお、視差とは、あるオブジェクトの左目用画像における表示位置と右目用画像における表示位置との、画像の水平ライン方向における距離である。
字幕制御部157は、最終的な字幕の奥行き方向における表示位置を決定する。字幕制御部157は、映像処理部131によりデコードした映像信号の右目用画像と左目用画像とに基づいて、字幕データ検出部155により検出した字幕の表示位置を特定する為の基準視差を算出する。
即ち、字幕制御部157は、コンテンツに字幕データパケットが含まれる場合、映像奥行算出部156により算出したオブジェクトの奥行き距離に基づいて、最終的な字幕の奥行き方向における表示位置を決定する。具体的には、字幕制御部157は、左目用画像と右目用画像とにおける同一のオブジェクトの視差に基づいて、左目用画像における字幕の表示位置と、右目用画像における字幕の表示位置とを決定する。
左右画面生成部158は、決定した左目用画像及び右目用画像における字幕の表示位置をOSD処理部133に出力する。OSD処理部133は、字幕データパケットと、予め記憶されている文字データと、決定した右目用画像における字幕の表示位置とに基づいて、右目用画像に重畳する右目用OSD信号を生成する。また、OSD処理部133は、字幕データパケットと、予め記憶されている文字データと、決定した左目用画像における字幕の表示位置とに基づいて、左目用画像に重畳する左目用OSD信号を生成する。
OSD処理部133は、生成した右目用OSD信号及び左目用OSD信号を映像処理部131に供給する。映像処理部131は、OSD処理部133から供給される右目用OSD信号を右目用画像に重畳する。また、映像処理部131は、OSD処理部133から供給される左目用OSD信号を左目用画像に重畳する。
上記した処理により、ユーザが立体として知覚することができる字幕を表示する為の映像信号を生成することが出来る。
また、字幕データ検出部155は、コンテンツの映像信号に埋め込まれる字幕を検出する。即ち、字幕データ検出部155は、例えばパターンマッチングなどの文字認識処理を行うことにより、映像信号に含まれる文字を検出する。字幕データ検出部155は、検出した隣り合う文字の位置に基づいて、文字列を検出する構成であってもよい。
さらに、字幕データ検出部155は、映像中において文字を含む範囲を特定する。なお、字幕データ検出部155は、画像中から文字を検出することができる方法であれば、如何なる方法により文字を検出する構成であってもよい。
字幕奥行算出部159は、コンテンツの映像信号に字幕が埋め込まれている場合において、字幕の奥行き距離を算出する。即ち、字幕奥行算出部159は、字幕データ検出部155により検出した字幕の奥行き距離を、左目用画像と右目用画像との視差に基づいて算出する。具体的には、字幕奥行算出部159は、左目用画像と、右目用画像と、において同一の字幕の視差を算出する。
また、字幕制御部157は、映像信号に字幕が含まれる場合、映像奥行算出部156により算出したオブジェクトの奥行き距離と、字幕奥行算出部159により算出した字幕の奥行き距離とに基づいて、最終的な字幕の奥行き方向における表示位置を決定する。具体的には、字幕制御部157は、左目用画像と右目用画像とにおける同一のオブジェクトの視差と、左目用画像と右目用画像とにおける同一の字幕の視差と、に基づいて、左目用画像における字幕の表示位置及び形状と、右目用画像における字幕の表示位置及び形状とを決定する。
左右画面生成部158は、決定した左目用画像及び右目用画像における字幕の表示位置及び形状を映像処理部131に出力する。映像処理部131の伸長処理部132は、左右画面生成部158から供給される左目用画像及び右目用画像における字幕の表示位置及び形状に基づいて、左目用画像及び右目用画像の伸長処理を行う。
即ち、伸長処理部132は、左右画面生成部158から供給される左目用画像における字幕の表示位置に基づいて、伸長処理を行う範囲を特定する。伸長処理部132は、特定した範囲の画像を左右画面生成部158から供給される左目用画像における字幕の形状に基づいて、引き伸ばす。
また、伸長処理部132は、左右画面生成部158から供給される右目用画像における字幕の表示位置に基づいて、伸長処理を行う範囲を特定する。伸長処理部132は、特定した範囲の画像を左右画面生成部158から供給される右目用画像における字幕の形状に基づいて、引き伸ばす。
上記した処理により、ユーザが立体として知覚することができる字幕を表示する為の映像信号を生成することが出来る。
図3は、図1に示す制御部150の処理について説明するための説明図である。
信号処理部113にコンテンツが供給される場合、制御部150は、ステップS11で字幕データの検出を行う。即ち、制御部150は、映像信号が含まれている字幕、またはコンテンツに付加される字幕データパケットを検出する。なお、ここでは、制御部150は、コンテンツに付加される字幕データパケットを検出したと仮定して説明する。
制御部150は、予め記憶される設定に基づいて、ステップS12で、字幕の奥行きの基準を判断する。
制御部150は、OSD処理により生成する字幕の奥行き合わせる対象が人物のオブジェクトであるか、画面全体のオブジェクトであるかを示す設定情報を操作信号に基づいて予め作成する。制御部150は、作成した設定情報を例えばEEPROM154などに記憶する。
なお、制御部150は、例えば、コンテンツの種別、またはジャンル毎に設定情報を作成する構成であってもよい。この場合、制御部150は、信号処理部113に供給されるコンテンツのジャンルを属性情報などに基づいて特定する。制御部150は、EEPROM154から特定したジャンルに対応する設定情報を読み出し、読み出した設定情報に基づいて、字幕の奥行き合わせる対象を判断する。
字幕の奥行き合わせる対象が画面全体のオブジェクトである場合、制御部150は、映像処理部131によりデコードされた映像信号に基づいて、少なくとも1つ以上のオブジェクトを検出する。制御部150は、ステップS13で、検出したオブジェクト毎に視差を算出する。
制御部150は、算出した視差に基づいて、ステップS14で、OSD処理により生成する右目用画像(第1の画像)に重畳する字幕と、左目用画像(第2の画像)に重畳する字幕との視差(基準視差)を特定する。
この場合、制御部150は、例えば、算出した各オブジェクトの視差の平均値を字幕の基準視差として適用する。しかし、制御部150は、字幕の基準視差を各オブジェクトの視差の範囲内で自由に設定することが出来る。例えば、制御部150は、各オブジェクトの視差の最大値を字幕の基準視差として用いる構成であってもよい。また、制御部150は、各オブジェクトの視差の最小値を字幕の基準視差として用いる構成であってもよい。
制御部150は、特定した字幕の基準視差に基づいて、ステップS15で、最終的な字幕の表示位置を決定する。即ち、制御部150は、特定した字幕の基準視差に基づいて、左目用画像における字幕の表示位置と、右目用画像における字幕の表示位置とを決定する。
制御部150は、ステップS16において、OSD処理部133を制御することにより、字幕を右目用画像と左目用画像とにそれぞれ重畳する。即ち、制御部150は、右目用画像における字幕と、左目用画像における字幕との視差が、ステップS14において決定した基準視差等しくなるようにOSD処理部133及び映像処理部131を制御する。
また、ステップS12において、字幕の奥行き合わせる対象が人物のオブジェクトであると判断する場合、制御部150は、映像処理部131によりデコードされた映像信号に基づいて、1つの人物のオブジェクトを検出する。制御部150は、ステップS17で、検出したオブジェクト毎に視差を算出する。
制御部150は、例えば、複数の人物のオブジェクトが映像信号中に存在する場合、喋っている人物のオブジェクトの視差を算出する。また、例えば、制御部150は、複数の人物のオブジェクトが映像信号中に存在する場合、画像の中央に最も近い人物のオブジェクトの視差を算出する。
制御部150は、ステップS17において算出した視差に基づいて、ステップS14で、OSD処理により生成する右目用画像に重畳する字幕と、左目用画像に重畳する字幕との基準視差を特定する。
例えば、図4に示す右目用画像410と左目用画像420に対して字幕を重畳する場合、制御部150は、映像中に含まれる人物のオブジェクト411及び421を検出する。制御部150は、検出した人物のオブジェクト411及び421に基づいて、視差Δhを算出する。
ここで、字幕の奥行きを人物に合わせるように設定されている場合、制御部150は、視差Δhを基準視差として特定する。この場合、制御部150は、図4に示す右目用画像430及び左目用画像440を作成するように映像処理部131及びOSD処理部133を制御する。
即ち、制御部150は、右目用画像430における字幕432と、左目用画像440における字幕442との視差Δjと、右目用画像430におけるオブジェクト431と、左目用画像440におけるオブジェクト441との視差Δhと、が等しくなるように字幕432及び字幕442を生成する。
上記した処理により、図5にしめすように、画像処理装置100は、ユーザの右目Erと右目用画像におけるオブジェクト411とを結ぶ直線と、ユーザの左目Elと左目用画像におけるオブジェクト421とを結ぶ直線と、が交差する点に、立体のオブジェクト401を表示させることができる。また、画像処理装置100は、ユーザの右目Erと右目用画像における字幕432とを結ぶ直線と、ユーザの左目Elと左目用画像における字幕442とを結ぶ直線と、が交差する点に、立体の字幕402を表示させることができる。
上記したように、画像処理装置100は、基準となるオブジェクトの視差Δh(基準視差)に字幕の視差Δjをあわせることにより、基準のオブジェクト401と、字幕402とを同じ奥行き距離で表示する事ができる。また、映像中に複数のオブジェクトが存在する場合、他のオブジェクトの奥行き距離に応じて字幕の奥行き距離を決定することができる。
これにより、画像処理装置100は、字幕を他のオブジェクトに対して極端に異なる奥行き距離で表示することによりユーザが違和感を覚えることを防ぐことができる。この結果、よりユーザの利便性を向上させることが出来る画像処理装置、画像処理プログラム、及び画像処理方法を提供することができる。
次に、映像中に字幕が画像として埋め込まれている場合について説明する。
図6は、図1に示す制御部150の処理について説明するための説明図である。
信号処理部113にコンテンツが供給される場合、制御部150は、ステップS21で字幕データの検出を行う。即ち、制御部150は、映像信号が含まれている字幕、またはコンテンツに付加される字幕データパケットを検出する。なお、ここでは、制御部150は、映像信号に埋め込まれている字幕データを検出したと仮定して説明する。
制御部150は、ステップS22で、コンテンツの映像信号に埋め込まれている字幕の奥行き距離を算出する。即ち、制御部150は、左目用画像と、右目用画像と、において同一の字幕の視差を算出する。
制御部150は、予め記憶される設定に基づいて、ステップS23で、字幕の奥行きの基準を判断する。
字幕の奥行き合わせる対象が画面全体のオブジェクトである場合、制御部150は、映像処理部131によりデコードされた映像信号に基づいて、少なくとも1つ以上のオブジェクトを検出する。制御部150は、ステップS24で、検出したオブジェクト毎に視差を算出する。
制御部150は、算出した視差に基づいて、ステップS25で、字幕の視差として用いる為の基準視差を特定する。
制御部150は、特定した基準視差に基づいて、ステップS26で、最終的な字幕の表示位置及び形状を決定する。即ち、制御部150は、特定した字幕の基準視差に基づいて、左目用画像における字幕の表示位置及び形状と、右目用画像における字幕の表示位置及び形状とを決定する。
制御部150は、ステップS26により決定した字幕の表示位置及び形状に基づいて、ステップS27で、映像処理部131及び伸長処理部132を制御することにより、右目用画像及び左目用画像における字幕を含む所定領域の画像を引き伸ばす。即ち、制御部150は、右目用画像における字幕と、左目用画像における字幕との視差が、ステップS25において決定した基準視差と等しく伸長処理部132により字幕を含む所定領域の画像を引き伸ばす。
また、ステップS23において、字幕の奥行き合わせる対象が人物のオブジェクトであると判断する場合、制御部150は、映像処理部131によりデコードされた映像信号に基づいて、1つの人物のオブジェクトを検出する。制御部150は、ステップS28で、検出したオブジェクト毎に視差を算出する。
制御部150は、例えば、複数の人物のオブジェクトが映像信号中に存在する場合、喋っている人物のオブジェクトの視差を算出する。また、例えば、制御部150は、複数の人物のオブジェクトが映像信号中に存在する場合、画像の中央に最も近い人物のオブジェクトの視差を算出する。
制御部150は、ステップS28において算出した視差に基づいて、ステップS25で、字幕の視差として用いる為の基準視差を特定する。
例えば、図7に示す右目用画像410及び左目用画像420に含まれている字幕の奥行きを調整する場合、制御部150は、映像中に含まれる人物のオブジェクト411及び421を検出する。制御部150は、検出した人物のオブジェクト411及び421に基づいて、視差Δhを算出する。また、制御部150は、映像中に含まれる字幕412との視差Δjを算出する。
ここで、字幕の奥行きを人物に合わせるように設定されている場合、制御部150は、図7に示す右目用画像430及び左目用画像440を作成するように映像処理部131及び伸長処理部132を制御する。
即ち、制御部150は、右目用画像430における字幕432と、左目用画像440における字幕442との視差Δjと、右目用画像430におけるオブジェクト431と、左目用画像440におけるオブジェクト441との視差Δhと、が等しくなるように字幕412及び字幕422を含む所定領域の画像を引き伸ばす。
ΔhよりΔjが大きい場合、制御部150は、右目用画像410の字幕412を含む所定領域の画像の右端を右に引き伸ばすように伸長処理部132を制御する。また、ΔhよりΔjが大きい場合、制御部150は、左目用画像420の字幕422を含む所定領域の画像の左端を左に引き伸ばすように伸長処理部132を制御する。
ΔhよりΔjが小さい場合、制御部150は、右目用画像410の字幕412を含む所定領域の画像の左端を左に引き伸ばすように伸長処理部132を制御する。また、ΔhよりΔjが小さい場合、制御部150は、左目用画像420の字幕422を含む所定領域の画像の右端を右に引き伸ばすように伸長処理部132を制御する。
上記した処理により、制御部150は、右目用画像430における字幕432と、左目用画像440における字幕442との視差がΔj=Δhとなるように伸長処理部132を制御することができる。本実施形態では、上述のように右目用画像410に含まれる字幕412周囲の所定領域と、左目用画像440に含まれる字幕442周囲の所定領域とを共に引き伸ばすため、ユーザに提供される立体映像上での字幕の位置を、入力された立体映像からあまり変更させずに字幕の奥行きを制御することができる。
図8に示すように、画像処理装置100は、ユーザの右目Erと右目用画像におけるオブジェクト411とを結ぶ直線と、ユーザの左目Elと左目用画像におけるオブジェクト421とを結ぶ直線と、が交差する点に、立体のオブジェクト401を表示させることができる。
また、画像処理装置100は、ユーザの右目Erと右目用画像における字幕412とを結ぶ直線と、ユーザの左目Elと左目用画像における字幕422とを結ぶ直線と、が交差する点に、立体の字幕402を表示させることができる。
この場合、オブジェクト401の奥行き距離と字幕402の奥行き距離とが一致しない。ユーザは、オブジェクト401の奥行き距離と字幕402の奥行き距離との差が極端である場合、ディスプレイ300に表示される映像に違和感を覚える。
しかし、上記したように、制御部150は、右目用画像の字幕412を含む所定領域の画像と、左目用画像の字幕422を含む所定領域の画像とを基準視差に基づいて引き伸ばし、右目用画像の字幕432及び左目用画像の字幕442をディスプレイ300に表示するように制御する。右目用画像の字幕432と左目用画像の字幕442とは、基準視差Δhと等しい視差Δjを有するため、画像処理装置100は、立体のオブジェクト401と同じ奥行き距離を持つ字幕402をユーザに認識させることができる。
上記したように、画像処理装置100は、ΔhとΔjとが同じ長さになるように左目用画像及び右目用画像における字幕の周辺の所定領域の画像を引き伸ばす。これにより、画像処理装置100は、立体のオブジェクト401と、立体の字幕402とを同じ奥行き距離で表示する事ができる。また、映像中に複数のオブジェクトが存在する場合、他のオブジェクトの奥行き距離に応じて字幕の奥行き距離を決定することができる。
これにより、画像処理装置100は、字幕を他のオブジェクトに対して極端に異なる奥行き距離で表示することによりユーザが違和感を覚えることを防ぐことができる。この結果、よりユーザの利便性を向上させることが出来る画像処理装置、画像処理プログラム、及び画像処理方法を提供することができる。
なお、上述の各実施の形態で説明した機能は、ハードウエアを用いて構成するに留まらず、ソフトウエアを用いて各機能を記載したプログラムをコンピュータに読み込ませて実現することもできる。また、各機能は、適宜ソフトウエア、ハードウエアのいずれかを選択して構成するものであっても良い。
例えば、制御部150の機能として説明した字幕データ検出部155、映像奥行算出部156、字幕制御部157、左右画面生成部158、及び字幕奥行算出部159は、それぞれ同等の機能を有するハードウエアとして信号処理部113、映像処理部131、及び/またはOSD処理部133に組み込まれるものであってもよい。
また、上記の実施形態では、画像処理装置100は、映像処理部131によりデコードした映像信号からオブジェクトを検出し、検出したオブジェクトの奥行き距離(視差)に基づいて基準視差を決定する構成として説明したが、この構成に限定されない。映像信号中から基準視差を検出する処理は如何なるものであってもよい。
例えば、画像処理装置100は、映像信号においてエッジ検出処理を行い、検出したエッジの視差に基づいて基準視差を決定する構成であってもよい。この場合、画像処理装置100は、左目用画像及び右目用画像において対応する各エッジ毎に視差を算出し、算出した視差に基づいて基準視差を決定する。画像処理装置100は、検出したエッジの右目用画像と左目用画像とにおける視差の最小値から最大値の範囲内で基準視差を算出する。例えば、画像処理装置100は、エッジに基づいて算出した視差の平均に基づいて基準視差を決定する。
さらに、画像処理装置100は、1シーンの間に字幕の奥行き距離(視差)が変化することを制限する構成であってもよい。1シーン中に字幕の奥行き距離が変化する場合、変化の頻度によっては奥行き距離の変化がユーザの負担となる可能性がある。そこで、画像処理装置100は、シーン検出を行い、シーン検出毎に上記の処理を行い、字幕の奥行き距離(視差)を決定する。このような構成によると、よりユーザの負担を軽減させることができる画像処理装置、画像処理プログラム、及び画像処理方法を提供することができる。
さらに、画像処理装置100は、シーン間に変化する字幕の奥行き距離を制限する構成であってもよい。字幕の奥行き距離が急激に変化する場合、奥行き距離の変化がユーザの負担となる可能性がある。そこで、画像処理装置100は、シーンを検出する場合、前のシーンにおいて表示していた字幕の奥行き距離と、次に表示する字幕の奥行き距離と、を比較することにより、滑らかに字幕の奥行きが変化するように制御を行う。例えば、画像処理装置100は、予め設定される閾値を上限として字幕の奥行き距離を変化させる。このような構成によると、よりユーザの負担を軽減させることができる画像処理装置、画像処理プログラム、及び画像処理方法を提供することができる。
また、上記した実施形態では、画像処理装置100は、映像信号中に字幕が含まれている場合、逐次字幕の奥行き距離の調整を行う構成として説明したが、この構成に限定されない。例えば、予め上限値及び下限値を設定し、映像信号中に含まれている字幕の奥行き距離が設定されている上限値及び下限値内でない場合に奥行き距離の調整を行う構成であってもよい。このような構成によると、より簡易な処理でユーザの利便性を向上させることが出来る画像処理装置、画像処理プログラム、及び画像処理方法を提供することができる。
また、上記した実施形態では、画像処理装置100は、映像信号中に含まれている字幕を含む所定領域の画像を引き伸ばすことにより視差を基準視差に合わせる構成として説明したがこの構成に限定されない。画像処理装置100は、映像信号中に含まれている字幕を含む所定領域の画像を縮めることにより視差を基準視差に合わせる構成であってもよい。この場合、画像処理装置100は、字幕を含む所定領域の画像を縮めることにより生じる映像信号の存在しない領域を、近傍の画像から類推することにより埋める。
また、上記した実施形態では、決定した基準視差に基づいて字幕の表示位置を調整するとして説明したが、この構成に限定されない。例えば、制御部150は、決定した基準視差をコンテンツの元のデータに付加して記憶する構成であってもよい。この構成によると、字幕の奥行き距離が調整された映像信号を他の機器で再生する事ができる。このような構成によると、よりユーザの利便性を向上させることが出来る画像処理装置、画像処理プログラム、及び画像処理方法を提供することができる。
なお、制御部150は、基準視差を示す情報を付加したコンテンツを記憶媒体に記憶する。制御部150は、例えば、カードコネクタ164に接続されるメモリカード165、USBコネクタ166に接続されるUSB機器167、ディスクドライブ170に装着される光ディスクMなどにコンテンツを書き込む。また、制御部150は、インターフェースを介して接続されるHDD、SSD、または半導体メモリなどの記憶装置などにコンテンツを書き込む。またさらに、制御部150は、ネットワークを介して接続される記憶装置にコンテンツを書き込む。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100…画像処理装置、101…放送入力端子、110…アンテナ、111…チューナ、112…復調部、113…信号処理部、114…通信インターフェース、121…音声処理部、122…音声出力端子、131…映像処理部、132…伸長処理部、133…OSD処理部、134…表示処理部、135…映像出力端子、150…制御部、151…CPU、152…ROM、153…RAM、154…EEPROM、155…字幕データ検出部、156…映像奥行算出部、157…字幕制御部、158…左右画面生成部、159…字幕奥行算出部、161…操作入力部、162…受光部、163…リモートコントローラ、164…カードコネクタ、165…メモリカード、166…USBコネクタ、167…USB機器、170…ディスクドライブ、200…スピーカ、300…ディスプレイ。
一実施形態に係る画像処理装置は、第1の画像と前記第1の画像との間に視差が存在する第2の画像とを有するコンテンツが入力される入力手段と、前記入力手段により入力されるコンテンツに含まれる字幕を検出する字幕検出手段と、前記コンテンツの前記第1の画像と前記第2画像の所定オブジェクト間の視差を算出する算出手段と、前記算出手段により算出した前記視差を、前記字幕検出手段により検出した字幕の表示位置を特定する為の基準視差として出力する字幕情報出力手段と、字幕情報出力手段により出力される前記基準視差と、前記字幕検出手段により検出した字幕とに基づいて、前記コンテンツの前記第1の画像及び前記第2の画像における字幕の表示位置をそれぞれ特定し、前記第1の画像及び前記第2の画像の前記特定した位置に字幕を表示するように制御する字幕制御手段と、前記字幕制御手段により字幕の表示位置を制御した前記コンテンツを出力する映像出力手段と、前記コンテンツのシーンを検出するシーン検出手段と、を具備し、前記字幕制御手段は、前記シーン検出手段がシーン検出を行うと前記第1の画像及び前記第2の画像の表示位置を制御する
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
第1の画像と前記第1の画像との間に視差が存在する第2の画像とを有するコンテンツが入力される入力手段と、
前記入力手段により入力されるコンテンツに含まれる字幕を検出する字幕検出手段と、
前記コンテンツの前記第1の画像と前記第2画像の所定オブジェクト間の視差を算出する算出手段と、
前記算出手段により算出した前記視差を、前記字幕検出手段により検出した字幕の表示位置を特定する為の基準視差として出力する字幕情報出力手段と、
を具備する画像処理装置。
[C2]
字幕情報出力手段により出力される前記基準視差と、前記字幕検出手段により検出した字幕とに基づいて、前記コンテンツの前記第1の画像及び前記第2の画像における字幕の表示位置をそれぞれ特定し、前記第1の画像及び前記第2の画像の前記特定した位置に字幕を表示するように制御する字幕制御手段と、
前記字幕制御手段により字幕の表示位置を制御した前記コンテンツを出力する映像出力手段と、
をさらに具備するC1に記載の画像処理装置。
[C3]
前記字幕制御手段は、前記コンテンツの前記第1の画像及び前記第2の画像における字幕の視差と、前記基準視差とが等しくなるように字幕の表示位置を制御するC2に記載の画像処理装置。
[C4]
前記字幕制御手段は、前記字幕検出手段により前記コンテンツに付加される字幕のデータを検出する場合、前記検出した字幕のデータに基づいて字幕の画像を生成し、生成した字幕画像を前記第1の画像及び前記第2の画像の前記特定した位置に字幕を表示するように制御するC2に記載の画像処理装置。
[C5]
前記字幕制御手段は、前記字幕検出手段により前記コンテンツの前記第1の画像及び前記第2の画像の中に埋め込まれている字幕を検出する場合、前記検出した前記第1の画像及び前記第2の画像における字幕の視差と、前記基準視差と、に基づいて、前記検出した前記第1の画像及び前記第2の画像における字幕を含む所定領域の画像を引き伸ばすC2に記載の画像処理装置。
[C6]
前記算出手段は、前記コンテンツの前記第1の画像及び前記第2の画像の中から少なくとも1つ以上のオブジェクトを検出し、検出した人物オブジェクトの前記第1の画像と前記第2の画像とにおける視差の最小値から最大値の範囲内で基準視差を算出するC1に記載の画像処理装置。
[C7]
前記算出手段は、前記コンテンツの前記第1の画像及び前記第2の画像の中から1つの人物オブジェクトを検出し、検出した人物オブジェクトの前記第1の画像と前記第2の画像とにおける視差に基づいて、前記字幕検出手段により検出した字幕の表示位置を特定する為の基準視差を算出するC6に記載の画像処理装置。
[C8]
前記算出手段は、前記コンテンツの前記第1の画像及び前記第2の画像に対してそれぞれエッジ検出を行い、検出したエッジの前記第1の画像と前記第2の画像とにおける視差の最小値から最大値の範囲内で基準視差を算出するC1に記載の画像処理装置。
[C9]
前記映像出力手段が出力した前記コンテンツを表示する表示手段を、
さらに具備するC2に記載の画像処理装置。
[C10]
画像処理装置において実行される画像処理プログラムであって、
入力される第1の画像と前記第1の画像との間に視差が存在する第2の画像とを有するコンテンツに含まれる字幕を検出し、
前記コンテンツの前記第1の画像と前記第2画像の所定オブジェクト間の視差を算出し、
前記算出した前記視差を、前記検出した字幕の表示位置を特定する為の基準視差として出力する、
画像処理プログラム。
[C11]
画像処理装置において実行される画像処理方法であって、
入力される第1の画像と前記第1の画像との間に視差が存在する第2の画像とを有するコンテンツに含まれる字幕を検出し、
前記コンテンツの前記第1の画像と前記第2画像の所定オブジェクト間の視差を算出し、
前記算出した前記視差を、前記検出した字幕の表示位置を特定する為の基準視差として出力する、
画像処理方法。

Claims (11)

  1. 第1の画像と前記第1の画像との間に視差が存在する第2の画像とを有するコンテンツが入力される入力手段と、
    前記入力手段により入力されるコンテンツに含まれる字幕を検出する字幕検出手段と、
    前記コンテンツの前記第1の画像と前記第2画像の所定オブジェクト間の視差を算出する算出手段と、
    前記算出手段により算出した前記視差を、前記字幕検出手段により検出した字幕の表示位置を特定する為の基準視差として出力する字幕情報出力手段と、
    を具備する画像処理装置。
  2. 字幕情報出力手段により出力される前記基準視差と、前記字幕検出手段により検出した字幕とに基づいて、前記コンテンツの前記第1の画像及び前記第2の画像における字幕の表示位置をそれぞれ特定し、前記第1の画像及び前記第2の画像の前記特定した位置に字幕を表示するように制御する字幕制御手段と、
    前記字幕制御手段により字幕の表示位置を制御した前記コンテンツを出力する映像出力手段と、
    をさらに具備する請求項1に記載の画像処理装置。
  3. 前記字幕制御手段は、前記コンテンツの前記第1の画像及び前記第2の画像における字幕の視差と、前記基準視差とが等しくなるように字幕の表示位置を制御する請求項2に記載の画像処理装置。
  4. 前記字幕制御手段は、前記字幕検出手段により前記コンテンツに付加される字幕のデータを検出する場合、前記検出した字幕のデータに基づいて字幕の画像を生成し、生成した字幕画像を前記第1の画像及び前記第2の画像の前記特定した位置に字幕を表示するように制御する請求項2に記載の画像処理装置。
  5. 前記字幕制御手段は、前記字幕検出手段により前記コンテンツの前記第1の画像及び前記第2の画像の中に埋め込まれている字幕を検出する場合、前記検出した前記第1の画像及び前記第2の画像における字幕の視差と、前記基準視差と、に基づいて、前記検出した前記第1の画像及び前記第2の画像における字幕を含む所定領域の画像を引き伸ばす請求項2に記載の画像処理装置。
  6. 前記算出手段は、前記コンテンツの前記第1の画像及び前記第2の画像の中から少なくとも1つ以上のオブジェクトを検出し、検出した人物オブジェクトの前記第1の画像と前記第2の画像とにおける視差の最小値から最大値の範囲内で基準視差を算出する請求項1に記載の画像処理装置。
  7. 前記算出手段は、前記コンテンツの前記第1の画像及び前記第2の画像の中から1つの人物オブジェクトを検出し、検出した人物オブジェクトの前記第1の画像と前記第2の画像とにおける視差に基づいて、前記字幕検出手段により検出した字幕の表示位置を特定する為の基準視差を算出する請求項6に記載の画像処理装置。
  8. 前記算出手段は、前記コンテンツの前記第1の画像及び前記第2の画像に対してそれぞれエッジ検出を行い、検出したエッジの前記第1の画像と前記第2の画像とにおける視差の最小値から最大値の範囲内で基準視差を算出する請求項1に記載の画像処理装置。
  9. 前記映像出力手段が出力した前記コンテンツを表示する表示手段を、
    さらに具備する請求項2に記載の画像処理装置。
  10. 画像処理装置において実行される画像処理プログラムであって、
    入力される第1の画像と前記第1の画像との間に視差が存在する第2の画像とを有するコンテンツに含まれる字幕を検出し、
    前記コンテンツの前記第1の画像と前記第2画像の所定オブジェクト間の視差を算出し、
    前記算出した前記視差を、前記検出した字幕の表示位置を特定する為の基準視差として出力する、
    画像処理プログラム。
  11. 画像処理装置において実行される画像処理方法であって、
    入力される第1の画像と前記第1の画像との間に視差が存在する第2の画像とを有するコンテンツに含まれる字幕を検出し、
    前記コンテンツの前記第1の画像と前記第2画像の所定オブジェクト間の視差を算出し、
    前記算出した前記視差を、前記検出した字幕の表示位置を特定する為の基準視差として出力する、
    画像処理方法。
JP2010150036A 2010-06-30 2010-06-30 画像処理装置、画像処理プログラム、及び画像処理方法 Expired - Fee Related JP4996720B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010150036A JP4996720B2 (ja) 2010-06-30 2010-06-30 画像処理装置、画像処理プログラム、及び画像処理方法
EP11158130A EP2403254A1 (en) 2010-06-30 2011-03-14 Image processing apparatus, image processing program, and image processing method
US13/161,972 US20120002010A1 (en) 2010-06-30 2011-06-16 Image processing apparatus, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010150036A JP4996720B2 (ja) 2010-06-30 2010-06-30 画像処理装置、画像処理プログラム、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2012015771A true JP2012015771A (ja) 2012-01-19
JP4996720B2 JP4996720B2 (ja) 2012-08-08

Family

ID=44117320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010150036A Expired - Fee Related JP4996720B2 (ja) 2010-06-30 2010-06-30 画像処理装置、画像処理プログラム、及び画像処理方法

Country Status (3)

Country Link
US (1) US20120002010A1 (ja)
EP (1) EP2403254A1 (ja)
JP (1) JP4996720B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012098803A1 (ja) * 2011-01-17 2012-07-26 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法、およびプログラム
WO2013111552A1 (ja) * 2012-01-27 2013-08-01 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7676394B2 (en) * 2005-09-14 2010-03-09 Jumptap, Inc. Dynamic bidding and expected value
JP2012156680A (ja) * 2011-01-25 2012-08-16 Jvc Kenwood Corp 3d画像処理装置
US20130050414A1 (en) * 2011-08-24 2013-02-28 Ati Technologies Ulc Method and system for navigating and selecting objects within a three-dimensional video image
EP2658266B1 (en) * 2012-04-24 2015-05-27 Vestel Elektronik Sanayi ve Ticaret A.S. Text aware virtual view rendering
JP2013243585A (ja) * 2012-05-22 2013-12-05 Funai Electric Co Ltd 映像信号処理装置
CN112714361B (zh) * 2020-12-25 2022-08-05 河北精英动漫文化传播股份有限公司 一种动画资源管理方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
JP2004104425A (ja) * 2002-09-09 2004-04-02 Nippon Hoso Kyokai <Nhk> 視差分布測定方法、視差分布測定装置および視差分布測定プログラム
JP2004198732A (ja) * 2002-12-18 2004-07-15 Sony Computer Entertainment Inc 撮影補助器、画像処理方法、画像処理装置、コンピュータプログラム、プログラムを格納した記録媒体
JP2004221700A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2010055344A (ja) * 2008-08-28 2010-03-11 Fujifilm Corp 3次元表示装置および方法並びにプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216113A (ja) * 2001-01-16 2002-08-02 Fujitsu Ten Ltd 物体認識装置
US7113634B2 (en) * 2001-07-31 2006-09-26 Canon Kabushiki Kaisha Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
JP2006101224A (ja) * 2004-09-29 2006-04-13 Toshiba Corp 画像生成装置、画像生成方法および画像生成プログラム
US7119731B2 (en) * 2005-01-21 2006-10-10 Safeview, Inc. Depth-based surveillance imaging
CN105263012A (zh) * 2007-03-16 2016-01-20 汤姆森许可贸易公司 用于将文本与三维内容相结合的***和方法
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
BRPI0914459A2 (pt) * 2008-10-21 2015-10-27 Koninkl Philips Electronics Nv "método para processar um sinal de vídeo de entrada tridimensional compreendendo múltiplas visualizações, produto de programa de computador e sistema para processar um sinal de vídeo de entrada tridimensional compreendendo múltiplas visualizações"
JP2010130495A (ja) * 2008-11-28 2010-06-10 Toshiba Corp 立体情報出力装置及び立体情報出力方法
KR101659026B1 (ko) * 2008-12-02 2016-09-23 엘지전자 주식회사 3차원 캡션 디스플레이 방법 및 이를 구현하기 위한 3차원 디스플레이 장치
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
RU2538335C2 (ru) * 2009-02-17 2015-01-10 Конинклейке Филипс Электроникс Н.В. Объединение данных 3d изображения и графических данных

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
JP2004104425A (ja) * 2002-09-09 2004-04-02 Nippon Hoso Kyokai <Nhk> 視差分布測定方法、視差分布測定装置および視差分布測定プログラム
JP2004198732A (ja) * 2002-12-18 2004-07-15 Sony Computer Entertainment Inc 撮影補助器、画像処理方法、画像処理装置、コンピュータプログラム、プログラムを格納した記録媒体
JP2004221700A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2010055344A (ja) * 2008-08-28 2010-03-11 Fujifilm Corp 3次元表示装置および方法並びにプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012098803A1 (ja) * 2011-01-17 2012-07-26 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法、およびプログラム
WO2013111552A1 (ja) * 2012-01-27 2013-08-01 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
JPWO2013111552A1 (ja) * 2012-01-27 2015-05-11 パナソニックIpマネジメント株式会社 画像処理装置、撮像装置および画像処理方法
US9418436B2 (en) 2012-01-27 2016-08-16 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus, imaging apparatus, and image processing method

Also Published As

Publication number Publication date
US20120002010A1 (en) 2012-01-05
EP2403254A1 (en) 2012-01-04
JP4996720B2 (ja) 2012-08-08

Similar Documents

Publication Publication Date Title
JP4996720B2 (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
KR101717787B1 (ko) 디스플레이장치 및 그의 음성신호 출력 방법
WO2011135857A1 (ja) 画像変換装置
JPH11289555A (ja) 立体映像表示装置
KR20110132036A (ko) 영상표시장치 및 그 동작방법
JP2011071982A (ja) ディスプレイ装置及びその3d映像信号表示方法
US20140362198A1 (en) Stereoscopic Video Processor, Stereoscopic Video Processing Method and Stereoscopic Video Processing Program
JP5699566B2 (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2011080878A1 (ja) 画像再生装置及び表示装置
JP5390016B2 (ja) 映像処理装置
JP5197816B2 (ja) 電子機器、電子機器の制御方法
JP5390017B2 (ja) 映像処理装置
JP5599063B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP4806082B2 (ja) 電子機器及び画像出力方法
JP5066244B2 (ja) 映像再生装置及び映像再生方法
WO2013027305A1 (ja) 立体映像処理装置、及び立体映像処理方法
US20130136336A1 (en) Image processing apparatus and controlling method for image processing apparatus
US9253477B2 (en) Display apparatus and method for processing image thereof
US20130021454A1 (en) 3d display apparatus and content displaying method thereof
KR101668245B1 (ko) 원격제어장치로 제어할 수 있는 영상표시장치 및 그 동작 제어방법
KR20110051074A (ko) 3차원 영상 디스플레이 방법과 이를 구현하기 위한 3차원 디스플레이 장치
JP2014225736A (ja) 画像処理装置
JP5720561B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2013102270A (ja) 画像処理装置、画像処理方法及びプログラム
KR101804912B1 (ko) 입체영상 디스플레이 장치 및 입체영상 자막 디스플레이 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120511

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees