JP2011139209A - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JP2011139209A
JP2011139209A JP2009296950A JP2009296950A JP2011139209A JP 2011139209 A JP2011139209 A JP 2011139209A JP 2009296950 A JP2009296950 A JP 2009296950A JP 2009296950 A JP2009296950 A JP 2009296950A JP 2011139209 A JP2011139209 A JP 2011139209A
Authority
JP
Japan
Prior art keywords
image
flag
unit
processing apparatus
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009296950A
Other languages
English (en)
Inventor
Tatsu Kawakami
達 河上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009296950A priority Critical patent/JP2011139209A/ja
Priority to US12/972,796 priority patent/US20110157312A1/en
Publication of JP2011139209A publication Critical patent/JP2011139209A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】画像の特性により適した処理を行うことができるようにする。
【解決手段】画像取得部111は、3D撮像装置101、両用撮像装置102、または2D撮像装置103により撮影されて得られた画像データを取得する。エンコーダ112は、その画像データを所定の規格に基づいて符号化する。フラグ生成部113は、その画像データの画像の種類を判別し、その判別結果を示すフラグを生成する。フラグ付加部114は、フラグ生成部113から供給されたフラグを、エンコーダ112から供給された符号化データに付加する。通信部115は、フラグが付加された符号化データを、ネットワーク104を介して他の装置に送信する。記録部116は、フラグが付加された符号化データをリムーバブルメディア105に書き込み記録させる。本発明は、例えば、画像処理装置に適用することができる。
【選択図】図1

Description

本発明は、画像処理装置および方法に関し、特に、画像の特性により適した処理を行うことができるようにした画像処理装置および方法に関する。
従来、各フレーム画像を左目用と右目用に2枚ずつ用意し、それらを交互に出力することにより、立体視させる3D画像が存在する。
その3D画像と、フレーム画像を1枚ずつ表示する2D画像とを区別するためのフラグを画像データ(コードストリーム)に付加し、そのフラグを画像再生に利用させることも考えられている(例えば、特許文献1参照)。
また、左右の画像の視差を示す視差情報を画像データ(コードストリーム)に付加することも考えられている(例えば、特許文献2参照)。
さらに、視差に関するより多くの情報を画像データに付加することにより、より多様な制御を行うことも考えられている(例えば、特許文献3参照)。
ところで、3D画像には、視差を少なくすることにより2D画像として見ても実用上問題ない両用画像も存在する。専用の3Dメガネを用いることにより立体視可能な3D画像の場合、左右の画像が重畳されて表示される。したがって、視差が大きい通常の3D画像の場合、裸眼では見ることができない(位置がずれた左右の画像が重畳されて見えるので、視聴に耐えうる画質ではない)。
しかしながら、視差の少ない両用画像の場合、この左右の画像の位置ずれが少なく人間の目には違和感のない程度であるので、ユーザは、3Dメガネを用いて3D画像として視聴することができることはもちろん、3Dメガネを用いずに2D画像として視聴することもできる。
特開2004−357156号公報 特開昭63−198498号公報 特開2008−109267号公報
しかしながら、従来の方法では、このような両用画像を通常の3D画像と区別することは困難であった。したがって、画像が持つ特性を十分に生かすように画像再生処理等を制御することができない恐れがあった。
本発明は、このような状況に鑑みて提案されたものであり、画像の特性により適した処理を行うことを目的とする。
本発明の一側面は、画像データの画像が、平面視用の2D画像、左右の画像よりなる立体視用の3D画像、および、前記左右の画像よりなり立体視可能であるとともに前記3D画像より視差が小さく平面視可能な両用画像のいずれであるかを識別するためのフラグを生成するフラグ生成手段と、前記フラグ生成手段により生成された前記フラグを前記画像データに付加するフラグ付加手段とを備える画像処理装置である。
前記画像データを符号化する符号化手段をさらに備え、前記フラグ付加手段は、前記フラグ生成手段により生成された前記フラグを、前記符号化手段により前記画像データが符号化されて生成された符号化データに付加することができる。
前記フラグ生成手段は、前記画像データの画像が、前記2D画像である場合、値「00」のフラグを生成し、前記3D画像である場合、値「10」のフラグを生成し、前記両用画像である場合、値「01」若しくは「11」のフラグを生成することができる。
前記フラグ生成手段は、前記画像データの画像が、前記2D画像である場合、値「10」のフラグを生成し、前記3D画像である場合、値「01」のフラグを生成し、前記両用画像である場合、値「11」のフラグを生成することができる。
本発明の一側面は、また、画像処理装置の画像処理方法であって、前記画像処理装置のフラグ生成手段が、画像データの画像が、平面視用の2D画像、左右の画像よりなる立体視用の3D画像、および、前記左右の画像よりなり立体視可能であるとともに前記3D画像より視差が小さく平面視可能な両用画像のいずれであるかを識別するためのフラグを生成し、前記画像処理装置のフラグ付加手段が、生成された前記フラグを前記画像データに付加する画像処理方法である。
本発明の他の側面は、画像データに付加された、前記画像データの画像が、平面視用の2D画像、左右の画像よりなる立体視用の3D画像、および、前記左右の画像よりなり立体視可能であるとともに前記3D画像より視差が小さく平面視可能な両用画像のいずれであるかを識別するためのフラグを抽出するフラグ抽出手段と、前記フラグ抽出手段により抽出された前記フラグの値を判定するフラグ判定手段と、前記フラグ判定手段により判定された値に対応する処理を行うフラグ処理手段とを備える画像処理装置である。
前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類に応じたアイコンを表示させることができる。
前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類に応じたLEDを点灯させることができる。
前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類に応じて前記画像データの画像の表示サイズを設定し、表示させることができる。
前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類に応じて前記画像データの画像のアスペクト比を設定し、表示させることができる。
前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類に応じて、前記画像データの画像の画枠の太さを設定し、表示させることができる。
前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類を通知する音声案内を出力させることができる。
前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類を通知するように、前記画像データの画像を立体視する際にユーザが使用する3Dメガネを制御することができる。
前記フラグ処理手段は、前記画像データの画像を表示する前に、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類を通知する通知画像を表示させることができる。
本発明の他の側面は、また、画像処理装置の画像処理方法であって、前記画像処理装置のフラグ抽出手段が、画像データに付加された、前記画像データの画像が、平面視用の2D画像、左右の画像よりなる立体視用の3D画像、および、前記左右の画像よりなり立体視可能であるとともに前記3D画像より視差が小さく平面視可能な両用画像のいずれであるかを識別するためのフラグを抽出し、前記画像処理装置のフラグ判定手段が、抽出された前記フラグの値を判定し、前記画像処理装置のフラグ処理手段が、判定された値に対応する処理を行う画像処理方法である。
本発明の一側面においては、画像データの画像が、平面視用の2D画像、左右の画像よりなる立体視用の3D画像、および、左右の画像よりなり立体視可能であるとともに3D画像より視差が小さく平面視可能な両用画像のいずれであるかを識別するためのフラグが生成され、生成されたフラグが画像データに付加される。
本発明の他の側面においては、画像データに付加された、画像データの画像が、平面視用の2D画像、左右の画像よりなる立体視用の3D画像、および、左右の画像よりなり立体視可能であるとともに3D画像より視差が小さく平面視可能な両用画像のいずれであるかを識別するためのフラグが抽出され、抽出されたフラグの値が判定され、判定された値に対応する処理が行われる。
本発明によれば、画像を処理ことができる。特に、画像の特性により適した処理を行うことができる。
本発明を適用した画像処理装置の主な構成例を示すブロック図である。 両用撮像装置の構成例を示す図である。 両用撮像装置の構成の詳細について説明する図である。 偏光フィルタの構成例を示す図である。 左右画像の生成の様子の例を説明する図である。 偏光板の構成例を説明する図である。 両用撮像装置の他の構成例を示す図である。 光の進行方向を説明する図である。 フラグ付加処理の流れの例を説明するフローチャートである。 フラグの例を説明する図である。 本発明を適用した画像処理装置の主な構成例を示すブロック図である。 フラグ利用処理の流れの例を説明するフローチャートである。 通知表示の例を示す図である。 画像種類通知用のLEDの構成例を説明する図である。 フラグ利用処理の流れの、他の例を説明するフローチャートである。 画像表示サイズの変形の様子の例を説明する図である。 画枠の太さの変形の様子の例を説明する図である。 フラグ利用処理の流れの、さらに他の例を説明するフローチャートである。 3Dメガネにおける通知方法の例を説明する図である。 フラグ利用処理の流れの、さらに他の例を説明する図である。 事前通知表示画像の例を説明する図である。 フラグ利用処理の流れの、さらに他の例を説明するフローチャートである。 本発明を適用したネットワークシステムの構成例を示すブロック図である。 紹介情報の表示例を示す図である。 フラグ利用処理の流れの、さらに他の例を説明するフローチャートである。 本発明を適用した画像処理装置の他の構成例を示すブロック図である。 フラグおよび視差情報の例を説明する図である。 フラグ視差情報付加処理の流れの例を説明するフローチャートである。 本発明を適用した画像処理装置の他の構成例を示す図である。 視差量の例を示すグラフである。 フラグ視差情報利用処理の流れの例を説明するフローチャートである。 本発明を適用したパーソナルコンピュータの主な構成例を示すブロック図である。
以下、発明を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(画像処理装置)
2.第2の実施の形態(画像処理装置)
3.第3の実施の形態(ネットワークシステム)
4.第4の実施の形態(画像処理装置)
5.第5の実施の形態(画像処理装置)
6.第6の実施の形態(パーソナルコンピュータ)
<1.第1の実施の形態>
[画像処理装置の構成]
図1は、本発明を適用した画像処理装置の主な構成例を示すブロック図である。
図1に示される画像処理装置100は、画像を符号化するとともに、画像の特性に応じたフラグを生成し、そのフラグをコードストリームに付加する装置である。
画像処理装置100は、画像取得部111、エンコーダ112、フラグ生成部113、フラグ付加部114、通信部115、および記録部116を有する。
画像取得部111は、3D撮像装置101、両用撮像装置102、または2D撮像装置103により撮影されて得られた画像データを取得する。
3D撮像装置101は、被写体を撮像して、立体視用の3D(3次元)画像を生成する。両用撮像装置102は、被写体を撮像して立体視・平面視兼用の両用画像を生成する。2D撮像装置103は、被写体を撮像して平面視用の2D(2次元)画像を生成する。
ここで、3D画像とは、人間の左目用と右目用の2系統の画像により構成され、専用の3Dメガネを用いて立体視可能な画像である。3D画像の左目用と右目用の2系統の画像は、交互に表示される。3Dメガネは、その画像表示の同期信号に同期して偏光板(図示せず)を開閉することにより、右目用の画像をユーザの右目側のモニタに表示し、左目用の画像をユーザの左目側のモニタに表示させる。つまり、ユーザは、3Dメガネを介して3D画像を視聴することにより、左目で左目用の画像を見、右目で右目用の画像を見ることができる。3D画像の左右の画像が互いに視差を有するので、ユーザは、3D画像を立体視することができる。
なお、この3D画像における左右の画像の表示の切り替えは、一般的なフレームレート以上の速さで行われる。したがって、人間の目には(3Dメガネを使わずに裸眼で見た場合)、左右の画像が重畳して見える。左右の画像は、互いに視差を有し、その視差の分位置がずれているので、人間の目には、正常な画像には見えないほど画質が劣化してみえる。なお、ここで「裸眼」とは、3Dメガネをかけていない状態のことを指しており、3Dメガネ以外の眼鏡やコンタクトレンズ等のことは含んでいない(眼鏡やコンタクトレンズ等をかけていてもかけていなくても、3Dメガネをかけていなければ「裸眼」と称する)。
このような現実を踏まえ、以下においては、3D画像は、3Dメガネを使用してのみ見ることができ(立体視することができ)、3Dメガネを使用せずに見ることはできない(視聴に耐えられるほどの画質が得られない)ものとする。
これに対して2D画像は、左右両用の1系統の画像により構成される。ユーザは、3Dメガネを使用しても2D画像を立体視することはできないが、3Dメガネを使用せずに裸眼で見ることができる。
これらに対して、両用画像は、基本的に3D画像と同様の画像である。両用画像は、3D画像と同様に、左目用および右目用の2系統の画像により構成され、それらが交互に表示される。したがって、ユーザは、3Dメガネを使用することにより、両用画像を、3D画像のように立体視することができる。ただし、両用画像の場合、3D画像に比べて視差が少ないので、画像の飛び出し具合(奥行き感)は弱い。
ただし、両用画像の場合、3D画像の場合に比べて左目用画像と右目用画像との間の視差が少ないので、左右の画像の位置ずれは人間の目では確認が困難なほど少ない。したがって、3Dメガネを使用せずに裸眼で両用画像を見ても、人間の目には、視覚上の画質劣化はほとんど確認することができず、2D画像の場合と略同様に見える。もちろん、この場合、立体視することはできない。
つまり、ユーザは、3Dメガネを使用して両用画像を見ることにより、その両用画像を立体視することができ、3Dメガネを外して裸眼で両用画像を見ることにより、その両用画像を2D画像として見ることができる。換言すれば、ユーザは、両用画像を視聴中に、3Dメガネをかけたり外したり自由にすることができる。
なお、3D画像と両用画像とはその左右の画像の視差の大きさで区別される。その両画像を区別する視差の閾値は、その視差による視覚上の画質劣化が、ユーザが裸眼で問題なく見ることができる程度であれば、任意である。
3D撮像装置101は、被写体を撮像し、上述したような3D画像を生成すると、その3D画像データを画像処理装置100に供給する。
両用撮像装置102は、被写体を撮像し、上述したような両用画像を生成すると、その両用画像データを画像処理装置100に供給する。
2D撮像装置103は、被写体を撮像し、上述したような2D画像を生成すると、その2D画像データを画像処理装置100に供給する。
画像取得部111は、これらの画像データを取得すると、エンコーダ112およびフラグ生成部113に供給する。
エンコーダ112は、画像取得部111から供給される画像データを、例えば、MPEG(Moving Picture Experts Group)2、MPEG-4 AVC(Advanced Video Coding)/H.264、またはJPEG(Joint Photographic Experts Group)2000等の所定の規格に基づいて符号化する。このときエンコーダ112は、規格に従い、2D画像、両用画像、および3D画像を、それぞれに応じた方法で符号化する。なお、両用画像は、基本的に3D画像として処理される。
エンコーダ112は、画像データを符号化して符号化データを生成すると、その符号化データをフラグ付加部114に供給する。
フラグ生成部113は、画像取得部111から供給された画像データが3D画像、両用画像、若しくは2D画像のいずれであるかを判別し、その判別結果を示すフラグを生成する。つまり、フラグ生成部113は、画像取得部111により取得された画像データの種類(画像データが3D画像、両用画像、若しくは2D画像のいずれであるか)を示すフラグを生成する。画像データの種類の判別方法は任意である。例えば、フラグ生成部113が、画像取得部111から供給される画像データを解析することにより、その種類を判別するようにしてもよい。また、画像取得部111が3D撮像装置101乃至2D撮像装置103のいずれから画像データを取得したかを示す情報をフラグ生成部113に供給し、フラグ生成部113がその画像データの供給元を示す情報に基づいて画像データの種類を判別するようにしてもよい。
なお、互いに異なる種類の複数の画像データを1つにまとめるようにすることもできる。例えば、3D撮像装置101から供給される3D画像データ、両用撮像装置102から供給される両用画像データ、および2D撮像装置103から供給される2D画像データを画像取得部111が組み合わせて(繋げて)1つのクリップとしてもよい。
クリップとは、フレーム画像の集合を示す。上述の例の場合、3D撮像装置101から供給される3D画像データ、両用撮像装置102から供給される両用画像データ、および2D撮像装置103から供給される2D画像データは、それぞれ1つのクリップであるが、画像取得部111によって組み合わせられることにより、1つのクリップ(フレーム画像の集合)となる。
上述したようにクリップは、複数の画像データで構成することもできるので、1つのクリップにおいて、あるシーンでは3D画像、他のシーンでは両用画像、さらに他のシーンでは2D画像といったこともできる。
このような場合、フラグ生成部113は、全ての画像データの種類を判別し、全てについてフラグを生成する。つまり、フラグ生成部113は、どのシーンやフレームがどの種類であるかを全て識別可能とするように、フラグを生成する。どのフラグがどの位置(シーンやフレーム等)に対応するかを示す方法は任意である。例えば、各フラグとともにシーンやフレーム等の識別情報を対応させて記述するようにしてもよい。また、各フラグとそれらの識別情報との対応関係を示すテーブル情報を生成するようにしてもよい。さらに、フラグ付加部114が各フラグを付加する位置によって、各フラグに対応するシーンやフレーム等を表すようにしてもよい。
フラグ生成部113は、生成したフラグをフラグ付加部114に供給する。
フラグ付加部114は、フラグ生成部113から供給されたフラグを、エンコーダ112から供給された符号化データに付加する。このフラグの付加の位置は任意である。例えば、フラグ付加部114が、符号化データの先頭のヘッダ、シーンヘッダ、ピクチャヘッダ、若しくはブロックヘッダ等にフラグを付加するようにしてもよいし、データ部分の所定の位置に埋め込むようにしても良い。
フラグ付加部114は、フラグを付加した符号化データを、通信部115および記録部116に供給する。
通信部115は、LANやインターネットに代表される任意の通信網であるネットワーク104を介して他の装置と通信を行う通信インタフェースである。通信部115は、フラグ付加部114から供給される符号化データを、ネットワーク104を介して他の装置に送信する。なお、このネットワーク104には、例えばUSB(Universal Serial Bus)ケーブルのような機器同士を直接結ぶケーブルも含まれる。また、ネットワーク104には、有線通信網だけでなく、無線通信網も含まれる。さらに、ネットワーク104が、例えば有線通信網と無線通信網のように、複数種類の通信網により構成されるようにしてもよい。
記録部116は、光ディスク、光磁気ディスク、磁気ディスク、若しくは半導体メモリに代表されるリムーバブルメディア105に対応するドライブである。記録部116は、自身の所定の位置に装着されたリムーバブルメディア105に対して、フラグ付加部114から供給された符号化データを書き込み記録させる。このリムーバブルメディア105は、基本的に他の装置に装着され、必要に応じて記録されている符号化データが読みだされる。
以上のように、フラグを付加された符号化データは、通信部115または記録部116により、ネットワーク104またはリムーバブルメディア105を介して画像処理装置100の外部に出力される。
つまり、画像処理装置100は、外部より供給された画像データに、その画像の種類に応じたフラグを付加して出力(他の装置に伝送)する。
このとき、画像処理装置100は、フラグとして、単に3D画像と2D画像を識別することができるだけでなく、両用画像も識別可能な情報を生成し、画像データ(符号化データ)に付加する。つまり、画像処理装置100は、従来の装置では不可能であった両用画像の識別も可能なフラグを付加することができる。したがって、画像処理装置100は、画像の特性により適した処理を行うことができる。換言するに、画像処理装置100は、このフラグが付加された画像データ(符号化データ)を処理し、画像表示等を行う画像処理装置が両用画像を識別することができるようにすることができる。つまり、画像処理装置100は、このフラグが付加された画像データ(符号化データ)を処理する画像処理装置が、画像の特性により適した処理を行うことができるようにすることができる。
なお、画像取得部111は、上述したような各撮像装置以外から画像データを取得するようにしてもよい。
ところで、両用画像を生成する両用撮像装置102は、任意の方法により両用画像を生成するようにしてもよいが、以下に、この両用撮像装置102の具体的な例を2つ示す。
[両用撮像装置]
図2は、図1の両用撮像装置102の一例の上面断面図である。両用撮像装置102は、被写体からの入射光121を受けて偏光フィルタ134により左右に分離した上で撮像素子137に結像させ、左右の映像データを生成するものである。この撮像装置は、カメラ本体部123の前段にレンズ部122を備えている。
レンズ部122は、撮影レンズ131および132と、絞り133と、偏光フィルタ134と、結像レンズ135とを備えている。
撮影レンズ131および132は、被写体からの入射光121を集光するためのレンズである。これら撮影レンズ131等は、焦点を合わせるためのフォーカスレンズや、被写体を拡大するためのズームレンズ等を含み、一般に、色収差等を補正するために複数枚のレンズの組み合わせにより実現される。
絞り133は、集光された光の量を調整するために絞り込む機能を有するものである。この絞り133は、一般に、複数枚の板状の羽根を組み合わせて構成される。この絞り133の位置において、被写体の1点から拡散する光は平行光となる。
偏光フィルタ134は、集光された光を2つの異なる偏光に分離するものである。この偏光フィルタ134は、後述するように左右対称の偏光子に分かれており、カメラの正立状態に対する左右2つの位置において、互いに直交する直線方向の偏光または互いに逆方向となる回転方向の偏光を生成する。この偏光フィルタ134は、絞り133と平行に近接して配置される。すなわち、この偏光フィルタ134は、被写体の1点から拡散する光が平行光となる領域において、左右対称の偏光子によって2つの異なる偏光に分離する役割を有する。ただし、これら2つの異なる偏光は、ともに結像レンズ135に入光されて、結像される。なお、偏光フィルタ134は、特許請求の範囲に記載の分離部の一例である。
結像レンズ135は、偏光フィルタ134から入光された光を結像するレンズである。この結像レンズ135によって結像された光はカメラ本体部123内の撮像素子137上に投影される。
なお、この場合、入射瞳136は、結像レンズ135よりもカメラ本体部123側の位置に表れる。
カメラ本体部123は、撮像素子137と、映像記録部138と、映像記憶部139とを備える。撮像素子137は、レンズ部122から入光された光を電子信号に光電変換する光電変換素子である。この撮像素子137によって変換された電子信号は、左右の映像データを形成する。この撮像素子137は、例えば、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等により実現される。映像記録部138は、撮像素子137から出力された左右の映像データを映像記憶部139に記録するものである。映像記憶部139は、映像記録部138から出力された左右の映像データを記憶するものである。なお、映像記録部138は、撮像素子137から出力された左右の映像データを両用画像データとして画像処理装置100にも供給する。
[両用撮像装置の機能構成例]
図3は、図1の両用撮像装置102の機能構成例を示す図である。撮影レンズ131および132によって集光された光140は、ほぼ平行光となる位置において、偏光フィルタ134によって2つの異なる偏光に分離される。この偏光フィルタ134は、左偏光子141と右偏光子142とに分かれ、互いに直交する直線方向の偏光または互いに逆方向となる回転方向の偏光を生成する。生成された偏光はともに結像レンズ135によって撮像素子137の表面に結像される。なお、左偏光子141および右偏光子142の形状例については後述する。
撮像素子137の表面には、撮像素子137の画素または画素群に対応する領域毎に、左偏光板143または右偏光板144の何れか一方が貼り付けられる。したがって、撮像素子137の各画素には、左偏光板143または右偏光板144によって偏光された光が入光することになる。これにより、左偏光板143または右偏光板144によって、撮像素子137の画素または画素群に対応する領域毎に、偏光の何れか一方が透過される。なお、左偏光板143および右偏光板144は、特許請求の範囲に記載の透過部の一例である。これら左偏光板143および右偏光板144の貼り付けパターンについては後述する。
撮像素子137によって光電変換された電子信号は、信号処理部145および146に供給される。信号処理部145では、立体視の際の左眼用の左眼画像が生成される。一方、信号処理部146では、立体視の際の右眼用の右眼画像が生成される。
[偏光フィルタの構成例]
図4は、偏光フィルタ134の構成例を示す図である。この偏光フィルタ134は全体として円盤状の形状を有しており、中央の直径位置において左偏光子141と右偏光子142とに分かれている。すなわち、左偏光子141および右偏光子142は、左右対称の構造となっている。
左偏光子141は、被写体を左眼から見た像に対して偏光を施すフィルタである。右偏光子142は、被写体を右眼から見た像に対して偏光を施すフィルタである。これら左偏光子141および142により、互いに直交する直線方向の偏光または互いに逆方向となる回転方向の偏光が生成される。
[偏光板の貼り付けパターン例]
図5は、左偏光板143および右偏光板144の貼り付けパターン例を示す図である。この例では、左偏光板143および右偏光板144は、撮像素子137の表面である平面において、水平方向に連続して配置される画素群について同一方向の偏光を透過させるように配置されている。例えば、縦1080画素×横1920画素からなるハイビジョン画像151を想定すると、縦2画素×横1920画素からなる3840画素分を覆う長方形を単位として、異なる方向に偏光を施す偏光板が交互に配置される。
ここで、左偏光板143は、左偏光子141と同じ方向の偏光特性を有しており、左偏光子141によって偏光された光のみを透過するようになっている。同様に、右偏光板144は、右偏光子142と同じ方向の偏光特性を有しており、右偏光子142によって偏光された光のみを透過するようになっている。したがって、撮像素子137には、左偏光子141によって偏光された光151Aと、右偏光子142によって偏光された光151Bとが、列方向に交互に繰り返された画像151が生成される。
このようにして生成された画像151に基づいて、信号処理部145および146は、左偏光子141によって偏光された光と右偏光子142によって偏光された光とを分離する。すなわち、信号処理部145は左偏光子141によって偏光された光のみからなる画像152を生成し、信号処理部146は右偏光子142によって偏光された光のみからなる画像153を生成する。
ただし、画像152および153は、同図に示すように互いに歯抜け状態となっている。そこで、信号処理部145および146は、それぞれ画像152および153に対してデモザイク処理を施すとともに補間処理を行うことにより、左眼画像154および右眼画像155を生成する。
図6は、左偏光板143および右偏光板144の貼り付けパターンと画素との関係例を示す図である。この例では、縦1080画素×横1920画素からなるハイビジョン画像において、縦2画素×横1920画素からなる3840画素分を覆う長方形を単位として、異なる方向に偏光を施す偏光板が交互に配置されるものとしている。
この配置は、撮像素子137において各画素がベイヤー配列により配置されていることを想定したものであり、水平方向のスキャンラインを同一偏光にするとともに、RGBの各画素の組を同一偏光に網羅するように配慮したものである。すなわち、描画との親和性を鑑みると、スキャンラインを同一偏光にすることは、人間の視覚特性から見ても合理的である。また、縦2画素×横2画素のブロックにおいては、赤色(red)1画素、青色(blue)1画素、緑色(green)2画素が含まれており、デモザイクおよび補間の際に都合がよい。
このように、両用撮像装置102は、偏光フィルタ134により左右に分離した光を、撮像素子137の表面に2ライン毎に貼り付けられた左偏光板143および右偏光板144によって選択的に透過することにより、左右画像を生成することができる。
[両用撮像装置の他の例]
図7は、図1の両用撮像装置102の他の例の上面断面図である。この場合の両用撮像装置102は、被写体からの入射光161を受けて左右の撮像素子187および188に結像させ、左右の映像データを生成するものである。図面における上部が被写体に向かって右方向(R)であり、下部が被写体に向かって左方向(L)である。
撮像装置本体には、レンズマウント174を介して交換レンズ171が取り付けられるようになっている。この交換レンズ171は、被写体からの入射光161を集光するレンズ群であり、焦点を合わせるためのフォーカスレンズや、被写体を拡大するためのズームレンズ等のレンズ群の他、交換レンズ171としての絞り172を備えている。なお、交換レンズ171は、特許請求の範囲に記載の撮影レンズの一例である。
レンズマウント174は、交換レンズ171を撮像装置本体に取り付けるものである。このレンズマウント174の内部においては、集光された光は一旦結像されており、左右が反転した倒立像になる。
レンズマウント174の次段にはリレーレンズ部175が配置される。リレーレンズ部175は、レンズマウント174までに集光された光を絞り189の位置まで伝送するリレーレンズを備える。このリレーレンズにより、対物焦点位置の点光源からの拡散光は、絞り189の位置において平行光となる。
リレーレンズ部175の次段にはミラー181乃至184が配置される。これらミラー181乃至184は、絞り189の位置に配置され、集光された光を左右に分光する分光鏡である。すなわち、被写体に向かって左側から見た際の光は左右反転してミラー181および182に反射され、被写体に向かって右側から見た際の光は左右反転してミラー183および184に反射され、これにより、左右に分光される。このミラー181乃至184が配置される位置は、レンズマウント174の対物焦点位置(被写体の位置)における点光源からの拡散光が平行光となる領域となっており、これにより適切な分光が行われるようになっている。なお、絞り189は、特許請求の範囲に記載の絞りの一例である。
ミラー181乃至184によって分光された光は、結像レンズ185および186に入光される。すなわち、ミラー181および182によって分光された左側から見た際の光は結像レンズ185に入光され、ミラー183および184によって分光された右側から見た際の光は結像レンズ186に入光される。結像レンズ185および186は、それぞれ入光された光を、撮像素子187および188の受光面に対して結像させる。この撮像素子187および188に入光された光は、それぞれ正立像となる。
撮像素子187および188は、それぞれ結像レンズ185および186から入光された光を電子信号に変換する光電変換素子である。この撮像素子187および188は、例えば、CCDやCMOSイメージセンサ等により実現される。
このように、両用撮像装置102は、被写体からの入射光161を受けて、ミラー181乃至184により左右に分光することにより、左右の撮像素子187および188に左右の映像データを結像させる。
[光の進路]
図8は、両用撮像装置102の一例の要部を示す図である。リレーレンズ部175によって伝送された光は、ミラー181および183によって左右に分光される。被写体に向かって左側から見た際の光はミラー181に反射して、さらにミラー182に反射する。被写体に向かって右側から見た際の光はミラー183に反射して、さらにミラー184に反射する。これらミラー181乃至184は絞り189の位置に配置されており、入光される光は平行光となる。
ミラー182に反射した左側の光は、結像レンズ185に入光する。結像レンズ185に入光された光は、撮像素子187の受光面に対して結像される。ミラー184に反射した右側の光は、結像レンズ186に入光する。結像レンズ186に入光された光は、撮像素子188の受光面に対して結像される。
例えば以上のように両用撮像装置102は実現され、両用画像が生成される。
[処理の流れ]
次に、図1の画像処理装置100により実行されるフラグ付加処理の流れの例を図9のフローチャートを参照して説明する。
フラグ付加処理が開始されると、画像処理装置100の画像取得部111は、ステップS101において、例えば3D撮像装置101乃至2D撮像装置103のいずれかから、画像を取得する。
ステップS102において、エンコーダ112は、ステップS101の処理により取得された画像データを所定の方式で符号化し、符号化データを生成する。
ステップS103において、フラグ生成部113は、ステップS101の処理により取得された画像データの画像の種類を判定し、判定結果に応じて画像の種類を識別するためのフラグを生成する。つまり、フラグ生成部113は、画像が3D画像であるか、両用画像であるか、若しくは2D画像であるかを識別するフラグを生成する。
ステップS104において、フラグ付加部114は、ステップS103において生成されたフラグを、ステップS102において生成された符号化データの所定の位置に付加する。
ステップS105において、通信部115は、ステップS104の処理によりフラグが付加された符号化データを、ネットワーク104を介して他の装置に送信する。
ステップS106において、記録部116は、ステップS104の処理によりフラグが付加された符号化データを、リムーバブルメディア105に記録する。
ステップS106の処理が終了すると、フラグ付加処理が終了される。
[フラグ]
図10は、符号化データに付加されるフラグの例を説明する図である。
従来の方法においては、図10Aに示されるように、2D画像と3D画像とのみを識別可能なフラグが符号化データに付加されていた。
フラグ生成部113は、両用画像も識別することができるように、例えば2ビットのフラグを生成する。例えば、フラグ生成部113は、図10Bに示されるように、フラグの値を、2D画像の場合「00」に設定し、3D画像の場合「10」に設定し、両用画像の場合「−1」(「−」は「0」または「1」を示す)に設定する。
この場合、このフラグを処理する画像処理装置は、このフラグの下位ビット(右側の1ビット)を参照するだけで、容易に両用画像であるか否かを識別することができる。つまり、例えば、両用画像に対してのみ特殊な処理を行う場合、画像処理装置は容易にその処理を実行することができる。
また、フラグ生成部113は、例えば、図10Cに示されるように、フラグの値を、2D画像の場合「10」に設定し、3D画像の場合「01」に設定し、両用画像の場合「11」に設定するようにしてもよい。
この場合、このフラグを処理する画像処理装置は、このフラグの下位ビット(右側の1ビット)を参照するだけで、容易に立体視可能な画像であるか否かを識別することができる。つまり、例えば、立体視に関する処理を行う場合、画像処理装置は容易にその処理を実行することができる。
また、この場合、このフラグを処理する画像処理装置は、このフラグの上位ビット(左側の1ビット)を参照するだけで、容易に3D画像以外であるか否かを識別することができる。つまり、例えば、3Dメガネを使用せずに裸眼で画像を見るユーザに対する処理を行う場合、画像処理装置は容易にその処理を実行することができる。
以上のように画像処理装置100は、両用画像を識別し、両用画像用のフラグを生成し、画像データ(符号化データ)に付加することができる。つまり、画像処理装置100は、画像の特性により適した処理を行うことができる。
なお、図1においては、画像処理装置100が、通信部115および記録部116の両方を備えるように説明したが、いずれか一方を省略するようにしてもよい。その場合、図9のフローチャートを参照して説明したフラグ付加処理においても、ステップS105若しくはステップS106のいずれか一方(省略したブロックに対応する処理)が省略される。
また、エンコーダ112を省略するようにしてもよい。その場合、画像処理装置100は、符号化されていないベースバンドの(フラグが付加された)画像データを出力する。また、図9に示されフラグ付加処理において、ステップS102の処理が省略される。
<2.第2の実施の形態>
[画像処理装置の構成]
次に、上述したフラグを利用する画像処理装置について説明する。図11は、本発明を適用した画像処理装置の主な構成例を示すブロック図である。
画像処理装置200は、図1の画像処理装置100においてフラグを付加された符号化データを復号し、再生表示するとともに、そのフラグに基づいた処理を行う。
画像処理装置200は、通信部201、再生部202、フラグ抽出部203、デコーダ204、フラグ判定部205、フラグ処理部206、モニタ207、LED(Light Emitting Diode)208、スピーカ209、およびメガネ制御部210を有する。
通信部201は、図1の画像処理装置100の通信部115に対応する通信インタフェースであり、通信部115と同様の所定の規格に基づいて他の装置と通信を行う。通信部201は、ネットワーク104を介して画像処理装置100から送信される符号化データを受信し、それをフラグ抽出部203に供給する。
再生部202は、リムーバブルメディア105に対応するドライブであり、自信の所定の位置に装着されたリムーバブルメディア105から情報を読み出す。再生部202は、図1の画像処理装置100の記録部116がリムーバブルメディア105に書き込んだ符号化データを読み出し、それをフラグ抽出部203に供給する。
フラグ抽出部203は、通信部201または再生部202から供給された符号化データに付加されているフラグを抽出する。フラグ抽出部203は、符号化データをデコーダ204に供給するとともに、抽出したフラグをフラグ判定部205に供給する。
デコーダ204は、図1の画像処理装置100のエンコーダ112の符号化方式に対応する復号方式で符号化データを復号し、復号画像データを生成する。エンコーダ112の符号化方式が可逆符号化方式の場合、デコーダ204は、符号化前の状態の画像データを復元することができる。
デコーダ204は、復号画像データをモニタ207に供給し、その画像(復号画像)を表示させる。
フラグ判定部205は、フラグ抽出部203から供給されたフラグの値を判定し、復号画像の種類(復号画像が3D画像であるか、両用画像であるか、2D画像であるか)を特定する。フラグが画像データの一部に対応されている場合、フラグ判定部205は、その対応する部分も特定する。また、フラグが複数付加されている場合、フラグ判定部205は、全てのフラグの値を判定する。
つまり、フラグ判定部205は、画像データに付加されていた全てのフラグの値を判定し、復号画像データのどの部分(シーンやフレーム等)がどのような画像であるかを全て特定する。
フラグ判定部205は、その判定結果をフラグ処理部206に供給する。
フラグ処理部206は、フラグ判定部205により判定されたフラグ値に応じた処理を行う。例えば、復号画像の種類をユーザに通知する画像をモニタ207に表示させたり、復号画像の種類をユーザに通知するようにLED208の点灯を制御したり、復号画像の種類をユーザに通知する音声案内をスピーカ209から出力させたり、メガネ制御部210を介して、復号画像の種類の通知を3Dメガネ211に実行させたりする。
このように、画像処理装置200は、画像データ(符号化データ)に付加されたフラグの値に基づいて処理を行う。このフラグは、画像処理装置100により付加されたものであり、上述したように両用画像を識別可能な情報であるので、画像処理装置200は、画像の特性により適した処理を行うことができる。
[処理の流れ]
上述したように、画像処理装置200は、復号画像データの画像がどの種類の画像であるかをユーザに通知するアイコンをモニタ207に表示することができる。この様な処理を行う、画像処理装置200により実行されるフラグ利用処理の流れの例を、図12のフローチャートを参照して説明する。
フラグ利用処理が開始されると、ステップS201において、通信部201または再生部202は、符号化データを取得する。ステップS202において、フラグ抽出部203は、符号化データに付加されているフラグを抽出する。
ステップS203において、フラグ判定部205は、抽出されたフラグの値(フラグ値)を判定し、特定する。上述したように、フラグ判定部205は、フラグ値とフレーム等との対応関係も特定する。
ステップS204において、フラグ処理部206は、画像表示に同期してフラグ値に対応する通知表示を行う。この通知表示の例については後述するが、例えば、モニタ207において、現在表示されている復号画像の種類(3D画像であるか、2D画像であるか、若しくは両用画像であるか)を示すアイコンが、復号画像とともに表示される。復号画像を視聴するユーザは、そのアイコンによる通知により、現在表示されている復号画像の種類を把握することができる。
ステップS205において、デコーダ204は、符号化データを復号する。ステップS206において、モニタ207は、画像を表示する。
ステップS207において、フラグ処理部206は、フラグ利用処理を終了するか否かを判定する。フラグ利用処理を終了しないと判定された場合、ステップS204に戻り、それ以降の処理が繰り返される。
ステップS207において、フラグ利用処理を終了すると判定された場合、フラグ利用処理が終了される。
すなわち、復号画像の表示が終了するまで、復号画像の種類の通知表示が、復号画像の表示に同期して行われる。
[通知表示]
図13は、通知表示の例を示す図である。
例えば、フラグ処理部206は、図13Aに示されるように、モニタ207の表示画面221に、画像表示領域222、2Dアイコン223、3Dアイコン224、および両用アイコン225を表示させる。
画像表示領域222は、復号画像を表示する領域である。2Dアイコン223は、現在画像表示領域222に表示されている復号画像が2D画像であることを示す画像である。3Dアイコン224は、現在画像表示領域222に表示されている復号画像が3D画像であることを示す画像である。両用アイコン225は、現在画像表示領域222に表示されている復号画像が両用画像であることを示す画像である。
2Dアイコン223乃至両用アイコン225のうち、画像表示領域222に表示されている復号画像の種類に対応するアイコンが表示される。2Dアイコン223乃至両用アイコン225が全て表示され、画像表示領域222に表示されている復号画像の種類に対応するアイコンが強調表示されるようにしてもよい。例えば、画像表示領域222に表示されている復号画像の種類に対応するアイコンの、色を他のアイコンと変えたり、濃度を他のアイコンよりも濃くしたり、他のアイコンよりも輝度を上げたり、他のアイコンよりも線を太くしたり、アイコンのサイズを他のアイコンよりも大きくしたり、または、アイコンを変形させたり、移動させたり、回転させたりしても良い。
また、図13Bに示されるように、2Dアイコン223乃至両用アイコン225が互いに異なる絵柄(デザイン)であってもよい。図13Bの例の場合、2Dアイコン223は、裸眼(3Dメガネ211が不要であること)を連想させる「目」の絵柄とされている。3Dアイコン224は、3Dメガネ211(3Dメガネ211が必要であること)を連想させる「メガネ」の絵柄とされている。両用アイコン225は、3Dメガネ211を装着してもよいし装着しなくてもよい(2D画像と3D画像の両方の特徴を有する)ことを連想させるように「目」と「メガネ」を組み合わせた絵柄とされている。
もちろん、2Dアイコン223乃至両用アイコン225の絵柄は、これら以外であってもよい。
また、2Dアイコン223乃至両用アイコン225の表示位置は任意である。例えば、2Dアイコン223乃至両用アイコン225のうちいずれか1つが表示されるようにし、各アイコンが互いに同じ位置に表示されるようにしても良い。
また、2Dアイコン223乃至両用アイコン225が画像表示領域222の上側、下側、若しくは右側に表示されるようにしても良い。
さらに、例えば、図13Cに示されるように、2Dアイコン223乃至両用アイコン225を画像表示領域222内に、復号画像と重畳して表示させるようにしてもよい。この場合、2Dアイコン223乃至両用アイコン225がより見やすくなるが、復号画像の視聴の妨げになる恐れがあるので、画像の種類が変化したときやユーザに指示されたときに所定時間、表示されている復号画像の種類に対応するアイコンが表示されるようにし、復号画像の種類が変化しないときは表示されないようにしてもよい。
このように、画像の種類を通知することにより、ユーザは、例えば3Dメガネ211の使用・不使用を適切に選択することができる。
例えば、上述したように、3Dメガネ211は、2D画像の場合不要であるが、3D画像の場合必要であり、両用画像の場合も使用可能である。このように、画像の種類によって3Dメガネ211の必要性が変わる。ユーザは、上述したアイコンによる通知により、現在表示されている画像が何画像であるかを容易に把握することができるので、3Dメガネ211の使用・不使用を適切に選択することができ、正しく画像を見ることができる。
特に復号画像が両用画像である場合、画像から2D画像や3D画像と区別することが困難な場合がある。
例えば、クリップの途中で画像の種類が2D画像から両用画像に変化する場合がある。この場合、ユーザは、その変化前において裸眼で画像を見ている。しかしながら、2D画像と両用画像とを裸眼で識別することは困難である。つまり、ユーザは、2D画像から両用画像に変化したことに気づかない恐れがある。したがって、3Dメガネ211を使用することにより立体視可能であるにも関わらず、ユーザがそのことに気づかないまま視聴を続けてしまう恐れがあった。この場合、ユーザは画像を立体視する楽しみを逃していることになり、ユーザの満足度が低減する恐れがあった。
また、例えば、クリップの途中で画像の種類が3D画像から両用画像に変化する場合がある。この場合、ユーザは、その変化前において3Dメガネ211を使用して画像を見ている。しかしながら、両用画像は、3D画像の場合と同様に、3Dメガネ211を使用することにより立体視が可能な画像である。つまり、ユーザは、3D画像から両用画像に変化したことに気づかない恐れがある。したがって、3Dメガネ211を使用せずに裸眼で見ることができるにも関わらず、ユーザがそのことに気づかずに3Dメガネ211を使用したまま視聴を続けてしまう恐れがあった。
一般的に、3Dメガネ211を用いた画像の立体視は、2D画像を裸眼で見る場合よりも目への負担が大きく、疲労しやすい。したがって、裸眼で見ることができない3D画像の部分のみを3Dメガネを用いて見るようにし、両用画像の部分については3Dメガネを用いずに裸眼で見るようにする視聴方法が考えられる。しかしながら、3D画像から両用画像への切り替えに気づかない場合、ユーザは、3Dメガネ211をかけ続けたまま画像を見ることになり、目の疲労を不要に増大させてしまう恐れがあった。
画像処理装置200が上述したアイコンによる通知を行うことにより、ユーザは、容易に、3Dメガネ211の使用・不使用を適切に選択することができ、正しく画像を見ることができる。
[LEDによる通知]
なお、この通知は、表示画面221の外で行うようにしてもよい。例えば、画像処理装置200が、通知表示用のLED208の点灯により通知を行うようにしてもよい。
図14は、画像種類通知用のLEDの構成例を説明する図である。図14Aに示されるように、LED208は、モニタ207に設けられている。LED208は、モニタ207に現在表示されている復号画像が2D画像であることを通知するLED231、モニタ207に現在表示されている復号画像が3D画像であることを通知するLED232、および、モニタ207に現在表示されている復号画像が両用画像であることを通知するLED233を有する。
すなわち、フラグ処理部206は、LED208を制御し、モニタ207に現在表示されている復号画像が2D画像である場合、LED231を点灯させ、モニタ207に現在表示されている復号画像が3D画像である場合、LED232を点灯させ、モニタ207に現在表示されている復号画像が両用画像である場合、LED233を点灯させる。
このようにすることにより、ユーザは、アイコンによる通知の場合と同様に、モニタ207に現在表示されている復号画像の種類を容易に把握することができる。
なお、LED208の構成は任意である。例えば、LED231乃至LED233を点滅させても良い。また、LED231乃至LED233が互いに異なる色で発光するようにしてもよい。さらに、LED231乃至LED233の形状、大きさ、数、および配置位置も任意である。
さらに、図14Bに示されるように、LED208をモニタ207と別体として構成するようにしてもよい。また、LED208を例えばモニタ207に対して着脱可能であるようにしてもよい。
[画像表示領域による通知]
また、以上のような画像の種類の通知は、画像表示領域222の大きさの変更により行うようにしてもよい。
その場合のフラグ利用処理の流れの例を図15のフローチャートを参照して説明する。この場合も、図12のフローチャートを参照して説明した場合と基本的に同様に行われる。
フラグ利用処理が開始されると、ステップS221乃至ステップS223の各処理が図12のステップS201乃至ステップS203の各処理の場合と同様に実行される。
ステップS224において、フラグ処理部206は、画像表示に同期して、フラグ値に対応する表示画像サイズを設定する。
ステップS225において、デコーダ204は、符号化データを復号する。ステップS226において、モニタ207は、設定された画像サイズで画像を表示する。
ステップS227において、フラグ処理部206は、フラグ利用処理を終了するか否かを判定する。フラグ利用処理を終了しないと判定された場合、ステップS224に戻り、それ以降の処理が繰り返される。
ステップS227において、フラグ利用処理を終了すると判定された場合、フラグ利用処理が終了される。
すなわち、復号画像の表示が終了するまで、表示画像サイズによる復号画像の種類の通知表示が、復号画像の表示に同期して行われる。
図16は、画像表示サイズの変形の様子の例を説明する図である。
図16Aの例の場合、画像表示領域222のサイズは、2D画像を表示する場合、画像表示領域222Aのように最も大きくない、両用画像を表示する場合、画像表示領域222Bのように中程度の大きさになり、3D画像を表示する場合、画像表示領域222Cのように最も小さくなる。画像表示領域222に表示される復号画像の画サイズは、画像表示領域222に合わせて調整される。すなわち、画像の種類によってモニタ207に表示される復号画像の画サイズが変化する。
フラグ処理部206が画像表示領域222のサイズを例えば図16Aに示されるように変化させるように制御する。
このようにすることにより、復号画像を見るユーザは、その画サイズ(画像表示領域222のサイズ)若しくは、画サイズの変化により、現在表示されている復号画像の種類を容易に把握することができる。
なお、画像表示領域222A乃至画像表示領域222Cのサイズ比は任意である。
また、図16Aの例においては、画像表示領域222A乃至画像表示領域222Cの画サイズを、左下の角を合わせて比較しているが、画サイズを変化させる際に、左下の角を基準点とすることを示している訳ではない。画サイズの変化方法は任意であり、例えば、画像の中心点等、任意の点を基準点として画サイズを変化させるようにしてもよいし、このような基準点を設けずに画サイズを変更するようにしてもよい。ただし、画サイズの変更により画像の位置が大きくずれると画像が見づらくなるので、画像の表示位置はできるだけ動かさないようにするのが望ましい。
さらに、どの画像種類をどのサイズに割り当てるかは任意である。また、画サイズの変更は大小だけでなく、例えば図16Bに示されるように、アスペクト比の変更であってもよい。
図16Bの例の場合、画像表示領域222のアスペクト比は、2D画像を表示する場合、画像表示領域222Dのように最も横長となり、両用画像を表示する場合、画像表示領域222Eのように中程度の比となり、3D画像を表示する場合、画像表示領域222Fのように最も縦長となる。画像表示領域222に表示される復号画像のアスペクト比は、画像表示領域222に合わせて調整される。すなわち、画像の種類によってモニタ207に表示される復号画像のアスペクト比が変化する。
もちろん、このアスペクト比の場合も、画サイズの場合と同様に、基準点を設けてもよいし、設けなくても良い。
また、画像の種類の変化に応じて、画サイズとアスペクト比の両方を変更するようにしてもよい。
さらに、図17に示されるように、画像表示領域222の画枠の太さを変更することにより、画像の種類の変化を示すようにしてもよい。
例えば、画像表示領域222の画枠241を、2D画像を表示する場合、図17Aに示されるように最も細くし、両用画像を表示する場合、図17Bに示されるように太さを中程度とし、3D画像を表示する場合、図17Cに示されるように最も太くするようにしてもよい。
この各場合の画枠241の太さは任意である。また、各場合の画枠241の太さの順序も任意であり、どの画像の場合に画枠241を最も太くするようにしてもよい。
また、画枠241の大きさの代わりに、表示される画像の種類に応じて、画枠241の色、濃度、輝度、若しくは模様(テクスチャ)等を、変更するようにしてもよい。もちろん、複数のパラメータを組み合わせても良く、例えば、表示される画像の種類に応じて、画枠241の太さと色と模様が変化するようにしてもよい。
さらに、上述した画サイズの変更、アスペクト比の変更、および画枠241の変更を組み合わせて適用するようにしてもよい。
また、復号画像の種類の通知は、表示以外の方法で行うようにしてもよく、例えば、スピーカ209から画像種類を通知する音声案内を出力するようにしてもよい。また、音声ではなく振動により通知を行うようにしてもよい。
[3Dメガネによる通知]
以上のような復号画像の種類の通知は、画像処理装置200において行う必要はなく、例えば、3Dメガネ211において行うようにしても良い。その場合、フラグ処理部206は、メガネ制御部210を介して、ユーザが使用する3Dメガネ211において行うようにしてもよい。
この場合のフラグ利用処理の流れの例を、図18のフローチャートを参照して説明する。この場合も、図12のフローチャートを参照して説明した場合と基本的に同様に行われる。
フラグ利用処理が開始されると、ステップS241乃至ステップS243の各処理が図12のステップS201乃至ステップS203の各処理の場合と同様に実行される。
ステップS244において、フラグ処理部206は、メガネ制御部210を介して、画像表示に同期してフラグ値に対応する通知を行うように3Dメガネ211を制御する。
ステップS245において、デコーダ204は、符号化データを復号する。ステップS246において、モニタ207は、復号画像を表示する。
ステップS247において、フラグ処理部206は、フラグ利用処理を終了するか否かを判定する。フラグ利用処理を終了しないと判定された場合、ステップS244に戻り、それ以降の処理が繰り返される。
ステップS247において、フラグ利用処理を終了すると判定された場合、フラグ利用処理が終了される。
すなわち、復号画像の表示が終了するまで、3Dメガネ211による復号画像の種類の通知が、復号画像の表示に同期して行われる。
3Dメガネ211による通知の方法は任意である。その通知方法の例を図19に示す。
例えば、図19Aに示されるように、3Dメガネ211の表示部251に、図13の例の場合と同様に、画像の種類を示すアイコンを表示するようにしてもよい。図19Aの例の場合、3Dメガネ211は、左目用の表示部251の左上部分に、現在表示されている画像が両用画像であることを示す両用アイコン252が表示されている。
なお、図13の例の場合と同様に、種々の方法が適用可能である。また、アイコン表示を右目用の表示部において行うようにしても良いし、左右両方の表示部において行うようにしてもよい。
また、図14の例の場合のように、LED208と同様の、画像の種類を通知するためのLEDを3Dメガネ211に設けるようにしてもよい。
さらに、図16に示される例のように、画像の種類に応じて、画サイズやアスペクト比を変更するようにしてもよいし、図17に示される例のように、画像の種類に応じて、画枠の太さ等を変更するようにしてもよい。
また、図19Bに示されるように、3Dメガネ211に設けられるスピーカ253Aおよびスピーカ253Bから、現在表示されている画像の種類、若しくはその変化を通知する音声案内を出力するようにしてもよい。
さらに、図19Cに示されるように、3Dメガネ211に振動子を設け、画像の種類が変化する場合、その振動子を駆動させ、3Dメガネ211を振動させるようにしてもよい。変化後の画像の種類によって振動パターンを変化させるようにしてもよい。
また、図19Dに示されるように、画像の種類が変化する場合、3Dメガネ211のつる部254Aおよびつる部254Bが、矢印255Aおよび矢印255Bのように内側に締まり、3Dメガネ211をユーザが装着している場合、そのユーザの顔を圧迫するようにしてもよい。
もちろん、3Dメガネ211が、これら以外の方法でユーザに通知を行うようにしてもよい。
[非同期通知]
なお、以上においては、表示される復号画像の種類を、リアルタイム(即自的)に通知する場合について説明したが、画像の種類の通知は、復号画像の表示と同期していなくてもよい。
例えば、フラグ処理部206が、復号画像の種類の通知を、その復号画像が表示されるよりも少し前に行うようにしてもよい。このように事前に通知を行うことにより、ユーザは、その通知を確認してから、その通知に対応する復号画像が表示される前に、例えば3Dメガネを装着したり、外したりする等、その復号画像を見るための準備を行うことができる。
また、クリップの再生表示(復号画像の表示)を開始する前に、画像の種類の通知を行うようにしてもよい。
例えば、フラグ処理部206が、画像の種類を通知する通知画像(例えば案内文)を、内蔵する記憶部(図示せず)に予め記憶している。通信部201または再生部202が符号化データを取得すると、その復号処理の前に、フラグ抽出部203がフラグを抽出し、フラグ判定部205がフラグ値を判定し、フラグ処理部206が、フラグ値に対応する通知画像(例えば案内文)を内蔵する記憶部から読み出し、モニタ207に表示させる。
フラグ処理部206は、モニタ207を制御し、このように通知画像を表示させてから、復号画像の表示を開始させる。つまり、フラグ処理部206は、クリップに含まれる画像の種類を通知する通知画像を、クリップ先頭に挿入する。
このようにすることにより、ユーザは、クリップの再生表示が開始される前に、そのクリップに含まれる画像の種類を把握することができる。
このような場合のフラグ利用処理の流れの例を、図20のフローチャートを参照して説明する。この場合も、図12のフローチャートを参照して説明した場合と基本的に同様に行われる。
フラグ利用処理が開始されると、ステップS261乃至ステップS263の各処理が図12のステップS201乃至ステップS203の各処理の場合と同様に実行される。
ステップS264において、フラグ処理部206は、復号画像表示前にフラグ値に応じた通知画像を表示させる。
通知画像の表示が終了すると、ステップS265において、デコーダ204は、符号化データを復号する。ステップS266において、モニタ207は、復号画像を表示する。
ステップS267において、フラグ処理部206は、フラグ利用処理を終了するか否かを判定する。フラグ利用処理を終了しないと判定された場合、ステップS265に戻り、それ以降の処理が繰り返される。つまり、復号画像の表示がクリップの最後まで(若しくはユーザ等による終了指示まで)続けられる。
ステップS267において、クリップの最後まで到達したか、若しくは、ユーザ等により終了指示が行われ、フラグ利用処理を終了すると判定された場合、フラグ利用処理が終了される。
図21に通知画像の例を示す。図21Aに示される通知画像261は、復号画像が両用画像であることを示す。また、この通知画像261は、視聴方法(3Dメガネ211に関する情報)も案内している。これにより、ユーザは、容易に正しい視聴方法を選択することができる。
図21Bに示される通知画像262は、復号画像が3D画像であることを示す。また、この通知画像262は、設定を変更することにより2D画像として表示することができることも案内している。これにより、ユーザは、容易に正しい視聴方法を選択することができる。
図21Cに示される通知画像263は、復号画像が2D画像であることを示す。また、この通知画像263は、3Dメガネ211が不要であることも通知している。これにより、ユーザは、容易に正しい視聴方法を選択することができる。
以上のように、画像処理装置200は、符号化データに付加されたフラグに基づいて、2D画像や3D画像の通知だけでなく、両用画像の通知も行うことができる。つまり、画像処理装置200は、画像の特性により適した処理を行うことができる。
なお、図11の画像処理装置200において、画像処理装置100の場合と同様に、通信部201若しくは再生部202のいずれか一方を省略するようにしてもよい。また、画像処理装置100が画像データを符号化せずに出力する場合、画像処理装置200のデコーダ204は、省略することができる。
さらに、モニタ207、LED208、およびスピーカ209は、画像処理装置200と異なる装置として構成されるようにしてもよい。また、モニタ207、LED208、およびスピーカ209は、その一部を省略するようにしてもよい。
[内部処理への利用]
以上においては、画像処理装置200が、符号化データに付加されたフラグを、復号画像の種類の通知に利用するように説明したが、これ以外の処理にフラグを利用するようにしてもよい。例えば、画像の種類によって復号画像に施す画像処理を変更するようにしてもよい。例えば、デコーダ204が、画質調整等の画像処理を復号画像に対して行う場合、フラグ処理部206が、その画像処理を、画像種類に応じて制御するようにしてもよい。
また、フラグ処理部206が、画像種類に応じて、デコーダ204による復号方法を制御するようにしてもよい。
画像処理装置200は、例えばユーザの指示等に基づいて、3D画像の画像データを2D画像として表示させることもできる。
通常の場合、デコーダ204は、3D画像の符号化データに対しては、2系統の画像データ(左目用の画像データと右目用の画像データ)のそれぞれについて復号処理を行い、2D画像の符号化データに対しては、1系統(左右兼用の画像データ)について復号処理を行う。
これに対して、上述したように3D画像の画像データを2D画像として表示させる場合、デコーダ204は、2系統の画像データのうち、予め定められたいずれか一方の画像データについてのみ復号処理を行い、その1系統の画像データの復号画像を2D画像として表示させる。
ところが両用画像は、上述したように裸眼で見ると2D画像との識別は困難である。そこで、両用画像を2D画像として表示するように指示された場合、デコーダ204は、2系統の画像データ(左目用の画像データと右目用の画像データ)のそれぞれについて復号処理を行い、3D画像として表示させる。
つまり、デコーダ204は、符号化データが両用画像の場合、2D画像として表示させる指示を無視する。したがって、デコーダ204は、符号化データが3D画像の場合のみ、ユーザ指示に応じて、復号処理の対象を、2系統の画像データからいずれか一方の1系統の画像データに切り替え、符号化データが両用画像の場合は、その切り替えを行わずに、これまでの復号処理を継続する。
このようにすることにより、画像処理装置200は、復号方法の切り替えによる画像表示の乱れを抑制することができる。
このような場合のフラグ利用処理の流れの例を、図22のフローチャートを参照して説明する。
フラグ利用処理が開始されると、ステップS281乃至ステップS283の各処理が図12のステップS201乃至ステップS203の各処理の場合と同様に実行される。
ステップS284において、フラグ処理部206は、符号化データの画像が両用画像であるか否かを判定する。両用画像であると判定された場合、ステップS285に進む。
ステップS285において、デコーダ204は、フラグ処理部206に制御され、3D画像として符号化データを復号する。つまり、2系統の画像データについて復号処理を行う。ステップS286において、モニタ207は、復号画像を両用画像として表示する。両用画像であるので裸眼では2D画像と同様に見える。ステップS286の処理を終了すると、ステップS289に進む。
また、ステップS284において、両用画像でないと判定された場合、ステップS287に進む。ステップS287において、デコーダ204は、フラグ処理部206に制御され、2D画像として符号化データを復号する。つまり、デコーダ204は、3D画像の符号化データであっても、1系統の画像データについてのみ復号処理を行う。
ステップS288において、モニタ207は、復号画像を2D画像として表示する。ステップS286の処理を終了するとステップS289に進む。
ステップS289において、フラグ処理部206は、フラグ利用処理を終了するか否かを判定する。フラグ利用処理を終了しないと判定された場合、ステップS284に戻り、それ以降の処理が繰り返される。つまり、復号処理および復号画像の表示がクリップの最後まで(若しくはユーザ等による終了指示まで)続けられる。
ステップS289において、クリップの最後まで到達したか、若しくは、ユーザ等により終了指示が行われ、フラグ利用処理を終了すると判定された場合、フラグ利用処理が終了される。
以上のように、画像処理装置200は、符号化データに付加されたフラグに基づいて、両用画像の符号化データに対する2D画像表示指示を無視することができる。つまり、画像処理装置200は、画像の特性により適した処理を行うことができる。
<3.第3の実施の形態>
[画像処理システムの構成]
以上においては、フラグが付加された符号化データを復号し、復号画像を表示する画像処理装置について説明したが、フラグの利用方法は、上述した以外であってもよく、符号化データを復号する画像処理装置以外の装置がフラグを利用するようにしてもよい。
例えば、符号化データをコンテンツとして提供(販売・配信)するサービスにおいて、フラグを利用するようにしてもよい。
図23は、本発明を適用したネットワークシステムの構成例を示すブロック図である。
図23に示されるネットワークシステム300は、コンテンツを提供するサービスを行うシステムである。ネットワークシステム300は、コンテンツ提供サーバ301、コンテンツサーバ302、および端末装置303を有する。コンテンツ提供サーバ301乃至端末装置303の各装置は、インターネット等に代表される任意の通信網であるネットワーク304を介して互いに通信可能に接続される。各装置間の通信はこのネットワーク304を介して行われる。以下においては、特に必要が無い限り、その説明は省略する。
コンテンツ提供サーバ301は、コンテンツサーバ302に蓄積されているコンテンツを端末装置303に提供するサービスを行う装置である。コンテンツ提供サーバ301は、コンテンツサーバ302に蓄積されているコンテンツを端末装置303に紹介したり、端末装置303からのコンテンツ取得要求を受け付け、その要求されたコンテンツをコンテンツサーバ302から端末装置303に提供させたり、課金処理を行ったりする。
コンテンツサーバ302は、端末装置303に提供されるコンテンツを蓄積している。このコンテンツは、画像や音声等よりなる。このコンテンツの画像は、3D画像、2D画像、若しくは両用画像である。このコンテンツのデータ(コンテンツデータ)は、図1の画像処理装置100により符号化されている。つまり、コンテンツデータは、画像データを含むデータが所定の方式で符号化された符号化データであり、画像の種類を識別するためのフラグが付加されている。
端末装置303は、コンテンツを視聴するユーザが操作する装置であり、コンテンツ提供サーバ301からコンテンツの紹介情報(例えばWEBページ)を取得し、その情報に基づいてコンテンツを選択して要求し、要求したコンテンツをコンテンツサーバ302から取得してその画像や音声等を視聴する装置である。
つまり、コンテンツ提供サーバ301は、コンテンツサーバ302から、コンテンツサーバ302が蓄積しているコンテンツに関する情報であるコンテンツ情報を取得する。コンテンツ提供サーバ301は、そのコンテンツ情報に基づいて、コンテンツの紹介情報を生成する。
端末装置303が要求すると、コンテンツ提供サーバ301がその紹介情報を端末装置303に供給する。端末装置303は、その紹介情報をユーザに提示する。端末装置303のユーザは、その紹介情報に基づいて、視聴するコンテンツを選択する。
端末装置303は、選択されたコンテンツをコンテンツ提供サーバ301に要求する。コンテンツ提供サーバ301は、その要求に基づいて、コンテンツサーバ302に対して、要求されたコンテンツを配信するように指示する。コンテンツサーバ302は、端末装置303に対して、要求されたコンテンツの符号化データを送信する。
端末装置303は、符号化データを受信して復号し、その画像や音声等をユーザに視聴させる。また、コンテンツ提供サーバ301は、以上のコンテンツ提供に対して課金処理を行う。
以上のようなサービスにおいて、コンテンツ提供サーバ301は、コンテンツサーバ302から取得したコンテンツ情報に含まれるフラグ値に基づいて、画像の特性により適したコンテンツの紹介情報を生成し、端末装置303に提供する。
コンテンツサーバ302がコンテンツ提供サーバ301に対して供給するコンテンツ情報は、コンテンツに関するあらゆる情報が含まれており、符号化データに付加されているフラグの値も記述されている。
コンテンツ提供サーバ301は、このフラグ値を利用して、画像の特性により適したコンテンツの紹介情報を生成する。
コンテンツ提供サーバ301は、通信部311、コンテンツ情報取得部312、フラグ判定部313、紹介情報生成部314、提供処理部315、および課金処理部316を有する。
通信部311は、所定のプロトコルに従って、ネットワーク304を介してコンテンツサーバ302および端末装置303と通信を行い、情報を授受する。
コンテンツ情報取得部312は、通信部311を介して、コンテンツサーバ302からコンテンツ情報を取得する処理を行う。コンテンツ情報取得部312は、取得したコンテンツ情報をフラグ判定部313に供給する。
フラグ判定部313は、コンテンツ情報に含まれるフラグ値を判定する。フラグ判定部313は、コンテンツ情報と、そのコンテンツ情報に含まれるフラグ値の判定結果とを、紹介情報生成部314に供給する。
紹介情報生成部314は、コンテンツ情報に基づいて、そのコンテンツを紹介し、取得要求を受け付けるためのGUI(Graphical User Interface)である紹介情報を生成する。このとき、紹介情報生成部314は、フラグ値の判定結果に基づいて、コンテンツの画像の種類(3D画像であるか、2D画像であるか、両用画像であるか)を示す情報を紹介情報に含める。
紹介情報生成部314は、生成した紹介情報を提供処理部315に供給する。
提供処理部315は、コンテンツの提供に関する処理を行う。提供処理部315は、通信部311を介して、端末装置303からの要求に基づいて、紹介情報を提供する。例えば、端末装置303が所定のURLにアクセスすると、提供処理部315は、そのURL(Uniform Resource Locator)に対応するWEBページとして、紹介情報を提供する。
また、提供処理部315は、通信部311を介して、端末装置303からの要求に基づいて、コンテンツを提供する処理を行う。例えば、提供処理部315は、通信部311を介して、端末装置303からのコンテンツ取得要求を受け付け、その要求をコンテンツサーバ302に供給する。
以上のような提供処理に基づくコンテンツサーバ302から端末装置303へのコンテンツの提供が確認されると、課金処理部316は、そのコンテンツ提供についての課金処理を行う。
[紹介情報]
図24は、紹介情報の表示例を示す図である。紹介情報321は、例えば、HTML(HyperText Markup Language)等で記述されるWEBページであり、端末装置303のモニタに図24に示されるような画像として表示される。
紹介情報321には、提供(配信・販売)可能なコンテンツの一覧が表示される。各コンテンツは、例えば、サムネイル画像、タイトル、画像種類情報、詳細表示用GUIボタン、および購入指示用GUIボタンにより構成される。
図24の例では、タイトルが「コンテンツA」、「コンテンツB」、「コンテンツC」、および「コンテンツD」の4つのコンテンツの紹介情報が表示されている。
タイトル「コンテンツA」の表示の上には、「コンテンツA」の内容を画像で紹介する代表画像であるサムネイル画像331−1が表示される。タイトル「コンテンツA」の下には、この「コンテンツA」の詳細な情報を表示させるためのGUIボタンである詳細表示用GUIボタンと、「コンテンツA」の画像が両用画像であることを示す両用アイコン332−1とが表示される。さらにその下には、ユーザが「コンテンツA」を購入する際に押下する購入指示用GUIボタンが表示される。
同様に、タイトル「コンテンツB」の表示の上には、「コンテンツB」の内容を画像で紹介する代表画像であるサムネイル画像331−2が表示される。タイトル「コンテンツB」の下には、この「コンテンツB」の詳細な情報を表示させるためのGUIボタンである詳細表示用GUIボタンと、「コンテンツB」の画像が3D画像であることを示す3Dアイコン332−2とが表示される。さらにその下には、ユーザが「コンテンツB」を購入する際に押下する購入指示用GUIボタンが表示される。
同様に、タイトル「コンテンツC」の表示の上には、「コンテンツC」の内容を画像で紹介する代表画像であるサムネイル画像331−3が表示される。タイトル「コンテンツC」の下には、この「コンテンツC」の詳細な情報を表示させるためのGUIボタンである詳細表示用GUIボタンと、「コンテンツC」の画像が2D画像であることを示す2Dアイコン332−3とが表示される。さらにその下には、ユーザが「コンテンツC」を購入する際に押下する購入指示用GUIボタンが表示される。
同様に、タイトル「コンテンツD」の表示の上には、「コンテンツD」の内容を画像で紹介する代表画像であるサムネイル画像331−4が表示される。タイトル「コンテンツD」の下には、この「コンテンツD」の詳細な情報を表示させるためのGUIボタンである詳細表示用GUIボタンと、「コンテンツD」の画像が両用画像であることを示す両用アイコン332−4とが表示される。さらにその下には、ユーザが「コンテンツD」を購入する際に押下する購入指示用GUIボタンが表示される。
このように、各コンテンツの紹介情報には、コンテンツの画像の種類を示すアイコンが表示される。したがって、ユーザは、各コンテンツがどのような画像であるかを容易に把握することができ、所有する機器で再生可能なコンテンツであるか否かを容易に把握することができる。これにより、誤って再生不可能なコンテンツを購入してしまうといった不具合の発生を抑制することができる。
このようなコンテンツ提供サーバ301によるフラグ利用処理の流れの例を図25のフローチャートを参照して説明する。
フラグ利用処理が開始されると、コンテンツ情報取得部312は、ステップS301において、コンテンツサーバ302からコンテンツ情報を取得する。
ステップS302において、フラグ判定部313は、取得されたコンテンツ情報に含まれるフラグの値を判定する。
ステップS303において、紹介情報生成部314は、コンテンツ情報に基づいて、コンテンツの紹介情報を生成する。ステップS304において、紹介情報生成部314は、判定されたフラグ値に対応する通知表示(例えばアイコン)を紹介情報に付加する。
ステップS305において、提供処理部315は、生成された紹介情報を記憶する。ステップS306において、提供処理部315は、端末装置303からの要求に応じて、紹介情報を、要求元の端末装置303に提供する。ステップS307において、提供処理部315は、端末装置303からの要求に応じて、コンテンツサーバ302のコンテンツを、要求元の端末装置303に提供させる。
ステップS308において、課金処理部316は、そのコンテンツの提供について、必要に応じて課金処理を行う。
ステップS308の処理が終了すると、フラグ利用処理が終了される。
このように、コンテンツ提供サーバ301は、各コンテンツのフラグを利用して、このような、2D画像や3D画像であることを示す情報だけでなく、両用画像であることを示す情報も端末装置303に提供することができる。つまり、コンテンツ提供サーバ301は、画像の特性により適した処理を行うことができる。
なお、ネットワークシステム300の構成は任意である。例えば、コンテンツサーバ302や端末装置303が複数設けられていてもよい。
<4.第4の実施の形態>
[画像処理装置の構成]
以上においては、画像データ(符号化データ)に、2D画像や3D画像だけでなく両用画像も識別可能な、画像の種類を示すフラグを付加するように説明したが、このようなフラグの代わりに、2D画像か否かを示すフラグと、視差の大きさを示す視差情報を付加するようにしてもよい。
図26は、本発明を適用した画像処理装置の他の構成例を示すブロック図である。図26に示される画像処理装置400は、基本的に図1の画像処理装置100と同様の処理を行う。ただし、画像処理装置400は、画像種類を示すフラグの代わりに、2D画像か否かを示すフラグと、視差の大きさを示す視差情報を符号化データに付加する。
したがって、画像処理装置400は、基本的に図1の画像処理装置100と同様の構成を有するが、画像処理装置100の構成に加えて、視差情報生成部413をさらに有し、フラグ付加部114の代わりにフラグ視差情報付加部414を有する。
フラグ生成部113は、画像データの画像の種類を判別し、画像が2D画像であるか否かを示すフラグを生成し、そのフラグを画像データとともに視差情報生成部413に供給する。
視差情報生成部413は、フラグ生成部113により、画像データの画像が3D画像若しくは両用画像であると判定され、そのことを示す値のフラグが供給されると、画像データを参照し、左右の画像の視差の大きさ(視差量)を示す視差情報を生成する。視差情報生成部413は、フラグを(視差情報を生成した場合はその視差情報も)フラグ視差情報付加部414に供給する。
フラグ視差情報付加部414は、エンコーダ112から供給される符号化データの所定の位置に、視差情報生成部413から供給されたフラグ(および視差情報)を付加する。フラグ視差情報付加部414は、フラグ(および視差情報)を付加した符号化データを通信部115および記録部116に供給する。
図27は、フラグおよび視差情報の例を説明する図である。
図27の例に示されるように、フラグ生成部113は、画像データの画像が2D画像である場合、値「0」のフラグを生成する。逆に、画像データの画像が3D画像若しくは両用画像である場合、すなわち、左右2系統の画像からなる画像データの場合、値「1」のフラグを生成する。
フラグ生成部113が値「1」のフラグを生成すると、すなわち、画像データの画像が3D画像若しくは両用画像である場合、視差情報生成部413は、その左右の画像の視差量を求め、その視差量を示す視差情報を生成する。
したがって、図27に示されるように、画像データの画像が2D画像である場合、符号化データには、値「0」のフラグが付加される。また、画像データの画像が3D画像である場合、符号化データには、値「1」のフラグと、視差情報(図27の例の場合、値「300」)が付加される。さらに、画像データの画像が両用画像である場合、符号化データには、値「1」のフラグと、視差情報(図27の例の場合、値「20」)が付加される。
つまり、この場合、フラグを利用する画像処理装置は、フラグと視差情報によって画像の種類が識別することができる。
このような画像処理装置400が実行するフラグ視差情報付加処理の流れの例を、図28のフローチャートを参照して説明する。
フラグ視差情報付加処理が開始されると、ステップS401において、画像取得部111は、画像データを取得する。ステップS402において、エンコーダ112は、画像データを符号化する。
ステップS403において、フラグ生成部113は、画像データの画像の種類を判定し、判定結果に応じた値のフラグを生成する。
ステップS404において、視差情報生成部413は、そのフラグの値から、画像データの画像が3D画像若しくは両用画像であるか否かを判定する。3D画像若しくは両用画像であると判定された場合、ステップS405に進む。
ステップS405において、視差情報生成部413は、視差情報を生成する。ステップS406において、フラグ視差情報付加部414は、フラグと視差情報を符号化データに付加する。付加が終わると、ステップS408に進む。
また、ステップS404において、2D画像であると判定された場合、ステップS407に進む。
ステップS407において、フラグ視差情報付加部414は、フラグを符号化データに付加する。付加が終わると、ステップS408に進む。
ステップS408において、通信部115は、フラグのみ、若しくは、フラグおよび視差情報が付加された符号化データを送信する。
ステップS409において、記録部116は、フラグのみ、若しくは、フラグおよび視差情報が付加された符号化データをリムーバブルメディア105に記録する。
ステップS409の処理が終了すると、フラグ視差情報付加処理が終了される。
以上のように、画像処理装置400は、画像の種類に応じたフラグと視差情報を符号化データに付加することができる。つまり、画像処理装置400は、画像の特性により適した処理を行うことができる。
<5.第5の実施の形態>
[画像処理装置の構成]
次に、上述の画像処理装置400が出力した符号化データを処理する画像処理装置について説明する。
図29は、本発明を適用した画像処理装置の他の構成例を示す図である。この画像処理装置500は、画像処理装置200と同様に、符号化データを復号し、符号化データに付加されているフラグの値に応じた処理を行う。ただし、画像処理装置500は、符号化データに付加されている視差情報に基づいた処理も行う。
したがって、画像処理装置500は、基本的に画像処理装置200と同様の構成を有するが、フラグ抽出部203の代わりに、フラグ視差情報抽出部503を有し、デコーダ204の代わりにデコーダ504を有し、フラグ判定部205の変わりに画像判定部505を有し、フラグ処理部206の代わりにフラグ視差情報処理部506を有する。
フラグ視差情報抽出部503は、通信部201または再生部202により取得された符号化データに付加されているフラグを抽出する。なお、符号化データに視差情報も付加されている場合、フラグ視差情報抽出部503は、その視差情報も抽出する。
フラグ視差情報抽出部503は、符号化データをデコーダ504に供給するとともに、抽出したフラグ(および視差情報)を画像判定部505に供給する。
画像判定部505は、供給されたフラグや視差情報に基づいて符号化データの画像の種類を判定し、その判定結果をフラグ視差情報処理部506に供給する。なお、画像判定部505は、画像種類の判定結果をデコーダ504にも供給する。
デコーダ504は、デコーダ204の場合と同様に、符号化データを復号する。デコーダ504は、必要に応じて画像判定部505の判定結果を用いて復号処理を行う。デコーダ504は、符号化データを復号して得られた復号画像データをモニタ207に供給する。
フラグ視差情報処理部506は、フラグ、または、フラグおよび視差情報に基づいて、フラグ処理部206の場合と同様に、画像種類の通知や制御処理等を行う。
図30は、視差量の例を示すグラフである。
図30に示される曲線521のように、クリップのフレーム毎に視差量は変化する。画像判定部505は、両用画像と3D画像とを区別する視差の閾値(Th)522を予め設定しており、視差情報の値がこの閾値を超えるか否かで、画像が3D画像であるか、両用画像であるかを識別する。
フラグ視差情報処理部506は、例えば画像処理装置200の場合と同様に、このような判別結果に応じた処理を行う。
この画像処理装置500により行われるフラグ視差情報利用処理の流れの例を、図31のフローチャートを参照して説明する。
フラグ視差情報利用処理が開始されると、通信部201若しくは再生部202は、ステップS501において、符号化データを取得する。ステップS502において、フラグ視差情報抽出部503は、符号化データからフラグおよび視差情報を抽出する。
ステップS503において、画像判定部505は、抽出されたフラグの値を判定し、2D画像であるか否かを判定する。3D画像若しくは両用画像であると判定された場合、ステップS504に進む。
ステップS504において、画像判定部505は、抽出された視差情報に基づいて、視差の大きさが閾値以上であるか否かを判定する。視差の値が小さく、閾値より小さいと判定された場合、ステップS505に進む。
ステップS505において、画像判定部505は、フラグや視差情報に対応する画像を両用画像に設定する。ステップS505の処理を終了するとステップS508に進む。
また、ステップS504において視差が大きく閾値以上であると判定された場合、ステップS506に進む。ステップS506において、画像判定部505は、フラグや視差情報に対応する画像を3D画像に設定する。ステップS506の処理を終了するとステップS508に進む。
また、ステップS503において、フラグ値から2D画像であると判定された場合、ステップS507に進む。ステップS507において、画像判定部505は、フラグに対応する画像を2D画像に設定する。ステップS507の処理を終了するとステップS508に進む。
ステップS508において、画像判定部505は、クリップの全てのフラグおよび視差情報を処理したか否かを判定する。未処理のフラグや視差情報が存在すると判定された場合、ステップS502に戻り、それ以降の処理が繰り返される。
また、ステップS508において、全てのフラグおよび視差情報を処理したと判定された場合、ステップS509に進む。
ステップS509において、フラグ視差情報処理部506は、モニタ207を制御し、画像表示に同期して、設定に対応する通知表示を行う。
ステップS510において、デコーダ504は、設定および視差情報に基づいて、符号化データを復号する。
ステップS511において、モニタ507は、画像を表示する。
ステップS512において、フラグ視差情報処理部506は、フラグ視差情報利用処理を終了するか否かを判定する。クリップの最後まで表示しておらず、かつ、ユーザ等からも終了指示を受けていない場合、ステップS509に戻り、それ以降の処理を繰り返す。
ステップS512において、クリップの最後まで表示したか、若しくは、ユーザ等〜終了指示を受けたと判定された場合、フラグ視差情報利用処理が終了される。
このように、画像処理装置500は、フラグおよび視差情報に基づいて、画像表示を制御することができ、両用画像を2D画像や3D画像と識別して処理することができる。つまり、画像処理装置500は、画像の特性により適した処理を行うことができる。
<6.第6の実施の形態>
[パーソナルコンピュータ]
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。この場合、例えば、図32に示されるようなパーソナルコンピュータとして構成されるようにしてもよい。
図32において、パーソナルコンピュータ600のCPU(Central Processing Unit)601は、ROM(Read Only Memory)602に記憶されているプログラム、または記憶部613からRAM(Random Access Memory)603にロードされたプログラムに従って各種の処理を実行する。RAM603にはまた、CPU601が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU601、ROM602、およびRAM603は、バス604を介して相互に接続されている。このバス604にはまた、入出力インタフェース610も接続されている。
入出力インタフェース610には、キーボード、マウスなどよりなる入力部611、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部612、ハードディスクなどより構成される記憶部613、モデムなどより構成される通信部614が接続されている。通信部614は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース610にはまた、必要に応じてドライブ615が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア621が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部613にインストールされる。
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、例えば、図32に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc - Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア621により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM602や、記憶部613に含まれるハードディスクなどで構成される。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
100 画像処理装置, 101 3D撮像装置, 102 両用撮像装置, 103 2D撮像装置, 111 画像取得部, 112 エンコーダ, 113 フラグ生成部, 114 フラグ付加部, 115 通信部, 116 記録部, 201 通信部, 202 再生部, 203 フラグ抽出部, 204 デコーダ, 205 フラグ判定部, 206 フラグ処理部, 207 モニタ, 208 LED, 209 スピーカ, 210 メガネ制御部, 211 3Dメガネ, 225 両用アイコン, 300 ネットワークシステム, 301 コンテンツ提供サーバ, 311 通信部, 312 コンテンツ情報取得部, 313 フラグ判定部, 314 紹介情報生成部, 315 提供処理部, 316 課金処理部, 400 画像処理装置, 413 視差情報生成部, 414 フラグ視差情報付加部, 500 画像処理装置, 503 フラグ視差情報抽出部, 504 デコーダ, 505 画像判定部, 506 フラグ視差情報処理部, 600 パーソナルコンピュータ

Claims (15)

  1. 画像データの画像が、平面視用の2D画像、左右の画像よりなる立体視用の3D画像、および、前記左右の画像よりなり立体視可能であるとともに前記3D画像より視差が小さく平面視可能な両用画像のいずれであるかを識別するためのフラグを生成するフラグ生成手段と、
    前記フラグ生成手段により生成された前記フラグを前記画像データに付加するフラグ付加手段と
    を備える画像処理装置。
  2. 前記画像データを符号化する符号化手段をさらに備え、
    前記フラグ付加手段は、前記フラグ生成手段により生成された前記フラグを、前記符号化手段により前記画像データが符号化されて生成された符号化データに付加する
    請求項1に記載の画像処理装置。
  3. 前記フラグ生成手段は、前記画像データの画像が、前記2D画像である場合、値「00」のフラグを生成し、前記3D画像である場合、値「10」のフラグを生成し、前記両用画像である場合、値「01」若しくは「11」のフラグを生成する
    請求項1に記載の画像処理装置。
  4. 前記フラグ生成手段は、前記画像データの画像が、前記2D画像である場合、値「10」のフラグを生成し、前記3D画像である場合、値「01」のフラグを生成し、前記両用画像である場合、値「11」のフラグを生成する
    請求項1に記載の画像処理装置。
  5. 画像処理装置の画像処理方法であって、
    前記画像処理装置のフラグ生成手段が、画像データの画像が、平面視用の2D画像、左右の画像よりなる立体視用の3D画像、および、前記左右の画像よりなり立体視可能であるとともに前記3D画像より視差が小さく平面視可能な両用画像のいずれであるかを識別するためのフラグを生成し、
    前記画像処理装置のフラグ付加手段が、生成された前記フラグを前記画像データに付加する
    画像処理方法。
  6. 画像データに付加された、前記画像データの画像が、平面視用の2D画像、左右の画像よりなる立体視用の3D画像、および、前記左右の画像よりなり立体視可能であるとともに前記3D画像より視差が小さく平面視可能な両用画像のいずれであるかを識別するためのフラグを抽出するフラグ抽出手段と、
    前記フラグ抽出手段により抽出された前記フラグの値を判定するフラグ判定手段と、
    前記フラグ判定手段により判定された値に対応する処理を行うフラグ処理手段と
    を備える画像処理装置。
  7. 前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類に応じたアイコンを表示させる
    請求項6に記載の画像処理装置。
  8. 前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類に応じたLEDを点灯させる
    請求項6に記載の画像処理装置。
  9. 前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類に応じて前記画像データの画像の表示サイズを設定し、表示させる
    請求項6に記載の画像処理装置。
  10. 前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類に応じて前記画像データの画像のアスペクト比を設定し、表示させる
    請求項6に記載の画像処理装置。
  11. 前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類に応じて、前記画像データの画像の画枠の太さを設定し、表示させる
    請求項6に記載の画像処理装置。
  12. 前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類を通知する音声案内を出力させる
    請求項6に記載の画像処理装置。
  13. 前記フラグ処理手段は、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類を通知するように、前記画像データの画像を立体視する際にユーザが使用する3Dメガネを制御する
    請求項6に記載の画像処理装置。
  14. 前記フラグ処理手段は、前記画像データの画像を表示する前に、前記フラグ判定手段により判定された前記フラグの値が示す前記画像データの画像の種類を通知する通知画像を表示させる
    請求項6に記載の画像処理装置。
  15. 画像処理装置の画像処理方法であって、
    前記画像処理装置のフラグ抽出手段が、画像データに付加された、前記画像データの画像が、平面視用の2D画像、左右の画像よりなる立体視用の3D画像、および、前記左右の画像よりなり立体視可能であるとともに前記3D画像より視差が小さく平面視可能な両用画像のいずれであるかを識別するためのフラグを抽出し、
    前記画像処理装置のフラグ判定手段が、抽出された前記フラグの値を判定し、
    前記画像処理装置のフラグ処理手段が、判定された値に対応する処理を行う
    画像処理方法。
JP2009296950A 2009-12-28 2009-12-28 画像処理装置および方法 Withdrawn JP2011139209A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009296950A JP2011139209A (ja) 2009-12-28 2009-12-28 画像処理装置および方法
US12/972,796 US20110157312A1 (en) 2009-12-28 2010-12-20 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009296950A JP2011139209A (ja) 2009-12-28 2009-12-28 画像処理装置および方法

Publications (1)

Publication Number Publication Date
JP2011139209A true JP2011139209A (ja) 2011-07-14

Family

ID=44187026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009296950A Withdrawn JP2011139209A (ja) 2009-12-28 2009-12-28 画像処理装置および方法

Country Status (2)

Country Link
US (1) US20110157312A1 (ja)
JP (1) JP2011139209A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013027040A (ja) * 2011-07-18 2013-02-04 Tpv Display Technology (Xiamen) Co Ltd 調節可能シャッター式3d眼鏡の3d及び2dの互換性を有する受信装置及びその実現方法
JP2013106189A (ja) * 2011-11-14 2013-05-30 Sony Corp 撮像装置
WO2013168381A1 (en) 2012-05-11 2013-11-14 Sony Corporation Image processing apparatus and image processing method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5387399B2 (ja) * 2009-12-28 2014-01-15 ソニー株式会社 情報処理装置および情報処理方法
JP5593695B2 (ja) * 2009-12-28 2014-09-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US10165250B2 (en) * 2011-08-12 2018-12-25 Google Technology Holdings LLC Method and apparatus for coding and transmitting 3D video sequences in a wireless communication system
US9571864B2 (en) * 2012-03-30 2017-02-14 Intel Corporation Techniques for media quality control
US9483111B2 (en) 2013-03-14 2016-11-01 Intel Corporation Techniques to improve viewing comfort for three-dimensional content
KR102342748B1 (ko) * 2019-05-09 2021-12-22 아크소프트 코포레이션 리미티드 이미지 센서 패키지

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8626527D0 (en) * 1986-11-06 1986-12-10 British Broadcasting Corp 3d video transmission
AU2003281823A1 (en) * 2002-07-31 2004-02-23 Koninklijke Philips Electronics N.V. Method and apparatus for encoding a digital video signal
JP2004357156A (ja) * 2003-05-30 2004-12-16 Sharp Corp 映像受信装置および映像再生装置
JP2009516447A (ja) * 2005-11-17 2009-04-16 ノキア コーポレイション 3次元画像データを生成、転送および処理するための方法および装置
JP5387399B2 (ja) * 2009-12-28 2014-01-15 ソニー株式会社 情報処理装置および情報処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013027040A (ja) * 2011-07-18 2013-02-04 Tpv Display Technology (Xiamen) Co Ltd 調節可能シャッター式3d眼鏡の3d及び2dの互換性を有する受信装置及びその実現方法
JP2013106189A (ja) * 2011-11-14 2013-05-30 Sony Corp 撮像装置
US10185138B2 (en) 2011-11-14 2019-01-22 Sony Corporation Imaging apparatus
WO2013168381A1 (en) 2012-05-11 2013-11-14 Sony Corporation Image processing apparatus and image processing method

Also Published As

Publication number Publication date
US20110157312A1 (en) 2011-06-30

Similar Documents

Publication Publication Date Title
JP2011139209A (ja) 画像処理装置および方法
CN106165415B (zh) 立体观看
CN108337497B (zh) 一种虚拟现实视频/图像格式以及拍摄、处理、播放方法和装置
JP5833667B2 (ja) マルチビューシステムにおいてモノビジョンを提供する方法および装置
JP5328082B2 (ja) 映像送信及び受信方法と装置、及びその伝送ストリーム構造
JP6141767B2 (ja) 疑似3d強化遠近法を用いた方法及び装置
US20150358539A1 (en) Mobile Virtual Reality Camera, Method, And System
WO2012029298A1 (ja) 撮影装置および画像処理方法
JP5204349B2 (ja) 撮影装置、再生装置、および画像処理方法
WO2012029301A1 (ja) 撮影装置、再生装置、および画像処理方法
WO2013108339A1 (ja) ステレオ撮影装置
JP2011091481A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2006121553A (ja) 映像表示装置
JP2006352877A (ja) 映像ディスプレイモードの転換方法及び装置
JP2013514004A (ja) 近位および遠位に焦点が合わされた画像を用いた3次元記録表示システム
JP2006128818A (ja) 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2009194920A (ja) 画像符号化装置、および画像送信装置
JP2013532424A (ja) フレームパッキングフォーマットでアクティブスペースの知的な使用を行う方法及び装置
CN102404584B (zh) 调整场景左右摄像机的方法及装置、3d眼镜、客户端
US10037335B1 (en) Detection of 3-D videos
US6748105B1 (en) Method and system for creating anaglyphs
JP2006128816A (ja) 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
WO2012132267A1 (ja) 全方向ステレオ画像出力装置
JP2012034215A (ja) 画像処理装置および方法、並びにプログラム
US8917316B2 (en) Photographing equipment

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305