JP2011113363A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2011113363A
JP2011113363A JP2009270077A JP2009270077A JP2011113363A JP 2011113363 A JP2011113363 A JP 2011113363A JP 2009270077 A JP2009270077 A JP 2009270077A JP 2009270077 A JP2009270077 A JP 2009270077A JP 2011113363 A JP2011113363 A JP 2011113363A
Authority
JP
Japan
Prior art keywords
contrast
dimensional image
image
depth
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009270077A
Other languages
English (en)
Other versions
JP5397190B2 (ja
Inventor
Shuichi Takahashi
修一 高橋
Takanori Ishikawa
貴規 石川
Isao Ohashi
功 大橋
Satoshi Shioiri
諭 塩入
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009270077A priority Critical patent/JP5397190B2/ja
Priority to EP10189251A priority patent/EP2345993A3/en
Priority to TW099139361A priority patent/TWI476731B/zh
Priority to KR1020100115367A priority patent/KR101656887B1/ko
Priority to US12/951,116 priority patent/US8660337B2/en
Priority to CN201010557724.8A priority patent/CN102082954B/zh
Publication of JP2011113363A publication Critical patent/JP2011113363A/ja
Priority to US14/150,912 priority patent/US9098907B2/en
Application granted granted Critical
Publication of JP5397190B2 publication Critical patent/JP5397190B2/ja
Priority to US14/751,040 priority patent/US9934575B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人間の視覚特性に基づいて単眼立体情報のパラメータを調整することで、人間にとってより違和感や不快感が少ない3次元画像を提供することができるようにする。
【解決手段】画像処理装置1のコントラスト調整部17は、奥行き情報抽出部12で抽出された奥行き情報から判断される、入力された3次元画像の手前側の領域または奥側の領域の少なくとも一方に対し、コントラスト抽出部15により抽出された3次元画像のコントラスト成分から、入力された3次元画像の現在の主観的に知覚される奥行き量をメモリ部16に記憶されている評価関数に基づいて算出し、算出された現在の主観的に知覚される奥行き量と、設定された奥行き調整量とに基づいて、入力された3次元画像のコントラスト成分を調整する。本発明は、例えば、3次元画像の画像処理を行う画像処理装置に適用できる。
【選択図】図1

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に、人間の視覚特性に基づいて単眼立体情報のパラメータを調整することで、人間にとってより違和感や不快感が少ない3次元画像を提供することができるようにする画像処理装置、画像処理方法、およびプログラムに関する。
2次元ディスプレイに2次元画像を表示させ、鑑賞者に3次元画像として知覚させる方法として、両眼視差(左眼と右眼の視差)が設けられている左眼用2次元画像と右眼用2次元画像を、それぞれ、鑑賞者の左眼と右眼に呈示する方法がある。
人間が物体の立体感や奥行きを知覚するための情報としては、両眼による両眼立体情報と、単眼による単眼立体情報とがある。人間は、単眼立体情報と両眼立体情報とを併せて、物体や空間の立体感や奥行き感を知覚している。両眼立体情報には、例えば、両眼視差、水平輻輳などがあり、単眼立体情報には、例えば、陰影、コントラスト、色、空間周波数、遮蔽関係などがある。
2次元ディスプレイに2次元画像を表示させ、鑑賞者に3次元画像として知覚させる場合において、立体感や奥行き感を強調したいとき、例えば、両眼立体情報のうちの一つである両眼視差を大きくする方法が考えられる。
しかし、両眼視差を大きくすることは、人間の眼球構造や視覚特性の観点からすると、次のような問題がある。すなわち、人間の眼球は、通常、平行からやや内向きの輻輳状態になっているため、両眼視差が瞳孔間距離よりも大きくなると、両眼が外側に向く開散状態となる。瞳孔間距離は年齢や性別などによって異なるため、特に、瞳孔間距離が通常よりも狭い人は、開散状態になりやすい。
また、現実世界においては、注視点に両眼の視線が向けられ、かつ眼の焦点も合わせられているため、眼球の輻輳と調節の距離が一致している。しかし、左眼用2次元画像と右眼用2次元画像により3次元画像を知覚させる場合には、輻輳は3次元画像として知覚する位置に合わせられるが、調節は画像表示面に合わせられているため、眼球の輻輳による距離と調節による距離が一致しないこととなる。従って、両眼視差を大きくすることで立体感や奥行き感を強調することは、この眼球の輻輳による距離と調節による距離をさらに一致しない方向に変化させることになるため、鑑賞者に不自然さを知覚させたり、不快感や視覚疲労を覚えさせたりすることになりやすい。
そこで、鑑賞者の不快感や視覚疲労を軽減するため、両眼視差を調整する方法が提案されている。例えば、特許文献1で提案されている方法は、両眼視差を異なる値に設定した複数のサンプル画像を呈示し、呈示された画像に対し、許容できるか否かを応答させることで、両眼視差を調整するものである。
しかし、特許文献1の方法で鑑賞者の不快感や視覚疲労を軽減しようとすると、基本的には両眼視差が立体感や奥行き感を減らす方向に調整されることになるため、臨場感やリアリティが損なわれてしまう。また、両眼立体情報から知覚される立体感や奥行き感が、単眼立体情報から知覚される立体感や奥行き感と異なると、不自然さを覚えることにもなる。
従って、両眼視差を大きくすることで3次元画像の立体感や奥行き感を強調するのは適切ではない。
一方、単眼立体情報を用いて、立体感や奥行き感を強調する方法も提案されている。例えば、特許文献2では、画像内のオブジェクトの奥行き位置に応じて、オブジェクトが有する陰影、遮蔽関係、ボケ具合の特徴を変化させることで、奥行き感を強調させることが提案されている。
特許第3749227号公報 特開2001−238231号公報
しかしながら、特許文献2では、どのパラメータをどのような計算式に基づいてどのような値に設定すればよいかが具体的に開示されていない。試行錯誤的に値を設定した場合であっても、得られる左眼用2次元画像と右眼用2次元画像が人間にとって自然で快適である保証はなく、むしろ不自然さや不快感を覚えたり、視覚疲労を引き起こしたりする可能性もある。
本発明は、このような状況に鑑みてなされたものであり、人間の視覚特性に基づいて単眼立体情報のパラメータを調整することで、人間にとってより違和感や不快感が少ない3次元画像を提供することができるようにするものである。
本発明の一側面の画像処理装置は、入力された3次元画像から、奥行き情報を抽出する奥行き情報抽出手段と、前記3次元画像の輝度成分を抽出する輝度抽出手段と、前記輝度抽出手段により抽出された前記3次元画像の輝度成分に基づいて、前記3次元画像のコントラスト成分を抽出するコントラスト抽出手段と、人間の視覚特性に基づいて決定された、3次元画像のコントラスト成分と主観的に知覚される奥行き量との関係を表す評価関数を記憶する記憶手段と、前記奥行き情報抽出手段で抽出された前記奥行き情報から判断される、入力された前記3次元画像の手前側の領域または奥側の領域の少なくとも一方に対し、前記コントラスト抽出手段により抽出された前記3次元画像の前記コントラスト成分から、入力された前記3次元画像の現在の前記奥行き量を前記評価関数に基づいて算出し、算出された前記現在の奥行き量と、設定された奥行き調整量とに基づいて、入力された前記3次元画像のコントラスト成分を調整するコントラスト調整手段とを備える。
本発明の一側面の画像処理方法は、人間の視覚特性に基づいて決定された、3次元画像のコントラスト成分と主観的に知覚される奥行き量との関係を表す評価関数を記憶し、入力された3次元画像の奥行き感を調整する処理を行う画像処理装置が、前記3次元画像から、奥行き情報を抽出し、前記3次元画像の輝度成分を抽出し、抽出された前記3次元画像の輝度成分に基づいて、前記3次元画像のコントラスト成分を抽出し、抽出された前記奥行き情報から判断される、入力された前記3次元画像の手前側の領域または奥側の領域の少なくとも一方に対し、抽出された前記3次元画像の前記コントラスト成分から、入力された前記3次元画像の現在の前記奥行き量を前記評価関数に基づいて算出し、算出された前記現在の奥行き量と、設定された奥行き調整量とに基づいて、入力された前記3次元画像のコントラスト成分を調整するステップを含む。
本発明の一側面のプログラムは、コンピュータに、入力された3次元画像から、奥行き情報を抽出し、前記3次元画像の輝度成分を抽出し、抽出された前記3次元画像の輝度成分に基づいて、前記3次元画像のコントラスト成分を抽出し、抽出された前記奥行き情報から判断される、入力された前記3次元画像の手前側の領域または奥側の領域の少なくとも一方に対し、抽出された前記3次元画像の前記コントラスト成分から、入力された前記3次元画像の現在の主観的に知覚される奥行き量を、人間の視覚特性に基づいて決定された、3次元画像のコントラスト成分と主観的に知覚される奥行き量との関係を表す評価関数に基づいて算出し、算出された前記現在の奥行き量と、設定された奥行き調整量とに基づいて、入力された前記3次元画像のコントラスト成分を調整する処理を実行させる。
本発明の一側面においては、入力された3次元画像から、奥行き情報が抽出され、3次元画像の輝度成分が抽出され、抽出された3次元画像の輝度成分に基づいて、3次元画像のコントラスト成分が抽出され、抽出された奥行き情報から判断される、入力された3次元画像の手前側の領域または奥側の領域の少なくとも一方に対し、抽出された3次元画像のコントラスト成分から、入力された3次元画像の現在の主観的に知覚される奥行き量が、人間の視覚特性に基づいて決定された、3次元画像のコントラスト成分と主観的に知覚される奥行き量との関係を表す評価関数に基づいて算出され、算出された現在の奥行き量と、設定された奥行き調整量とに基づいて、入力された3次元画像のコントラスト成分が調整される。
画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本発明の一側面によれば、3次元画像の奥行き感を強調させることができる。
また、本発明の一側面によれば、人間の視覚特性に基づいて単眼立体情報のパラメータを調整することで、人間にとってより違和感や不快感が少ない3次元画像を提供することができる。
本発明を適用した画像処理装置の第1の実施の形態の構成例を示すブロック図である。 視覚実験によって得られたマイケルソンコントラストCとコントラストによって主観的に知覚される奥行き量Dの関係を定量化した評価関数を示す図である。 図1の画像処理装置が行うコントラスト調整処理を説明するフローチャートである。 第1のデータ形式で供給された場合の3次元画像の例を示す図である。 3次元画像から抽出された奥行き情報を可視化した奥行き画像の例を示す図である。 輝度成分を抽出することにより生成された輝度画像の例を示す図である。 各空間周波数成分を抽出した抽出結果を可視化した空間周波数成分画像の例を示す図である。 本発明を適用した画像処理装置の第2の実施の形態の構成例を示すブロック図である。 図8の画像処理装置が行うコントラスト調整処理を説明するフローチャートである。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(コントラストを調整することで奥行き感を変更する実施の形態)
2.第2の実施の形態(ユーザの嗜好を反映したコントラストの調整を可能とした実施の形態)
<1.第1の実施の形態>
[画像処理装置の構成ブロック図]
図1は、本発明を適用した画像処理装置の第1の実施の形態の構成例を示している。
図1の画像処理装置1は、画像入力部11、奥行き情報抽出部12、輝度抽出部13、空間周波数抽出部14、コントラスト抽出部15、メモリ部16、コントラスト調整部17、画像処理部18、および画像出力部19により構成されている。
画像処理装置1は、入力された3次元画像に対して、3次元画像の奥行き感を強調させるため、3次元画像のコントラストを変更(調整)する処理を行う。ここで、3次元画像とは、鑑賞者に3次元画像を知覚させるための2次元画像をいう。
画像入力部11は、外部からの3次元画像の入力を受け付け、入力された3次元画像を奥行き情報抽出部12および輝度抽出部13に供給する。外部から入力される3次元画像のデータ形式には様々な形式があるが、その形式は問わない。3次元画像のデータ形式には、例えば、左眼用画像と右眼用画像から構成されるステレオ画像の形式として供給される第1のデータ形式、3以上の複数の視点画像から構成される多視点画像の形式として供給される第2のデータ形式、2次元画像とその奥行き情報という形で供給される第3のデータ形式などがある。以下において、処理対象として画像または輝度画像という場合には、第1のデータ形式では、左眼用画像と右眼用画像それぞれを、第2のデータ形式では、複数の視点画像それぞれを、第3のデータ形式では、奥行き情報とともに供給される2次元画像を意味するものとする。
奥行き情報抽出部12は、画像入力部11から供給された3次元画像から奥行き情報を抽出する。具体的には、3次元画像が第1のデータ形式で入力された場合には、奥行き情報抽出部12は、ステレオ画像における対応点の画素ずれ、いわゆる両眼視差を算出し、算出された両眼視差に基づいて奥行き情報を近似的に算出する。両眼視差は、ブロックマッチング法やDPマッチング法などの手法を用いることで算出することができる。
また、3次元画像が第2のデータ形式で入力された場合には、奥行き情報抽出部12は、3以上の視点画像のうちの対応する2枚の視点画像に対して両眼視差を算出し、算出された両眼視差から、奥行き情報を近似的に算出する。
さらに、3次元画像が第3のデータ形式で入力された場合には、奥行き情報抽出部12は、奥行き情報そのものが供給されるので、供給された奥行き情報を抽出する。
奥行き情報抽出部12は、3次元画像から抽出された奥行き情報をコントラスト調整部17に供給する。奥行き情報は、コントラスト調整部17において、コントラストを調整する処理領域を特定するための情報として利用される。
なお、本実施の形態では、上述したように、画像入力部11から奥行き情報抽出部12に、奥行き情報を抽出する処理対象としての3次元画像を供給するようにしたが、輝度抽出部13の処理結果の3次元画像を奥行き情報抽出部12に供給するようにしてもよい。
輝度抽出部13は、画像入力部11から供給される3次元画像の輝度成分を抽出する。例えば、供給される画像がRGB表色系における線形のRGB値で表されている場合、輝度抽出部13は、ITU-R BT709で規定される次式(1)により、輝度値Yに変換することで、3次元画像の輝度成分を抽出する。
Y=0.2126R+0.7152G+0.0722B・・・・・(1)
式(1)により、各画素の輝度値Yで構成される画像を輝度画像という。なお、画像は、必ずしもRGB値からなる形式(RGB信号)で表されている必要はなく、CIE XYZ表色系におけるXYZ値で表されている場合には、輝度値Yで構成される画像が輝度画像とされる。また、輝度値の算出(抽出)も、式(1)以外の方法で算出してもよい。
空間周波数抽出部14は、3次元画像の所定の空間周波数成分を抽出する。空間周波数成分の抽出には、例えば、ガボールフィルタ(Gabor filter)を用いる手法を採用することができる。ガボールフィルタは、視覚系における信号応答特性を近似していると言われ、その関数g(x,y,λ,θ,ψ,σ,γ)は、式(2)で表される。
Figure 2011113363
式(2)において、x,yは輝度画像の座標値を、λは空間周波数に対応する波長を、θは方位(方向)を、ψは位相を、σはガウス分布の分散を、γはアスペクト比を、それぞれ表す。また、ここでの空間周波数とは、人間の目の1°(degree)の視角内に入る、白色と黒色の濃淡変化(コントラスト)で定義され、その単位はcpd(cycle per degree)である。
例えば、空間周波数抽出部14は、λを1cpdの波長とした式(2)のガボールフィルタ関数g(x,y,λ,θ,ψ,σ,γ)と、輝度抽出部13で抽出された輝度画像の輝度値Yを畳み込み積分することで、輝度画像の1cpdの空間周波数成分を有する領域を抽出することができる。輝度画像の2cpdや4cpdの空間周波数成分を抽出する場合も同様に、2cpdまたは4cpdの波長としたガボールフィルタ関数g(x,y,λ,θ,ψ,σ,γ)と、輝度画像の輝度値Yを畳み込み積分することで、求めることができる。
すなわち、λを所定の空間周波数の波長とした式(2)のガボールフィルタ関数g(x,y,λ,θ,ψ,σ,γ)と、輝度抽出部13で抽出された輝度画像の輝度値Yを畳み込み積分することで、輝度画像のどの領域にどの空間周波数の成分が含まれるかが分かる。
なお、輝度画像の所定の空間周波数成分を有する領域を抽出する手法としては、上記の手法以外のものでもよく、最終的に、輝度画像内のどの領域にどの空間周波数の成分が含まれるかが分かるものであればよい。例えば、フーリエ変換等を用いて空間周波数成分を抽出してもよい。ただし、フーリエ変換では、変換の対象となる輝度画像(の領域)全体の空間周波数成分が得られるため、例えば、輝度画像を所定の領域に分割してフーリエ変換を行わなければ、各領域での空間周波数成分を検出することができない。一方、ガボールフィルタによれば、輝度画像全体を処理対象として、どの領域にどの空間周波数の成分が含まれるかが1度に分かる。
また、詳細については後述するが、空間周波数抽出部14の空間周波数抽出処理は、コントラスト調整部17において適用する評価関数を、所定の空間周波数ごとに変更する場合に必要な処理である。従って、コントラスト調整部17において輝度画像全体に対して同一の評価関数を適用する場合には、空間周波数抽出部14は省略することができる。
コントラスト抽出部15は、輝度抽出部13で抽出された3次元画像の輝度成分を用いて、3次元画像のコントラスト成分を抽出する。
具体的には、コントラスト抽出部15は、コントラスト成分を抽出する処理の単位である処理単位領域として、横×縦にn×m画素(n,m≧2)の領域を決定する。そして、コントラスト抽出部15は、処理単位領域を、例えば、輝度画像の左上端の位置からラスタスキャン方向に所定の画素ずつ移動させることで、輝度画像全体に亘って、複数の処理単位領域のマイケルソンコントラストCを算出する。
マイケルソンコントラストCは、式(3)で定義される。
Figure 2011113363
式(3)において、Lmaxは、処理単位領域内の輝度値Yの最大値、Lminは、処理単位領域内の輝度値Yの最小値を表す。
なお、処理単位領域の大きさは、特に限定されないが、視角と画素数の関係から、最適な大きさを決定することができる。
また、処理単位領域を、移動させるときの移動量(画素数)についても特に限定されず、任意に決定することができる。各処理単位領域は、一部が重複するように設定してもよいし、重複しないようにタイル状に設定してもよい。精度を重視する場合、即ち、より滑らかな画像としてコントラストの調整を行う場合には、1画素単位でずらすようにすればよい。
コントラスト抽出部15は、3次元画像のコントラスト成分として算出された、各処理単位領域のマイケルソンコントラストCを、輝度画像とともにコントラスト調整部17に供給する。
メモリ部16は、視覚実験によって得られた、マイケルソンコントラストCとコントラストによって主観的に知覚される奥行き量D(以下、主観的奥行き量Dとも称する。)の関係を定量化した評価関数を記憶する。
[マイケルソンコントラストCと主観的奥行き量Dの関係]
図2は、横軸をマイケルソンコントラストCの対数軸、縦軸を主観的奥行き量Dとして、視覚実験によって得られたマイケルソンコントラストCと、そのときの主観的奥行き量Dをプロットし、その関係を定量化した評価関数を示している。マイケルソンコントラストCの単位は[%]であり、主観的奥行き量Dの単位は[arcmin:角度分]である。
図2において、四角(□)は、空間周波数が0.5cpd、1cpd、および2cpdの輝度画像におけるマイケルソンコントラストCと主観的奥行き量Dの関係を示している。また、菱形(◆)は、空間周波数が4cpdおよび8cpdの輝度画像におけるマイケルソンコントラストCと主観的奥行き量Dの関係を示している。
主観的奥行き量Dは、ディスプレイに表示された物体を鑑賞者がディスプレイ上にあると感じる値が0[arcmin]である。そして、主観的奥行き量Dが正の値の場合には、その値だけ鑑賞者がディスプレイよりも前に物体があると感じることを、主観的奥行き量Dが負の値の場合には、その値だけ鑑賞者がディスプレイよりも後ろに物体があると感じることを表している。
例えば、四角(□)のプロットが、マイケルソンコントラストCが5[%]で、主観的奥行き量Dが約0[arcmin]の位置にある。また、四角(□)のプロットは、マイケルソンコントラストCが約25[%]で、主観的奥行き量Dが約30[arcmin]の位置にもある。この値の例では、マイケルソンコントラストCが5[%]である物体を、マイケルソンコントラストCが約25[%]の物体に変更した場合、鑑賞者の主観的奥行き量Dは、約0[arcmin]から約30[arcmin]となることを示している。すなわち、物体のマイケルソンコントラストCを5[%]から約25[%]とすることにより、鑑賞者は、画像内の物体を、変更前と比べて、約30[arcmin]手前に知覚することを示している。
マイケルソンコントラストCと主観的奥行き量Dとの間には、図2に示されるように、マイケルソンコントラストCの増加に応じて、主観的奥行き量Dも増加するという、単調増加の関係がある。換言すれば、主観的奥行き量Dは、マイケルソンコントラストCの対数にほぼ比例する関係がある。
そこで、マイケルソンコントラストCと主観的奥行き量Dの関係を、対数を用いたD=A×log(C)+B,(A,Bは定数)の評価関数で近似して表すことができる。具体的には、0.5cpd、1cpd、2cpd、4cpdおよび8cpdの全ての空間周波数成分のデータに対して、残差が最小となるようなD=A×log(C)+BのパラメータAおよびBを求めると、式(4)で表すことができる。
Figure 2011113363
すなわち、式(4)では、A=18.04,B=−29.07である。図2において式(4)は、log関数と記載された点線で示されている。
また、マイケルソンコントラストCと主観的奥行き量Dの関係を、視覚系の応答について利用されるNaka-Rushtonの式(評価関数)に当てはめて表すことも可能である。Naka-Rushtonの式は、次式(5)で表される。
Figure 2011113363
式(5)において、Damp、Dmin、C50、およびnは、所定の定数であり、Dampは奥行き量の最大最小幅を、Dminは奥行き量の最小値を、およびC50は奥行き量がその最大値と最小値の中央値となるときのコントラスト値を表す。
視覚実験によって得られた0.5cpd、1cpd、2cpd、4cpdおよび8cpdの全ての空間周波数のデータに対して、残差が最小となるように、Naka-Rushtonの式のパラメータDamp、Dmin、C50、およびnを求めると、式(6)となる。
Figure 2011113363
すなわち、式(6)では、Damp=77.9、Dmin=−30.5、C50=7.74、およびn=1.09である。図2では、式(6)が1点鎖線で示されている。
例えば、ある輝度画像のマイケルソンコントラストCが10[%]である場合、式(6)にC=10を代入すると、主観的奥行き量Dは、13.9[arcmin]となる。そして、主観的奥行き量Dを2倍、即ち、27.8[arcmin]とするためには、式(6)を逆算的に計算して、輝度画像のマイケルソンコントラストCを20.9[%]とすれば良いことになる。
評価関数は、所定の空間周波数ごとに区別して適用してもよい。例えば、図2において、評価関数としてNaka-Rushtonの式を採用するが、2cpd以下の空間周波数の輝度画像と、2cpdより大の空間周波数の輝度画像とで適用する評価関数を区別する場合、2cpd以下の空間周波数成分のデータに対して、Damp=78.5、Dmin=−30.5、C50=9.93、およびn=1.23が得られる。また、2cpdより大の空間周波数成分のデータに対しては、Damp=58.5、Dmin=−30.5、C50=3.45、およびn=2.05が得られる。
すなわち、2cpd以下の空間周波数の輝度画像については式(7)の評価関数を、2cpdより大の空間周波数の輝度画像については式(8)の評価関数を適用することができる。
Figure 2011113363
Figure 2011113363
図1に戻り、メモリ部16は、上述したような、視覚実験によって得られた評価関数としての式(4)、式(6)、若しくは式(7)と式(8)の組の一部または全部を記憶する。即ち、メモリ部16には、上述した式(4)、式(6)、若しくは式(7)と式(8)の組の全部を記憶させて、必要に応じて使い分けてもよいし、予め採用することを決定した評価関数のみを記憶してもよい。なお、コンピュータで計算する場合には、対数関数である式(4)を用いた方が計算が簡単である。また、メモリ部16は、評価関数の式そのものを記憶する他、評価関数をLUT(Look Up Table)形式で記憶するようにしてもよい。
コントラスト調整部17には、奥行き情報抽出部12から3次元画像の奥行き情報が、コントラスト抽出部15から3次元画像のコントラスト成分が、空間周波数抽出部14から3次元画像の空間周波数成分が、それぞれ供給される。
コントラスト調整部17は、3次元画像の奥行き感を変更(調整)するため、輝度画像のマイケルソンコントラストCを変更(調整)する。図2を参照して説明したように、マイケルソンコントラストCと主観的奥行き量Dとの間には、単調増加の関係があるため、3次元画像の奥行き感を強調する場合には、マイケルソンコントラストCが大きくなるように、輝度画像のコントラスト成分を調整すればよい。
コントラスト調整部17が、空間周波数に関わらず、輝度画像全体に対して1つの評価関数、例えば、式(6)の評価関数を用いて、輝度画像のマイケルソンコントラストCを変更(調整)する場合について説明する。
例えば、輝度画像のある1つの処理単位領域のマイケルソンコントラストCが10[%]である場合、式(6)にC=10を代入すると、主観的奥行き量Dは、13.9[arcmin]となる。そして、主観的奥行き量Dを2倍、即ち、27.8[arcmin]とするためには、コントラスト調整部17が、その処理単位領域のマイケルソンコントラストCを、20.9[%]、即ち、2.09倍に変更(調整)すればよい。
主観的奥行き量Dを何倍とするかを決定する奥行き調整量は、コントラスト調整部17内に予め設定されている。主観的奥行き量Dを2倍にするためには、輝度画像内の手前側にある領域は、より手前となるように変更するか、輝度画像内の奥側にある領域は、より奥となるように変更するか、少なくともいずれか一方の処理が必要である。即ち、手前側の領域と奥側の領域とで、コントラストの変更する方向が異なる。奥行き情報抽出部12から供給された奥行き情報は、輝度画像を奥側の領域と手前側の領域に分離するために利用される。
コントラスト調整部17は、奥行き情報抽出部12から供給された奥行き情報に基づいて、3次元輝度画像の奥側の領域と手前側の領域を判別する。ここで、奥側の領域と手前側の領域に分離される領域の最小単位は、コントラスト抽出部15がマイケルソンコントラストCを計算した時の処理単位領域と実質的に等しくなる。
次に、コントラスト調整部17は、メモリ部16に記憶されている式(6)の評価関数を読み出す。そして、コントラスト調整部17は、奥側の領域と手前側の領域に含まれる全ての処理単位領域について、そのマイケルソンコントラストCから、現在の主観的奥行き量Dを求める。求めた現在の主観的奥行き量Dと予め設定されている奥行き調整量から、コントラスト調整後の処理領域に対する主観的奥行き量Dが決まるため、式(6)の評価関数から設定すべきマイケルソンコントラストCが算出できる。即ち、コントラスト調整部17は、全ての処理単位領域について、現在の主観的奥行き量Dと画像の奥行き情報とに基づいて、現在のマイケルソンコントラストCを何倍にすればよいかを算出する。ここで算出されたマイケルソンコントラストCの調整量をM倍(M>0)とすると、調整後の画像から主観的に知覚される奥行き量を現在の画像より大きくしたい場合、奥側の領域ではM<1となり、手前側の領域ではM>1となる。また、調整後の画像から主観的に知覚される奥行き量を現在の画像より小さくしたい場合、奥側の領域ではM>1となり、手前側の領域ではM<1となる。
上述した例で言うと、手前画像領域内の所定の処理単位領域において、現在の主観的奥行き量Dが13.9[arcmin]と求められ、主観的奥行き量Dを2倍、即ち、27.8[arcmin]とするために、マイケルソンコントラストCを約2倍(M=2.09)にすればよいことが算出される。
次に、コントラスト調整部17は、奥側の領域と手前側の領域に含まれる全ての処理単位領域について、マイケルソンコントラストCを、算出されたM倍にするように、3次元画像のコントラスト成分を調整する。
具体的には、コントラスト調整部17は、輝度画像を各処理単位領域でフーリエ変換し、各処理単位領域が持つ周波数成分とスペクトル強度を算出する。そして、コントラスト調整部17は、調整後の各処理単位領域のマイケルソンコントラストCがM倍となるように、各処理単位領域の各周波数成分のスペクトル強度を調整する。各処理単位領域の調整後の各周波数成分のスペクトル強度が、画像処理部18に供給される。
画像処理部18は、コントラスト調整部17の調整結果に基づいて、コントラスト調整後の輝度画像を生成する。具体的には、画像処理部18は、各処理単位領域の調整後の各周波数成分のスペクトル強度に逆フーリエ変換を施すことで、各処理単位領域の調整後の輝度画像を算出する。さらに、画像処理部18は、各処理単位領域の調整後の輝度画像から、コントラスト調整後の輝度画像を生成する。すなわち、各処理単位領域が、その一部が重複するように設定されている場合には、輝度画像の各画素に対し、調整後の輝度値が複数算出されることがある。そこで、画像処理部18は、例えば、複数の調整後の輝度値の平均値を、その画素の調整後の輝度値とするなどして、コントラスト調整後の輝度画像を生成する。
画像出力部19は、画像処理部18で生成された輝度画像を、画像入力部11に入力された時と同一の3次元画像に変換し、後段の装置(表示装置など)に出力する。CIE XYZ表色系におけるXYZ値で表されている輝度画像を、RGB表色系におけるRGB値で表される3次元画像に変更する場合、次式(9)乃至(11)により変換することができる。
R= 3.2410X−1.5374Y−0.4986Z・・・・・(9)
G=−0.9692X+1.8760Y+0.0416Z・・・・・(10)
B= 0.0556X−0.2040Y+1.0570Z・・・・・(11)
また、3次元画像を出力する際のデータ形式が指定されている場合等には、画像出力部19は、3次元画像のデータ形式を指定された形式に変換してから出力することもできる。
図1の画像処理装置1は、以上のように構成されている。
なお、上述した例では、3次元輝度画像の手前側の領域のマイケルソンコントラストCを大きくし、かつ、奥側の領域のマイケルソンコントラストCを小さくすることで、奥行き感を強調させるようにした。しかしながら、この他、奥側の領域のマイケルソンコントラストCを変更せずに、手前側の領域のマイケルソンコントラストCのみを大きくすることで、奥行き感を強調させることも可能である。反対に、手前側の領域のマイケルソンコントラストCを変更せずに、奥側の領域のマイケルソンコントラストCのみを小さくすることで、奥行き感を強調させることも可能である。
上述した例は、コントラスト調整部17が、輝度画像全体に対して式(6)の1つの評価関数を用いて輝度画像のマイケルソンコントラストCを調整する場合について説明したが、式(4)の評価関数を用いて調整する場合も同様である。
[所定の空間周波数成分ごとに複数の評価関数を適用する場合の説明]
次に、コントラスト調整部17が式(7)および式(8)の2つの評価関数を適用して、輝度画像のマイケルソンコントラストCを調整する場合について、上述した1つの評価関数を適用した場合との相違部分についてのみ説明する。
コントラスト調整部17は、空間周波数抽出部14で抽出された3次元画像の空間周波数成分に基づいて、各処理単位領域が、どの空間周波数成分を多く含むかを判定する。
処理単位領域が2cpd以下の空間周波数成分を多く含む場合、その処理単位領域に対しては、コントラスト調整部17は、メモリ部16から式(7)の評価関数を読み出し、上述した式(6)の評価関数を適用した場合と同様のマイケルソンコントラストCの調整を行う。
一方、処理単位領域が2cpdより大の空間周波数成分を多く含む場合、その処理単位領域に対しては、コントラスト調整部17は、メモリ部16から式(8)の評価関数を読み出し、上述した式(6)の評価関数を適用した場合と同様のマイケルソンコントラストCの調整を行う。
以上のように、複数の評価関数を適用してマイケルソンコントラストCの調整を行う場合、輝度画像の各処理単位領域が有する空間周波数成分に応じて、適用する評価関数が選択される。
なお、上述した例は、奥行き感を強調し、より奥行きが深い画像に変換する例であるが、奥行き感を弱めるように3次元輝度画像を変換することも勿論可能である。
[コントラスト調整処理のフローチャート]
次に、図3のフローチャートを参照して、画像処理装置1が行うコントラスト調整処理について説明する。なお、図3の各ステップの説明に際し、必要に応じて図4乃至図8も併せて参照して説明する。
初めに、ステップS11において、画像入力部11は、外部からの3次元画像の入力を受け付け、奥行き情報抽出部12および輝度抽出部13に供給する。画像入力部11には、例えば、上述したような第1乃至第3のデータ形式により、3次元画像が外部から入力される。
図4は、第1のデータ形式で供給された場合の3次元画像の例を示している。即ち、第1のデータ形式においては、左眼用画像31Lと右眼用画像31Rで構成される3次元画像31が画像入力部11に入力される。左眼用画像31Lと右眼用画像31Rには、両眼視差が設けられている。なお、3次元画像31は、人工滝を背景にして、女性が大きな石に腰掛けている様子を映した3次元画像である。
ステップS12において、奥行き情報抽出部12は、画像入力部11から供給された3次元画像から奥行き情報を抽出する。なお、上述したように、輝度抽出部13で輝度成分が抽出された3次元輝度画像から奥行き情報を抽出してもよい。
3次元画像のデータが第1または第2のデータ形式で供給された場合、奥行き情報抽出部12は、ブロックマッチング法やDPマッチング法などの手法を用いることで、ステレオ画像または視点画像における対応点の画素ずれ、いわゆる両眼視差を算出し、算出された両眼視差に基づいて、奥行き情報を近似的に算出する。
一方、3次元画像が第3のデータ形式で供給された場合、奥行き情報抽出部12は、奥行き情報そのものが供給されるので、供給された奥行き情報を抽出する。奥行き情報抽出部12は、抽出された奥行き情報をコントラスト調整部17に供給する。
図5は、図4に示した左眼用画像31Lと右眼用画像31Rからなる3次元画像31に対して抽出された奥行き情報を可視化した奥行き画像32を示している。
図5の奥行き画像32では、奥行き情報を8ビットの値で表し、3次元画像31のうち、奥にあるオブジェクトは小さい画素値で、手前にあるオブジェクトは大きい画素値で表している。なお、図5に示す奥行き画像32は、ステップS12の奥行き情報の抽出処理を説明するためのものであり、奥行き画像32そのものが図3のコントラスト調整処理で使用されることはない。
図5の奥行き画像32を参照すると、女性およびその女性が腰掛けている石の画素は、背景の人工滝の画素よりも明るい(画素値が大きい)。従って、人工滝が背景であり、女性と大きな石が前景であることが奥行き情報によって的確に表現されている。
ステップS13において、輝度抽出部13は、画像入力部11から供給される3次元画像の輝度成分を抽出する。例えば、供給される3次元画像がRGB表色系における線形のRGB値で表されている場合、輝度抽出部13は、上述した式(1)により、3次元画像のRGB値を輝度値Yに変換することで、3次元画像の輝度成分を抽出する。
図6は、図4に示した左眼用画像31Lと右眼用画像31Rそれぞれから、輝度成分を抽出することにより生成された左眼用輝度画像33Lと右眼用輝度画像33Rで構成される輝度画像33を示している。なお、図面では、その制約上、3次元画像31と輝度画像33の違いが現れていないが、3次元画像31はカラー画像であり、輝度画像33はグレイ画像となっている。
ステップS14において、空間周波数抽出部14は、3次元画像の所定の空間周波数成分を抽出する。換言すれば、空間周波数抽出部14は、3次元画像のどの領域にどの空間周波数の成分が含まれるかを検出する。
図7は、図6に示した左眼用輝度画像33Lから、1cpd、2cpd、4cpd、および8cpdの各空間周波数成分を抽出したときの抽出結果を可視化した空間周波数成分画像である。
空間周波数は、上述したように、人間の目の1°(degree)の視角内に入る、白色と黒色の濃淡変化(コントラスト)で定義されるため、3次元画像を鑑賞しているユーザからディスプレイまでの距離と、ディスプレイ(に映る3次元画像)の大きさに依存する。この例では、サイズが40インチで、解像度が1920×1080のディスプレイを、ディスプレイから3H(Hはディスプレイ表示高)の距離で鑑賞する場合で空間周波数を計算した。
図7の空間周波数成分画像41は、左眼用輝度画像33Lに対し、1cpdの空間周波数成分を抽出したときの抽出結果を可視化した空間周波数成分画像である。
図7の空間周波数成分画像42は、左眼用輝度画像33Lに対し、2cpdの空間周波数成分を抽出したときの抽出結果を可視化した空間周波数成分画像である。
図7の空間周波数成分画像43は、左眼用輝度画像33Lに対し、4cpdの空間周波数成分を抽出したときの抽出結果を可視化した空間周波数成分画像である。
図7の空間周波数成分画像44は、左眼用輝度画像33Lに対し、8cpdの空間周波数成分を抽出したときの抽出結果を可視化した空間周波数成分画像である。
空間周波数成分画像41乃至44では、各空間周波数成分の強度が大きいほど、画素が明るく(画素値が大きく)なっている。
なお、ステップS14の処理は、上述したように、輝度画像全体に対して1つの評価関数を用いて輝度画像のマイケルソンコントラストCを調整する場合には、省略することができる。
ステップS15において、コントラスト抽出部15は、輝度抽出部13で抽出された3次元画像の輝度成分を用いて、3次元画像のコントラスト成分を抽出する。具体的には、コントラスト抽出部15は、輝度画像に対して処理単位領域を所定量移動させながら、各処理単位領域のマイケルソンコントラストCを算出することにより、輝度画像全体に亘ってマイケルソンコントラストCを算出する。
ステップS16において、コントラスト調整部17は、奥行き情報抽出部12から供給された奥行き情報に基づいて、3次元輝度画像の奥側の領域と手前側の領域を判別する。
ステップS17において、コントラスト調整部17は、評価関数をメモリ部16から読み出す。輝度画像全体に対して1つの評価関数を適用してコントラスト成分を調整する場合には、式(4)または式(6)の評価関数が読み出される。また、輝度画像全体に対して2つの評価関数を適用してコントラスト成分を調整する場合には、式(7)および式(8)の評価関数が読み出される。
ステップS18において、コントラスト調整部17は、全ての処理単位領域について、そのマイケルソンコントラストCから現在の主観的奥行き量Dを求める。求められた現在の主観的奥行き量Dにより、コントラスト調整後の処理領域に対する主観的奥行き量Dが決まるため、メモリ部16から読み出した評価関数に基づいて、設定すべきマイケルソンコントラストCが算出できる。即ち、コントラスト調整部17は、全ての処理単位領域について、現在の主観的奥行き量Dと画像の奥行き情報とに基づいて、現在のマイケルソンコントラストCを何倍にすればよいかを算出する。算出されたマイケルソンコントラストCの調整量がM倍であるとする。
ここで、所定の空間周波数成分ごとに複数の評価関数を適用する場合には、コントラスト調整部17は、ステップS14で抽出された3次元画像の空間周波数成分に基づいて、処理単位領域の輝度画像が、どの空間周波数成分を多く含むかを判定する。そして、コントラスト調整部17は、ステップS17でメモリ部16から読み出した評価関数のうち、多く含むと判定された空間周波数成分に対応する評価関数を用いて、処理単位領域ごとの、設定すべきマイケルソンコントラストCを算出する。
一方、輝度画像全体に対して式(4)または式(6)等の1つの評価関数を適用する場合には、コントラスト調整部17は、ステップS17でメモリ部16から読み出した1つの評価関数を用いて、処理単位領域ごとの、設定すべきマイケルソンコントラストCを算出する。
ステップS19において、コントラスト調整部17は、奥側の領域と手前側の領域に含まれる全ての処理単位領域について、マイケルソンコントラストCを算出されたM倍にするように、コントラスト成分を調整する。具体的には、コントラスト調整部17は、輝度画像を各処理単位領域でフーリエ変換し、各処理単位領域が持つ周波数成分とスペクトル強度を算出する。そして、コントラスト調整部17は、調整後の各処理単位領域のマイケルソンコントラストCがM倍となるように、各処理単位領域の各周波数成分のスペクトル強度を調整する。各処理単位領域の調整後の各周波数成分のスペクトル強度が、画像処理部18に供給される。
ステップS20において、画像処理部18は、コントラスト調整部17の調整結果に基づいて、コントラスト調整後の輝度画像を生成する。具体的には、画像処理部18は、各処理単位領域の調整後の各周波数成分のスペクトル強度に逆フーリエ変換を施すことで、各処理単位領域の調整後の輝度画像を算出する。そして、画像処理部18は、各処理単位領域の調整後の輝度画像から、コントラスト調整後の輝度画像を生成する。
ステップS21において、画像出力部19は、コントラスト調整後の3次元画像を、表示装置などの後段の装置に出力する。即ち、画像出力部19は、画像処理部18で生成された輝度画像を、画像入力部11に入力された時と同一の3次元画像に変換し、後段の装置に出力する。画像出力部19は、画像処理部18で生成された3次元画像のデータ形式を、必要に応じて他の形式に変換して出力することもできる。
以上のステップS11乃至S21の処理が、画像入力部11に3次元画像が入力される度に、繰り返し実行される。
ステップS11乃至S21の各処理の実行順序は、上述の例に限定されず、必要に応じて変更することができる。例えば、上述したステップS11乃至S21の処理のうち、ステップS12とステップS13は並行して実行することができる。また、ステップS14とステップS15も並行して実行することができる。
<2.第2の実施の形態>
[画像処理装置の構成ブロック図]
図8は、本発明を適用した画像処理装置の第2の実施の形態の構成例を示している。
図8において、第1の実施の形態と対応する部分については同一の符号を付してあり、その説明は省略する。
図8の画像処理装置1では、ユーザ入力部20が新たに設けられている点を除いて、図1と同様に構成されている。
第2の実施の形態では、最初は、第1の実施の形態と同様に自動で(ユーザの入力なしに)調整されたマイケルソンコントラストCによる画像処理結果が出力される。そして、自動調整による画像処理結果を確認した後、ユーザ自身が必要に応じてマイケルソンコントラストCを変更することができる。
ユーザ入力部20は、ユーザが設定する奥行き調整量としてのマイケルソンコントラストCの入力を受け付け、コントラスト調整部17に供給する。
コントラスト調整部17は、予め決定された奥行き調整量に基づくコントラスト調整処理がなされた3次元画像が画像出力部19から出力された後、マイケルソンコントラストCを変更するか否かを確認する画像を画像出力部19から出力させる。これにより、後段の表示装置等では、マイケルソンコントラストCを変更するか否かを確認する確認画面が表示される。なお、この確認画面は、自動調整に基づくコントラスト調整処理がなされた3次元画像にOSD表示するものでもよい。
ユーザは、自動調整に基づくコントラスト調整処理後の3次元画像を確認し、マイケルソンコントラストCを変更すると判断した場合、ユーザ入力部20でマイケルソンコントラストCの変更値を入力する。ユーザ入力部20は、ユーザによって入力されたマイケルソンコントラストCの変更値をコントラスト調整部17に供給する。
コントラスト調整部17は、マイケルソンコントラストCの変更値がユーザ入力部20から供給された場合、自動調整したマイケルソンコントラストCよりも、供給されたマイケルソンコントラストCの変更値を優先的に適用する。即ち、コントラスト調整部17は、マイケルソンコントラストCの変更値が供給された場合、予め決定された奥行き調整量に基づくマイケルソンコントラストCの調整量ではなく、供給されたマイケルソンコントラストCの変更値に基づいて3次元輝度画像のコントラスト成分を調整する。
[コントラスト調整処理のフローチャート]
図9のフローチャートを参照して、画像処理装置1の第2の実施の形態におけるコントラスト調整処理を説明する。
図9のステップS41乃至S51の処理は、上述した図3のステップS11乃至S21の処理と同様であるので、その説明は省略する。即ち、最初は、コントラスト調整部17で決定されたマイケルソンコントラストCにより輝度値が変更された3次元画像が後段の表示装置等に表示される。
そして、ステップS52において、コントラスト調整部17は、マイケルソンコントラストCを変更するか否かを確認する画像を画像出力部19から出力させ、マイケルソンコントラストCを変更するか否かを確認する確認画面を後段の表示装置等に表示させる。
ステップS53において、コントラスト調整部17は、ユーザ入力部20においてマイケルソンコントラストCの変更が選択されたかを判定する。マイケルソンコントラストCの変更の有無についてのユーザの選択情報は、ユーザ入力部20からコントラスト調整部17に供給される。
また、マイケルソンコントラストCの変更が選択された場合には、マイケルソンコントラストCの変更値もユーザ入力部20からコントラスト調整部17に供給される。
ステップS53で、マイケルソンコントラストCの変更が選択されなかった場合、処理は終了する。
一方、ステップS53で、マイケルソンコントラストCの変更が選択された場合、処理はステップS54に進む。ステップS54において、ユーザ入力部20は、ユーザによって入力されたマイケルソンコントラストCの変更値を、コントラスト調整部17に供給する。
ステップS54の後、処理はステップS49に戻る。ステップS49では、コントラスト調整部17は、奥側の領域と手前側の領域に含まれる全ての処理単位領域について、マイケルソンコントラストCが、ユーザ入力部20から供給された変更値となるように、コントラスト成分を調整する。ステップS50以降の処理は同様である。
以上のようなコントラスト調整処理によれば、自動調整されたマイケルソンコントラストCによる画像処理結果を確認した後、ユーザ自身が必要に応じてマイケルソンコントラストCをさらに変更することができる。
従って、ユーザの嗜好を反映した、3次元画像の奥行き感を強調させるためのコントラスト成分の調整が可能である。
なお、ユーザには、「奥行き感をより強く」、「奥行き感をより弱く」などの項目を選択させ、その項目に応じて予め設定された量(例えば、自動調整によって決定された値の1.5倍など)を、マイケルソンコントラストCの変更値とするようにしてもよい。
以上、本発明を適用した画像処理装置1によれば、人間の視覚特性を視覚実験によって定量化した評価関数を用いて3次元画像の奥行き感を強調させることができる。具体的には、マイケルソンコントラストCとコントラストによって主観的に知覚される奥行き量Dの関係を定量化した評価関数を用いて3次元画像の奥行き感を強調させることができる。コントラストは、物体の立体感や奥行きを人間が知覚するための両眼立体情報と単眼立体情報のうち、単眼立体情報に属する。従って、画像処理装置1によれば、人間の視覚特性に基づいて単眼立体情報の1つであるコントラストのパラメータを調整することで、3次元画像の奥行き感を強調させることができる。
また、画像処理装置1によれば、コントラストを変更することにより3次元画像の奥行き感を強調させることができるので、その分、両眼立体情報の1つである両眼視差を小さくすることも可能である。その場合、コントラストを変更せずに両眼視差のみで同一の奥行き感を知覚させる3次元画像と比較すると、両眼視差が小さいので、[背景技術]の欄で説明した「眼球の輻輳位置と調節位置」が近づく方向となる。従って、鑑賞者が不自然さを知覚したり、不快感や視覚疲労を覚えたりすることが軽減される。即ち、コントラストのパラメータを調整し、3次元画像の奥行き感を強調させることで、人間にとってより違和感や不快感が少ない3次元画像を提供することができる。換言すれば、単眼立体情報と両眼立体情報とを組み合わせて、人間にとってより違和感や不快感が少ない3次元画像を提供することができる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図10は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロホンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 画像処理装置, 11 画像入力部, 12 奥行き情報抽出部, 13 輝度抽出部, 14 空間周波数抽出部, 15 コントラスト抽出部, 16 メモリ部, 17 コントラスト調整部, 18 画像処理部, 19 画像出力部, 20 ユーザ入力部, 51 コントラスト調整制御部, 101 CPU, 102 ROM, 103 RAM, 106 入力部, 107 出力部, 108 記憶部, 109 通信部

Claims (9)

  1. 入力された3次元画像から、奥行き情報を抽出する奥行き情報抽出手段と、
    前記3次元画像の輝度成分を抽出する輝度抽出手段と、
    前記輝度抽出手段により抽出された前記3次元画像の輝度成分に基づいて、前記3次元画像のコントラスト成分を抽出するコントラスト抽出手段と、
    人間の視覚特性に基づいて決定された、3次元画像のコントラスト成分と主観的に知覚される奥行き量との関係を表す評価関数を記憶する記憶手段と、
    前記奥行き情報抽出手段で抽出された前記奥行き情報から判断される、入力された前記3次元画像の手前側の領域または奥側の領域の少なくとも一方に対し、前記コントラスト抽出手段により抽出された前記3次元画像の前記コントラスト成分から、入力された前記3次元画像の現在の前記奥行き量を前記評価関数に基づいて算出し、算出された前記現在の奥行き量と、設定された奥行き調整量とに基づいて、入力された前記3次元画像のコントラスト成分を調整するコントラスト調整手段と
    を備える画像処理装置。
  2. 前記コントラスト調整手段は、算出された前記現在の奥行き量を、前記設定された奥行き調整量とするためのコントラスト成分を算出し、入力された前記3次元画像のコントラスト成分を、算出されたコントラスト成分となるように調整する
    請求項1に記載の画像処理装置。
  3. 入力された前記3次元画像の空間周波数成分を抽出する空間周波数抽出手段をさらに備え、
    前記記憶手段は、前記評価関数を所定の空間周波数成分ごとに記憶し、
    前記コントラスト調整手段は、抽出された前記3次元画像の空間周波数成分に対応する前記評価関数を適用する
    請求項2に記載の画像処理装置。
  4. 前記奥行き調整量の入力を受け付ける奥行き調整量入力手段をさらに備える
    請求項3に記載の画像処理装置。
  5. 前記コントラスト抽出手段は、前記3次元画像のコントラスト成分として、前記3次元画像のマイケルソンコントラストを算出する
    請求項4に記載の画像処理装置。
  6. 前記評価関数は、前記マイケルソンコントラストをC、前記奥行き量をDとして、
    D=A×log(C)+B(A,Bは所定の定数)で表される
    請求項5に記載の画像処理装置。
  7. 前記評価関数は、前記マイケルソンコントラストをC、前記奥行き量をDとして、
    Figure 2011113363
    (Damp、Dmin、C50、およびnは、所定の定数)で表される
    請求項5に記載の画像処理装置。
  8. 人間の視覚特性に基づいて決定された、3次元画像のコントラスト成分と主観的に知覚される奥行き量との関係を表す評価関数を記憶し、入力された3次元画像の奥行き感を調整する処理を行う画像処理装置が、
    前記3次元画像から、奥行き情報を抽出し、
    前記3次元画像の輝度成分を抽出し、
    抽出された前記3次元画像の輝度成分に基づいて、前記3次元画像のコントラスト成分を抽出し、
    抽出された前記奥行き情報から判断される、入力された前記3次元画像の手前側の領域または奥側の領域の少なくとも一方に対し、抽出された前記3次元画像の前記コントラスト成分から、入力された前記3次元画像の現在の前記奥行き量を前記評価関数に基づいて算出し、
    算出された前記現在の奥行き量と、設定された奥行き調整量とに基づいて、入力された前記3次元画像のコントラスト成分を調整する
    ステップを含む画像処理方法。
  9. コンピュータに、
    入力された3次元画像から、奥行き情報を抽出し、
    前記3次元画像の輝度成分を抽出し、
    抽出された前記3次元画像の輝度成分に基づいて、前記3次元画像のコントラスト成分を抽出し、
    抽出された前記奥行き情報から判断される、入力された前記3次元画像の手前側の領域または奥側の領域の少なくとも一方に対し、抽出された前記3次元画像の前記コントラスト成分から、入力された前記3次元画像の現在の主観的に知覚される奥行き量を、人間の視覚特性に基づいて決定された、3次元画像のコントラスト成分と主観的に知覚される奥行き量との関係を表す評価関数に基づいて算出し、
    算出された前記現在の奥行き量と、設定された奥行き調整量とに基づいて、入力された前記3次元画像のコントラスト成分を調整する
    処理を実行させるプログラム。
JP2009270077A 2009-11-27 2009-11-27 画像処理装置、画像処理方法、およびプログラム Expired - Fee Related JP5397190B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2009270077A JP5397190B2 (ja) 2009-11-27 2009-11-27 画像処理装置、画像処理方法、およびプログラム
EP10189251A EP2345993A3 (en) 2009-11-27 2010-10-28 Image processing apparatus, image processing method and program
TW099139361A TWI476731B (zh) 2009-11-27 2010-11-16 影像處理裝置、影像處理方法、及程式
KR1020100115367A KR101656887B1 (ko) 2009-11-27 2010-11-19 화상 처리 장치, 화상 처리 방법 및 프로그램이 기록된 컴퓨터 판독가능한 기록 매체
US12/951,116 US8660337B2 (en) 2009-11-27 2010-11-22 Image processing apparatus, method and computer program to adjust 3D information based on human visual characteristics
CN201010557724.8A CN102082954B (zh) 2009-11-27 2010-11-22 图像处理装置、图像处理方法和程序
US14/150,912 US9098907B2 (en) 2009-11-27 2014-01-09 Image processing apparatus, image processing method and program
US14/751,040 US9934575B2 (en) 2009-11-27 2015-06-25 Image processing apparatus, method and computer program to adjust 3D information based on human visual characteristics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009270077A JP5397190B2 (ja) 2009-11-27 2009-11-27 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2011113363A true JP2011113363A (ja) 2011-06-09
JP5397190B2 JP5397190B2 (ja) 2014-01-22

Family

ID=43618341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009270077A Expired - Fee Related JP5397190B2 (ja) 2009-11-27 2009-11-27 画像処理装置、画像処理方法、およびプログラム

Country Status (6)

Country Link
US (3) US8660337B2 (ja)
EP (1) EP2345993A3 (ja)
JP (1) JP5397190B2 (ja)
KR (1) KR101656887B1 (ja)
CN (1) CN102082954B (ja)
TW (1) TWI476731B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013157671A (ja) * 2012-01-26 2013-08-15 Sony Corp 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
US9438880B2 (en) 2014-01-14 2016-09-06 Sony Corporation Image processing apparatus, image processing method, and program

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5397190B2 (ja) 2009-11-27 2014-01-22 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP5879713B2 (ja) * 2010-12-09 2016-03-08 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2012249038A (ja) * 2011-05-27 2012-12-13 Hitachi Consumer Electronics Co Ltd 画像信号処理装置、画像信号処理方法
JP2012253690A (ja) * 2011-06-06 2012-12-20 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
KR101803571B1 (ko) * 2011-06-17 2017-11-30 엘지디스플레이 주식회사 입체영상표시장치와 이의 구동방법
CN103037236A (zh) * 2011-08-22 2013-04-10 联发科技股份有限公司 图像处理方法以及装置
WO2013047007A1 (ja) * 2011-09-29 2013-04-04 富士フイルム株式会社 視差量調整装置およびその動作制御方法
WO2013081435A1 (ko) * 2011-12-02 2013-06-06 엘지전자 주식회사 3d 영상 표시 장치 및 방법
JP2013172190A (ja) * 2012-02-17 2013-09-02 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
CN103548348B (zh) * 2012-03-26 2016-10-05 松下知识产权经营株式会社 立体影像处理装置以及立体影像处理方法
CN103517051B (zh) * 2012-06-28 2016-07-06 联想(北京)有限公司 控制方法和电子设备
US9661296B2 (en) 2012-07-12 2017-05-23 Samsung Electronics Co., Ltd. Image processing apparatus and method
KR101978176B1 (ko) * 2012-07-12 2019-08-29 삼성전자주식회사 영상 처리 장치 및 방법
CN103400351B (zh) * 2013-07-30 2015-12-23 武汉大学 基于kinect深度图的低光照图像增强方法及***
KR102101834B1 (ko) 2013-10-08 2020-04-17 삼성전자 주식회사 영상 처리 장치 및 방법
JP2015095779A (ja) 2013-11-12 2015-05-18 ソニー株式会社 画像処理装置、画像処理方法及び電子機器
JP2015154091A (ja) 2014-02-10 2015-08-24 ソニー株式会社 画像処理方法、画像処理装置、及び電子機器
KR102384234B1 (ko) * 2016-10-26 2022-04-07 삼성전자주식회사 영상처리장치, 영상처리방법 및 컴퓨터 판독가능 기록 매체
CN106993091B (zh) * 2017-03-29 2020-05-12 维沃移动通信有限公司 一种图像虚化方法及移动终端
TWI622022B (zh) * 2017-07-13 2018-04-21 鴻海精密工業股份有限公司 深度計算方法及其裝置
WO2019130827A1 (ja) 2017-12-25 2019-07-04 キヤノン株式会社 画像処理装置およびその制御方法
JP7058585B2 (ja) * 2017-12-25 2022-04-22 キヤノン株式会社 画像処理装置およびその制御方法
CN109523617B (zh) * 2018-10-15 2022-10-18 中山大学 一种基于单目摄像机的光照估计方法
CN110111341B (zh) * 2019-04-30 2021-10-22 北京百度网讯科技有限公司 图像前景获取方法、装置及设备
CN111523409B (zh) * 2020-04-09 2023-08-29 北京百度网讯科技有限公司 用于生成位置信息的方法和装置
CN116858139B (zh) * 2023-06-29 2024-05-28 武汉理工大学 基于双目视觉的金属结构平面度测量方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238231A (ja) * 2000-02-24 2001-08-31 Sharp Corp 立体映像視覚効果付加装置及び方法
JP2002084552A (ja) * 2000-09-07 2002-03-22 Fuji Xerox Co Ltd カラオケ用立体画像表示装置およびカラオケ用立体画像表示方法
JP3749227B2 (ja) * 2002-03-27 2006-02-22 三洋電機株式会社 立体画像処理方法および装置
JP2008033897A (ja) * 2006-06-29 2008-02-14 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751927A (en) * 1991-03-26 1998-05-12 Wason; Thomas D. Method and apparatus for producing three dimensional displays on a two dimensional surface
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
JP2000333171A (ja) * 1999-05-12 2000-11-30 Neucore Technol Inc 画像処理装置
JP2001061164A (ja) * 1999-08-19 2001-03-06 Toshiba Corp 立体映像信号伝送方法
CN1151410C (zh) * 2001-11-07 2004-05-26 苏州苏大维格数码光学有限公司 数码三维与光变图像的制作方法及激光照排***
JP3838177B2 (ja) * 2002-08-22 2006-10-25 株式会社日立製作所 映像表示方法、映像表示装置及びそれに用いるコントラスト調整回路
TWI227808B (en) * 2002-12-02 2005-02-11 Sony Corp 3-D image display unit
JP4507633B2 (ja) * 2004-02-24 2010-07-21 セイコーエプソン株式会社 画像処理装置、画像処理方法、表示装置、および電子機器
JP4589651B2 (ja) * 2004-04-26 2010-12-01 オリンパス株式会社 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法
RU2423718C2 (ru) * 2005-11-27 2011-07-10 Эквитас Медикал Лимитед Оценивание структуры с использованием пространственно-частотного анализа
JP5121294B2 (ja) * 2006-05-08 2013-01-16 パナソニック株式会社 画像処理方法、画像処理装置、プログラム、記録媒体および集積回路
US7636496B2 (en) * 2006-05-17 2009-12-22 Xerox Corporation Histogram adjustment for high dynamic range image mapping
KR101313637B1 (ko) * 2006-06-09 2013-10-02 서강대학교산학협력단 콘트라스트 개선을 위한 영상 처리 장치 및 영상 처리 방법
EP2074832A2 (en) * 2006-09-28 2009-07-01 Koninklijke Philips Electronics N.V. 3 menu display
TWI454742B (zh) * 2006-10-26 2014-10-01 Seereal Technologies Sa 全像顯示裝置(四)
US8131098B2 (en) * 2007-07-06 2012-03-06 Panasonic Corporation Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit
CN101349540B (zh) * 2007-07-18 2011-06-29 财团法人工业技术研究院 影像调整方法及影像撷取装置
CN101364384B (zh) * 2007-08-06 2010-05-26 深圳Tcl工业研究院有限公司 一种液晶图像处理的方法及装置
JP2009270077A (ja) 2008-04-30 2009-11-19 Tofuku Shoji Kk 石炭の代替燃料製造方法および脱水システム
CA2772607A1 (en) * 2009-09-01 2011-03-10 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
US20110075257A1 (en) * 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
JP5397190B2 (ja) 2009-11-27 2014-01-22 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP5387377B2 (ja) * 2009-12-14 2014-01-15 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2011099644A1 (en) * 2010-02-11 2011-08-18 Sharp Kabushiki Kaisha Image processor, display device, and image processing method
US8823776B2 (en) * 2010-05-20 2014-09-02 Cisco Technology, Inc. Implementing selective image enhancement
JP2015095779A (ja) 2013-11-12 2015-05-18 ソニー株式会社 画像処理装置、画像処理方法及び電子機器
JP2015132995A (ja) 2014-01-14 2015-07-23 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2015149547A (ja) 2014-02-05 2015-08-20 ソニー株式会社 画像処理方法、画像処理装置、及び電子機器
JP2015154091A (ja) 2014-02-10 2015-08-24 ソニー株式会社 画像処理方法、画像処理装置、及び電子機器
JP2015154101A (ja) 2014-02-10 2015-08-24 ソニー株式会社 画像処理方法、画像処理装置及び電子機器
JP2015156607A (ja) 2014-02-21 2015-08-27 ソニー株式会社 画像処理装置、画像処理装置、及び電子機器
JP2015162718A (ja) 2014-02-26 2015-09-07 ソニー株式会社 画像処理方法、画像処理装置及び電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238231A (ja) * 2000-02-24 2001-08-31 Sharp Corp 立体映像視覚効果付加装置及び方法
JP2002084552A (ja) * 2000-09-07 2002-03-22 Fuji Xerox Co Ltd カラオケ用立体画像表示装置およびカラオケ用立体画像表示方法
JP3749227B2 (ja) * 2002-03-27 2006-02-22 三洋電機株式会社 立体画像処理方法および装置
JP2008033897A (ja) * 2006-06-29 2008-02-14 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CSNG200500728003; 田代真也, 外2名: '"両眼立体視における奥行き知覚量のコントラスト依存性"' 映像情報メディア学会技術報告 第28巻, 第63号, 20041029, p.13-16, (社)映像情報メディア学会 *
CSNG200501338003; 塩入諭, 外5名: '"両眼立体視のチャンネル"' 電子情報通信学会技術研究報告 第105巻, 第100号, 20050520, p.17-22, 社団法人電子情報通信学会 *
CSNG200900117005; 上原伸一: '"裸眼立体ディスプレイの光学測定法"' 映像情報メディア学会技術報告 第33巻, 第16号, 20090317, p.19-24, (社)映像情報メディア学会 *
JPN6013034954; 田代真也, 外2名: '"両眼立体視における奥行き知覚量のコントラスト依存性"' 映像情報メディア学会技術報告 第28巻, 第63号, 20041029, p.13-16, (社)映像情報メディア学会 *
JPN6013034956; 塩入諭, 外5名: '"両眼立体視のチャンネル"' 電子情報通信学会技術研究報告 第105巻, 第100号, 20050520, p.17-22, 社団法人電子情報通信学会 *
JPN6013034957; 上原伸一: '"裸眼立体ディスプレイの光学測定法"' 映像情報メディア学会技術報告 第33巻, 第16号, 20090317, p.19-24, (社)映像情報メディア学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013157671A (ja) * 2012-01-26 2013-08-15 Sony Corp 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
US9317957B2 (en) 2012-01-26 2016-04-19 Sony Corporation Enhancement of stereoscopic effect of an image through use of modified depth information
US9438880B2 (en) 2014-01-14 2016-09-06 Sony Corporation Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP5397190B2 (ja) 2014-01-22
KR20110059531A (ko) 2011-06-02
US9098907B2 (en) 2015-08-04
EP2345993A3 (en) 2012-12-26
EP2345993A2 (en) 2011-07-20
US20150294475A1 (en) 2015-10-15
CN102082954B (zh) 2014-05-07
TW201142748A (en) 2011-12-01
KR101656887B1 (ko) 2016-09-22
US20140126807A1 (en) 2014-05-08
CN102082954A (zh) 2011-06-01
US8660337B2 (en) 2014-02-25
US9934575B2 (en) 2018-04-03
TWI476731B (zh) 2015-03-11
US20110129144A1 (en) 2011-06-02

Similar Documents

Publication Publication Date Title
JP5397190B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2012247891A (ja) 画像処理装置、画像処理方法、およびプログラム
US9094659B2 (en) Stereoscopic image display system, disparity conversion device, disparity conversion method, and program
JP5500066B2 (ja) 画像処理方法、画像処理装置及びプログラム
US20110134109A1 (en) Auto-stereoscopic interpolation
JP5402504B2 (ja) 擬似立体画像作成装置及び擬似立体画像表示システム
CN104780354B (zh) 图像处理装置、图像处理方法及程序
WO2011148921A1 (ja) 画像処理装置、画像表示装置および画像撮像装置
US20110135194A1 (en) Pulling keys from color segmented images
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US10547832B2 (en) Image processing apparatus, method, and storage medium for executing gradation on stereoscopic images
JP5303692B1 (ja) 立体画像処理装置及び立体画像処理方法
JP2015154101A (ja) 画像処理方法、画像処理装置及び電子機器
JP2013058849A (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP6887824B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2005250978A (ja) 三次元画像処理装置および三次元画像処理方法
JP2014022867A (ja) 画像処理装置および方法、並びにプログラム
JP2012109725A (ja) 立体映像処理装置および立体映像処理方法
KR20150101856A (ko) 디지털 시네마에서 스테레오 카메라로 획득한 좌우 영상의 색 일치 방법 및 그 장치
JP2012226574A (ja) 画像処理方法、画像処理装置及び表示装置
JP2023035770A (ja) 認知症疑似体験装置、及び認知症疑似体験プログラム
JP2013132018A (ja) 画像処理装置、撮像装置、表示装置、画像処理方法及び画像処理プログラム
JP2016099928A (ja) 画像形成方法及び画像形成装置
JP2013070266A (ja) 画像処理装置、画像処理方法および画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131007

R151 Written notification of patent or utility model registration

Ref document number: 5397190

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees