JP2012204852A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2012204852A
JP2012204852A JP2011064511A JP2011064511A JP2012204852A JP 2012204852 A JP2012204852 A JP 2012204852A JP 2011064511 A JP2011064511 A JP 2011064511A JP 2011064511 A JP2011064511 A JP 2011064511A JP 2012204852 A JP2012204852 A JP 2012204852A
Authority
JP
Japan
Prior art keywords
parallax
image
stereoscopic image
viewing
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011064511A
Other languages
English (en)
Other versions
JP2012204852A5 (ja
Inventor
Masami Ogata
昌美 緒形
Takafumi Morifuji
孝文 森藤
Suguru Ushiki
卓 牛木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011064511A priority Critical patent/JP2012204852A/ja
Priority to US13/354,727 priority patent/US20120242655A1/en
Priority to IN763DE2012 priority patent/IN2012DE00763A/en
Priority to CN2012100710849A priority patent/CN102695065A/zh
Priority to BRBR102012005932-0A priority patent/BR102012005932A2/pt
Publication of JP2012204852A publication Critical patent/JP2012204852A/ja
Publication of JP2012204852A5 publication Critical patent/JP2012204852A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0209Crosstalk reduction, i.e. to reduce direct or indirect influences of signals directed to a certain pixel of the displayed image on other pixels of said image, inclusive of influences affecting pixels in different frames or fields or sub-images which constitute a same image, e.g. left and right images of a stereoscopic display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】立体画像の視聴条件によらず、適切な奥行き感を得ることができるようにする。
【解決手段】視差変換装置は、これから表示しようとする立体画像の視聴条件を取得し、取得した視聴条件に基づいて立体画像の視差を補正する。そして、視差変換装置は、立体画像の視差が補正後の視差となるように、立体画像を変換し、表示制御装置を介して画像表示装置に表示させる。このとき、変換後の立体画像の視差が視聴条件により定まる視差範囲内の視差となるように、立体画像の変換が行われる。本発明は、画像処理装置に適用することができる。
【選択図】図7

Description

本技術は画像処理装置および方法、並びにプログラムに関し、特に、立体画像の視聴条件によらず、より適切な奥行き感を得ることができるようにした画像処理装置および方法、並びにプログラムに関する。
従来、表示装置により立体画像を表示する技術が知られている。このような立体画像により再現される被写体の奥行き感は、ユーザが立体画像を観察する視聴環境や、ユーザの両眼間隔等の身体的特徴などにより定まる視聴条件によって変化する。そのため、場合によっては、再現される奥行き感がユーザにとって不適切なものとなり、ユーザが疲労してしまうことがある。
例えば、特定の視聴距離やディスプレイサイズを想定して作成された立体画像は、実際の視聴距離が想定された距離よりも近かったり、立体画像が表示される表示装置の画面の大きさが想定されたディスプレイサイズよりも大きかったりすると、視聴に困難をきたすことがある。そこで、立体画像に付加されているクロスポイント情報を利用して、立体画像の視差を制御する技術が提案されている(例えば、特許文献1参照)。
特許第3978392号公報
しかしながら、上述した技術では、視聴条件によっては、必ずしもユーザごとに充分に適切な奥行き感を得ることができない場合があった。また、クロスポイント情報を利用する方法では、立体画像にクロスポイント情報が付加されていない場合には、立体画像の視差制御を行なうことができなくなってしまう。
本技術は、このような状況に鑑みてなされたものであり、立体画像の視聴条件によらず、より適切な奥行き感を得ることができるようにするものである。
本技術の一側面の画像処理装置は、表示しようとする立体画像の視聴条件を入力する入力部と、前記視聴条件に基づいて前記立体画像の視差を補正する変換特性を定める変換特性設定部と、前記変換特性に基づいて前記立体画像の視差を補正する補正視差算出部とを備える。
前記視聴条件は、前記立体画像を視聴するユーザの両眼間隔、前記立体画像の視聴距離または前記立体画像が表示される表示画面の幅の少なくとも何れかとすることができる。
画像処理装置には、前記視聴条件に基づいて前記立体画像の補正後の視差が取り得る視差範囲を求める許容視差算出部をさらに設け、前記変換特性設定部には、前記視差範囲と前記立体画像の視差とに基づいて前記変換特性を定めさせることができる。
前記変換特性設定部には、前記立体画像の視差を前記視差範囲内の視差に変換する変換関数を前記変換特性とさせることができる。
画像処理装置には、前記立体画像を前記補正視差算出部により補正された視差を有する立体画像に変換する画像変換部をさらに設けることができる。
画像処理装置には、前記表示画面の大きさを示す情報を取得して、前記情報に基づいて前記表示画面の幅および前記視聴距離を求める演算部をさらに設けることができる。
画像処理装置には、前記立体画像を視聴する前記ユーザの画像および前記視聴距離に基づいて前記両眼間隔を算出する画像処理部をさらに設けることができる。
画像処理装置には、前記立体画像を視聴する前記ユーザの画像であって、互いに視差を有する一対の画像に基づいて、前記視聴距離を算出する画像処理部をさらに設けることができる。
本技術の一側面の画像処理方法またはプログラムは、表示しようとする立体画像の視聴条件を入力し、前記視聴条件に基づいて、前記立体画像の視差を補正する変換特性を定め、前記変換特性に基づいて前記立体画像の視差を補正するステップを含む。
本技術の一側面においては、表示しようとする立体画像の視聴条件が入力され、前記視聴条件に基づいて、前記立体画像の視差を補正する変換特性が定められ、前記変換特性に基づいて前記立体画像の視差が補正される。
本技術の一側面によれば、立体画像の視聴条件によらず、より適切な奥行き感を得ることができる。
両眼間隔と立体画像の奥行きについて説明する図である。 各両眼間隔における視差と視聴距離の関係を示す図である。 ディスプレイサイズと立体画像の奥行きについて説明する図である。 視聴距離と立体画像の奥行きについて説明する図である。 許容最近位置と許容最遠位置について説明する図である。 許容最小視差と許容最大視差について説明する図である。 立体画像表示システムの一実施の形態の構成例を示す図である。 視差変換装置の構成例を示す図である。 画像変換処理を説明するフローチャート図である。 累積度数分布による最小視差と最大視差の検出について説明する図である。 変換特性の一例を示す図である。 変換特性の一例を示す図である。 変換特性の一例を示す図である。 ルックアップテーブルの例を示す図である。 画像合成について説明する図である。 立体画像表示システムの他の構成例を示す図である。 視差変換装置の構成例を示す図である。 画像変換処理を説明するフローチャート図である。 両眼間隔の算出について説明する図である。 立体画像表示システムの他の構成例を示す図である。 視差変換装置の構成例を示す図である。 画像変換処理を説明するフローチャート図である。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[視聴条件と立体画像の奥行き感について]
まず、図1乃至図4を参照して、立体画像を視聴するユーザの視聴条件と、立体画像の奥行き感について説明する。
図1に示すように、右眼画像と左眼画像とからなる立体画像が表示面SC11に表示され、表示面SC11から視聴距離Dだけ離れた位置から、ユーザが立体画像を視聴する場合を考える。ここで、立体画像を構成する右眼画像とは、立体画像の表示時にユーザの右眼で観察されるように表示される画像であり、左眼画像とは、立体画像の表示時にユーザの左眼で観察されるように表示される画像である。
いま、ユーザの右眼YRと左眼YLの間の距離がe(以下、両眼間隔eと称する)であり、右眼画像と左眼画像における所定の被写体H11の視差がdであったとする。つまり、表示面SC11において、左眼画像上の被写体H11から、右眼画像上の被写体H11までの距離が視差dであるとする。
この場合、ユーザにより知覚される被写体H11の位置、つまり被写体H11の定位位置は、表示面SC11から距離DD(以下、奥行き距離DDと称する)だけ離れた位置となる。この奥行き距離DDは、視差d,両眼間隔e,視聴距離Dから次式(1)を計算することにより求まる。
奥行き距離DD=d×D/(e−d) ・・・(1)
ここで、視差dは、表示面SC11において右眼画像上の被写体H11が、左眼画像上の被写体H11に対して図中、右側にあるとき、つまり立体画像を視聴するユーザから見て右側にあるときに正の値となる。この場合、奥行き距離DDは正となり、ユーザから見て、被写体H11は表示面SC11の奥側に定位する。
逆に、表示面SC11において右眼画像上の被写体H11が、左眼画像上の被写体H11に対して図中、左側にあるとき、視差dは負の値となり、この場合は奥行き距離DDが負となるので、ユーザから見て、被写体H11は表示面SC11の手前側に定位する。
ところで、立体画像を視聴するユーザによって、両眼間隔eは異なる。例えば、一般的な大人の両眼間隔eは6.5cm程度であるのに対し、一般的な子供の両眼間隔eは5cm程度である。
そのため、図2に示すように、両眼間隔eによって、立体画像の視差dに対する奥行き距離DDは変化する。なお、図中、縦軸は奥行き距離DDを示しており、横軸は視差dを示している。また、曲線C11は、両眼間隔e=5cmである場合における各視差dに対する奥行き距離DDを示す曲線であり、曲線C12は、両眼間隔e=6.5cmである場合における各視差dに対する奥行き距離DDを示す曲線である。
曲線C11と曲線C12から分かるように、視差dが大きくなるにしたがって、曲線C11と曲線C12に示される奥行き距離DDの差はより大きくなっていく。したがって、大人向けに視差調整された立体画像は、視差dが大きくなると子供には負荷が大きくなってしまう。
このように、各ユーザの両眼間隔eの大きさによって奥行き距離DDは変化するため、立体画像内の各被写体の奥行き距離DDが、適切な範囲内の距離となるように、両眼間隔eに応じて、ユーザごとに視差dを制御する必要がある。
また、図3に示すように、立体画像上における右眼画像と左眼画像との間の視差が同じでも、立体画像が表示される表示面の大きさが変化すると、1画素の大きさ、つまり表示面上における被写体の大きさは変化するので、視差dの大きさが変化する。
図3の例では、図中、左側に示される表示面SC21と、図中、右側に示される表示面SC22とには、同じ視差の立体画像が表示されるが、表示面SC22よりも表示面SC21の方が大きいため、表示面上の視差も表示面SC21の方が大きくなっている。つまり、表示面SC21上では視差d=d11となっており、表示面SC22上では視差d=d12(但し、d11>d12)となっている。
そのため、表示面SC21に表示された被写体H11の奥行き距離DD=DD11も、表示面SC22に表示された被写体H11の奥行き距離DD=DD12より長くなる。したがって、例えば表示面SC22のような小画面用に視差制御して生成した立体画像を、表示面SC21のような大画面に表示させると、視差が大きくなりすぎて、ユーザの眼に対する負荷が大きくなってしまう。
このように、同じ視差の立体画像でも表示される表示面の大きさによって、再現される奥行き感が異なるので、立体画像の表示にあたっては、立体画像が表示される表示面の大きさ(ディスプレイサイズ)に応じて、適切に視差dを制御する必要がある。
さらに、立体画像が表示される表示面SC11の大きさや、表示面SC11上における視差dが同じであっても、例えば図4に示すように、ユーザの視聴距離Dが変化すると、被写体H11の奥行き距離DDは変化する。
図4の例では、図中、右側の表示面SC11と左側の表示面SC11は同じ大きさであり、これらの表示面SC11には同じ視差dで被写体H11が表示されているが、図中、左側の視聴距離D=D11が、図中、右側の視聴距離D=D12よりも長くなっている。
そのため、図中、左側の被写体H11の奥行き距離DD=DD21も、図中、右側の被写体H11の奥行き距離DD=DD22より長くなる。したがって、例えば、ユーザの視聴距離Dが短すぎると、被写体H11を見込む輻輳角が大きくなるので、立体画像が見にくくなってしまう場合がある。
このように、ユーザの視聴距離Dによっても、再現される奥行き感が変化するので、立体画像の表示にあたっては、ユーザから表示面までの視聴距離Dに応じて、適切に視差dを制御する必要がある。
以上のように、立体画像上の各被写体の奥行き距離DDが、ユーザに負担が少ない適切な範囲内の距離となるようにするには、両眼間隔e、立体画像が表示される表示面の大きさ、および視聴距離Dに応じて、適切に視差dを変換する必要がある。
なお、以下、立体画像が表示される表示面の大きさ、特に表示面の視差方向の長さをディスプレイ幅Wと称し、少なくとも両眼間隔e、ディスプレイ幅W、および視聴距離Dにより定まるユーザの立体画像の視聴に関わる条件を視聴条件と呼ぶこととする。
[立体画像の適切な視差について]
次に、上述した視聴条件により定まる立体画像の適切な視差の範囲について説明する。
視聴条件により定まる、立体画像の適切な視差の範囲内の視差の最小値と最大値を、それぞれ視差dmin’および視差dmax’とし、視聴条件としての両眼間隔e、ディスプレイ幅W、および視聴距離Dから、視差dmin’と視差dmax’を求めることを考える。
ここで、視差dmin’および視差dmax’は、立体画像上の画素を単位とする視差である。つまり、立体画像を構成する右眼画像と左眼画像の間の画素単位の視差である。
いま、図5の左側に示すように、立体画像上の被写体のうち、視差が視差dmin’である被写体H12の定位位置を許容最近位置とし、ユーザから許容最近位置までの距離を許容最近距離Dminとする。また、図中、右側に示すように、視差が視差dmax’である被写体の定位位置を許容最遠位置とし、ユーザから許容最遠位置までの距離を許容最遠距離Dmaxとする。
すなわち、許容最近距離Dminは、ユーザが立体画像を適切な視差で視聴するために許容される、ユーザの両眼(左眼YLおよび右眼YR)から立体画像上の被写体の定位位置までの距離の最小値である。同様に、許容最遠距離Dmaxは、ユーザが立体画像を適切な視差で視聴するために許容される、ユーザの両眼から立体画像上の被写体の定位位置までの距離の最大値である。
例えば、図中、左側に示すように、ユーザの左眼YLと右眼YRが表示面SC11を見込む角を角度αとし、ユーザの左眼YLと右眼YRが、被写体H12を見込む角を角度βとする。このとき、一般的にβ−α≦60’を満たす最大の角βを有する被写体H12が、許容最近位置にある被写体とされる。
また、図中、右側に示すように、ユーザの両眼から無限遠に位置する被写体までの距離が、許容最遠距離Dmaxとされる。この場合、許容最遠距離Dmaxとなる位置にある被写体を見るユーザの両眼の視線は平行となる。
このような許容最近距離Dminと許容最遠距離Dmaxは、両眼間隔eおよび視聴距離Dから幾何学的に求めることができる。
すなわち、両眼間隔eと視聴距離Dの関係から、次式(2)が成立する。
tan(α/2)=(1/D)×(e/2) ・・・(2)
この式(2)を変形すれば、次式(3)に示すように、角度αが求まる。
α=2tan−1(e/2D) ・・・(3)
また、角度βは、角度αと同様に次式(4)で表される。
β=2tan−1(e/2Dmin) ・・・(4)
さらに、ユーザから許容最近距離Dminだけ離れた位置にある被写体H12を見込む角βは、上述したように、以下の式(5)を満たすから、式(4)と式(5)から、許容最近距離Dminは、式(6)に示す条件を満たすことになる。
β−α≦60 ・・・(5)
許容最近距離Dmin≧e/2tan((60+α)/2) ・・・(6)
このようにして得られた式(6)のαに、式(3)を代入すれば、許容最近距離Dminを得ることができる。つまり、許容最近距離Dminは、視聴条件のうちの両眼間隔eと視聴距離Dが分かれば、求めることができる。同様に、式(6)における角度αを0とすれば、許容最遠距離Dmaxが得られる。
このようにして得られた許容最近距離Dminと許容最遠距離Dmaxから、視差dmin’および視差dmax’が求まる。
例えば、図6に示すように、表示面SC11に立体画像を表示させた場合に、ユーザからの距離が許容最近距離Dminとなる許容最近位置に被写体H31が定位し、ユーザからの距離が許容最遠距離Dmaxとなる許容最遠位置に被写体H32が定位したとする。
このとき、表示面SC11における立体画像上の被写体H31の視差dminは、視聴距離D、両眼間隔e、および許容最近距離Dminを用いて、次式(7)により表される。
min=e(Dmin−D)/Dmin ・・・(7)
同様に、表示面SC11における立体画像上の被写体H32の視差dmaxは、視聴距離D、両眼間隔e、および許容最遠距離Dmaxを用いて、次式(8)により表される。
max=e(Dmax−D)/Dmax ・・・(8)
ここで、許容最近距離Dminおよび許容最遠距離Dmaxは、両眼間隔eと視聴距離Dから求まる値であるから、式(7)と式(8)から分かるように、視差dminおよび視差dmaxも、両眼間隔eと視聴距離Dから求まる。
但し、視差dminと視差dmaxは、表示面SC11上における距離であるため、立体画像を適切な視差をもつ画像に変換するには、視差dminと視差dmaxを、画素を単位とする視差dmin’と視差dmax’に変換する必要がある。
視差dminと視差dmaxを画素数で表すには、これらの視差を表示面SC11上における立体画像の画素間隔、つまり表示面SC11を構成する表示装置の画素間隔で除算すればよい。ここで、表示装置の画素間隔は、視聴条件としてのディスプレイ幅Wと、表示装置を構成する視差方向(図中、横方向)の画素数N、つまり立体画像の視差方向の画素数Nとから求まり、その値はW/Nとなる。
したがって、視差dmin’および視差dmax’は、視差dminと視差dmax、ディスプレイ幅W、および画素数Nから、それぞれ次式(9)および式(10)により表される。
視差dmin’=dmin×N/W ・・・(9)
視差dmax’=dmax×N/W ・・・(10)
このように、立体画像の適切な視差範囲の両端の値である視差dmin’および視差dmax’は、視聴条件としての両眼間隔e、ディスプレイ幅W、および視聴距離Dから求めることができる。
したがって、ユーザが、立体画像を所定の視聴条件下で視聴しようとする場合、その視聴条件から適切な視差範囲を求め、入力された立体画像を、求めた視差範囲内の視差を有する立体画像に変換して表示すれば、視聴条件に合った適切な奥行き感の立体画像を提示することができる。
なお、以上においては、許容最近距離Dminと許容最遠距離Dmaxを、予め定めた所定の条件を満たす距離であるとして説明したが、これらの許容最近距離Dminや許容最遠距離Dmaxは、ユーザにより好みに応じて設定されるようにしてもよい。
[立体画像表示システムの構成例]
次に、本技術を適用した立体画像表示システムの実施の形態について説明する。
図7は、立体画像表示システムの一実施の形態の構成例を示す図である。この立体画像表示システムは、画像記録装置11、視差変換装置12、表示制御装置13、および画像表示装置14から構成される。
画像記録装置11には、立体画像を表示するための画像データが記録されており、視差変換装置12は、画像記録装置11から立体画像を読み出して、この立体画像をユーザの視聴条件に応じて視差変換し、視差変換された立体画像を表示制御装置13に供給する。すなわち、立体画像がユーザの視聴条件に適した視差を有する立体画像に変換される。
なお、立体画像は、互いに視差を有する一対の静止画像であってもよいし、互いに視差を有する動画像であってもよい。
表示制御装置13は、視差変換装置12から供給された立体画像を画像表示装置14に供給し、画像表示装置14は、表示制御装置13の制御にしたがって、表示制御装置13から供給された立体画像を立体表示させる。例えば、画像表示装置14は、画像データを立体画像として表示する立体ディスプレイである。なお、画像表示装置14による立体画像の表示方式は、レンチキュラレンズ方式やパララックスバリア方式、時分割表示方式など、任意の表示方式とすることができる。
[視差変換装置の構成例]
また、図7の視差変換装置12は、例えば図8に示すように構成される。
視差変換装置12は、入力部41、視差検出部42、変換特性設定部43、補正視差算出部44、および画像合成部45から構成される。また、視差変換装置12では、右眼画像Rおよび左眼画像Lからなる立体画像が、画像記録装置11から視差検出部42および画像合成部45に供給される。
入力部41は、視聴条件としての両眼間隔e、ディスプレイ幅W、および視聴距離Dを取得し、変換特性設定部43に入力する。例えば、入力部41は、ユーザがリモートコマンダ51を操作して視聴条件を入力すると、リモートコマンダ51から送信されてくる視聴条件を示す情報を受信し、視聴条件を得る。
視差検出部42は、画像記録装置11から供給された右眼画像Rおよび左眼画像Lに基づいて、右眼画像Rと左眼画像Lの視差を画素ごとに求め、各画素の視差を示す視差マップを変換特性設定部43および補正視差算出部44に供給する。
変換特性設定部43は、入力部41から供給された視聴条件と、視差検出部42から供給された視差マップとに基づいて、右眼画像Rと左眼画像Lの視差の変換特性を定め、補正視差算出部44に供給する。
変換特性設定部43は、許容視差算出部61、最大/最小視差検出部62、および設定部63を備えている。
許容視差算出部61は、入力部41から供給された視聴条件に基づいて、ユーザの特徴や立体画像の視聴環境に適した視差dmin’および視差dmax’を求め、設定部63に供給する。なお、以下、視差dmin’および視差dmax’を、適宜、許容最小視差dmin’および許容最大視差dmax’とも称する。
最大/最小視差検出部62は、視差検出部42から供給された視差マップに基づいて、右眼画像Rと左眼画像Lの視差の最大値および最小値を検出し、設定部63に供給する。設定部63は、許容視差算出部61からの視差dmin’および視差dmax’と、最大/最小視差検出部62からの視差の最大値および最小値とに基づいて、右眼画像Rと左眼画像Lの視差の変換特性を定め、定めた変換特性を補正視差算出部44に供給する。
補正視差算出部44は、視差検出部42からの視差マップと、設定部63からの変換特性とに基づいて、視差マップに示される各画素の視差を、視差dmin’から視差dmax’までの間の視差に変換し、画像合成部45に供給する。すなわち、補正視差算出部44は、視差マップに示される各画素の視差を変換(補正)し、変換後の各画素の視差を示す補正視差マップを画像合成部45に供給する。
画像合成部45は、画像記録装置11から供給された右眼画像Rおよび左眼画像Lを、補正視差算出部44から供給された補正視差マップに基づいて、適切な視差を有する右眼画像R’および左眼画像L’に変換し、表示制御装置13に供給する。
[画像変換処理の説明]
次に、立体画像表示システムの動作について説明する。立体画像表示システムは、ユーザから立体画像の再生を指示されると、画像変換処理を行なって、指定された立体画像を適切な視差を有する立体画像に変換し、再生する。以下、図9のフローチャートを参照して、立体画像表示システムによる画像変換処理について説明する。
ステップS11において、視差変換装置12は、画像記録装置11から立体画像を読み出す。すなわち、視差検出部42および画像合成部45は、画像記録装置11から右眼画像Rおよび左眼画像Lを読み出す。
ステップS12において、入力部41は、リモートコマンダ51から受信した視聴条件を許容視差算出部61に入力する。
すなわち、ユーザは、リモートコマンダ51を操作して、視聴条件としての両眼間隔e、ディスプレイ幅W、および視聴距離Dを入力する。例えば、両眼間隔eは、直接ユーザにより入力されてもよいし、ユーザが「大人」や「子供」のカテゴリを選択することで入力されるようにしてもよい。両眼間隔eが「子供」等のカテゴリを選択することで入力される場合、両眼間隔eは、選択されたカテゴリの平均的な両眼間隔の数値とされる。
このようにして視聴条件が入力されると、リモートコマンダ51は、入力された視聴条件を入力部41に送信する。すると、入力部41は、リモートコマンダ51から視聴条件を受信し、許容視差算出部61に入力する。
なお、視聴条件としてのディスプレイ幅Wは、入力部41が画像表示装置14などから取得するようにしてもよい。また、入力部41が、画像表示装置14などからディスプレイサイズを取得し、視聴距離Dがディスプレイサイズに対する標準視距離であるものとして、取得したディスプレイサイズから視聴距離Dを求めるようにしてもよい。
さらに、視聴条件は、画像変換処理の開始前に予め入力部41より取得され、必要に応じて許容視差算出部61に供給されるようにしてもよい。また、入力部41がボタン等の操作部から構成されるようにしてもよい。そのような場合、入力部41がユーザにより操作され、視聴条件が入力されると、入力部41はユーザの操作に応じて生じる信号を視聴条件として取得する。
ステップS13において、許容視差算出部61は、入力部41から供給された視聴条件に基づいて、許容最小視差dmin’および許容最大視差dmax’を求め、設定部63に供給する。
例えば、許容視差算出部61は、視聴条件としての両眼間隔e、ディスプレイ幅W、および視聴距離Dに基づいて、上述した式(9)および式(10)を計算することで、許容最小視差dmin’および許容最大視差dmax’を算出する。
ステップS14において、視差検出部42は、画像記録装置11から供給された右眼画像Rおよび左眼画像Lに基づいて、右眼画像Rと左眼画像Lの視差を画素ごとに検出し、各画素の視差を示す視差マップを最大/最小視差検出部62および補正視差算出部44に供給する。
例えば、視差検出部42は、左眼画像Lを基準として、DP(Dynamic Programing)マッチングにより、左眼画像Lの各画素の右眼画像Rとの視差を検出し、その検出結果を示す視差マップを生成する。
なお、隠れた部分の処理のために左眼画像Lおよび右眼画像Rの両方の視差を得るようにしてもよい。視差の推定手法は公知技術であり、例えば、左右画像から背景画像を除いた前景画像についてマッチングを行うことにより、左右画像の視差を推定し、視差マップを生成する技術が知られている(例えば、特開2006−114023号公報参照)。
ステップS15において、最大/最小視差検出部62は、視差検出部42から供給された視差マップに基づいて、視差マップに示される各画素の視差のうちの最大値および最小値を検出し、設定部63に供給する。
なお、以下、最大/最小視差検出部62により検出された視差の最大値および最小値を、適宜、最大視差d(i)maxおよび最小視差d(i)minとも称する。
また、最大視差と最小視差の検出では、検出結果安定のため、視差の累積度数分布が用いられるようにしてもよい。そのような場合、最大/最小視差検出部62は、例えば、図10に示す累積度数分布を生成する。なお、図中、縦軸は累積度数を示しており、横軸は視差を示している。
図10の例では曲線RC11は、視差マップ上の画素が画素値として有する視差の値について、視差マップ上の各画素のうち、各視差までの値を画素値として有する画素の数(累積度数)を示している。最大/最小視差検出部62は、このような累積度数分布を生成すると、例えば全累積度数の5%の累積度数となる視差の値、および全累積度数の95%の累積度数となる視差の値を、それぞれ最小視差および最大視差とする。
このように、立体画像内で検出される視差の総数に対して、予め設定された割合に相当する累積度数に対応する視差を最小視差や最大視差とすることで、極端に大きい視差や小さい視差を除外し、検出結果を安定させることができる。
ステップS16において、設定部63は、最大/最小視差検出部62からの最小視差お最大視差と、許容視差算出部61からの視差dmin’および視差dmax’とに基づいて、変換特性を設定し、補正視差算出部44に供給する。
例えば、設定部63は、最小視差および最大視差と、許容最小視差dmin’および許容最大視差dmax’とに基づいて、立体画像の各画素の視差が、許容最小視差dmin’から許容最大視差dmax’までの範囲(以下、許容視差範囲と称する)内の視差に変換されるように、変換特性を定める。
具体的には、設定部63は、最小視差および最大視差が、許容視差範囲内の視差である場合、視差マップがそのまま補正視差マップとなる等価変換関数を変換特性とする。この場合、立体画像の各画素の視差は、許容視差範囲内の適切な大きさの視差となっているので、立体画像に対して視差制御を行なう必要がないからである。
これに対して、最小視差と最大視差の少なくとも何れかが、許容視差範囲内の視差でない場合、設定部63は、立体画像の各画素の視差を補正(変換)する変換特性を定める。すなわち、視差マップ上の画素の画素値(視差の値)を入力視差d(i)とし、その画素と同じ位置にある補正視差マップの画素の画素値(視差の値)を補正視差d(o)とすると、入力視差d(i)を補正視差d(o)に変換するための変換関数が定められる。
これにより、例えば図11に示す変換関数が定められる。なお、図11において、横軸は入力視差d(i)を示しており、縦軸は補正視差d(o)を示している。また、図中、直線F11および直線F12は、変換関数のグラフを示している。
図11の例において、直線F12は、入力視差d(i)=補正視差d(o)となる場合の変換関数、つまり等価変換のグラフを示している。上述したように、最小視差および最大視差が、許容視差範囲内の視差である場合、変換関数はd(o)=d(i)とされる。
ところが、図11の例では、最小視差は許容最小視差dmin’よりも小さく、最大視差は許容最大視差dmax’よりも大きくなっている。そのため、入力視差d(i)を等価変換し、そのまま補正視差d(o)とすると、補正後の視差の最小値および最大値は、許容視差範囲外の視差となってしまう。
そこで、設定部63は、補正後の各画素の視差が許容視差範囲内の視差となるように、直線F11で示される一次関数を変換関数とする。
ここで、変換関数は、入力視差d(i)=0が補正視差d(o)=0に変換され、最小視差d(i)minが許容最小視差dmin’以上の視差に変換され、かつ最大視差d(i)maxが許容最大視差dmax’以下の視差に変換されるように定められる。
直線F11に示される変換関数では、入力視差d(i)=0は0に変換され、最小視差d(i)minは許容最小視差dmin’に変換され、最大視差d(i)maxは許容最大視差dmax’以下の視差に変換される。
設定部63は、このようにして変換関数(変換特性)を定めると、定めた変換関数を変換特性として補正視差算出部44に供給する。
なお、変換特性は図11に示した例に限らず、視差に対して単調増加する折れ線で表される関数や、任意の関数とすることができる。したがって、例えば、図12や図13に示す変換特性とされてもよい。図12および図13において、横軸は入力視差d(i)を示しており、縦軸は補正視差d(o)を示している。また、図中、図11における場合と対応する部分には同一の符号を付してあり、その説明は省略する。
図12において、折れ線F21は、変換関数のグラフを示している。折れ線F21に示される変換関数は、入力視差d(i)=0は0に変換され、最小視差d(i)minは許容最小視差dmin’に変換され、最大視差d(i)maxは許容最大視差dmax’に変換される。また、折れ線F21に示される変換関数では、最小視差d(i)minから0までの区間の傾きと、0から最大視差d(i)maxまでの区間の傾きとが、異なる大きさとなっており、これらの区間は何れも一次関数となっている。
また、図13の例において、折れ線F31は、変換関数のグラフを示している。折れ線F31に示される変換関数は、入力視差d(i)=0は0に変換され、最小視差d(i)minは許容最小視差dmin’以上の視差に変換され、最大視差d(i)maxは許容最大視差dmax’以下の視差に変換される。
折れ線F31に示される変換関数では、最小視差d(i)minから0までの区間の傾きと、0から最大視差d(i)maxまでの区間の傾きとが、異なる大きさとなっており、これらの区間は何れも一次関数となっている。
さらに、最小視差d(i)min以下の区間と、最小視差d(i)minから0までの区間でも変換関数の傾きは異なっており、0から最大視差d(i)maxまでの区間と、最大視差d(i)max以上の区間でも変換関数の傾きは異なっている。
特に、折れ線F31に示される変換関数は、例えば、累積度数分布により最大視差および最小視差を定める場合など、最小視差d(i)minや最大視差d(i)maxが、視差マップに示される視差の最小値や最大値でない場合に有効である。この場合、最小視差d(i)min以下や最大視差d(i)max以上における変換特性の傾きを小さくすることで、立体画像に含まれている例外的に絶対値が大きい視差に対しても、より見やすい適切な視差への変換を行なうことができる。
図9のフローチャートの説明に戻り、変換特性が設定されると、処理はステップS16からステップS17に進む。
ステップS17において、補正視差算出部44は、設定部63から供給された変換特性と、視差検出部42からの視差マップとに基づいて、補正視差マップを生成し、画像合成部45に供給する。
すなわち、補正視差算出部44は、変換特性としての変換関数に、視差マップの画素の視差(入力視差d(i))を代入して補正視差d(o)を求め、求めた補正視差を、その画素と同じ位置にある補正視差マップの画素の画素値とする。
なお、変換関数を用いた補正視差d(o)の算出は、例えば図14に示すルックアップテーブルLT11により実現するようにしてもよい。
ルックアップテーブルLT11は、所定の変換特性(変換関数)により入力視差d(i)を補正視差d(o)に変換するものである。このルックアップテーブルLT11には、入力視差d(i)の各値と、それらの値を変換関数に代入して得られる補正視差d(o)の値とが対応付けられて記録されている。
例えば、ルックアップテーブルLT11には、入力視差d(i)の値「d0」と、その値「d0」を変換関数に代入して得られる補正視差d(o)の値「d0’」とが対応付けられて記録されている。このようなルックアップテーブルLT11をいくつかの変換特性ごとに記録しておけば、補正視差算出部44は、変換関数の演算を行なうことなく、簡単に入力視差d(i)に対する補正視差d(o)を得ることができる。
図9のフローチャートの説明に戻り、補正視差算出部44により補正視差マップが生成されて画像合成部45に供給されると、処理はステップS17からステップS18に進む。
ステップS18において、画像合成部45は、補正視差算出部44からの補正視差マップを用いて、画像記録装置11からの右眼画像Rおよび左眼画像Lを、適切な視差を有する右眼画像R’および左眼画像L’に変換し、表示制御装置13に供給する。
例えば、図15に示すように、図中、横方向および縦方向をi方向およびj方向として、左眼画像L上のij座標系における座標(i,j)にある画素をL(i,j)とし、右眼画像R上の座標(i,j)にある画素をR(i,j)とする。また、左眼画像L’上の座標(i,j)にある画素をL’(i,j)とし、右眼画像R’上の座標(i,j)にある画素をR’(i,j)とする。
さらに、画素L(i,j),画素R(i,j),画素L’(i,j),画素R’(i,j)のそれぞれの画素値を、それぞれL(i,j),R(i,j),L’(i,j),R’(i,j)とする。また、視差マップにより示される画素L(i,j)の入力視差がd(i)であり、その入力視差d(i)の補正後の補正視差がd(o)であるとする。
この場合、画像合成部45は、次式(11)に示すように、左眼画像L上の画素L(i,j)の画素値を、そのまま左眼画像L’上の画素L’(i,j)の画素値とする。
L’(i,j)=L(i,j) ・・・(11)
また、画像合成部45は、画素L’(i,j)に対応する右眼画像R’上の画素を画素R’(i+d(o),j)として、次式(12)を計算することで、画素R’(i+d(o),j)の画素値を求める。
Figure 2012204852
すなわち、左眼画像と右眼画像との補正前の入力視差はd(i)であるから、図中、上側に示すように、画素L(i,j)に対応する右眼画像R上の画素、つまり画素L(i,j)と同じ被写体が表示される画素は、画素R(i+d(i),j)である。
また、入力視差d(i)は補正されて補正視差d(o)となるから、図中、下側に示すように、左眼画像L’上の画素L’(i,j)に対応する右眼画像R’上の画素は、画素L(i,j)の位置から補正視差d(o)だけ離れている画素R’(i+d(o),j)となる。この画素R’(i+d(o),j)は、画素L(i,j)と、画素R(i+d(i),j)との間に位置する。
そこで、画像合成部45は、上述した式(12)を計算して、画素L(i,j)と画素R(i+d(i),j)の画素値を内分することにより、画素R’(i+d(o),j)の画素値を求める。
このようにして、画像合成部45は、立体画像を構成する一方の画像をそのまま補正後の一方の画像とするとともに、一方の画像の画素と、その画素に対応する他方の画像の画素とを内分することで、視差補正後の他方の画像の画素を求め、補正後の立体画像を得る。
図9のフローチャートの説明に戻り、右眼画像R’および左眼画像L’からなる立体画像が得られると、処理はステップS18からステップS19に進む。
ステップS19において、表示制御装置13は、画像合成部45から供給された右眼画像R’および左眼画像L’からなる立体画像を、画像表示装置14に供給して表示させ、画像変換処理は終了する。
例えば、画像表示装置14は、表示制御装置13の制御にしたがって、右眼画像R’および左眼画像L’を、レンチキュラレンズ方式等の表示方式により表示させることで、立体画像を表示させる。
以上のようにして、立体画像表示システムは、視聴条件としての両眼間隔e、ディスプレイ幅W、および視聴距離Dを取得し、視聴条件に応じて表示対象の立体画像を、より適切な視差を有する立体画像に変換して表示させる。このように、視聴条件に応じて、その視聴条件に合った視差を有する立体画像を生成することで、立体画像の視聴条件によらず、簡単に、より適切な奥行き感を得ることができる。
例えば、大人にとっては適切な立体画像も、両眼間隔の狭い子供には負担が大きい場合があるが、立体画像表示システムでは、視聴条件として両眼間隔eを取得し、立体画像の視差制御を行なうことで、各ユーザの両眼間隔eに合った視差の立体画像を提示できる。同様に、視聴条件として、ディスプレイ幅Wや視聴距離Dを取得することで、画像表示装置14の表示画面の大きさや視聴距離などに応じて、常に適切な視差の立体画像を提示することができる。
〈第2の実施の形態〉
[立体画像表示システムの構成例]
なお、以上においては、視聴条件をユーザが入力する場合を例として説明したが、視差変換装置12が視聴条件を算出するようにしてもよい。
そのような場合、立体画像表示システムは、例えば図16に示すように構成される。図16の立体画像表示システムは、図7に示した立体画像表示システムにさらに画像センサ91が設けられた構成とされている。
視差変換装置12は、画像表示装置14から、画像表示装置14の表示画面の大きさ(ディスプレイサイズ)を示すディスプレイサイズ情報を取得し、ディスプレイサイズ情報に基づいて、視聴条件としてのディスプレイ幅W、および視聴距離Dを算出する。
画像センサ91は、画像表示装置14に固定されており、画像表示装置14に表示される立体画像を視聴するユーザの画像を撮像し、視差変換装置12に供給する。また、視差変換装置12は、画像センサ91からの画像と、視聴距離Dとに基づいて、両眼間隔eを算出する。
[視差変換装置の構成例]
また、図16に示す立体画像表示システムの視差変換装置12は、図17に示すように構成される。なお、図17において、図8における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図17の視差変換装置12は、図8の視差変換装置12にさらに演算部121と画像処理部122が設けられた構成とされている。
演算部121は、画像表示装置14からディスプレイサイズ情報を取得し、ディスプレイサイズ情報に基づいてディスプレイ幅W、および視聴距離Dを算出する。また、演算部121は、算出したディスプレイ幅W、および視聴距離Dを入力部41に供給するとともに、視聴距離Dを画像処理部122に供給する。
画像処理装部122は、画像センサ91から供給された画像と、演算部121から供給された視聴距離Dとに基づいて両眼間隔eを算出し、入力部41に供給する。
[画像変換処理の説明]
次に、図18のフローチャートを参照して、図16の立体画像表示システムにより行なわれる画像変換処理について説明する。なお、ステップS41の処理は、図9のステップS11の処理と同様であるので、その説明は省略する。
ステップS42において、演算部121は、画像表示装置14からディスプレイサイズ情報を取得し、取得したディスプレイサイズ情報からディスプレイ幅Wを算出する。
ステップS43において、演算部121は、取得したディスプレイサイズ情報から視聴距離Dを算出する。例えば、演算部121は、視聴距離Dがディスプレイサイズに対する標準視距離であるものとして、取得したディスプレイサイズにより示される表示画面の高さの3倍の値を視聴距離Dとする。演算部121は、算出したディスプレイ幅Wと視聴距離Dを入力部41に供給するとともに、視聴距離Dを画像処理部122に供給する。
ステップS44において、画像処理部122は、画像センサ91からユーザの画像を取得して、取得した画像と演算部121からの視聴距離Dとに基づいて両眼間隔eを算出し、入力部41に供給する。
例えば、画像センサ91は、図19の上側に示すように、画像表示装置14の正面にいるユーザの画像PT11を撮像し、画像処理部122に供給する。画像処理部122は、この画像PT11から顔検出によりユーザの顔の領域FC11を検出するとともに、領域FC11からユーザの右眼の領域ERと左眼の領域ELを検出する。
そして、画像処理部122は、領域ERから領域ELまでの画素数を単位とする距離epを算出し、この距離epからユーザの両眼間隔eを算出する。
すなわち、図19の図中、下側に示すように、画像センサ91に画像PT11を撮像するセンサのセンサ面CM11と、ユーザからの光を集光するレンズLE11が設けられているとする。また、ユーザの右眼YRからの光がレンズLE11を介してセンサ面CM11の位置ER’に到達し、ユーザの左眼YLからの光がレンズLE11を介してセンサ面CM11の位置EL’に到達するとする。
さらに、センサ面CM11からレンズLE11までの距離が焦点距離fであるとし、レンズLE11からユーザまでの距離が視聴距離Dであるとする。この場合、画像処理部122は、画像PT11上におけるユーザの両眼間の距離epから、センサ面CM11上の位置ER’から位置EL’までの距離ep’を算出し、距離ep’、焦点距離f、および視聴距離Dから次式(13)を計算し、両眼間隔eを算出する。
両眼間隔e=D×ep’/f ・・・(13)
図18のフローチャートの説明に戻り、両眼間隔eが算出されると、処理はステップS45に進む。ステップS45において、入力部41は、演算部121からのディスプレイ幅Wおよび視聴距離Dと、画像処理部122からの両眼間隔eとからなる視聴条件を許容視差算出部61に入力する。
視聴条件が入力されると、その後、ステップS46乃至ステップS52の処理が行われて画像変換処理は終了するが、これらの処理は図9のステップS13乃至ステップS19と同様であるので、その説明は省略する。
このようにして、立体画像表示システムは、視聴条件を求め、その視聴条件に応じて立体画像の視差制御を行なう。したがって、ユーザは視聴条件を入力する必要がなくなり、より簡単に適切な視差の立体画像を視聴することができるようになる。
〈第3の実施の形態〉
[立体画像表示システムの構成例]
また、以上においては、ディスプレイサイズ情報から視聴距離Dを算出すると説明したが、画像センサにより撮像された画像から視聴距離Dを算出するようにしてもよい。
そのような場合、立体画像表示システムは、例えば図20に示すように構成される。図20の立体画像表示システムは、図7に示した立体画像表示システムにさらに画像センサ151−1および画像センサ151−2が設けられた構成とされている。
画像センサ151−1および画像センサ151−2は、画像表示装置14に固定されており、画像表示装置14に表示される立体画像を視聴するユーザの画像を撮像し、視差変換装置12に供給する。視差変換装置12は、画像センサ151−1および画像センサ151−2から供給された画像に基づいて、視聴距離Dを算出する。
なお、以下、画像センサ151−1および画像センサ151−2を個々に区別する必要のない場合、単に画像センサ151とも称する。
[視差変換装置の構成例]
また、図20に示す立体画像表示システムの視差変換装置12は、図21に示すように構成される。なお、図21において、図8における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図21の視差変換装置12は、図8の視差変換装置12にさらに画像処理部181が設けられた構成とされている。画像処理部181は、画像センサ151から供給された画像に基づいて、視聴条件としての視聴距離Dを算出し、入力部41に供給する。
[画像変換処理の説明]
次に、図22のフローチャートを参照して、図20の立体画像表示システムにより行なわれる画像変換処理について説明する。なお、ステップS81の処理は、図9のステップS11の処理と同様であるので、その説明は省略する。
ステップS82において、画像処理部181は、画像センサ151から供給された画像に基づいて、視聴条件としての視聴距離Dを算出し、入力部41に供給する。
例えば、画像センサ151−1および画像センサ151−2は、画像表示装置14の正面にいるユーザの画像を撮像し、画像処理部181に供給する。ここで、画像センサ151−1および画像センサ151−2により撮像されるユーザの画像は、互いに視差を有する画像である。
画像処理部181は、画像センサ151−1および画像センサ151−2から供給された画像に基づいて、それらの画像間の視差を算出し、算出された視差から、三角測量の原理により画像表示装置14からユーザまでの視聴距離Dを算出する。画像処理部181は、このようにして算出された視聴距離Dを入力部41に供給する。
ステップS83において、入力部41は、リモートコマンダ51からディスプレイ幅Wと両眼間隔eを受信し、これらのディスプレイ幅Wおよび両眼間隔eと、画像処理部181からの視聴距離Dとを、視聴条件として許容視差算出部61に入力する。この場合、図9のステップS12の場合と同様に、ユーザはリモートコマンダ51を操作して、ディスプレイ幅Wと両眼間隔eを入力する。
視聴条件が入力されると、その後、ステップS84乃至ステップS90の処理が行われて画像変換処理は終了するが、これらの処理は図9のステップS13乃至ステップS19と同様であるので、その説明は省略する。
このようにして、立体画像表示システムは、ユーザの画像から視聴条件としての視聴距離Dを算出し、視聴条件に応じて立体画像の視差制御を行なう。したがって、ユーザは、より少ない操作で、より簡単に適切な視差の立体画像を視聴することができるようになる。
なお、以上においては、2つの画像センサ151により撮像された画像から、三角測量の原理により視聴距離Dを算出する例について説明したが、視聴距離Dの算出は、どのような方法により行なわれてもよい。
例えば、画像センサ151に代えて、特定パターンを投影するプロジェクタを設け、このプロジェクタにより投影されたパターンに基づいて視聴距離Dが算出されてもよい。また、直接、画像表示装置14からユーザまでの距離を計測する距離センサを設け、距離センサにより視聴距離Dが算出されるようにしてもよい。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記録部508、ネットワークインターフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
さらに、本技術は、以下の構成とすることも可能である。
[1]
表示しようとする立体画像の視聴条件を入力する入力部と、
前記視聴条件に基づいて前記立体画像の視差を補正する変換特性を定める変換特性設定部と、
前記変換特性に基づいて前記立体画像の視差を補正する補正視差算出部と
を備える画像処理装置。
[2]
前記視聴条件は、前記立体画像を視聴するユーザの両眼間隔、前記立体画像の視聴距離または前記立体画像が表示される表示画面の幅の少なくとも何れかである
上記[1]に記載の画像処理装置。
[3]
前記視聴条件に基づいて、前記立体画像の補正後の視差が取り得る視差範囲を求める許容視差算出部をさらに備え、
前記変換特性設定部は、前記視差範囲と前記立体画像の視差とに基づいて前記変換特性を定める
上記[1]または[2]に記載の画像処理装置。
[4]
前記変換特性設定部は、前記立体画像の視差を前記視差範囲内の視差に変換する変換関数を前記変換特性とする
上記[3]に記載の画像処理装置。
[5]
前記立体画像を、前記補正視差算出部により補正された視差を有する立体画像に変換する画像変換部をさらに備える
上記[1]乃至[4]の何れかに記載の画像処理装置。
[6]
前記表示画面の大きさを示す情報を取得して、前記情報に基づいて前記表示画面の幅および前記視聴距離を求める演算部をさらに備える
上記[2]に記載の画像処理装置。
[7]
前記立体画像を視聴する前記ユーザの画像、および前記視聴距離に基づいて前記両眼間隔を算出する画像処理部をさらに備える
上記[6]に記載の画像処理装置。
[8]
前記立体画像を視聴する前記ユーザの画像であって、互いに視差を有する一対の画像に基づいて前記視聴距離を算出する画像処理部をさらに備える
上記[2]に記載の画像処理装置。
12 視差変換装置, 13 表示制御装置, 14 画像表示装置, 41 入力部, 43 変換特性設定部, 44 補正視差算出部, 45 画像合成部, 61 許容視差算出部, 62 最大/最小視差検出部, 63 設定部, 121 演算部, 122 画像処理部, 181 画像処理部

Claims (10)

  1. 表示しようとする立体画像の視聴条件を入力する入力部と、
    前記視聴条件に基づいて前記立体画像の視差を補正する変換特性を定める変換特性設定部と、
    前記変換特性に基づいて前記立体画像の視差を補正する補正視差算出部と
    を備える画像処理装置。
  2. 前記視聴条件は、前記立体画像を視聴するユーザの両眼間隔、前記立体画像の視聴距離または前記立体画像が表示される表示画面の幅の少なくとも何れかである
    請求項1に記載の画像処理装置。
  3. 前記視聴条件に基づいて前記立体画像の補正後の視差が取り得る視差範囲を求める許容視差算出部をさらに備え、
    前記変換特性設定部は、前記視差範囲と前記立体画像の視差とに基づいて前記変換特性を定める
    請求項2に記載の画像処理装置。
  4. 前記変換特性設定部は、前記立体画像の視差を前記視差範囲内の視差に変換する変換関数を前記変換特性とする
    請求項3に記載の画像処理装置。
  5. 前記立体画像を前記補正視差算出部により補正された視差を有する立体画像に変換する画像変換部をさらに備える
    請求項4に記載の画像処理装置。
  6. 前記表示画面の大きさを示す情報を取得して、前記情報に基づいて前記表示画面の幅および前記視聴距離を求める演算部をさらに備える
    請求項2に記載の画像処理装置。
  7. 前記立体画像を視聴する前記ユーザの画像および前記視聴距離に基づいて前記両眼間隔を算出する画像処理部をさらに備える
    請求項6に記載の画像処理装置。
  8. 前記立体画像を視聴する前記ユーザの画像であって、互いに視差を有する一対の画像に基づいて前記視聴距離を算出する画像処理部をさらに備える
    請求項2に記載の画像処理装置。
  9. 表示しようとする立体画像の視聴条件を入力する入力部と、
    前記視聴条件に基づいて前記立体画像の視差を補正する変換特性を定める変換特性設定部と、
    前記変換特性に基づいて前記立体画像の視差を補正する補正視差算出部と
    を備える画像処理装置の画像処理方法であって、
    前記入力部が前記視聴条件を入力し、
    前記変換特性設定部が、前記変換特性を定め、
    前記補正視差算出部が、前記立体画像の視差を補正する
    ステップを含む画像処理方法。
  10. 表示しようとする立体画像の視聴条件を入力し、
    前記視聴条件に基づいて前記立体画像の視差を補正する変換特性を定め、
    前記変換特性に基づいて前記立体画像の視差を補正する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2011064511A 2011-03-23 2011-03-23 画像処理装置および方法、並びにプログラム Pending JP2012204852A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011064511A JP2012204852A (ja) 2011-03-23 2011-03-23 画像処理装置および方法、並びにプログラム
US13/354,727 US20120242655A1 (en) 2011-03-23 2012-01-20 Image processing apparatus, image processing method, and program
IN763DE2012 IN2012DE00763A (ja) 2011-03-23 2012-03-16
CN2012100710849A CN102695065A (zh) 2011-03-23 2012-03-16 图像处理装置、图像处理方法和程序
BRBR102012005932-0A BR102012005932A2 (pt) 2011-03-23 2012-03-16 Método implementado por computador e aparelho para ajustar exibição de uma imagem tridimensional, e, meio de armazenamento legível por computador não transitório

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011064511A JP2012204852A (ja) 2011-03-23 2011-03-23 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2012204852A true JP2012204852A (ja) 2012-10-22
JP2012204852A5 JP2012204852A5 (ja) 2014-03-20

Family

ID=46860327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011064511A Pending JP2012204852A (ja) 2011-03-23 2011-03-23 画像処理装置および方法、並びにプログラム

Country Status (5)

Country Link
US (1) US20120242655A1 (ja)
JP (1) JP2012204852A (ja)
CN (1) CN102695065A (ja)
BR (1) BR102012005932A2 (ja)
IN (1) IN2012DE00763A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015509292A (ja) * 2012-02-02 2015-03-26 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 視差情報を用いた3dメディアデータの生成方法、符号化方法、復号方法、及び、表示方法、並びに、生成装置、符号化装置、復号装置、及び、表示装置
JP2015186099A (ja) * 2014-03-25 2015-10-22 株式会社Jvcケンウッド 立体画像生成装置、立体画像生成方法、及び立体画像生成プログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6167525B2 (ja) * 2012-03-21 2017-07-26 株式会社リコー 距離計測装置及び車両
US9449429B1 (en) * 2012-07-31 2016-09-20 Dreamworks Animation Llc Stereoscopic modeling based on maximum ocular divergence of a viewer
CN103813148A (zh) * 2012-11-13 2014-05-21 联咏科技股份有限公司 三维立体显示装置及其方法
CN103873841A (zh) * 2012-12-14 2014-06-18 冠捷显示科技(厦门)有限公司 一种可自动调整影像显示深度的立体显示装置及方法
US10116911B2 (en) * 2012-12-18 2018-10-30 Qualcomm Incorporated Realistic point of view video method and apparatus
US9747867B2 (en) * 2014-06-04 2017-08-29 Mediatek Inc. Apparatus and method for performing image content adjustment according to viewing condition recognition result and content classification result
CN105872528B (zh) * 2014-12-31 2019-01-15 深圳超多维科技有限公司 3d显示方法、装置及3d显示设备
US11030438B2 (en) * 2018-03-20 2021-06-08 Johnson & Johnson Vision Care, Inc. Devices having system for reducing the impact of near distance viewing on myopia onset and/or myopia progression
TWI784563B (zh) * 2021-06-09 2022-11-21 宏碁股份有限公司 顯示器校色方法及電子裝置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10142556A (ja) * 1996-11-11 1998-05-29 Fujitsu Ltd 画像表示装置及び方法
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
WO2004084560A1 (ja) * 2003-03-20 2004-09-30 Seijiro Tomita 立体映像撮影表示システム
JP2010171628A (ja) * 2009-01-21 2010-08-05 Nikon Corp 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
JP2010197597A (ja) * 2009-02-24 2010-09-09 Canon Inc 表示制御装置、及び表示制御方法
JP2010258609A (ja) * 2009-04-22 2010-11-11 Sony Corp 送信装置、立体画像データの送信方法、受信装置および立体画像データの受信方法
JP2010273259A (ja) * 2009-05-25 2010-12-02 Sony Corp 受信装置、シャッタメガネ、および送受信システム
JP2011035712A (ja) * 2009-08-03 2011-02-17 Mitsubishi Electric Corp 画像処理装置、画像処理方法及び立体画像表示装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3155876B2 (ja) * 1993-12-27 2001-04-16 キヤノン株式会社 画像表示装置及びそれに用いられる画像の撮像方法
US6014259A (en) * 1995-06-07 2000-01-11 Wohlstadter; Jacob N. Three dimensional imaging system
ATE433590T1 (de) * 2002-11-27 2009-06-15 Vision Iii Imaging Inc Abtastung der parallaxe durch manipulation der position der gegenstände in einer szene
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
US8094927B2 (en) * 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
US7697749B2 (en) * 2004-08-09 2010-04-13 Fuji Jukogyo Kabushiki Kaisha Stereo image processing device
JP4327758B2 (ja) * 2005-03-24 2009-09-09 株式会社東芝 立体画像表示装置
KR100667810B1 (ko) * 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
KR101311896B1 (ko) * 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
US8269822B2 (en) * 2007-04-03 2012-09-18 Sony Computer Entertainment America, LLC Display viewing system and methods for optimizing display view based on active tracking
EP2340534B1 (en) * 2008-10-03 2013-07-24 RealD Inc. Optimal depth mapping
CN102177721B (zh) * 2008-10-10 2015-09-16 皇家飞利浦电子股份有限公司 处理信号中包括的视差信息的方法
US8482654B2 (en) * 2008-10-24 2013-07-09 Reald Inc. Stereoscopic image format with depth information
KR20110129903A (ko) * 2009-02-18 2011-12-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 3d 시청자 메타데이터의 전송
JP2011064894A (ja) * 2009-09-16 2011-03-31 Fujifilm Corp 立体画像表示装置
US8284235B2 (en) * 2009-09-28 2012-10-09 Sharp Laboratories Of America, Inc. Reduction of viewer discomfort for stereoscopic images

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10142556A (ja) * 1996-11-11 1998-05-29 Fujitsu Ltd 画像表示装置及び方法
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
WO2004084560A1 (ja) * 2003-03-20 2004-09-30 Seijiro Tomita 立体映像撮影表示システム
JP2010171628A (ja) * 2009-01-21 2010-08-05 Nikon Corp 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
JP2010197597A (ja) * 2009-02-24 2010-09-09 Canon Inc 表示制御装置、及び表示制御方法
JP2010258609A (ja) * 2009-04-22 2010-11-11 Sony Corp 送信装置、立体画像データの送信方法、受信装置および立体画像データの受信方法
JP2010273259A (ja) * 2009-05-25 2010-12-02 Sony Corp 受信装置、シャッタメガネ、および送受信システム
JP2011035712A (ja) * 2009-08-03 2011-02-17 Mitsubishi Electric Corp 画像処理装置、画像処理方法及び立体画像表示装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015509292A (ja) * 2012-02-02 2015-03-26 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 視差情報を用いた3dメディアデータの生成方法、符号化方法、復号方法、及び、表示方法、並びに、生成装置、符号化装置、復号装置、及び、表示装置
JP2015186099A (ja) * 2014-03-25 2015-10-22 株式会社Jvcケンウッド 立体画像生成装置、立体画像生成方法、及び立体画像生成プログラム

Also Published As

Publication number Publication date
CN102695065A (zh) 2012-09-26
IN2012DE00763A (ja) 2015-08-21
US20120242655A1 (en) 2012-09-27
BR102012005932A2 (pt) 2015-08-18

Similar Documents

Publication Publication Date Title
JP2012204852A (ja) 画像処理装置および方法、並びにプログラム
KR100667810B1 (ko) 3d 영상의 깊이감 조정 장치 및 방법
US8606043B2 (en) Method and apparatus for generating 3D image data
US8963913B2 (en) Stereoscopic image display and method of adjusting stereoscopic image thereof
EP2618584B1 (en) Stereoscopic video creation device and stereoscopic video creation method
JP5287702B2 (ja) 画像処理装置および方法、並びにプログラム
US9729845B2 (en) Stereoscopic view synthesis method and apparatus using the same
US9710955B2 (en) Image processing device, image processing method, and program for correcting depth image based on positional information
US20130169633A1 (en) Stereoscopic image generation device, stereoscopic image display device, stereoscopic image adjustment method, program for causing computer to execute stereoscopic image adjustment method, and recording medium on which the program is recorded
US20120249532A1 (en) Display control device, display control method, detection device, detection method, program, and display system
JP2010171646A (ja) 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム
JP5178876B2 (ja) 立体映像表示装置及び立体映像表示方法
US20120327078A1 (en) Apparatus for rendering 3d images
US20120327077A1 (en) Apparatus for rendering 3d images
US20130027391A1 (en) Stereoscopic image system
JP2011035712A (ja) 画像処理装置、画像処理方法及び立体画像表示装置
JP2011035712A5 (ja)
JP2016530755A (ja) 位置の検知及び適応的な数のビューを伴うマルチビュー3次元ディスプレイシステム及び方法
TWI491244B (zh) 調整物件三維深度的方法與裝置、以及偵測物件三維深度的方法與裝置
WO2012131862A1 (ja) 画像処理装置、方法およびプログラム
JP2013090129A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5926546B2 (ja) 画像処理装置およびその方法
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
JP5838775B2 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP2011223126A (ja) 立体映像表示装置および立体映像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150702