JP2012010084A - 立体表示装置及び立体表示装置の制御方法 - Google Patents

立体表示装置及び立体表示装置の制御方法 Download PDF

Info

Publication number
JP2012010084A
JP2012010084A JP2010143866A JP2010143866A JP2012010084A JP 2012010084 A JP2012010084 A JP 2012010084A JP 2010143866 A JP2010143866 A JP 2010143866A JP 2010143866 A JP2010143866 A JP 2010143866A JP 2012010084 A JP2012010084 A JP 2012010084A
Authority
JP
Japan
Prior art keywords
parallax
display device
shift amount
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010143866A
Other languages
English (en)
Other versions
JP5494283B2 (ja
Inventor
Takanori Ishikawa
貴規 石川
Kazunari Yoshifuji
一成 吉藤
Harukazu Komoriya
陽多 小森谷
Isao Ohashi
功 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010143866A priority Critical patent/JP5494283B2/ja
Priority to TW100113282A priority patent/TWI444661B/zh
Priority to KR1020110058483A priority patent/KR20110140083A/ko
Priority to US13/067,636 priority patent/US8654182B2/en
Priority to CN2011101702648A priority patent/CN102300112A/zh
Publication of JP2012010084A publication Critical patent/JP2012010084A/ja
Application granted granted Critical
Publication of JP5494283B2 publication Critical patent/JP5494283B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/14Printing apparatus specially adapted for conversion between different types of record
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】立体映像視聴時の疲労感や不快感を軽減する。
【解決手段】複数の視点画像を周期的に配置して表示する表示部100aと、前記表示部の画素面の前に配置され、該表示部からの光を分離させるパララックスバリア110とを有する立体表示装置100であって、複数の視点画像間の視差分布情報を抽出する視差抽出部120と、抽出された視差分布情報に基づき、シフト量を算出するパラメータ算出部140と、算出されたシフト量に基づき、少なくとも1つの視点画像をシフト処理するシフト処理部150と、シフト処理された視点画像を表示部100aに再配置するマッピング処理部170と、を備える立体表示装置100が提供される。
【選択図】図3

Description

本発明は、立体映像を視聴可能な立体表示装置及び立体表示装置の制御方法に関する。
立体映像を見るためには、一般的に、右目用、左目用2つの映像が必要である。立体画像の提示方法としては、例えば偏光眼鏡を用いて、両目に互いに異なった偏光状態に基づいた視点画像(あるいは視差画像)を見る方法や、眼鏡を用いず、パララックスバリアやレンチキュラーレンズを用いて複数の視点画像のうち所定の視点画像を視聴者の眼球に導光する方法が提案されている。パララックスバリアを用いた立体表示装置では、パララックスバリアの開口部を通過する光線により構成される映像が両眼で異なる視点画像となるように構成されている。
裸眼用の立体表示装置の場合、特殊な眼鏡を用いないで立体視できるという利点がある一方、次のような課題もある。すなわち、前述したように液晶ディスプレイ上の画素に配置された各視点画像が周期的(図1では、視点1,2,3,4,1,2,3,4、・・・)に配置されている。このため、各周期の境界部分、つまり、4つの映像データの周期の切れ目(視点4、視点1)では、右目に入るべき視点映像が左目に導光され、左目に入るべき視点映像が右目に導光される逆視領域が存在する。逆視領域では、視聴者には立体画像の手前と奥が反転した映像を知覚する、あるいは不自然に融合して見えるという違和感のある逆視現象が生じる。
逆視現象に対して少しでも視聴者の不快感を取り除こうとする試みが提案されている(たとえば、特許文献1)。特許文献1では、視聴者の位置を検出し、その位置情報に基づいて、上記パララックスバリアに相当する光変調器のマスクパターンのパターン形状を変化させることで、逆視現象を軽減する。
特開2000−47139号公報
しかし、特許文献1の方法では高精度な検出装置や光変調器などの装置が必要となり、メンテナンスや価格面で非常にコスト高になる。また、逆視現象は、裸眼用立体表示装置において原理的に生じるものであるため根本的な解決は難しい。よって、特別な装置を使わずに逆視現象の不快感を少しでも軽減することが実質的な解決法となる。さらに、逆視領域のみならず、正視領域においても、特に立体映像の視差量が大きくなると、映像の飛び出し度合いによっては視聴者に疲労がたまる場合がある。また、その疲労度も男性と女性、大人と子供等個人差が大きい。
上記課題に対して、本発明の目的とするところは、レンチキュラーレンズやパララックスバリアなどを用いた立体表示装置において、視差の調整により立体映像の疲労感や不快感を軽減することが可能な、新規かつ改良された立体表示装置及び立体表示装置の制御方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、複数の視点画像を周期的に配置して表示する表示部と、前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置であって、複数の視点画像間の視差分布情報を抽出する視差抽出部と、前記抽出された視差分布情報に基づき、シフト量を算出するパラメータ算出部と、前記算出されたシフト量に基づき、少なくとも1つの視点画像をシフト処理するシフト処理部と、前記シフト処理された視点画像を前記表示部に再配置するマッピング処理部と、を備える立体表示装置が提供される。
かかる構成によれば、立体表示装置で視聴するコンテンツの視点画像間の視差分布情報を抽出し、抽出された視差分布情報に基づきシフト量を算出する。少なくとも1つの視点画像は、算出されたシフト量に基づきシフト処理され、シフト処理された視点画像は、表示部に再配置される。これによれば、シフト処理により右目用画像や左目用画像の視差を調整することができ、立体映像を視聴する際の観察者の疲労感や不快感を軽減することができる。
前記パラメータ算出部は、前記視差分布情報に基づき前記表示部の画面中に含まれる画素毎の視差量の平均値をシフト量として算出されていてもよい。
前記パラメータ算出部は、前記視差分布情報に基づき前記表示部の手前側と奥側に知覚される画素数がほぼ等しくなる視差量をシフト量として算出してもよい。
前記パラメータ算出部は、前記複数の視点画像内の物体の面積に応じて、前記算出されたシフト量を重み付けした値をシフト量として算出してもよい。
観察者の顔認識により観察者の位置情報を検出する位置・距離検出部をさらに備え、前記パラメータ算出部は、前記視差分布情報及び前記観察者の位置情報に基づきシフト量を算出してもよい。
前記パラメータ算出部は、前記検出された観察者の位置情報から観察者のうちの少なくとも一人が逆視領域に存在すると判定された場合にシフト量を算出してもよい。
観察者の顔認識により観察者の属性情報を検出する位置・距離検出部をさらに備え、前記パラメータ算出部は、前記視差分布情報及び前記属性情報に基づきシフト量を算出してもよい。
前記パラメータ算出部は、前記算出されたシフト量に基づき仮想視点画像の生成位相を決定してもよい。
前記パラメータ算出部は、仮想視点画像が前記シフト処理された右目用画像及び左目用画像の間に内挿して生成されるように仮想視点画像の生成位相を決定してもよい。
前記パラメータ算出部は、前記算出されたシフト量に基づき仮想視点画像の生成位相を決定してもよい。
前記パラメータ算出部は、算出されたシフト量が予め定められた所望の値以上の場合、仮想視点画像が前記シフト処理された右目用画像及び左目用画像の間に内挿して生成されるように仮想視点画像の生成位相を決定してもよい。
前記パラメータ算出部は、前記観察者の位置情報に基づいて仮想視点画像の生成位相を決定してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、光源と、複数の視点画像を周期的に配置して表示する表示部と、前記表示部と前記光源との間に配置され、前記光源からの光を分離させる光分離部とを有する立体表示装置であって、複数の視点画像間の視差分布情報を抽出する視差抽出部と、前記抽出された視差分布情報に基づき、シフト量を算出するパラメータ算出部と、前記算出されたシフト量に基づき、少なくとも1つの視点画像をシフト処理するシフト処理部と、前記シフト処理された視点画像を前記表示部に再配置するマッピング処理部と、を備える立体表示装置が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、複数の視点画像を周期的に配置して表示する表示部と、前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置の制御方法であって、視差抽出部が、複数の視点画像間の視差分布情報を抽出するステップと、パラメータ算出部が、前記抽出された視差分布情報に基づきシフト量を算出するステップと、シフト処理部が、前記算出されたシフト量に基づき少なくとも1つの視点画像をシフト処理するステップと、マッピング処理部が、前記シフト処理された複数の視点画像を前記表示部に再配置するステップと、を含む立体表示装置の制御方法が提供される。
以上説明したように本発明によれば、立体表示装置において、視差の調整により立体映像の疲労感や不快感を軽減することができる。
本発明の第1及び第2実施形態に係るパララックスバリアを用いた立体表示装置の概略構成図である。 視差量と立体画像との関係を説明するための概念図である。 第1及び第2実施形態に係る立体表示装置の機能構成図である。 第1及び第2実施形態に係るシフト処理(手前にシフト)を説明するための図である。 第1及び第2実施形態に係るシフト処理(奥側にシフト)を説明するための図である。 第1及び第2実施形態に係る仮想視点画像生成の生成位相(内挿)を説明するための図である。 第1及び第2実施形態に係る仮想視点画像生成の生成位相(外挿)を説明するための図である。 第1及び第2実施形態に係る立体表示装置の処理フローを示した図である。 第1実施形態に係るパラメータ算出部の処理フローを示した図である。 第2実施形態に係るパラメータ算出部の処理フローを示した図である。
以下に添付図面を参照しながら、本発明の各実施形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、本発明の実施形態は次の順序で説明される。
<第1実施形態>
[立体表示装置の概略構成]
(逆視)
(視差)
[立体表示装置の機能構成]
[立体表示装置の動作]
(全体動作)
(パラメータ算出部の動作)
<第2実施形態>
[立体表示装置の機能構成]
[立体表示装置の動作]
(パラメータ算出部の動作)
以下に説明する本発明に係る第1及び第2実施形態は、裸眼用の立体表示装置に表示された立体映像に対して複数の視点画像の特徴を解析し、その特徴に基づき複数の視点画像をシフト処理することにより、立体映像視聴時の疲労感や不快感を軽減することが特徴である。なお、以下に説明する各実施形態にかかる裸眼用の立体表示装置は、複数の視点画像を周期的に配置して表示する表示部と、表示部からの光を分離させる光分離部とを有する。表示部が自発光パネルの場合には光源を必要としない。また、表示部が液晶パネルなど光源を必要とする場合、光分離部の位置は光源と液晶パネルとの間にあってもよい。
<第1実施形態>
[立体表示装置の概略構成]
まず、本発明の第1実施形態に係る立体表示装置の概略構成について図1を参照しながら説明する。図1は、パララックスバリアを用いた立体表示装置の上面図を示す。図1では、裸眼用立体表示装置100の液晶ディスプレイ(Liquid Crystal Display)の水平方向の画素が示されている。視点数が4である図1の表示部100aの場合、4つの視点画像をそれぞれ縦に分割し、表示部100aの各画素の位置に周期性を持たせて配置する。図示しない光源からの光を表示部100aに入光させ、表示部100aの前に開口部を有するパララックスバリア110を配置させることにより、1〜4で表示した視点画像をそれぞれ空間的に分離させることができる。これにより、右目用の画像及び左目用の画像を右目及び左目に見せることができる。なお、パララックスバリア110の替わりにレンチキュラーレンズを用いても、同様に裸眼で右目用、左目用の映像を分離させることができる。パララックスバリアやレンチキュラーレンズ等のように、表示部100aからの光を分離させる機構を光分離部とも称呼する。
このとき、パララックスバリア110と画像は同じ周期になっている。左目には左目の視点映像を、右目には右目の視点映像が正しく両眼に導光されれば、正しい立体画像を見ることができる。図1では視点2は左目、視点3は右目に入るため、正しい映像を見ることができる。
(逆視)
このように裸眼用立体表示装置の場合、特殊な眼鏡を用いないで立体視できるという利点がある。しかし、前述したように表示部100aの各画素に複数の視点画像が周期的に配置されるため、各周期の境界部分では、右目に入るべき視点映像が左目に導光され、左目に入るべき視点映像が右目に導光される逆視領域が存在する。たとえば図1では、視点画像が1,2,3,4,1,2,3,4、・・・と周期的に配置されるため、4つの映像データの周期の切れ目(視点4、視点1)が、右目に入るべき視点映像が左目に導光され、左目に入るべき視点映像が右目に導光される逆視領域となる。逆視領域では、視聴者には立体画像の手前と奥が反転した映像を知覚する、あるいは不自然に融合して見えるという違和感のある不快な逆視現象が生じる。
(視差)
ここで、立体映像と視差との関係について、図2を用いて説明する。前述の通り、パララックスバリアやレンチキュラーレンズ等のパララックス素子からなる光分離部を用いて、右目用と左目用の視点画像を右目と左目にそれぞれ導光させる。本実施形態では、立体表示装置100の表示部100aの画素面の前方にパララックスバリア110を置く。視聴者は、パララックスバリア110を通して映像を見るため、正視領域では右目には右目用の画像だけが入り、左目には左目用の画像だけが入る。このようにして右目に見える映像と左目に見える映像とが異なることにより、表示部100aに映し出される映像は立体的に見える。
図2では、ある時間tに左目に導光される視点画像を点Aで表し、右目に導光される視点画像を点Bで表す。また、別のある時間t’に左目に導光される視点画像を点A’で表し、右目に導光される視点画像を点B’で表す。x軸上の点Aの座標Xaから点Bの座標Xbまでの差分(Xb−Xa)が、時間tにおける視差dである。また、x軸上の点A’の座標Xa’から点B’の座標Xb’までの差分(Xb’−Xa’)が、時間t’における視差d’である。
視差d(又はd’)が大きいほど画面より奥に画像が引っ込んで見えるか、画面より手前に画像が飛び出して見える度合いが大きくなる。視差dは、符号を持っていて、符号の違いにより画像が奥又は手前に見える。たとえば、図3に示したように、x軸上を左から右に走査した場合、時間tにおける視差d(=Xb−Xa)は正の符号をもつ。このとき、映像は表示面より奥に引っ込んで見える。一方、時間t’における視差d’(=Xb’−Xa’)は負の符号をもつ。このとき、映像は表示面より手前に飛び出して見える。したがって、視差を調整することにより表示面に対して垂直方向の立体画像の状態を作り変えることによって、立体画像の凹凸の度合いを変化させることができる。
特に、前記逆視領域では、視聴者には立体画像の手前と奥が反転した映像を知覚する、あるいは不自然に融合して見えるという違和感のある不快な逆視現象が生じる。逆視現象は、裸眼用の立体表示装置において原理的に生じるものであるため根本的な解決は難しい。よって、本実施形態では、視差を調整して立体画像の凹凸の度合いを変化させることにより、逆視現象の不快感を軽減するという方法を提案する。以下、本実施形態にかかる立体表示装置100の具体的な機能及び動作について詳述する。
なお、映像信号はステレオ画像(2視点画像)であってもよいし、2以上のN視点画像であってもよい。また、本実施形態では、1フレームを1画面として扱うが、1フィールドを1画面として扱うようにしても良い。これ以降では、説明を簡単にするため入力信号はステレオ画像(2視点画像)とする。
[立体表示装置の機能構成]
本実施形態に係る立体表示装置の機能構成について図3の機能ブロック図を参照しながら説明する。本実施形態にかかる立体表示装置100は、視差抽出部120、位置・距離検出部130、パラメータ算出部140、シフト処理部150、仮想視点画像生成部160、マッピング処理部170を有する。
視差抽出部120は、表示部100aの各画素に周期的に配置されている複数の視点画像間の対応点探索を行い、1画面中に含まれる画素毎に視差dを検出し、視点間の視差分布情報を生成する。検出方法としてはブロックマッチング法、DPマッチング法などの手法が挙げられるが、視差dの検出方法は、これに限られず、公知のいずれの手法を用いることもできる。例えば特許第4069855号に開示されたDPマッチング法を用いて視差dを抽出してもよい。図2を用いて前述したとおり、ステレオ画像で左画像上の座標を基準とした場合、手前に知覚される画素の視差の符号は負、奥に知覚される画素の視差の符号は正になる。
位置・距離検出部130は、カメラ200を用いて視聴者が正視領域に存在するか否かの状態を検出する。カメラ200は表示部100aの上部など視聴者の顔を検出しやすい位置に設置しておく。一般的に距離計測を行うためには2台以上のカメラが必要であるが、1台のカメラでも物体認識技術により距離情報を取得することが可能である。
例えば、位置・距離検出部130は、撮影した画像データから顔検出(顔認識)を行い、視距離に対する画像上の平均的な顔の大きさを予め調べておき、データベース210や図示しないメモリに記録しておく。検出した視聴者の顔画像の大きさとデータベース210やメモリ内のデータとを比較し、対応する距離データを読み出すことで、視聴者の位置情報及び表示部100aから視聴者までの距離情報を取得することができる。また、カメラ200の設置位置は固定されているので、検出された顔が位置する画像上の座標情報から、表示部100aに対する視聴者の相対位置情報を取得することも可能となる。なお、データベース210や上記メモリは、立体表示装置100に内蔵していてもよく、外部に保持していてもよい。
本実施形態における立体表示装置100の場合、正視領域と逆視領域の位置は予め分かっているので、検出された視聴者の位置情報から視聴者が正視領域に存在するか否かの検出が可能となる。なお、視点数や1視点あたりの視野角が大きい程、正視領域の面積が大きくなるので、高精度な視聴者の位置検出は必要としない。
パラメータ算出部140では、視差抽出部120により生成された視点間の視差分布情報と、位置・距離検出部130により検出された視聴者の位置情報とに基づき、シフト量と生成位相との両パラメータを出力する。なお、パラメータ算出部140は、視差抽出部120により生成された視点間の視差分布情報に基づきシフト量を算出することができ、視聴者の位置情報に基づいて仮想視点画像の生成位相を決定することができる。
例えば、視聴者が逆視領域にいる場合、パラメータ算出部140は、視差分布情報に基づき表示部100aの画面中に含まれる画素毎の視差量の平均値をシフト量として算出してもよい。あるいは、パラメータ算出部140は、視差分布のヒストグラムから表示部100aの手前側と奥側に知覚される面積(画素数)がほぼ等しくなる視差量をシフト量として算出してもよい。
また、逆視現象による不快感の度合いは、画像内の各オブジェクトの視差量の大きさと面積に依存する。例えば、表示部100aからの飛び出し量が非常に大きく知覚される物体であっても、面積が小さい場合には、逆視現象による不快感は小さい。一方、表示部100aの飛び出し量が小さく知覚される物体でも面積が大きい場合には、逆視現象により非常に不快に感じる場合がある。従って、視差量に物体の面積を加味したシフト量を用いて、物体の面積を加味しながら視差量の絶対値を小さくするように調整してもよい。すなわち、パラメータ算出部140は、前記算出されたシフト量に前記複数の視点画像内の物体の面積に応じた重み付けをした値を前記シフト処理に用いるシフト量として算出してもよい。このようにして物体の面積を考慮することにより、逆視現象による不快感や視聴者の疲労度をより軽減できると考えられる。
一方、本実施形態においては、視聴者が正視領域にいる場合は、逆視現象による不快感はないので、原則的にはシフト量を0として出力する。ただし、視差分布が存在するにも関わらず、視差分布の平均値が0となる場合がある。その場合には、視聴者の位置情報に基づき、逆視領域にいる場合には、生成する仮想視点映像間の視差量を小さくするように生成位相の間隔を小さくし、逆視現象による不快感を軽減する。
また、視聴者が複数人存在する場合、少なくとも一人が逆視領域に存在するかどうか判断すれば良く、上記で説明した同じ手段で、逆視現象による不快感を軽減できる。
シフト処理部150は、パラメータ算出部140により算出されたシフト量に基づいて、複数の視点画像と視差マップを作り変えて出力する。新しい視点画像は、元の画像座標にシフト量に応じたオフセット値を付加して画像を作成するだけなので、視差分布のダイナミックレンジを保持したまま、視差dの絶対値を制御できる。また、新たに視差マップ(すなわち、視差分布)を求める必要はなく、直前に算出された視差マップを用いて計算できるので、視差抽出を再度行う必要はない。
シフト処理の概要を図4A及び図4Bに示す。シフト量が10の場合を図4A、シフト量が‐10の場合を図4Bに示した。パラメータ算出部140で求めたシフト量に基づき、各視点画像の全体を水平方向にずらした画像を生成する(シフト処理)。また視差マップも同様にシフト処理を行い、視差データの大きさはシフト量に基づいて補正する。
具体的には、手前に知覚させたい場合は、左画像(L画像)を右側に、右画像(R画像)を左側に、画像全体をずらす。たとえば、図4Aでは、シフト量が10の場合、シフト量は正なので奥側に知覚される物体を手前にするため、左画像を右側に5画素、右画像を左側に−5画素ずらした画像を作成する。また、左画像を基準に求めた視差データD’(y,x)の大きさは直前の視差データD(y,x)に−10加算する。
奥側に知覚させたい場合は、反対に、左画像(L画像)を左側に、右画像(R画像)を右側に、画像全体をずらす。たとえば、図4Bでは、シフト量が−10の場合、シフト量は負なので手前側に知覚される物体を奥側にするため、左画像を左側に5画素、右画像を右側に−5画素ずらした画像を作成する。また、左画像を基準に求めた視差データD’(y,x)の大きさは直前の視差データD(y,x)に+10加算する。
なお、シフト処理の際、画像の端に黒帯が発生するため、シフト量が極端に大きい場合には、予め設定した値にクリップして処理を行ってもよい。
仮想視点画像生成部160は、シフト処理された視点画像と視差分布情報とを用いて仮想視点画像の生成を行う。例えば、入力画像がステレオ画像(2視点)で、表示部100aの視点数が4の場合、視点画像が2視点不足している。この場合にステレオ画像から仮想カメラ視点の2視点を生成する生成位相の概略図を図5A及び図5Bに示す。
図5Aの内挿の場合、4視点間の視差分布を同じにするために、生成位相は、入力画像の左画像の位置を0、右画像の位置を1とすると、1/3、2/3の位置に仮想視点画像を生成する。同様に、図5Bの外挿の場合にも、4視点間の視差分布を同じにするために、生成位相は、入力画像の左画像の位置を0、右画像の位置を1とすると、−1、2の位置に仮想視点画像を生成する。ここでは、仮想視点画像の生成方法は特に限定しないが、特許4069855号に記載された方法などを用いれば良い。
マッピング処理部170は、立体表示装置100のバリア周期と解像度に合わせて、生成した複数の視点画像データを表示部100aに再配置する。例えば、図1に示す表示部100aの場合、解像度と各視点画像の解像度が同じで視点数が4の場合には、1視点あたりの解像度は、水平1/4になる。
[立体表示装置の動作]
(全体動作)
次に、本実施形態に係る立体表示装置の全体動作について、図6の処理フローを参照しながら説明する。図6で処理が開始されると、視差抽出部120は、右目及び左目用の視点画像間の視差(ディスパリティ)分布を抽出する(S605)。
次に、位置・距離検出部130は、カメラ200に映し出された視聴者の位置を検出する(S610)。次に、パラメータ算出部140は、視差分布情報及び視聴者の位置情報に基づきシフト量を決定する(S615)。次に、シフト処理部150は、シフト量に基づいて、視点画像と視差マップを作り変えて出力する(S620:シフト処理)。
次に、仮想視点画像生成部160は、シフト処理された視点画像と視差分布情報とを用いて仮想視点画像の生成を行う(S625)。次に、マッピング処理部170は、立体表示装置100のバリア周期と解像度に合わせて、生成した複数の視点画像データの再配置を行い(S630)、処理を終了する。
(パラメータ算出部の動作)
ここで、S615にてパラメータ算出部140により行われる具体的処理について、図7の処理フローを参照しながら説明する。図7で処理が開始されると、パラメータ算出部140は、パラメータの初期化として、シフト量(shift)の初期化を行うとともに、コンテンツの画像に従って生成位相の設定を行う。
次に、パラメータ算出部140は、コンテンツ(画像)の視差のヒストグラムを取得する(S710)。次に、パラメータ算出部140は、対象コンテンツが視差を持っているコンテンツであるか否かを判定するために、視差分布のダイナミックレンジDR、すなわち、視差分布の最小値minと最大値maxの幅(図4A、図4Bを参照)を求める(S715)。次いで、パラメータ算出部140は、ダイナミックレンジDRが0か否かを判定する(S720)。ダイナミックレンジDRが0であれば、対象コンテンツは視差を有しないため、本処理を直ちに終了する。
一方、ダイナミックレンジDRが0でなければ、パラメータ算出部140は、対象コンテンツは視差を有しているため逆視が起こる可能性があると判定し、S725に進む。なお、ここでは、ダイナミックレンジDRが0か否かで視差を有しているか否かを判定したが、ダイナミックレンジDRが予め定められた閾値未満であれば対象コンテンツは視差を有せず、閾値以上であれば対象コンテンツは視差を有すると判定してもよい。
立体表示装置の位置に対して、どの位置が逆視領域であるかは予めわかっている。よって、パラメータ算出部140は、カメラ200によって顔検出した顔の位置から、視聴者が逆視領域に存在するか否かを判定することができる。視聴者が逆視領域に存在しない場合、視聴者全員が正視領域で視聴していることになるため、本処理を実行する必要はないと判定し、本処理を直ちに終了する。
一方、視聴者が一人でも逆視領域に存在する場合、パラメータ算出部140は、シフト量を決定する(S730)。たとえば、パラメータ算出部140は、視差の累積度数が概ね半分になる視差量をシフト量として決定してもよい。パラメータ算出部140は、視差分布の平均値をシフト量として決定してもよい。あるいは、パラメータ算出部140は、視差分布のヒストグラムから、表示部100aの手前と奥に知覚される面積(画素数)が等しくなる視差量をシフト量として決定してもよい。
次に、シフト量が0か否かを判定する(S735)。シフト量が0でない場合には、仮想視点画像の生成位相を制限することなく、本処理を直ちに終了する。シフト量が0の場合には、パラメータ算出部140は、仮想視点画像の生成位相を内挿(0.0〜1.0)に制限して、本処理を終了する。これは、仮想視点画像の生成位相を図5Bに示した外挿にすると、入力画像の外側に仮想視点画像を生成するため、画像のずれがより大きくなり、画像の不快感が増す可能性が高いためである。一方、仮想視点画像の生成位相を図5Aに示した内挿にすると、入力画像の内側に仮想視点画像を生成するため、画像のずれがより小さくなり、画像の不快感が減る。よって、シフト量が0の場合には、仮想視点画像の生成位相を画像の不快感が減る内挿に制限する。なお、パラメータ算出部140は、算出されたシフト量に基づき仮想視点画像の生成位相を決定する際、S735ではシフト量を0か否かで判定したが、シフト量が予め定められた所望の値(以上)以上の場合、仮想視点画像が入力画像の間に内挿して生成されるように仮想視点画像の生成位相を決定してもよい。
以上に説明したように、本実施形態によれば、算出された視差情報を基に、視点間の視差のダイナミックレンジを保持したまま、表示部100aの手前と奥に知覚される量の絶対値を調整した画像を作成する(シフト処理)。このシフト処理により作成された視点画像は、元の視点画像に比べて視差量の絶対値が小さくなるので、元の視点画像に比べて、逆視領域に不快感を軽減することが可能となる。
また、視点画像の視差情報と視聴者の位置情報に基づいて、仮想視点映像生成における生成位相が制御されるので、逆視現象による不快感を軽減した立体画像を提供することが可能となる。
<第2実施形態>
第1実施形態では、逆視領域に少なくとも一人以上の視聴者が存在する場合に限って、シフト量を調整し、逆視現象の不快感を軽減した。これに対して、第2実施形態では、正視領域のみに視聴者が存在する場合や逆視領域と正視領域とに視聴者が存在する場合であっても、視聴者の疲労軽減のためにシフト量を調整する。特に、本実施形態では視差量が大きくなると視聴者に疲労がたまることや、その疲労度も男性と女性、大人と子供等個人差が大きいことを考慮して視差を調整し、立体画像を作り変える。以下、本実施形態にかかる立体表示装置について詳述する。
[立体表示装置の機能構成]
本実施形態にかかる立体表示装置100の機能構成は、図3に示した第1実施形態にかかる立体表示装置100の機能構成と同様であるため、基本的説明は省略する。本実施形態では、データベース210は、属性情報を保持する。位置・距離検出部130は、リモコン操作等による視聴者の指示に応じて立体映像を視聴する前に視聴者の属性情報をデータベース210に登録する。具体的には、位置・距離検出部130は、カメラ200が撮像できる位置に視聴者を移動させ、視聴者のリモコン操作等を通じて顔認識を行い、顔認識された結果と視聴者の識別情報と視差情報とを対応付けてデータベース210に登録する。例えば、リモコン等を通じて、視聴者に視聴者の名前と視差情報の設定値とを入力させるという方法が考えられる。複数人登録する場合は、優先度も登録する。
たとえば、顔認識の結果、お父さん、お母さん、子供の3人の顔が認識されたとする。この場合、位置・距離検出部130は、お父さんの顔認識情報と名前と視差情報(許容する視差のレベル)と優先度とを対応付けてデータベース210に記憶する。名前、視差情報及び優先度は視聴者の属性情報の一例である。お母さん、子供に関する属性情報も同様に予めデータベース210に記憶されている。
立体映像の視聴時、位置・距離検出部130は、視聴者の顔認識により視聴者の属性情報を検出する。パラメータ算出部140は、視差分布情報及び属性情報に基づきシフト量を決定する。シフト量を決定する際、位置・距離検出部130は顔認識により属性情報を取得できればよく、必ずしも視聴者の位置情報を必要としない。
[立体表示装置の動作]
本実施形態にかかる立体表示装置の全体動作については、図6に示した第1実施形態にかかる立体表示装置の全体動作と同様であるため、説明を省略し、パラメータ算出部140の動作についてのみ、図8の処理フローを参照しながら説明する。
(パラメータ算出部の動作)
S705〜S720の処理は第1実施形態と同様である。すなわち、パラメータ算出部140は、シフト量の初期化と生成位相の設定を行い(S705)、コンテンツの視差のヒストグラムを取得し(S710)、視差分布のダイナミックレンジDRを求め(S715)、ダイナミックレンジDRが0か否かを判定する(S720)。ダイナミックレンジDRが0であれば、対象コンテンツは視差を有しないため、本処理を直ちに終了する。
一方、ダイナミックレンジDRが0でなければ、パラメータ算出部140は、視差分布情報及び属性情報に基づきシフト量を決定する(S805)。たとえば、位置・距離検出部130によりデータベース210から検出された顔認識に対するお父さん、お母さん、子供の属性情報のうち子供の優先度が一番高い場合には、子供に紐づけられた視差情報と視差分布とに基づきシフト量を決定する。
S735,740の処理は第1実施形態と同様である。すなわち、パラメータ算出部140は、シフト量が0の場合には、仮想視点画像の生成位相を内挿(0.0〜1.0)に制限して本処理を終了し、シフト量が0でない場合には、本処理を直ちに終了する。
以上に説明したように、本実施形態によれば、属性情報に基づき視差を調整する。このように、本実施形態では、一番優先度が高い人の疲労感を軽減するために、その人を基準に視差を調整する。これにより、優先度を考慮した視聴者の疲労感を軽減することができる。ただし、必ずしも優先度に限ることなく、属性情報のいずれかを用いて視差を調整してもよい。
以上、第1及び第2実施形態によれば、多視点画像の視差情報に基づいたシフト処理により、例えば、逆視現象による不快感や、正視領域においても起こりえる立体映像視聴時の疲労感を軽減した立体画像を提供することが可能となる。
なお、各実施形態にかかる機能ブロックの各部への指令は、専用の制御デバイスあるいはプログラムを実行するCPU(図示せず)により実行される。よって以上に説明した各処理を実行するためのプログラムは、ROMや不揮発性メモリ(ともに図示せず)に予め記憶されていて、CPUが、これらのメモリから各プログラムを読み出し実行することにより、立体表示装置の各部の機能が実現される。
上記第1及び第2の実施形態において、各部の動作は互いに関連しており、互いの関連を考慮しながら、一連の動作として置き換えることができる。これにより、立体表示装置の実施形態を、立体表示装置の制御方法の実施形態とすることができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、画像処理を用いて視聴者の位置や表示部から視聴者までの距離を算出したが、本発明はかかる例に限定されない。例えば、赤外線などを使用して位置情報や距離情報を取得してもよい。表示面と視聴者との距離が分かれば、どんな方法を用いてもよい。
また、上記実施形態では、右目に導光される視点映像、右目に導光される視点映像をレンチキュラーレンズやパララックスバリアで制御したが、光分離部は、裸眼で立体映像を視聴できれば他のどんな機構を用いてもよい。
尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
100 立体表示装置
100a 表示部
110 パララックスバリア
120 視差抽出部
130 位置・距離検出部
140 パラメータ算出部
150 シフト処理部
160 仮想視点画像生成部
170 マッピング処理部
200 カメラ
210 データベース

Claims (12)

  1. 複数の視点画像を周期的に配置して表示する表示部と、
    前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置であって、
    複数の視点画像間の視差分布情報を抽出する視差抽出部と、
    前記抽出された視差分布情報に基づき、シフト量を算出するパラメータ算出部と、
    前記算出されたシフト量に基づき、少なくとも1つの視点画像をシフト処理するシフト処理部と、
    前記シフト処理された視点画像を前記表示部に再配置するマッピング処理部と、
    を備える立体表示装置。
  2. 前記パラメータ算出部は、前記視差分布情報に基づき前記表示部の画面中に含まれる画素毎の視差量の平均値をシフト量として算出する請求項1に記載の立体表示装置。
  3. 前記パラメータ算出部は、前記視差分布情報に基づき前記表示部の手前側と奥側に知覚される画素数がほぼ等しくなる視差量をシフト量として算出する請求項1に記載の立体表示装置。
  4. 前記パラメータ算出部は、前記複数の視点画像内の物体の面積に応じて、前記算出されたシフト量を重み付けした値をシフト量として算出する請求項1に記載の立体表示装置。
  5. 観察者の顔認識により観察者の位置情報を検出する位置・距離検出部をさらに備え、
    前記パラメータ算出部は、前記視差分布情報及び前記観察者の位置情報に基づきシフト量を算出する請求項1〜4のいずれか一項に記載の立体表示装置。
  6. 前記パラメータ算出部は、前記検出された観察者の位置情報から観察者のうちの少なくとも一人が逆視領域に存在すると判定された場合にシフト量を算出する請求項5に記載の立体表示装置。
  7. 観察者の顔認識により観察者の属性情報を検出する位置・距離検出部をさらに備え、
    前記パラメータ算出部は、前記視差分布情報及び前記属性情報に基づきシフト量を算出する請求項1〜6のいずれか一項に記載の立体表示装置。
  8. 前記パラメータ算出部は、前記算出されたシフト量に基づき仮想視点画像の生成位相を決定する請求項1〜7のいずれか一項に記載の立体表示装置。
  9. 前記パラメータ算出部は、算出されたシフト量が予め定められた所望の値以上の場合、仮想視点画像が前記シフト処理された右目用画像及び左目用画像の間に内挿して生成されるように仮想視点画像の生成位相を決定する請求項8に記載の立体表示装置。
  10. 前記パラメータ算出部は、前記観察者の位置情報に基づいて仮想視点画像の生成位相を決定する請求項5〜9のいずれか一項に記載の立体表示装置。
  11. 光源と、
    複数の視点画像を周期的に配置して表示する表示部と、
    前記表示部と前記光源との間に配置され、前記光源からの光を分離させる光分離部とを有する立体表示装置であって、
    複数の視点画像間の視差分布情報を抽出する視差抽出部と、
    前記抽出された視差分布情報に基づき、シフト量を算出するパラメータ算出部と、
    前記算出されたシフト量に基づき、少なくとも1つの視点画像をシフト処理するシフト処理部と、
    前記シフト処理された視点画像を前記表示部に再配置するマッピング処理部と、
    を備える立体表示装置。
  12. 複数の視点画像を周期的に配置して表示する表示部と、
    前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置の制御方法であって、
    視差抽出部が、複数の視点画像間の視差分布情報を抽出するステップと、
    パラメータ算出部が、前記抽出された視差分布情報に基づきシフト量を算出するステップと、
    シフト処理部が、前記算出されたシフト量に基づき少なくとも1つの視点画像をシフト処理するステップと、
    マッピング処理部が、前記シフト処理された複数の視点画像を前記表示部に再配置するステップと、
    を含む立体表示装置の制御方法。
JP2010143866A 2010-06-24 2010-06-24 立体表示装置及び立体表示装置の制御方法 Active JP5494283B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010143866A JP5494283B2 (ja) 2010-06-24 2010-06-24 立体表示装置及び立体表示装置の制御方法
TW100113282A TWI444661B (zh) 2010-06-24 2011-04-15 顯示裝置及其控制方法
KR1020110058483A KR20110140083A (ko) 2010-06-24 2011-06-16 표시 장치 및 표시 장치의 제어 방법
US13/067,636 US8654182B2 (en) 2010-06-24 2011-06-16 Display device and control method of display device
CN2011101702648A CN102300112A (zh) 2010-06-24 2011-06-23 显示设备以及显示设备的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010143866A JP5494283B2 (ja) 2010-06-24 2010-06-24 立体表示装置及び立体表示装置の制御方法

Publications (2)

Publication Number Publication Date
JP2012010084A true JP2012010084A (ja) 2012-01-12
JP5494283B2 JP5494283B2 (ja) 2014-05-14

Family

ID=45352163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010143866A Active JP5494283B2 (ja) 2010-06-24 2010-06-24 立体表示装置及び立体表示装置の制御方法

Country Status (5)

Country Link
US (1) US8654182B2 (ja)
JP (1) JP5494283B2 (ja)
KR (1) KR20110140083A (ja)
CN (1) CN102300112A (ja)
TW (1) TWI444661B (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013140702A1 (ja) * 2012-03-22 2013-09-26 Necカシオモバイルコミュニケーションズ株式会社 画像処理装置、画像処理方法、及びプログラム
JP2013190713A (ja) * 2012-03-15 2013-09-26 Sony Corp 表示装置および方法、情報処理装置および方法、並びにプログラム
EP2693758A2 (en) 2012-07-31 2014-02-05 NLT Technologies, Ltd. Stereoscopic image display device, image processing device, and stereoscopic image processing method
JP2014044396A (ja) * 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法
JP2014045473A (ja) * 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法
JP2015186099A (ja) * 2014-03-25 2015-10-22 株式会社Jvcケンウッド 立体画像生成装置、立体画像生成方法、及び立体画像生成プログラム
JP2018523338A (ja) * 2015-05-05 2018-08-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 裸眼立体視ディスプレイのための画像の生成
JP2022009242A (ja) * 2016-09-09 2022-01-14 グーグル エルエルシー 3dテレプレゼンスシステム

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4787369B1 (ja) * 2010-03-30 2011-10-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
US9049423B2 (en) * 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video
JP5732888B2 (ja) 2011-02-14 2015-06-10 ソニー株式会社 表示装置及び表示方法
US9363504B2 (en) * 2011-06-23 2016-06-07 Lg Electronics Inc. Apparatus and method for displaying 3-dimensional image
EP2764695A1 (en) * 2011-10-04 2014-08-13 Telefonaktiebolaget LM Ericsson (PUBL) Objective 3d video quality assessment model
CN104041027A (zh) * 2012-01-06 2014-09-10 奥崔迪合作公司 用于三维显示的显示处理器
TWI514849B (zh) * 2012-01-11 2015-12-21 Himax Tech Ltd 立體影像顯示系統之校正裝置及其校正方法
EP2615838B1 (en) * 2012-01-12 2019-08-21 SeeFront GmbH Calibration of an autostereoscopic display system
JP5167439B1 (ja) * 2012-02-15 2013-03-21 パナソニック株式会社 立体画像表示装置及び立体画像表示方法
JP5762998B2 (ja) * 2012-03-07 2015-08-12 株式会社ジャパンディスプレイ 表示装置および電子機器
CN111182311A (zh) * 2012-04-25 2020-05-19 浙江大学 三维视频序列辅助信息的解码方法、编码方法及装置
KR101908511B1 (ko) * 2012-05-16 2018-10-17 엘지디스플레이 주식회사 입체 영상 표시 장치 및 이의 구동 방법
CN102722044B (zh) * 2012-06-07 2015-05-20 深圳市华星光电技术有限公司 立体显示***
JP5343156B1 (ja) * 2012-06-29 2013-11-13 株式会社東芝 検出装置、検出方法および映像表示装置
US8970390B2 (en) * 2012-08-29 2015-03-03 3M Innovative Properties Company Method and apparatus of aiding viewing position adjustment with autostereoscopic displays
CN102798982B (zh) * 2012-08-31 2015-11-25 深圳超多维光电子有限公司 一种立体显示设备及立体显示控制方法
KR20140043264A (ko) * 2012-09-26 2014-04-09 삼성전자주식회사 다시점 영상 처리 장치 및 방법
EP2765774A1 (en) * 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating an intermediate view image
CN103293692B (zh) * 2013-06-19 2016-01-13 青岛海信电器股份有限公司 一种裸眼立体图像显示控制方法及装置
JP2015012560A (ja) * 2013-07-02 2015-01-19 ソニー株式会社 表示処理装置、表示装置および画像処理方法
CN103605211B (zh) * 2013-11-27 2016-04-20 南京大学 平板化无辅助立体显示装置及方法
CN105578171B (zh) * 2014-04-01 2017-07-11 青岛海信电器股份有限公司 一种图像信号处理方法及装置
TWI556624B (zh) * 2014-07-18 2016-11-01 友達光電股份有限公司 影像顯示方法以及影像顯示裝置
CN104144337B (zh) * 2014-08-05 2016-07-06 深圳市华星光电技术有限公司 一种多视点立体显示器的图像显示方法及装置
KR102415502B1 (ko) * 2015-08-07 2022-07-01 삼성전자주식회사 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
KR102174258B1 (ko) 2015-11-06 2020-11-04 삼성전자주식회사 무안경 3d 디스플레이 장치 및 그 제어 방법
EP3644604A1 (en) * 2018-10-23 2020-04-29 Koninklijke Philips N.V. Image generating apparatus and method therefor
CN111856773B (zh) * 2019-04-26 2023-08-22 天马日本株式会社 显示装置
CN115479544B (zh) * 2022-09-22 2023-11-10 南京理工大学 一种基于平移差分的微结构线宽显微无损测量方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032840A (ja) * 1996-04-05 1998-02-03 Matsushita Electric Ind Co Ltd 多視点画像伝送方法および多視点画像表示方法
JP2002223458A (ja) * 2001-01-26 2002-08-09 Nippon Hoso Kyokai <Nhk> 立体映像作成装置
JP2006211383A (ja) * 2005-01-28 2006-08-10 Konica Minolta Photo Imaging Inc 立体画像処理装置、立体画像表示装置、及び立体画像生成方法
JP2008185629A (ja) * 2007-01-26 2008-08-14 Seiko Epson Corp 画像表示装置
JP2009251141A (ja) * 2008-04-03 2009-10-29 Mitsubishi Electric Corp 立体画像表示装置
WO2010049868A1 (en) * 2008-10-28 2010-05-06 Koninklijke Philips Electronics N.V. A three dimensional display system

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4987487A (en) * 1988-08-12 1991-01-22 Nippon Telegraph And Telephone Corporation Method of stereoscopic images display which compensates electronically for viewer head movement
US6463176B1 (en) * 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
JP3443272B2 (ja) * 1996-05-10 2003-09-02 三洋電機株式会社 立体映像表示装置
JP2000047139A (ja) * 1998-07-27 2000-02-18 Mr System Kenkyusho:Kk 立体画像表示装置
US7342721B2 (en) * 1999-12-08 2008-03-11 Iz3D Llc Composite dual LCD panel display suitable for three dimensional imaging
US7715595B2 (en) * 2002-01-16 2010-05-11 Iritech, Inc. System and method for iris identification using stereoscopic face recognition
US7257272B2 (en) * 2004-04-16 2007-08-14 Microsoft Corporation Virtual image generation
US8300043B2 (en) * 2004-06-24 2012-10-30 Sony Ericsson Mobile Communications AG Proximity assisted 3D rendering
KR100729280B1 (ko) * 2005-01-08 2007-06-15 아이리텍 잉크 스테레오 카메라를 장착한 이동단말기를 이용한 홍채인식시스템 및 그 방법
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
KR100739730B1 (ko) * 2005-09-03 2007-07-13 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
RU2431938C2 (ru) * 2006-03-31 2011-10-20 Конинклейке Филипс Электроникс Н.В. Эффективное кодирование множества видов
KR101311896B1 (ko) * 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
KR20080076628A (ko) * 2007-02-16 2008-08-20 삼성전자주식회사 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법
KR101345303B1 (ko) * 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
JP2009080144A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 立体映像表示装置および立体映像表示方法
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
US9035939B2 (en) * 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032840A (ja) * 1996-04-05 1998-02-03 Matsushita Electric Ind Co Ltd 多視点画像伝送方法および多視点画像表示方法
JP2002223458A (ja) * 2001-01-26 2002-08-09 Nippon Hoso Kyokai <Nhk> 立体映像作成装置
JP2006211383A (ja) * 2005-01-28 2006-08-10 Konica Minolta Photo Imaging Inc 立体画像処理装置、立体画像表示装置、及び立体画像生成方法
JP2008185629A (ja) * 2007-01-26 2008-08-14 Seiko Epson Corp 画像表示装置
JP2009251141A (ja) * 2008-04-03 2009-10-29 Mitsubishi Electric Corp 立体画像表示装置
WO2010049868A1 (en) * 2008-10-28 2010-05-06 Koninklijke Philips Electronics N.V. A three dimensional display system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013190713A (ja) * 2012-03-15 2013-09-26 Sony Corp 表示装置および方法、情報処理装置および方法、並びにプログラム
WO2013140702A1 (ja) * 2012-03-22 2013-09-26 Necカシオモバイルコミュニケーションズ株式会社 画像処理装置、画像処理方法、及びプログラム
JPWO2013140702A1 (ja) * 2012-03-22 2015-08-03 Necカシオモバイルコミュニケーションズ株式会社 画像処理装置、画像処理方法、及びプログラム
JP2014045474A (ja) * 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法
JP2014044396A (ja) * 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法
JP2014045473A (ja) * 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法
EP2693758A2 (en) 2012-07-31 2014-02-05 NLT Technologies, Ltd. Stereoscopic image display device, image processing device, and stereoscopic image processing method
US9398290B2 (en) 2012-07-31 2016-07-19 Nlt Technologies, Ltd. Stereoscopic image display device, image processing device, and stereoscopic image processing method
US10237541B2 (en) 2012-07-31 2019-03-19 Nlt Technologies, Ltd. Stereoscopic image display device, image processing device, and stereoscopic image processing method with reduced 3D moire
JP2015186099A (ja) * 2014-03-25 2015-10-22 株式会社Jvcケンウッド 立体画像生成装置、立体画像生成方法、及び立体画像生成プログラム
JP2018523338A (ja) * 2015-05-05 2018-08-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 裸眼立体視ディスプレイのための画像の生成
JP2022009242A (ja) * 2016-09-09 2022-01-14 グーグル エルエルシー 3dテレプレゼンスシステム
JP7443314B2 (ja) 2016-09-09 2024-03-05 グーグル エルエルシー 3dテレプレゼンスシステム

Also Published As

Publication number Publication date
US8654182B2 (en) 2014-02-18
TWI444661B (zh) 2014-07-11
CN102300112A (zh) 2011-12-28
JP5494283B2 (ja) 2014-05-14
KR20110140083A (ko) 2011-12-30
US20110316985A1 (en) 2011-12-29
TW201200910A (en) 2012-01-01

Similar Documents

Publication Publication Date Title
JP5494283B2 (ja) 立体表示装置及び立体表示装置の制御方法
US9204140B2 (en) Display device and display method
KR20110140090A (ko) 표시 장치
US9838673B2 (en) Method and apparatus for adjusting viewing area, and device capable of three-dimension displaying video signal
US20110316987A1 (en) Stereoscopic display device and control method of stereoscopic display device
JP5625979B2 (ja) 表示装置および表示方法ならびに表示制御装置
KR20120016408A (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 출력 방법 및 그 방법을 채용한 디스플레이 기기
US20110109731A1 (en) Method and apparatus for adjusting parallax in three-dimensional video
JP5849811B2 (ja) 裸眼立体視用映像データ生成方法
EP2907305B1 (en) Depth adjustment of an image overlay in a 3d image
KR20110049039A (ko) 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
US20160150226A1 (en) Multi-view three-dimensional display system and method with position sensing and adaptive number of views
JP4819114B2 (ja) 立体画像表示装置
US20140071237A1 (en) Image processing device and method thereof, and program
CN202172467U (zh) 具人眼定位的光栅随动装置的显示器
KR20160006546A (ko) 다시점 영상 디스플레이 장치 및 그 다시점 영상 디스플레이 방법
CN103051909B (zh) 用于裸眼3d显示的蒙版变换人眼跟踪方法
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
US20140085434A1 (en) Image signal processing device and image signal processing method
KR102242923B1 (ko) 스테레오 카메라의 정렬장치 및 스테레오 카메라의 정렬방법
JP2012133179A (ja) 立体視装置、及び立体視装置の制御方法
KR20120068256A (ko) 시청자의 양안 위치를 추적하여 디스플레이하는 맞춤형 무안경 2디/3디변환 디스플레이
CN117857764A (zh) 图像显示方法与3d显示***
KR20140050804A (ko) 입체 영상 표시 장치 및 그 구동 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140217

R151 Written notification of patent or utility model registration

Ref document number: 5494283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250