JP2012090256A - 画像表示装置及び撮像装置 - Google Patents

画像表示装置及び撮像装置 Download PDF

Info

Publication number
JP2012090256A
JP2012090256A JP2011181618A JP2011181618A JP2012090256A JP 2012090256 A JP2012090256 A JP 2012090256A JP 2011181618 A JP2011181618 A JP 2011181618A JP 2011181618 A JP2011181618 A JP 2011181618A JP 2012090256 A JP2012090256 A JP 2012090256A
Authority
JP
Japan
Prior art keywords
image
display device
unit
display
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011181618A
Other languages
English (en)
Other versions
JP5263355B2 (ja
Inventor
Hidenori Kuribayashi
英範 栗林
Masaki Otsuki
正樹 大槻
Kenzo Chiaki
謙三 千秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011181618A priority Critical patent/JP5263355B2/ja
Priority to US13/220,218 priority patent/US9076245B2/en
Priority to CN201110291048.9A priority patent/CN102547324B/zh
Publication of JP2012090256A publication Critical patent/JP2012090256A/ja
Application granted granted Critical
Publication of JP5263355B2 publication Critical patent/JP5263355B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】 画像表示装置の傾きに応じた画像の立体視表示を容易な構成で、且つ、最適な状態で観察する。
【解決手段】 人間の視差を利用した第1画像の立体視表示を行うことが可能な表示部と、立体視表示における奥行き距離を変更する処理を、第1画像に対して施す画像処理部と、処理が施された第1画像を表示部に表示させる表示制御部と、を備えたことを特徴とする。
【選択図】 図3

Description

本発明は、画像を立体視表示することが可能な画像表示装置及び撮像装置に関する。
近年、画像を立体視表示する技術が種々提案されている。この立体視表示の元になる画像(以下、三次元画像)は、人間の視差を利用した撮影により取得される一対の画像を合成する、又は平面視される画像(以下、二次元画像)から生成される一対の画像を合成することで生成される。この三次元画像の立体視表示は、人間の目の位置が一対の画像を撮影した位置となる場合に最適な状態で観察することができ、また、立体視表示における奥行き感を味わうことができる。このような立体視表示を最適な状態で観察できるように、検出した人物の位置に応じて画像表示装置の傾きを自動的に調整する技術が提案されている(特許文献1参照)。
特開2006−211453号公報
しかしながら、特許文献1の場合、画像表示装置の傾きを自動的に調整する機構を設けることで画像表示装置が大型化してしまう。また、このような機構では、画像表示装置の傾きをユーザの姿勢の微妙な変化に合わせて調整することが困難であり、画像の立体視表示を最適な状態で観察しにくい。また、画像表示装置において画像の立体視表示を行う場合、手や指など、ユーザの体の一部が立体視表示の知覚面にかかる、又は知覚面よりも奥側に位置する場合も生じる。このような場合、立体視表示における物体の立体感が損なわれ、違和感のある立体視表示となってしまう。
本発明は、画像の立体視表示を容易な構成で、且つ、最適な状態で観察することができるようにした画像表示装置及び撮像装置を提供することを目的とする。
上述した課題を解決するために、本発明の画像表示装置は、人間の視差を利用した第1画像の立体視表示を行うことが可能な表示部と、前記立体視表示における奥行き距離を変更する処理を、前記第1画像に対して施す画像処理部と、前記処理が施された前記第1画像を前記表示部に表示させる表示制御部と、を備えたことを特徴とする。
また、装置の傾きを検出する傾き検出部を備え、前記画像処理部は、前記傾き検出部により検出された前記装置の傾きに基づいて、前記第1画像に対する前記処理を実行するものである。
また、前記奥行き距離を変更する際に操作される操作部を備え、前記画像処理部は、前記操作部の操作に基づいて、前記第1画像に対する前記処理を実行するものである。この場合、前記操作部の操作により変更された前記奥行き距離を記憶する記憶部を備え、前記画像処理部は、前記記憶部に記憶された前記奥行き距離となるように、前記第1画像に対する前記処理を実行することが好ましい。
また、前記立体視表示において前記第1画像が知覚される面は、前記表示部の表示面に対して所定の角度傾斜しており、前記所定の角度は、前記画像処理部による前記処理を行うことで変更されるものである。この場合、前記立体視表示において前記第1画像が知覚される面は、前記第1画像を観察する人間の両眼視差量が前記立体視表示における融像限界の範囲を外れた場合に、前記表示部の表示面となることが好ましい。また、前記立体視表示において前記第1画像が知覚される面は、前記所定の角度が予め設定された閾値を超過した場合に、前記表示部の表示面となることが好ましい。
また、前記画像処理部は、人物が接触する位置に基づいて、前記第1画像が知覚される面を前記所定の角度傾斜させるときの回転中心の位置を設定するものである。この場合、前記画像処理部は、前記人物が同時に複数の位置で接触されたときに、前記複数の位置の中間の位置を通る直線を、前記第1画像が知覚される面を前記所定の角度傾斜させるときの回転中心として設定するものである。また、この他に、前記画像処理部は、前記人物が同時に複数の位置で接触されたときに、前記複数の位置のいずれかの位置を通る直線を、前記第1画像が知覚される面を前記所定の角度傾斜させるときの回転中心として設定するものである。
また、前記表示面における人物の接触した位置を検知する位置検知部を備え、前記画像処理部は、前記位置検知部により検知された人物の位置に基づいて、前記第1画像を縮小し、前記表示部は、前記画像処理部により縮小された前記第1画像を表示するものである。
また、前記画像処理部は、変更された前記奥行き距離に基づいて、前記第1画像の幅を調整するものである。
また、前記第1画像は、前記表示部の全領域を用いて表示されるものである。
また、前記第1画像は、前記表示部の一部の領域を用いて表示されるものである。
また、前記画像処理部は、前記第1画像に含まれる構造物の領域に前記処理を実行することで、前記第1画像に含まれる前記構造物の奥行き距離を変更するものである。
また、前記画像処理部は、入力操作を行う領域が前記第1画像に含まれる場合、少なくとも前記入力操作を行う領域以外の領域に対して前記処理を実行するものである。
また、前記画像処理部は、立体視表示される構造物が前記第1画像に含まれる場合、前記構造物以外の領域に対して前記処理を実行することで、前記構造物における奥行き距離を維持したまま、前記第1画像における奥行き距離を変更するものである。
また、人物の接触を検知する検知部を備え、前記画像処理部は、前記検知部による前記人物の接触の有無に基づいて、前記第1画像に対する前記処理を実行するものである。この場合、前記表示制御部は、前記検知部により前記人物の接触を検知できない場合に、前記表示部による前記第1画像の表示を停止することが好ましい。
また、前記第1画像とは異なる第2画像を撮像する撮像部を備え、前記画像処理部は、前記撮像部により撮像された前記第2画像に含まれる人物の顔の位置に基づいて、前記第1画像に対する前記処理を実行するものである。この場合、前記表示制御部は、前記撮像部により撮像された前記第2画像から人物の顔を検出できない場合に、前記表示部による前記第1画像の表示を停止することが好ましい。
また、前記撮像部は、前記立体視表示において前記第1画像が知覚される面を撮影範囲とした前記第2画像を取得することが可能であり、前記撮像部により撮像された前記第2画像に含まれる人物の手の位置と、前記立体視表示に含まれる操作部の位置とに基づいて、前記操作部が操作されたか否かを判定する判定部と、前記判定部により前記操作部が操作されたと判定された場合に、前記操作部の操作に基づいた制御を実行する制御部とを、さらに備えていることが好ましい。
この場合、前記撮像部における撮影範囲は、前記立体視表示において前記第1画像が知覚される面のうち、前記表示部の表示面よりも前方に突出する領域からなることが好ましい。
また、入力操作を行うタッチパネルと、前記画像処理部により変更された前記立体視表示における奥行き距離に基づいて、前記タッチパネルにおける検出感度を変更する感度変更部と、を備えていることが好ましい。
また、前記タッチパネルにより入力操作が行われたことを検知したときに、入力操作される物体に対して風を送風する送風装置、又は水滴を吐出する吐出装置を備えるものである。
また、装置が位置する高さを検出する高さ検出部を、備え、前記画像処理部は、前記高さ検出部により検出された前記装置が位置する高さに基づいて、前記第1画像に対する前記処理を実行するものである。
また、前記表示部の前面に位置する障害物を検知する障害物検知部と、前記障害物検知部による前記障害物の検知に基づいて、前記表示部から前記障害物までの距離を算出する算出部と、をさらに備え、前記画像処理部は、前記算出部により算出される距離が前記第1画像における奥行き距離以下となる場合に、前記第1画像における奥行き距離を変更するものである。
この場合、前記算出部は、前記表示部の表示面における前記障害物の位置を算出し、前記画像処理部は、前記第1画像のうち、前記障害物に対応した位置にある構造物に対する奥行き距離を変更するものである。
また、前記画像処理部は、前記第1画像全体に対する奥行き距離を変更するものである。
また、前記立体視表示において前記第1画像が知覚される面を、前記表示部の周縁部の奥行き距離が前記表示部の中心部の奥行き距離よりも短く設定される湾曲面、又は屈曲面からなるものである。
この場合、人物の接触を検知する検知部を備え、前記検知部による前記人物の接触を検知したときに、前記人物の接触を検知した位置近傍における前記第1画像が知覚される面の奥行き距離を零(0)に設定するものである。
また、前記検知部により検知される人物の接触位置の移動により、前記表示部の中心部の奥行き距離を変化させるものである。
また、本発明の撮像装置は、上述したいずれかに記載の画像表示装置を備えたことを特徴とする。
本発明によれば、画像表示装置の傾きに応じた画像の立体視表示を容易な構成で、且つ、最適な状態で観察できる。
画像表示装置の構成を示す機能ブロック図である。 三次元画像を表示する場合の処理の流れを示すフローチャートである。 画像表示装置の表示面と立体視表示される三次元画像の知覚面との関係において、(a)は画像表示装置が水平状態となる場合、(b)は画像表示装置を角度α(=θ)傾斜させた場合、(c)は画像表示装置を角度α(>θ)傾斜させた場合を示す図である。 (a)は知覚面の回転中心をユーザ側の端部とした場合、(b)は知覚面の回転中心をユーザ側の端部とは反対側の端部とした場合について説明する図である。 (a)は、x方向において左手の親指と右手の親指とが同一位置にあるときの回転中心の位置、(b)は左手の親指と右手の親指とが異なる位置にあるときの回転中心の位置を示す図である。 左手の親指の位置と右手の親指の位置とが異なるときに、回転中心の位置を示す図である。 (a)は、水平状態に保持した画像表示装置を示す図、(b)は、x方向の軸を回転中心として傾斜させた画像表示装置を示す図である。 (a)は、両手の親指が表示面にかかる場合の親指の位置と、表示した三次元画像の大きさとを示す図、(b)は表示面にかかる親指の位置に応じて、三次元画像を表示する領域を縮小した場合の図である。 (a)は、立体視表示における奥行き距離により表示される物体の大きさの変化を示す図、(b)は、実際に物体を移動させたときの物体の大きさを示す図である。 表示面における三次元画像の大きさを示す図である。 (a)は画像表示装置の表示領域をキーボード表示エリア及びテキスト入力エリアとから構成した場合を示す平面図、(b)は表示される各エリアに表示される画像の表示面の状態を示す図である。 (a)はx方向の略中央を把持した場合に立体視表示における知覚面を湾曲面としたときの図、(b)は画像表示装置の4隅のうち、対向する2隅を把持した場合に立体視表示における知覚面を湾曲面としたときの図、(c)は知覚面を表示部の奥側に湾曲させた湾曲面としたときの図である。 (a)は画像表示装置の側面にポイントセンサを設けた場合、(b)は画像表示装置の側面に感圧センサを設けた場合を示す図である。 (a)は画像表示装置に表示される操作ボタンの配置の一例を示す平面図、(b)は(a)に示す各操作ボタンを立体視表示した場合の各操作ボタンの奥行き距離を示す図である。 三次元画像に含まれるオブジェクトを画像表示装置の傾きに併せて回転させるときの図である。 タッチパネルの感度と、立体視表示される三次元画像の知覚面との関係を示す図である。 送風装置を設けた画像表示装置を示す図である。 表示面に対して知覚面よりも指が近くに位置する状態を示す図である。 (a)は表示面に対して指が知覚面よりも遠い位置にある状態を示す図、(b)は指の移動に合わせて知覚面の位置を変化させた場合を示す図である。 三次元位置計測を可能とする撮像部を備えた画像表示装置の構成を示す機能ブロック図である。 三次元位置計測を可能とする撮像部と、立体視表示される三次元画像の知覚面との関係を示す図である。 傾斜センサの他に、気圧センサを備えた画像表示装置の構成を示す機能ブロック図である。 レンキュラレンズを備えた表示部と人物の位置との関係を示す図である。 (a)は複数の画像を画像表示装置にて同時に表示したときに、人物が画像表示装置の正面に位置した場合に観察される画像を示す図、(b)は人物が画像表示装置の正面からずれて位置した場合に観察される画像を示す図である。 (a)は表示する三次元画像の視差量を変化させるときに、人物が画像表示装置の正面に位置した場合に観察される画像を示す図、(b)は人物が画像表示装置の正面からずれて位置した場合に観察される画像を示す図である。 本発明の画像表示装置を用いた撮像装置の電気的構成を示す機能ブロック図である。 撮像装置の表示面と知覚面との関係において、(a)は撮像装置の表示面がyz平面に平行な面となる場合、(b)は撮像装置を角度δ(=θ)傾斜させた場合、(c)は撮像装置を角度δ(>θ)傾斜させた場合を示す図である。 撮像装置の表示面と知覚面との関係において、(a)は撮像装置の表示面がyz平面と平行となる面となる場合、(b)は撮像装置をz方向に移動させた場合、(c)は(b)の状態から撮像装置をさらにz方向に移動させた場合を示す図である。
以下、本実施形態の画像表示装置について説明する。なお、本実施形態における画像表示装置10は、ユーザが手に取り操作ができる画像表示装置である。この画像表示装置10は、画像の平面視表示や立体視表示を行うことができる画像表示装置10からなる。以下、平面視表示される画像を二次元画像、立体視表示される画像を三次元画像と称して説明する。なお、三次元画像の立体視表示は、観察するユーザの両眼視差を利用したものである。
図1に示すように、画像表示装置10は、コントローラ11、画像処理部12、表示制御部13、画像記憶部14、表示部15、傾斜センサ16、タッチパネル17等から構成される。なお、コントローラ11、画像処理部12、表示制御部13及び画像記憶部14は、バス18を介して接続される。なお、図1に示す画像表示装置10は、本実施形態を説明する一例であり、例えば、メモリカード、光学ディスクや磁気ディスクなどを着脱できる画像表示装置であってもよい。
コントローラ11は、CPU、ROM及びRAMを備えている。CPUがROMに記憶される制御プログラムを実行することで、コントローラ11は画像表示装置10の各部を制御する。このコントローラ11には傾斜センサ16、タッチパネル17からの信号が入力される。コントローラ11は、傾斜センサ16、タッチパネル17からの信号を受けて、これら信号に基づいた制御を実行する。
画像処理部12は、画像記憶部14に記憶された二次元画像から三次元画像を生成する。周知のように、三次元画像における立体視表示は、左目用の画像(以下、左目用画像)、右目用の画像(以下、右目用画像)を撮影した位置が、人間の左目及び右目の位置と一致する場合に最適な状態で観察することができる。この画像処理部12は、画像表示装置10の傾斜角α、人間の両眼視差量を用いて、画像記憶部14から読み出した二次元画像を元にした左目用画像、右目用画像をそれぞれ生成する。これら画像を生成した後、画像処理部12は、左目用画像及び右目用画像のそれぞれに対して、パースペクティブを無くすような補正処理を実行する。このパースペクティブを無くす補正処理は、斜めから撮影したステレオ画像の背景のパースを補正した画像を撮影時と同じ角度から観察した場合に、人間の両眼視差以上の奥行き感を生じさせる効果(ファントムグラフ)を与えるために施される処理である。この処理の後、画像処理部12は、これら画像を合成する。これら画像の合成により、三次元画像が生成される。
この画像処理部12により生成される三次元画像を表示すると、上述したファントムグラフの効果により、立体視表示される三次元画像が知覚される面(以下、知覚面)Sが水平状態にある画像表示装置10の表示面10aに対して角度θ傾斜した状態で観察される(図3(a)参照)。ここで、水平状態とは、画像表示装置10の表示面10aが図3(a)中xy平面と平行な面となる状態を示す。上述した角度θは、コントローラ11によって自動的に算出される値であってもよいし、予め実験、統計などにより求められる値であってもよい。
なお、上述した二次元画像から三次元画像を生成する方法や、パースペクティブをなくす補正を行う方法については、特許第3579683号公報に開示されていることから、ここでは、その詳細を省略する。
表示制御部13は、画像処理部12で生成された三次元画像や、画像記憶部14から読み出された二次元画像や三次元画像を用いて、表示部15に対する表示制御を実行する。
画像記憶部14は、二次元画像や三次元画像が単数、又は複数記憶される。この画像記憶部14は、画像表示装置10に内蔵されるハードディスクや、SRAMやDRAMなどのICメモリが挙げられる。
表示部15は、画像記憶部14に記憶される二次元画像や三次元画像の他、画像処理部12により生成された三次元画像を表示する。なお、表示部15の表示方式としては、アナグリフ、偏光めがねや液晶シャッターめがねなどの眼鏡方式や、パララックスバリア方式やレンチキュラレンズ方式などの裸眼式など、三次元画像の立体視表示を行うことができるものであれば、適宜の方式を用いることが可能である。
傾斜センサ16は、例えばジャイロセンサが用いられる。この傾斜センサ16は、画像表示装置10が傾斜しているか否かを検知する。この傾斜センサ16の検知により出力される信号(以下、検知信号)は、コントローラ11に入力される。コントローラ11は、傾斜センサ16から出力された検知信号に基づいて、画像表示装置10の傾斜角αを算出する。このコントローラ11により算出された傾斜角αは、画像処理部12に出力される。
タッチパネル17は、表示部15の上面に配置される。このタッチパネル17としては、抵抗膜方式、赤外線方式、表面弾性波方式、静電容量方式などの方式のいずれかが用いられる。なお、このタッチパネル17を操作することで、該操作に基づいた信号(以下、操作信号)がコントローラ11に向けて出力される。コントローラ11は、タッチパネル17から出力される操作信号に基づいた制御を実行する。
次に、上述した画像表示装置10を用いて三次元画像を表示するときの処理の流れについて、図2のフローチャートを参照して説明する。
ステップS101は、三次元画像を表示するか否かを判定する処理である。ユーザによりタッチパネル17が操作されると、その操作信号がタッチパネル17からコントローラ11に向けて出力される。コントローラ11は、タッチパネル17から出力された操作信号を受けて、該操作信号に基づく制御を実行する。このタッチパネル17からの操作信号が、三次元画像を表示する旨の信号であれば、コントローラ11は、ステップS101の判定処理をYesとする。この場合、ステップS102に進む。一方、タッチパネル17からの操作信号が三次元画像を表示する旨の信号でない場合、コントローラ11は、ステップS101の判定処理をNoとする。この場合、コントローラ11は、タッチパネル17から出力された信号に基づく処理を実行する。これら処理を実行した後、図2のフローチャートの処理が終了する。なお、図2のフローチャートにおいては、三次元画像を表示しない場合の処理については省略してある。
ステップS102は、画像表示装置の傾斜角αを算出する処理である。上述したように、この画像表示装置10は、ユーザが手に取り操作ができる画像表示装置10である。つまり、画像表示装置10は水平状態、又は該水平状態から所定の角度α傾斜した状態で使用される。傾斜センサ16は、画像表示装置10が傾斜している否かを検知し、その検知信号をコントローラ11に出力する。コントローラ11は、この検知信号を受けて、画像表示装置10の傾斜角αを算出する。
ステップS103は、算出された傾斜角αが閾値を超過するか否かを判定する処理である。コントローラ11は、ステップS102で算出した傾斜角αと、予め設定された閾値とを比較する。例えば算出した傾斜角αが閾値を超過する場合、コントローラ11はステップS103の判定処理をYesとし、ステップS104に進む。一方、算出した傾斜角αが閾値以下となる場合、コントローラ11はステップS103の判定処理をNoとし、ステップS105に進む。
ステップS104は、閾値を傾斜角αとした三次元画像を生成する処理である。ステップS103において、コントローラ11は傾斜角αが閾値を超過していると判定している。この場合、コントローラ11は、閾値を傾斜角αとして設定し、設定した傾斜角αを画像処理部12に出力する。画像処理部12は二次元画像を画像記憶部14から読み出す。そして、画像処理部12は、読み出した二次元画像、傾斜角α及び人間の両眼視差量を用いて、三次元画像を生成する。
一方、ステップS103において、算出した傾斜角αが閾値以下であると判定された場合、ステップS105に進む。
ステップS105は、傾斜角αに基づいた三次元画像を生成する処理である。コントローラ11は、算出した傾斜角αを画像処理部12に出力する。画像処理部12は二次元画像を画像記憶部14から読み出す。そして、画像処理部12は、読み出した二次元画像、傾斜角α及び人間の両眼視差量を用いて、三次元画像を生成する。
ステップS106は、生成された三次元画像を表示する処理である。上述したステップS104、又はステップS105の処理を実行することにより、三次元画像が生成される。画像処理部12により生成された三次元画像は、画像処理部12から表示制御部13に出力される。表示制御部13は、三次元画像を表示部15に出力することで、表示部15に三次元画像が表示される。
ステップS107は、三次元画像の表示を終了するか否かを判定する処理である。ユーザによりタッチパネル17が操作されると、その操作信号がタッチパネル17からコントローラ11に向けて出力される。コントローラ11は、タッチパネル17からの操作信号が三次元画像の表示を終了する旨の信号である場合に、このステップS107の判定をYesとする。この判定が行われた場合には、三次元画像の表示が終了する。
一方、タッチパネル17からの操作信号が三次元画像の表示を終了する旨の信号でない場合には、ステップS107の判定をNoとし、ステップS102に進む。この場合には、再度、ステップS102からステップS107の処理が繰り返され、三次元画像が表示される。なお、この三次元画像の表示の際に、画像表示装置10の傾斜角αが変化する場合には、変化する傾斜角αにあわせた三次元画像が生成され、逐次表示される。
例えば、図3(a)に示すように、画像表示装置10が水平状態となる場合、立体視表示される三次元画像の知覚面Sは、画像表示装置10の表示面10aに対して角度θ(=θ)傾斜した状態となる。なお、図3においては、表示面10aのx方向における中点Cを通るy方向の軸を回転中心として、反時計方向に角度θ傾斜させた場合を示している。この場合、知覚面Sは、表示面10aのx方向においてユーザ側の端部から中点Cにわたる領域が表示面10aよりも後方に位置するように、また、表示面10aの中点Cからユーザ側とは反対側の端部にわたる領域が表示面10aよりも前方に位置するように観察される。
図3(b)は、水平状態にある画像表示装置10を角度α(=θ)傾斜させた場合を示す。上述したように、画像表示装置10が傾斜した角度αに関係なく、立体視表示される三次元画像の知覚面Sは、画像表示装置10が水平状態となるときに立体視表示される三次元画像の知覚面Sと同一の面となる。つまり、図3(b)の状態では、知覚面Sは画像表示装置10の表示面10aと同一面となる。
図3(c)は、水平状態にある画像表示装置10を角度α(>θ)傾斜させた場合を示す。この場合、三次元画像は、立体視表示における知覚面Sが、画像表示装置10が水平状態となるときに立体視表示される三次元画像の知覚面Sとなるように生成される。この場合、三次元画像の知覚面Sは、水平状態の画像表示装置10の表示面10aに対して半時計方向に角度θ傾斜した面となる。つまり、三次元画像の知覚面Sは、表示面10aのx方向における中点Cからユーザ側の端部にわたる領域が表示面10aよりも前方に位置し、また、表示面10aのx方向における中点Cからユーザ側とは反対側の端部にわたる領域が表示面10aよりも後方に位置するように観察される。
このように、画像表示装置10を傾斜させた場合に立体視表示される三次元画像の知覚面Sは、画像表示装置10が水平状態となるときに立体視表示される三次元画像の知覚面Sとなるように生成される。つまり、画像表示装置10を傾斜させることで、三次元画像における立体視表示の奥行き距離が変更される。これにより、画像表示装置10による画像の観察時に、誤って画像表示装置10を傾斜させたとしても、三次元画像の立体視表示を最適な状態で観察することが可能となる。また、表示させる三次元画像を画像表示装置10の傾斜角αに基づいて生成することから、観察する人物の位置に応じて表示部を傾斜させるなどの機構を新たに設ける必要が無く、一般的な画像表示装置の構成で対応することが可能となる。
本実施形態では、立体視表示される三次元画像の知覚面Sを、表示面10aのx方向の中点Cを通るy方向の軸を回転中心として反時計方向に角度θ傾斜させた面としているが、これに限定する必要はなく、例えば、図4(a)に示すように、表示面10aにおけるx方向の両端部のうち、ユーザ側の端部E1を通るy方向の軸を回転中心として、反時計方向に角度θ傾斜させた面を知覚面Sとすることも可能である。また、図4(b)に示すように、表示面10aにおけるx方向の両端部のうち、ユーザ側の端部E1とは反対側の端部E2を通るy方向の軸を回転中心として、反時計方向に角度θ傾斜させた面を知覚面Sとすることも可能である。さらに、表示面10aにおけるx方向の任意の位置を通るy方向の軸を回転中心として反時計方向に角度θ傾斜させた面を知覚面Sとすることも可能である。
ここで、表示面10aにおけるx方向の任意の位置を通るy方向の軸を回転中心として反時計方向に角度θ傾斜させた面を知覚面Sとする場合、ユーザの指の位置に基づいて回転中心の位置を決定することも可能である。ユーザは画像表示装置10のy方向の両端部をそれぞれ把持することで画像表示装置10を保持する。このときに、ユーザの左手又は右手のいずれか一方の指が表示面10aにかかる場合がある。このような場合、タッチパネル17は表示面10aにかかる左手L1又は右手R1の指の位置を検知する。このタッチパネル17によって検出される左手L1又は右手R1の指の位置に基づいて回転中心を決定する。詳細には、タッチパネル17から出力される検知信号から検知位置を示す位置情報が算出されるので、コントローラ11は、この位置情報を用いて、左手L1の指の位置と右手R1の指の位置とがx方向において同一位置となるか否かを判定する。
図5(a)に示すように、x方向における左手L1の親指の位置と右手R1の親指の位置とが略同一位置にある場合には、検出される左手L1の親指の位置と、右手R1の親指の位置とを結ぶ直線を回転中心の軸AXとして設定する。
また、図5(b)に示すように、x方向における左手L1の親指の位置と右手R1の親指の位置とが異なる位置となる場合、コントローラ11は、左手L1の指の位置と右手R1の指の位置とがx方向において同一位置ではないと判定する。この場合、コントローラ11は、x方向における左手L1の親指の位置(点線x1で示す座標)と右手R1の親指の位置(点線x2で示す座標)の中点の座標を求める。そして、コントローラ11は、この中点を通る直線を回転中心の軸AXとして設定する。
なお、知覚面Sをy方向の軸を回転中心にして図3中半時計方向に傾斜させた面とする場合には、人間の胴体から離れて位置している指の位置を回転中心の軸AXとして設定してもよい。ここで、図6においては右手R1の親指の位置が離れているので、x方向における右手R1の親指の位置を回転中心の軸AXとして設定する。また、知覚面Sをy方向の軸を回転中心にして図3中時計方向に傾斜させた面とする場合には、人間の胴体に知覚位置にある指の位置を回転中心の軸AXとして設定することも可能である。
なお、画像表示装置10を片手で掴む場合には、画像表示装置10を掴む手の親指の位置をタッチパネル17にて検出した上で、コントローラ11は、検出された親指の位置に基づいて回転中心となる軸AXを設定すればよい。
本実施形態では、立体視表示される三次元画像の知覚面Sをy方向の軸を回転中心として傾斜させた面としているが、知覚面Sをy方向の軸を回転中心として傾斜させた面とする必要はなく、x方向の軸を回転中心として傾斜させた面とする、或いは、x方向の軸及びy方向の軸のそれぞれを回転中心として傾斜させた面とすることも可能である。
以下、水平状態にある画像表示装置10をy方向に角度β傾斜させた場合について説明する。図7(a)に示すように、画像表示装置10を水平状態に保持した場合に立体視表示される三次元画像の知覚面Sを基準とする。図7(a)においては、水平状態の画像表示装置10の表示面10aと三次元画像の知覚面Sとが同一平面となる場合を示している。この状態から、図7(b)に示すように、ユーザが画像表示装置10をx方向の軸を回転中心として半時計方向に角度β傾斜させる。画像表示装置10のコントローラ11は、傾斜センサ16により検出される検出信号に基づいて、画像表示装置10の傾斜角βを算出する。画像処理部12は、算出した傾斜角βの他に、読み出した二次元画像及び人間の視差量を用いて三次元画像を生成する。表示制御部13は、生成された三次元画像を表示部15に表示する。これにより、三次元画像の立体視表示が実行される。この立体視表示における三次元画像の知覚面Sは、画像表示装置10を水平状態に保持した場合に立体視表示される三次元画像の知覚面Sと同一面となる。
この場合、画像表示装置10をx方向の軸を回転中心として半時計方向に角度β傾斜させているが、画像表示装置10をx方向の軸を回転中心として時計方向に角度β傾斜させる場合も同様の処理が行われる。
図7においては、説明上、水平状態の画像表示装置10の表示面10aと三次元画像の知覚面Sとが同一平面となる場合を示しているが、これに限定される必要はなく、図3に示すように、三次元画像の知覚面Sが、水平状態の画像表示装置10の表示面10aに対してy方向の軸を回転中心として半時計方向に傾斜している場合であってもよい。また、三次元画像の知覚面Sを水平面(xy平面)としているが、これに限定される必要はなく、三次元画像の知覚面Sをx方向の軸を回転中心として傾斜させてもよい。
本実施形態では、画像表示装置10の傾斜角αが閾値を超過する場合には、閾値を傾斜角αに設定した上で、設定された傾斜角αを考慮した三次元画像を生成しているが、これに限定される必要はなく、画像表示装置10の傾斜角αが閾値を超過する場合には三次元画像の生成を行わなくてもよい。この場合、左目用画像及び右目用画像のみを生成し、生成された左目用画像及び右目用画像を交互に表示してもよいし、画像記憶部14から読み出した二次元画像を表示してもよい。この場合、二次元画像は平面視されることから、画像が知覚される知覚面Sは、表示面10aと同一平面になる。
また、この他に、画像表示装置10の傾斜角αと閾値との比較を行わずに、傾斜角αを考慮した三次元画像を生成し、この生成された三次元画像を表示すればよい。例えば画像表示装置10の傾斜角αが閾値を超過した場合には、ユーザは三次元画像の立体視表示を観察することはできず、三次元画像が平面視される。つまり、三次元画像が知覚される面は画像表示装置10の表示面10aとなる。
本実施形態では、画像表示装置10の傾斜角αを考慮して三次元画像を生成し、三次元画像の立体視表示を最適な状態でユーザに観察させるようにしているが、画像表示装置10の傾斜角αだけでなく、観察するユーザの両眼視差量(視角度)を考慮することも必要である。両眼視差量を考慮する場合、画像表示装置10の傾斜角αが閾値を超過するか否かの判定だけでなく、観察するユーザの両眼の視角度が、融像限界の範囲から外れているか否かを判定する。なお、融像限界は、立体視表示を最適に観察できる視角度に対して視角度1度の範囲となる。
例えば画像表示装置10の傾斜角αが閾値以下となる場合には、画像表示装置10を傾斜させたときの視角度を算出し、算出された視角度が融像限界の範囲に含まれているか否かを判定する。この判定で、融像限界の範囲に含まれている場合には、観察するユーザの両眼視差量(視角度)、画像表示装置10の傾斜角αに基づいて、二次元画像から三次元画像を生成する。一方、融像限界の範囲を外れている場合には、例えば観察するユーザの両眼視差量の融像限界(上限値、又は下限値のいずれかの値)、画像表示装置10の傾斜角αに基づいて、二次元画像から三次元画像を生成する。
また、画像表示装置10の傾斜角αが閾値を超過する場合も、同様にして、観察するユーザの両眼視差量である視角度が融像限界の範囲に含まれるか否かの判定を行い、この判定結果に基づいて、三次元画像を生成すればよい。
なお、観察するユーザの両眼視差量が融像限界の範囲から外れる場合であっても、両眼視差量及び画像表示装置10の傾斜角αに基づいた三次元画像を生成し、生成された三次元画像をそのまま表示部に表示してもよい。この場合も、三次元画像の立体視表示を観察することができず、三次元画像が平面視される。つまり、立体視表示される三次元画像の知覚面Sは画像表示装置10の表示面10aとなる。また、このような場合、三次元画像の生成を行わずに、元になる二次元画像を表示してもよいし、融像限界における両眼視差量、画像表示装置10の傾斜角αに基づいて左目用画像及び右目用画像を生成し、これら画像を交互に表示してもよい。
本実施形態では、画像表示装置10における三次元画像の表示領域については、その詳細は述べていないが、表示部15の表示領域全てを用いて三次元画像を表示してもよいし、表示部15の表示領域の一部を用いて三次元画像を表示してもよい。
例えば、表示部15の表示領域を全て用いて三次元画像を表示する場合、ユーザが画像表示装置10を把持したときに指がタッチパネル17に触れる場合がある。このような場合、タッチパネル17に触れる指により画像表示装置10の表示部15に表示される三次元画像の知覚面Sに影響を与え、立体視表示に違和感を与えてしまう。
図8(a)に示すように、画像表示装置10の表示部15の符号で示す領域25が三次元画像を表示する領域である。この領域全体を用いて三次元画像を表示している場合に人間の指が触れると、タッチパネル17により指が触れた位置が検出される。なお、図8(a)においては、左手L2の親指及び右手R2の親指の双方がタッチパネル17に検出される場合を示している。これを受けて、コントローラ11は、表示部15に表示している三次元画像の元になるデータに対して縮小処理を行う旨の指示を画像処理部12に行う。画像処理部12は三次元画像の元になるデータに対して縮小処理を実行する。ここで、データの縮小処理における縮小率は、人間の指がタッチパネル17に触れていない範囲内で三次元画像を表示できる縮尺である。また、画像処理部12は、縮小処理の際に、三次元画像の縦横比を固定にして縮小処理を行う。表示制御部13は、縮小処理されたデータを用いて表示部15に三次元画像を表示する。なお、図8(b)に示す領域26が縮小処理された三次元画像が表示される領域である。これにより、タッチパネル17に触れる指により画像表示装置10の表示部15に表示される三次元画像の知覚面Sに影響を与え、立体視表示に違和感を与えてしまうことが防止される。
ところで、画像表示装置10において三次元画像を表示する場合、立体視表示における物体の大きさは、画像表示装置10の表示部15に表示される三次元画像の大きさで固定される。図9(a)に示すように、物体Oが表示面10aに表示される場合と、物体Oが表示面10aよりも前方(手前側)に表示される場合(符号O’の位置の場合)とを比べると、物体Oは表示面10aよりも手前側に表示される場合に小さく観察される。また、物体Oが表示面10aに表示される場合と、物体Oが表示面10aよりも後方(奥側)に表示される場合(符号O”の位置の場合)とを比べると、物体Oは表示面10aよりも奥側に表示される場合に大きく観察される。一方、図9(b)に示すように、実際の空間では、所定位置にある物体Oを図9(b)中点線の位置まで近づけると物体が大きく認識される。また、所定位置にある物体Oを図9(b)中二点鎖線の位置まで遠ざけると物体Oが小さく認識される。
つまり、画像表示装置10における立体視表示における物体の大きさ変化は、実際に物体を見る場合の大きさ変化と異なるので、立体視表示が不自然なものとなりやすい。このような不自然さを解消するために、図10に示すように、例えば、知覚面Sが表示面10aよりも奥側に位置する場合には知覚面Sの幅を短く(縮小)し、知覚面Sが表示面10aよりも手前側に位置する場合には知覚面Sの幅を長く(拡大)する。つまり、立体視表示における知覚面Sの幅を奥行き情報に合わせて調整する。この場合、例えば知覚面Sを縮小すると、立体視表示における解像度も低下するので、表示させる三次元画像の種類に合わせて立体視表示させる三次元画像の縮尺、立体視表示の際に生成される知覚面の傾斜角度、該知覚面を生成する際の回転中心となる軸の位置などを変更すればよい。
例えば文字は解像度が必要となることから、文字を立体視表示する場合には、文字に対する縮小率を他の物体よりも小さく設定する。また、画像のスライドショーを立体視表示する場合には、スライドショー自体が詳細な表現は必要がないことから、知覚面が画像表示装置の表示面よりも奥に傾斜させても適切に表示できる角度に立体視表示における知覚面の傾斜角度を設定する。
以下、表示部15の表示領域の一部を用いて三次元画像を表示する場合について説明する。図11(a)に示すように、画像表示装置10の表示領域31には、文字入力を行うキーボード(ソフトキーボード)を表示する領域(以下、キーボード表示エリア)32と、入力された文字を表示する領域(以下、テキスト入力エリア)33とが設けられる。この場合、キーボード表示エリア32に表示させるソフトキーボードの画像(以下、キーボード画像)を二次元画像とする。画像処理部12は、テキスト入力エリア33に表示させる画像(以下、テキスト入力画像)として三次元画像を生成する。キーボード画像及びテキスト画像は画像処理部12により合成され、表示制御部13に出力される。表示制御部13により表示部15に合成された画像を出力することで、合成された画像、つまりキーボード画像とテキスト入力画像とが表示部15に表示される。
表示部15に生成された画像を表示した場合、キーボード画像は二次元画像であることから、ユーザは平面視表示されたキーボード画像を観察することになる。一方、テキスト入力画像は三次元画像であることから、ユーザは立体視表示されたテキスト入力画像を観察することになる。
図11(b)に示すように、例えばテキスト入力画像は、その知覚面Sが例えば水平状態となる画像表示装置10の表示面10aに対して角度θ傾斜した状態となるように生成されている。これにより、ユーザは、画像表示装置10の表示領域31のうち、テキスト入力エリア33に表示される三次元画像の立体視表示を最適な状態で観察することができる。なお、キーボード表示エリア32と、テキスト入力エリア33とを設けた場合について説明しているが、これに限定される必要はなく、二次元画像と三次元画像との双方を同時に表示する場合であれば、このような処理を行うことが可能である。
ここで、表示部15における表示領域全体を用いて三次元画像を表示する場合、表示部15の外周縁においては、立体視表示の効果が薄れてしまうことが多い。また、ユーザが画像表示装置10を把持したときに指が表示部15にかかることで立体視表示の効果が薄れてしまう場合がある。このため、表示部15の表示領域全体を用いて立体視表示を行う場合には、表示領域の外周縁部における奥行き情報(奥行き距離)が0となるように、立体視表示における知覚面Sを設定してもよい。この場合、知覚面Sとしては、断面が円弧状又は楕円弧状からなる湾曲面、断面が台形状、三角形状からなる屈曲面のいずれかの形状となることが好ましい。以下、知覚面Sが、円弧状の湾曲面から構成される場合について説明する。
ここで、画像表示装置10においてはタッチパネル17を備えていることから、ユーザの指をタッチパネル17にて検出した場合には、タッチパネル17にて検出された領域における奥行き距離を0とし、その他の領域における奥行き距離を調整する。例えば立体視表示における知覚面Sを湾曲面とする場合には、ユーザの指がかかっていない領域における知覚面Sの曲率を高くする。この場合、タッチパネル17にて検出されるユーザの左手の指及び右手の指の位置に基づいて、知覚面Sを湾曲面とする際の軸方向を設定する。画像処理部12は、二次元画像、人間の視差量及び湾曲面の軸方向、及び表示部の大きさなどに基づいて、立体視表示における知覚面Sが湾曲面となる三次元画像を生成する。
図12(a)に示すように、ユーザの左手L3の親指、及び右手R3の親指がタッチパネル17の長手方向(x方向)の中央部分にて検出された場合には、画像処理部12は、y方向の両端部の奥行き距離を0に設定し、他の領域においては奥行き距離が強調されるように三次元画像を生成する。これにより、三次元画像の立体視表示における知覚面Sがy方向を軸方向にし、表示面10aの手前側(前面側)に突出する湾曲面として観察される。なお、ユーザの左手L3の親指、及び右手R3の親指がタッチパネル17の短手方向(y方向)の中央部分にて検出された場合には、x方向の両端部の奥行き距離を0に設定し、他の領域においては奥行き距離が強調されるように三次元画像を生成する。この場合、図示は省略するが、三次元画像の立体視表示における知覚面Sがx方向を軸方向とし、表示面10aの手前側(前面側)に突出する湾曲面として観察される。
また、図12(b)に示すように、ユーザの左手L3の親指及び右手R3の親指がタッチパネル17の四隅のうちの対向する2隅の位置で検出された場合には、画像処理部12は、タッチパネル17により検出される2隅の奥行き距離を0に設定し、他の領域においては奥行き距離が強調されるように三次元画像を生成する。これにより、三次元画像の立体視表示における知覚面Sが、タッチパネル17にて未検出となる2隅を結ぶ直線を軸方向とし、表示面10aの手前側(前面側)に突出する湾曲面として観察される。
なお、これら場合、知覚面Sを表示面10aの手前側(前面側)に突出する湾曲面としているが、これに限定される必要はなく、図12(c)に示すように、知覚面Sを表示面10aの奥側(背面側)に入り込む湾曲面としてもよい。
ここで、画像表示装置10を保持するユーザの指が移動する場合もある。このように、タッチパネル17の周縁からユーザの指がかかる位置までの距離が変化する場合には、立体視表示における知覚面Sである湾曲面の曲率を変化させることも可能である。
なお、画像表示装置10においては、タッチパネル17を備えていない場合もある。図13(a)に示すように、このようなタッチパネル17を備えていない画像表示装置10において知覚面Sを湾曲面として観察させる場合には、例えば画像表示装置10の側面にポイントセンサ34を複数、所定間隔を空けて配置し、このポイントセンサ34により画像表示装置10を把持する手を検出する。ここで、ポイントセンサ34は、画像表示装置10の側面のそれぞれに対して、左側端部、中央部、右側端部の3カ所にそれぞれ設けることが好ましい。
この場合も、ポイントセンサ34にてユーザの手を検知した場合には、画像表示装置10の表示面10aのうち、ポイントセンサ34により検知された位置に対して設定される所定の領域に対する奥行き距離を0に設定し、他の領域に対する奥行き距離が強調されるように、三次元画像を生成する。このように、生成された三次元画像を表示した場合にも、タッチパネル17を用いた場合と同様に、立体視表示における知覚面Sを湾曲面として、ユーザに観察させることができる。
また、図13(b)に示すように、画像表示装置10の側面にポイントセンサ34を設ける代わりに、感圧センサ35を設けることも可能である。
本実施形態では、三次元画像全体を立体視表示させる場合について説明しているが、これに限定される必要はなく、画像中に含まれるオブジェクトのみを立体視表示させることも可能である。図14(a)に示すように、例えば画像表示装置10に表示される複数の操作ボタン36,37,38に対する三次元画像をそれぞれ生成し、これら三次元画像を表示する。このとき、図14(b)に示すように、各操作ボタン36,37,38の三次元画像は、各操作ボタン36,37,38の上面の中心を通る平面Pと、画像表示装置10の表示面10aとのなす角度θが、ユーザが立体視表示を最適に観察できる角度となるように、各操作ボタン36,37,38の高さ(奥行き距離)をそれぞれ調整した画像とすればよい。なお、このような場合も、画像表示装置10が傾斜したときには、その傾斜角を考慮して、それぞれの操作ボタンに対する三次元画像を生成する必要がある。
本実施形態では、二次元画像から生成される三次元画像を生成し、該三次元画像を画像表示装置10にて表示しているが、これに限定される必要はなく、画像記憶部14に記憶される画像が三次元画像であっても、本実施形態を適用することができる。この場合、両眼視差などの情報を三次元画像に付帯させておき、観察するユーザの両眼視差量、画像表示装置10の傾斜角αを用いて、表示させる三次元画像を補正すればよい。
また、画像記憶部14に記憶された三次元画像を表示する場合、該三次元画像に含まれるオブジェクトを画像表示装置10の傾斜角に応じて傾斜させることも可能である。図15に示すように、水平状態となる画像表示装置10に三次元画像を表示すると、三次元画像に含まれるオブジェクト40が、ユーザには立体視表示にて観察される。このとき、知覚面Sは、画像表示装置10の表示面10aに対して角度θ傾斜した状態とする。例えば画像表示装置10を、図15中実線で示される位置から図15中一点鎖線で示される位置(符号10’の位置)まで角度γ傾斜させる場合を考える。このとき、立体視表示にて観察されるオブジェクト40は、オブジェクト40の中心Dを通るy方向の軸を回転中心として、実線で示す位置から点線で示す位置(符号40’の位置)まで角度γ反時計方向に傾斜するように表示される。
この場合、三次元画像に含まれるオブジェクト40を、画像表示装置10の傾斜角γと同一の角度、傾斜(回転)させているが、これに加えて、例えば画像表示装置10を傾斜させたことにより生じるユーザの両眼視差量の変化を、三次元画像を生成したときに用いた両眼視差量に付加する処理を行うことで、三次元画像を補正することも可能である。
なお、画像表示装置10が傾斜したときに、表示される三次元画像に含まれるオブジェクトを、その立体視表示において、画像表示装置10の傾斜角γに併せて傾斜させているが、これに限定される必要はなく、例えば画像表示装置10を傾斜させたときに、三次元画像に含まれるオブジェクト以外の領域に対する奥行き距離を変化させることも可能である。
本実施形態では、タッチパネル17については、詳細には触れていないが、例えば静電容量方式や電磁誘導方式のタッチパネルを用いる場合には、知覚面と、画像表示装置の表示面とがなす角度に応じて、タッチパネルにおける検出感度を変化させることも可能である。以下、本実施形態と同一の箇所については、同一の符号を付して説明する。
図16に示すように、水平状態の画像表示装置10において、立体視表示される三次元画像の知覚面Sは、画像表示装置10の表示面10aに対して角度θ傾斜した状態で観察される。このように観察される知覚面Sにあわせて、タッチパネル17の検出感度を設定する。これにより、ユーザが知覚面Sに指を伸ばせば、タッチパネル17に触れなくとも入力操作が行われたことが検知されるので、タッチパネル17に触れることなしに、入力操作を実行することができる。なお、画像表示装置10が傾斜した場合には、その傾斜角にあわせて三次元画像が生成されるので、これに合わせて、タッチパネル17の検出感度を調整すればよい。
このようにタッチパネル17の検出感度を設定することで、ユーザは立体視表示における知覚面Sまで指を伸ばせば、タッチパネル17に触れずに入力操作を行うことができる。しかしながら、このような入力操作は、ユーザにとっては入力操作の感覚がなく、逆に入力操作を行いづらくさせてしまうという欠点がある。そこで、ユーザが入力操作を行った際に、その感覚をユーザに与えるようにしてもよい。
図17に示すように、タッチパネル17に複数の穴41を二次元状に設け、画像表示装置10の内部に、これら穴41から送風装置42を設ける。なお、送風装置42は、タッチパネル17に設けられる穴41のそれぞれに対応して設けても、複数の穴のうちの一部の穴に対応して設けてもよく、それぞれの穴41から風を吹き出す構成であれば、必ずしも複数の穴50の数に対応した数設ける必要はない。
上述したように、画像表示装置10において三次元画像を表示したときには、ユーザには、画像表示装置10の表示面10aに対して角度θ傾斜した知覚面Sにて立体視表示が観察される。この立体視表示が行われているときに、ユーザが知覚面Sまで指を伸ばすと、タッチパネル17により指が検知される。このタッチパネル17により指が検知されると、コントローラ11はタッチパネル17の検知信号二基づく位置座標を求める。コントローラ11は、求めた位置座標に対応する送風装置42を駆動させる。これにより、指が検知された位置にある穴41を介して風が吹き出される。ここで、穴41から吹き出される風の強さは、表示面10aから指までの距離に応じて変化するようにしてもよいし、一定の強さであってもよい。
なお、上述した送風装置42は、画像表示装置10の内部構造によっては配置することが困難となる場合もあるので、表示面10aの外周部分から風を吹き出すように送風装置を設ける場合も可能である。この場合、タッチパネル17により検出される指の位置や高さに応じて、吹き出す風の向きを調整し、指に向けて風を当てるようにする。これにより、入力操作の操作感をユーザに与えることができ、入力操作時の違和感を低減させることができる。
なお、この場合、吹き出した風により、入力操作の操作感をユーザに与えるようにしているが、これに限定する必要はなく、水滴を吐出する装置を設け、指に向けて水滴を吐出することで、入力操作の操作感をユーザに与えることも可能である。
また、この他に、磁力を利用して入力操作時の操作感を生じさせることも可能である。例えば画像表示装置10の表示面10a近傍に、コイルなどの磁力を発生させる磁力発生手段を設ける。ユーザが画像表示装置10を操作する場合、指先に磁性体を備えた手袋をして操作する。この場合、ユーザが指を画像表示装置10に近づけると、タッチパネル17により指が検知される。タッチパネル17による指が検知されると、磁力発生手段は、磁性体に対して斤力を発生させるように磁力を発生させる。これにより、ユーザの指には斤力が加わることになり、入力操作時の操作感をユーザに与えることが可能となる。
このような立体視表示における知覚面Sに対して入力操作を行う場合、ユーザの指が知覚面Sよりも表示面10aに近い位置となる場合がある。
図18に示すように、ユーザの指Fが立体視表示における知覚面Sの位置よりも画像表示装置10に近くなる場合、立体視表示においては指Fにより隠れて観察できない領域(図中、領域a1)、片眼のみ視差がついて観察される領域(図中、領域a2,a3)、知覚面Sにおいて観察される領域(図中、領域a4,a5)の3つの領域が現れる。このように、指Fにより隠れて観察できない領域が生じることで、三次元画像の立体視表示における物体の立体感が損なわれてしまう。
そこで、画像表示装置10に設けられたタッチパネル17によりユーザの指Fを検知することで、表示面10aにおける指Fの位置座標及び表示面10aから指Fまでの距離を求め、表示面10aに対して指Fが知覚面Sよりも近くにある場合には、表示面10aに対して知覚面Sが指Fよりも近くなるように三次元画像における奥行き距離を変更する。なお、この奥行き距離の変更は、指Fの位置に該当する物体に対してのみ行ってもよいし、画像全体に対して行ってもよい。この場合、タッチパネル17としては、静電容量式のタッチパネルが用いられる。
以下、画像表示装置10の表示面10aから立体視表示における表示面Sまでの距離をD1とした場合について説明する。上述したように、ユーザが画像表示装置10の表示面10aに向けて指Fを伸ばすと、タッチパネル17により検知される。コントローラ11は、タッチパネル17からの検知信号を受けて、表示面10a上における位置(座標)及び、表示面10aから指Fまでの距離Dを算出する。
そして、コントローラ11は、算出した距離Dと、画像表示装置10の表示面10aから立体視表示における表示面Sまでの距離D1とを比較する。例えば、算出した距離Dが画像表示装置10の表示面10aから立体視表示における表示面Sまでの距離D1以上となる(D≧D1)となる場合には、コントローラ11は、画像処理部12により生成される三次元画像の奥行き距離を変更しないと判定する。この場合、画像表示装置10の表示面10aから立体視表示における表示面Sまでの距離D1は、そのまま維持される。
一方、算出した距離Dが画像表示装置10の表示面10aから立体視表示における表示面Sまでの距離D1未満となる(D<D1)となる場合には、コントローラ11は、画像処理部12により生成される三次元画像の奥行き距離を変更すると判定する。この場合、コントローラ11は、画像処理部12に対して三次元画像を生成する信号と算出した距離Dの情報とを出力する。これを受けて、画像処理部12は、入力される距離Dの情報を用いて、新たな三次元画像を生成し、表示制御部13に出力する。表示制御部13は、生成された三次元画像を表示部15に表示する。
図19(a)に示すように、例えばユーザの指Fが表示面から距離D(D>D1)の位置にある場合、画像表示装置10に表示される三次元画像は知覚面Sにて観察される。そして、ユーザが指Fを表示面Sに近づけていき、表示面10aからユーザの指Fまでの距離Dが表示面10aから立体視表示における知覚面Sの距離D1と等しくなる(図19(b)の実線の位置)までは、画像表示装置10に表示される三次元画像は知覚面Sにて表示される。図19(b)に示すように、ユーザが指Fを表示面10aに向けて移動させると、指Fの移動に伴って知覚面Sも表示面10aに向けて移動する。つまり、表示面10aから立体視表示における知覚面Sの距離D1の間で指Fを移動させた場合には、表示面10aから指Fまでの距離Dにあわせて、表示面10aから立体視表示における知覚面Sまでの距離も変化する。
なお、指Fが画像表示装置10の表示面10aに触れたときに指Fの移動が停止される。このとき、三次元画像における立体視表示の知覚面Sは表示面10aと一致する。指Fが画像表示装置10の表示面10aに触れた場合、表示部15において表示される画像としては三次元画像を表示してもよいし、三次元画像の元になる二次元画像であってもよい。
このように、移動する指Fから表示面10aまの距離に応じて、知覚面Sの奥行き距離を変更することで、移動する指Fが知覚面Sよりも表示面10aの近くに位置する状態がなくなるので、三次元画像の立体視表示における立体感を損ねることを防止することができる。
本実施形態では、画像表示装置10の傾斜角αに応じた三次元画像を生成することで、ユーザが三次元画像の立体視表示を最適な状態で観察できるようにしているが、画像表示装置の傾斜角の他に、画像表示装置を使用するユーザの状態に基づいて、三次元画像を生成することも可能である。図20及び図21に示すように、画像表示装置45に撮像部46を設ける。この撮像部46として、例えばCCDイメージセンサやCMOSイメージセンサなどの撮像素子と、広角用のレンズとから構成する。なお、図20は、撮像部46を備えた画像表示装置45の電気的構成を示しているが、本実施形態と同一の機能を有する箇所については、本実施形態と同一の符号を付して記載している。
例えば、画像表示装置45による画像表示を行うときには、撮像部46によって画像が取得される。取得された画像はコントローラ47に入力される。コントローラ47は、例えば被写体抽出処理などの手法を用いて、取得された画像に含まれる人物を抽出する。例えば人物が抽出された場合には、コントローラ47は、抽出された人物の位置や、画像表示装置45から人物までの距離や画像における人物の位置を算出する。また、コントローラ47には傾斜センサ16からの信号が入力されるので、コントローラ47は画像表示装置45の傾斜角αを算出する。コントローラ47は、算出した人物までの距離や人物の位置、傾斜角αを画像処理部48に出力する。また、コントローラ47は、これら値から、立体視表示を最適な状態で観察できる角度(画像表示装置45の表示面45aと、知覚面Sとのなす角度)θを求める。
コントローラ47は、算出した角度θを画像処理部48に出力する。このとき、画像表示装置45が傾斜した場合には、その傾斜角も画像処理部48に出力する。画像処理部48は、これら値を用いて、画像記憶部14から読み出した二次元画像から三次元画像を生成する。この生成された三次元画像を表示部15により表示することで、ユーザは、三次元画像の立体視表示を最適な状態で観察することが可能になる。
なお、撮像部46における撮像は、所定時間を空けて連続的に実行されている。例えば撮像部46により連続的に得られる画像から人物が抽出されない場合が複数回連続したとき(言い換えれば、所定時間人物が検出されない場合)には、コントローラ47は画像表示装置45が使用されていないと判定する。この場合、コントローラ47は、表示部15による画像表示を停止し、省電力モードに移行させる。
なお、上述した撮像部46を有する画像表示装置45が、三次元位置計測の機能を有する場合には、タッチパネル17などの操作入力部は必ずしも必要ではない。ここで、撮像部46としては、単眼式、2眼式、距離画像センサなど適宜の構成を有する撮像部が挙げられる。
例えば表示部15により操作パネルの三次元画像を表示したときには、ユーザには操作パネルが立体視表示により観察される(図21においては知覚面S上に操作パネルが観察される)。なお、立体視表示される操作パネルの位置(x、y、z座標における座標値)は、知覚面Sと画像表示装置45の表示面45aとのなす角度θなどを用いることでコントローラ47により算出される。また、コントローラ47は、撮像部46から所定時間を空けて出力される画像から、画像表示装置45を使用する人物の顔の位置や、手の位置(三次元座標値)を算出する。そして、コントローラ47は、算出した手の位置(三次元座標値)と、立体視表示される操作パネルの位置(三次元座標値)とが一致しているか否かを判定する。例えば人物の手の位置と操作パネルの位置とが一致すると判定した場合には、コントローラ47は操作パネルが操作されたと判定し、該操作に基づく処理を実行する。一方、これら位置が一致しない場合には、コントローラ47は操作パネルが操作されていないと判定する。
なお、立体視表示される三次元画像の知覚面Sは、必ずしも画像表示装置45の表示面45aよりも前方に位置するように観察されるとは限らない。図21に示すように、例えば立体視表示される三次元画像の知覚面Sの一部が、画像表示装置45の表示面45aよりも前方側に位置するように観察される場合、その範囲を撮影範囲Aとした撮像を撮像部46にて実行すればよい。
また、画像表示装置45に撮像部46を設ける代わりに、画像表示装置45を使用する人物が接触したこと、或いは人物に掴まれたことを検知する接触センサや感圧センサなどを備えることも可能である。この場合、人物が画像表示装置に触れる位置に複数配置する。これらセンサから出力される信号に基づいて、画像表示装置の使用状態を推定し、推定した画像表示装置の使用状態から、表示する三次元画像を生成する。この場合も、上述したセンサのいずれかからも信号が出力されない場合には、画像表示装置における画像表示を停止し、所謂省電力モードに移行させればよい。また、上述した撮像部と、接触センサや感圧センサとの双方を画像表示装置に設けることも可能である。
本実施形態では、画像表示装置の傾斜角が変化した場合であっても、立体視表示される三次元画像の知覚面Sが常に一定の面となる(固定される)ように三次元画像が生成されている。このため、画像表示装置が傾くと、画像表示装置の表示面と知覚面Sとのなす角度θ、言い換えれば、立体視表示における奥行き距離が変化する。このような立体視表示における奥行き距離の変化をユーザが望まない場合もあることから、この立体視表示における奥行き距離を固定できる、つまり、画像表示装置の表示面と知覚面Sとのなす角度θを固定できるようにしてもよい。この場合、立体視表示における奥行き距離を固定するか否か(言い換えれば、画像表示装置の表示面と知覚面Sとのなす角度θを固定するか否か)は、ユーザにより選択させればよい。
また、本実施形態では、水平状態にある画像表示装置の表示面と、知覚面Sとがなす角度θを、予め事件や統計などにより得られる値としているが、この角度θは、ユーザの入力操作により調整できるようにしてもよい。なお、このユーザによる入力操作としては、タッチパネルや操作ボタン、ジョグダイヤルなどによる操作が挙げられる。このユーザの入力操作により角度θを調整した場合には、角度θを記憶しておく。また、以降の処理では、この角度θを用いて三次元画像を生成すればよいことから、ユーザの好む傾斜角度で三次元画像の立体視表示を観察することができるようになる。
本実施形態では、画像表示装置の傾きに基づいて、立体視表示における奥行き距離を変更しているが、画像表示装置の傾きの他に、鉛直方向における画像表示装置の位置を考慮して、立体視表示における奥行き距離を変更することも可能である。なお、鉛直方向とは、例えばz方向である。
図22は、鉛直方向における画像表示装置の位置を検出する手段として気圧センサを備えた画像表示装置50の構成を示す。以下、本実施形態と同一の箇所については、同一の符号を付して説明する。なお、鉛直方向における画像表示装置50の位置を検出することができるのであれば、気圧センサに限定する必要はない。この場合、傾斜センサ16により画像表示装置50の傾きを検知する。また、気圧センサ51により鉛直方向における画像表示装置50の位置を検知する。これらセンサからは、検知信号がそれぞれコントローラ52に向けて出力される。
コントローラ52は、これら検知信号から画像表示装置50の傾斜角及びz方向における画像表示装置50の位置を算出する。そして、算出した値を画像処理部53に出力する。画像処理部53は、画像表示装置50の傾斜角、鉛直方向における画像表示装置50の位置、人間の両眼視差量を用いて、画像記憶部14から読み出した二次元画像から三次元画像を生成する。この生成された三次元画像は、表示制御部13に出力される。これにより、画像表示装置50の傾斜及び鉛直方向における画像表示装置50の位置を考慮して生成された三次元画像が表示部15に表示される。なお、この三次元画像の立体視表示は、画像表示装置50の傾斜角及び鉛直方向における画像表示装置50の位置によって、その奥行き距離が変化するので、ユーザは三次元画像の立体視表示を最適な状態で観察することが可能となる。
なお、画像表示装置50の傾斜角及び画像表示装置50の位置を考慮して三次元画像を生成しているが、これに限定される必要はなく、画像表示装置50の位置のみを考慮した三次元画像を生成することも可能である。
本実施形態では、画像表示装置における立体視表示の知覚面Sを画像表示装置の傾斜角が変化しても一定となるように、画像表示装置に表示させる三次元画像における視差量を調整しているが、これに限定される必要はなく、ユーザが画像表示装置を観察する位置に応じて視差を変えるようにしてもよい。
例えば画像表示装置の正面では目的の画像が見られるようにし、画像表示装置の正面からずれた位置では目的の画像ではなく、他の画像を表示する場合について説明する。なお、画像表示装置については符号55を付して説明し、本実施形態と同一の実施形態となる箇所については、同一の符号を付して説明する。ここで、画像表示装置55の表示方式としてレンチキュラ方式を用いた場合について説明する。なお、画像表示装置55の表示方式として、パララックスバリア方式を用いた場合であってもよい。
図23に示すように、表示部15にレンチキュラレンズ56を横方向に一定ピッチで複数設ける。1つのレンズキュラレンズ56に対して6個の表示エリア15a〜15fが対応付けられるように表示部15の表示領域を分割する。これら表示エリアのうち、表示エリア15a,15c,15eを左眼用の表示エリアとし、表示エリア15b,15d,15fを右眼用の表示エリアとする。ここで、表示エリア15a,15bは画像Aの一部分を表示する領域、表示エリア15c,15dは画像Bの一部分を表示する領域、表示エリア15e,15fは画像Cの一部分を表示する領域である。なお、レンチキュラレンズ1つに対する表示エリアの数は上記に限定される必要はなく、適宜設定されるものである。
このような構成の表示部15の場合、表示エリア15aに表示される画像Aの左眼用画像はレンチキュラレンズ56によって屈折され、図中左側に位置する人物H1の左眼LH1で観察される。また、表示エリア15bに表示される画像Aの右眼用画像は、レンチキュラレンズ56によって屈折され、図中左側に位置する人物H1の右眼RH1で観察される。
また、画像Bの左眼用画像は、表示エリア15cに表示される画像Bの左眼用画像はレンチキュラレンズ56によって屈折され、正面に位置する人物H2の左眼LH2で観察される。また、表示エリア15dに表示される画像Bの右眼用画像はレンチキュラレンズ56によって屈折され、正面にいる人物H2の右眼RH2で観察される。
さらに、表示エリア15eに表示される画像Cの左眼用画像は、レンチキュラレンズ56によって屈折され、正面から図中右側にいる人物H3の左眼LH3で観察される。また、表示エリア15fに表示される画像Cの右眼用画像はレンチキュラレンズ56によって屈折され、正面から図中右側にいる人物H3の右眼RH3で観察される。
画像表示装置55の表示部15において画像A及び画像Cとしてスノーノイズ画像を表示し、画像Bとしてぬいぐるみの画像とした場合には、人物の位置によって観察できる画像が変化する。図24(a)に示すように、正面に位置した人物H2は、画像Aである、ぬいぐるみの画像の立体視表示を観察することができる。一方、図24(b)に示すように、正面から左側に又は右側に位置した人物H1,H3は、ぬいぐるみの画像の立体視表示を観察することができず、スノーノイズ画像を観察することになる。これによれば、ユーザ以外の人物にユーザが観察したい画像を見られることを防止できる。なお、画像A及び画像Cとして表示する画像は、スノーノイズ画像の他に、ブルー画像やブラック画像や、のぞき見をしていることを警告するための警告画像など、適宜の画像が挙げられる。
また、この他に、以下の方法も挙げられる。例えば画像表示装置55に撮像部57を設け、この撮像部57からの画像信号から、画像表示装置を観察する人物の位置を特定する。撮像部57から出力される画像信号から、人物H4が画像表示装置55の正面にいると判定された場合には、画像表示装置55は立体視が可能な視差量を用いて三次元画像を生成し、表示する。この場合、図25(a)に示すように、人物H4は、例えばぬいぐるみの画像など、三次元画像の立体視表示を観察することができる。
一方、人物が画像表示装置55の正面からずれた位置にいる場合には、画像表示装置55は、立体視が可能な視差量ではなく、観察者が画像表示装置の正面からどのくらいずれているかを判定し、その判定結果に基づいた視差量となるように、三次元画像を生成する。図25(b)に示すように、人物H4が正面の位置(点線で示す位置)から角度Φずれた位置(実線で示す位置)にいる場合には、ぬいぐるみの画像が表示されるが、この場合、ぬいぐるみの画像において視差があわない、言い換えれば、ぬいぐるみの画像がぶれて見える。この場合、画像表示装置55の正面からのずれ量が大きいほど、視差量が大きくなるように三次元画像を生成すればよい。これにより、ユーザ以外の人物にユーザが観察したい画像を見られることを防止できる。
なお、三次元画像を表示することで、立体視表示を行っているが、これに限定される必要はなく、二次元画像を表示してもよい。
本実施形態では、画像表示装置を例に取り上げているが、これに限定される必要はなく、上述した画像表示装置を備えた撮像装置、携帯型電話機などの携帯型情報通信機器、携帯型ゲーム機器などに応用することができる。以下、本発明の画像表示装置の構成を備えた撮像装置を例に挙げて説明する。
図26に示すように、撮像装置60は、撮像光学系61、撮像素子62、レンズ駆動機構63、ドライバ64、A/D変換部65、バッファメモリ66、画像処理回路67、表示制御回路68、表示装置69、接続I/F70、CPU71、内蔵メモリ72、レリーズボタン73、操作部74、傾斜センサ75、気圧センサ76などにより構成される。なお、A/D変換部65、バッファメモリ66、画像処理回路67、表示制御回路68、接続I/F70、CPU71及び内蔵メモリ72は、バス77を介して電気的に接続される。
撮像装置60は、接続I/F70を介して記憶媒体78を装着させることが可能である。この記憶媒体78としては、例えばメモリカード、小型ハードディスク、DVDなどの光ディスクなどの他に、例えば外付け用のハードディスクドライブなど、撮像装置60の外部に設けられるものであってもよい。
撮像光学系61は、複数のレンズから構成され、撮像素子62の撮像面上に被写体像を結像させる。この撮像光学系61は、不図示のフォーカスレンズとズームレンズとを含む。フォーカスレンズはレンズ駆動機構63により光軸(L)方向に進退駆動されることで、撮像光学系61におけるフォーカス調節が行われる。また、ズームレンズもレンズ駆動機構63により光軸(L)方向に進退駆動されることで、撮像光学系61のズーム調節が行われる。
撮像素子62は、例えばCCDイメージセンサあるいはCMOSイメージセンサなどによって構成される。ドライバ64は、CPU71から出力される指令に応じて所定タイミングの駆動信号を発生し、発生した駆動信号を撮像素子62へ供給する。撮像素子62は、供給された駆動信号によって電荷蓄積(撮像)や蓄積電荷の読み出しが制御される。CPU71は、被写体の測光データを用いて被写界の明るさの情報を求め、この明るさの情報に基づいて撮像素子62の電荷蓄積時間、撮像光学系61における絞り、および撮像素子62より出力される画像信号の増幅度などを決定する。この撮像素子62から読み出された画像信号は、A/D変換部65にて、アナログの画像信号からデジタルの画像信号に変換された後、バッファメモリ66に書き込まれる。
画像処理回路67は、CPU71からの指令に応じた入力信号に対して、色補間、ホワイトバランス、ガンマ変換等の画像処理を施す。この画像処理後のデータが画像(画像データ)となる。この画像処理回路67は、表示装置69に再生画像を表示させるために必要な解像度変換(画素数変換)処理を画像データに施し、解像度変換処理後の画像データを表示制御回路68へ出力する。なお、電子ズーム処理を行う際にも、画像処理回路67は画像データに対して解像度(画素数)変換処理を施す。以下、画像データを画像と称して説明する。
なお、表示装置69において三次元画像を表示する場合、画像処理回路67は、上述した処理に加えて、CPU71によって算出される撮像装置60の傾斜角δ、鉛直方向における撮像装置60の位置、人間の両眼視差量を用いて、バッファメモリ66に一時記憶された二次元画像から三次元画像を生成する。なお、バッファメモリ66に一時記憶される画像としては、撮影待機状態時に得られるスルー画像、撮影時に得られる静止画像や動画像の他に、記憶媒体78から読み出した画像も含まれる。
表示制御回路68は、CPU71からの指令に応じて、画像処理回路67から入力される画像に所定の信号処理を施して表示装置69へ出力する。なお、表示装置69としては、LCDやELディスプレイ、或いはCRTディスプレイなどが挙げられる。
レリーズボタン73や操作部74は、その操作時に、操作内容に応じた操作信号をCPU71へ出力する。CPU71は、レリーズボタン73の押下操作に基づくレリーズ操作信号が入力されると、撮像素子62から読み出される画像信号の中で、撮像画面内にあらかじめ設定されているフォーカス検出領域に対応する信号を用いて公知のコントラスト方式のAF(オートフォーカス)動作を行う。
操作部74はズーム操作部を備えている。CPU71は、ズーム操作に基づくズーム操作信号が操作部74から入力されると、上述したレンズ駆動指令を発生し、レンズ駆動機構63にズームレンズを進退駆動させる。これにより、撮像素子62の撮像面上に結像される被写体像が拡大もしくは縮小し、光学的にズーム調節される。内蔵メモリ72は、CPU71によって実行される制御プログラムや該制御プログラムを実行したときに使用されるデータなどが記憶される。
傾斜センサ75は、撮像装置60の傾きを検知するセンサである。この傾斜センサ75からの検知信号は、CPU71に入力される。CPU71は、傾斜センサ75からの検知信号に基づいて撮像装置60の傾斜角を算出する。
気圧センサ76は、鉛直方向における撮像装置60の位置を検知するセンサである。この気圧センサ76からの検知信号は、CPU71に入力される。CPU71は、気圧センサ76からの検知信号に基づいて、鉛直方向における撮像装置60の位置を算出する。
例えば撮像装置60の表示装置69に三次元画像を表示する場合について説明する。CPU71には、傾斜センサ75や気圧センサ76からの検知信号が逐次入力されている。これを受けて、CPU71は、撮像装置60の傾斜角δや撮像装置60の位置を算出する。なお、算出された撮像装置60の傾斜角δや撮像装置60の位置を画像処理回路67に出力する。画像処理回路67は、撮像装置60の傾斜角δ、撮像装置60の位置、人間の両眼視差量などを用いて、バッファメモリ66に一時記憶された画像(二次元画像)から三次元画像を生成する。そして、画像処理回路67は、生成された三次元画像を表示制御回路68に出力する。表示制御回路68は、三次元画像を表示装置69に出力する。これにより、三次元画像が表示装置69に表示される。
図27(a)は、撮像装置60の表示装置69の表示面69aがyz平面と平行な面となるときの、表示面69aと立体視表示される三次元画像の知覚面Sとを示す。このときの、表示面69aと立体視表示される三次元画像の知覚面Sとのなす角度θを角度θとする。
図27(b)は、撮像装置60をy方向の軸を回転中心として角度δ(=θ)時計方向に傾斜させた場合を示す。上述したように、三次元画像は、その知覚面Sが基準となる三次元画像の知覚面S(図27(a)に示す知覚面S)となるように生成されている。つまり、撮像装置の傾斜角δが角度θとなる場合には、表示装置69の表示面69aと立体視表示における三次元画像の知覚面Sとが同一面となる。
図27(c)は、撮像装置60をy方向の軸を回転中心として角度δ(>θ)時計方向に傾斜させた場合を示す。この場合も、三次元画像は、その知覚面Sが基準となる三次元画像の知覚面S(図27(a)に示す知覚面S)となるように生成されている。一方、撮像装置60は角度δ(>θ)時計方向に傾斜していることから、立体視表示される三次元画像の知覚面Sは、表示装置69の表示面69aに対して反時計方向にθ傾斜した状態となる。
このように、撮像装置60を傾斜させた角度δに関係なく、立体視表示される三次元画像の知覚面Sは固定される。つまり、撮像装置60を傾斜させる角度δによって、三次元画像の立体視表示における奥行き距離を変化させることができる。これにより、ユーザが三次元画像の立体視表示を最適な状態で観察することが可能となる。
また、撮像装置60を傾けずに、撮像装置60を上方向(z方向)に移動させた場合を考える。以下、撮像装置60の表示装置69の表示面69aがyz平面と平行な面となる場合について考える。図28(a)に示す撮像装置60の位置を基準とすると、この位置では、立体視表示される三次元画像の知覚面Sは表示装置69の表示面69aに対して時計方向に角度θ傾斜した状態となる。
図28(b)に示すように、基準とする位置から撮像装置60を所定量z方向に移動させると、表示装置69の表示面69aと立体視表示される三次元画像の知覚面Sとが同一面となる状態に変化する。図28(c)に示すように、撮像装置60をさらにz方向に移動させると、立体視表示される三次元画像の知覚面Sは、表示装置69の表示面69aに対して反時計方向に角度θ傾斜した状態に変化する。つまり、撮像装置69をz方向に移動させるだけで、立体視表示される三次元画像の知覚面Sの奥行き距離が変化する。この場合も、ユーザが三次元画像の立体視表示を最適な状態で観察することが可能となる。
なお、図27及び図28においては、撮像装置60の傾斜角、鉛直方向における撮像装置の位置のいずれか一方に応じて、立体視表示における奥行き距離を変化させているが、これに限定される必要はなく、撮像装置の傾斜角及び鉛直方向における撮像装置の位置の双方を考慮して、立体視表示における奥行き距離を変更することも可能である。なお、この場合、撮像装置の傾斜方向は、y方向の軸を回転中心とする他に、z方向の軸を回転中心とする、又はyz平面上に含まれる直線を回転中心としてもよい。
また、上記構成に加えて、ユーザを撮像する撮像部を撮像装置に設け、この撮像部により撮像された画像からユーザの顔から撮像装置までの距離を求め、撮像装置の傾斜角、鉛直方向における撮像装置の位置、人間の両眼視差量の他に、求めた距離を考慮した三次元画像を生成することも可能である。
10,45,50,55…画像表示装置、11,47,52…コントローラ、12,48,53…画像処理部、13…表示制御部、14…画像記憶部、15…表示部、16,75…傾斜センサ、17…タッチパネル、46,57…撮像部、51,76…気圧センサ、60…撮像装置、67…画像処理回路、68…表示制御回路、69…表示装置、71…CPU

Claims (33)

  1. 人間の視差を利用した第1画像の立体視表示を行うことが可能な表示部と、
    前記立体視表示における奥行き距離を変更する処理を、前記第1画像に対して施す画像処理部と、
    前記処理が施された前記第1画像を前記表示部に表示させる表示制御部と、
    を備えたことを特徴とする画像表示装置。
  2. 請求項1に記載の画像表示装置において、
    装置の傾きを検出する傾き検出部を備え、
    前記画像処理部は、前記傾き検出部により検出された前記装置の傾きに基づいて、前記第1画像に対する前記処理を実行することを特徴とする画像表示装置。
  3. 請求項1に記載の画像表示装置において、
    前記奥行き距離を変更する際に操作される操作部を備え、
    前記画像処理部は、前記操作部の操作に基づいて、前記第1画像に対する前記処理を実行することを特徴とする画像表示装置。
  4. 請求項3に記載の画像表示装置において、
    前記操作部の操作により変更された前記奥行き距離を記憶する記憶部を備え、
    前記画像処理部は、前記記憶部に記憶された前記奥行き距離となるように、前記第1画像に対する前記処理を実行することを特徴とする画像表示装置。
  5. 請求項1から請求項4のいずれか1項に記載の画像表示装置において、
    前記立体視表示において前記第1画像が知覚される面は、前記表示部の表示面に対して所定の角度傾斜しており、
    前記所定の角度は、前記画像処理部による前記処理を行うことで変更されることを特徴とする画像表示装置。
  6. 請求項5に記載の画像表示装置において、
    前記立体視表示において前記第1画像が知覚される面は、前記第1画像を観察する人間の両眼視差量が前記立体視表示における融像限界の範囲を外れた場合に、前記表示部の表示面となることを特徴とする画像表示装置。
  7. 請求項5に記載の画像表示装置において、
    前記立体視表示において前記第1画像が知覚される面は、前記所定の角度が予め設定された閾値を超過した場合に、前記表示部の表示面となることを特徴とする画像表示装置。
  8. 請求項5から請求項7のいずれか1項に記載の画像表示装置において、
    前記画像処理部は、人物が接触する位置に基づいて、前記第1画像が知覚される面を前記所定の角度傾斜させるときの回転中心の位置を設定することを特徴とする画像表示装置。
  9. 請求項8に記載の画像表示装置において、
    前記画像処理部は、前記人物が同時に複数の位置で接触されたときに、前記複数の位置の中間の位置を通る直線を、前記第1画像が知覚される面を前記所定の角度傾斜させるときの回転中心として設定することを特徴とする画像表示装置。
  10. 請求項8に記載の画像表示装置において、
    前記画像処理部は、前記人物が同時に複数の位置で接触されたときに、前記複数の位置のいずれかの位置を通る直線を、前記第1画像が知覚される面を前記所定の角度傾斜させるときの回転中心として設定することを特徴とする画像表示装置。
  11. 請求項1に記載の画像表示装置において、
    前記表示面における人物の接触した位置を検知する位置検知部を備え、
    前記画像処理部は、前記位置検知部により検知された人物の位置に基づいて、前記第1画像を縮小し、
    前記表示部は、前記画像処理部により縮小された前記第1画像を表示することを特徴とする画像表示装置。
  12. 請求項1に記載の画像表示装置において、
    前記画像処理部は、変更された前記奥行き距離に基づいて、前記第1画像の幅を調整することを特徴とする画像表示装置。
  13. 請求項1に記載の画像表示装置において、
    前記第1画像は、前記表示部の全領域を用いて表示されることを特徴とする画像表示装置。
  14. 請求項1に記載の画像表示装置において、
    前記第1画像は、前記表示部の一部の領域を用いて表示されることを特徴とする画像表示装置。
  15. 請求項1に記載の画像表示装置において、
    前記画像処理部は、前記第1画像に含まれる構造物の領域に前記処理を実行することで、前記第1画像に含まれる前記構造物の奥行き距離を変更することを特徴とする画像表示装置。
  16. 請求項1に記載の画像表示装置において、
    前記画像処理部は、入力操作を行う領域が前記第1画像に含まれる場合、少なくとも前記入力操作を行う領域以外の領域に対して前記処理を実行することを特徴とする画像表示装置。
  17. 請求項1に記載の画像表示装置において、
    前記画像処理部は、前記立体視表示される構造物が前記第1画像に含まれる場合、前記構造物以外の領域に対して前記処理を実行することで、前記構造物における奥行き距離を維持したまま、前記第1画像における奥行き距離を変更することを特徴とする画像表示装置。
  18. 請求項1に記載の画像表示装置において、
    人物の接触を検知する検知部を備え、
    前記画像処理部は、前記検知部による前記人物の接触の有無に基づいて、前記第1画像に対する前記処理を実行することを特徴とする画像表示装置。
  19. 請求項18に記載の画像表示装置において、
    前記表示制御部は、前記検知部により前記人物の接触を検知できない場合に、前記表示部による前記第1画像の表示を停止することを特徴とする画像表示装置。
  20. 請求項1に記載の画像表示装置において、
    前記第1画像とは異なる第2画像を撮像する撮像部を備え、
    前記画像処理部は、前記撮像部により撮像された前記第2画像に含まれる人物の顔の位置に基づいて、前記第1画像に対する前記処理を実行することを特徴とする画像表示装置。
  21. 請求項20に記載の画像表示装置において、
    前記表示制御部は、前記撮像部により撮像された前記第2画像から人物の顔を検出できない場合に、前記表示部による前記第1画像の表示を停止することを特徴とする画像表示装置。
  22. 請求項20又は請求項21に記載の画像表示装置において、
    前記撮像部は、前記立体視表示において前記第1画像が知覚される面を撮影範囲とした前記第2画像を取得することが可能であり、
    前記撮像部により撮像された前記第2画像に含まれる人物の手の位置と、前記立体視表示に含まれる操作部の位置とに基づいて、前記操作部が操作されたか否かを判定する判定部と、
    前記判定部により前記操作部が操作されたと判定された場合に、前記操作部の操作に基づいた制御を実行する制御部とを、さらに備えていることを特徴とする画像表示装置。
  23. 請求項22に記載の画像表示装置において、
    前記撮像部における撮影範囲は、前記立体視表示において前記第1画像が知覚される面のうち、前記表示部の表示面よりも前方に突出する領域からなることを特徴とする画像表示装置。
  24. 請求項1に記載の画像表示装置において、
    入力操作を行うタッチパネルと、
    前記画像処理部により変更された前記立体視表示における奥行き距離に基づいて、前記タッチパネルにおける検出感度を変更する感度変更部と、を備えていることを特徴とする画像表示装置。
  25. 請求項24に記載の画像表示装置において、
    前記タッチパネルにより入力操作が行われたことを検知したときに、入力操作される物体に対して風を送風する送風装置、又は水滴を吐出する吐出装置を備えたことを特徴とする画像表示装置。
  26. 請求項1に記載の画像表示装置において、
    装置が位置する高さを検出する高さ検出部を、備え、
    前記画像処理部は、前記高さ検出部により検出された前記装置が位置する高さに基づいて、前記第1画像に対する前記処理を実行することを特徴とする画像表示装置。
  27. 請求項1に記載の画像表示装置において、
    前記表示部の前面に位置する障害物を検知する障害物検知部と、
    前記障害物検知部による前記障害物の検知に基づいて、前記表示部から前記障害物までの距離を算出する算出部と、をさらに備え、
    前記画像処理部は、前記算出部により算出される距離が前記第1画像における奥行き距離以下となる場合に、前記第1画像における奥行き距離を変更することを特徴とする画像表示装置。
  28. 請求項27に記載の画像表示装置において、
    前記算出部は、前記表示部の表示面における前記障害物の位置を算出し、
    前記画像処理部は、前記第1画像のうち、前記障害物に対応した位置にある構造物に対する奥行き距離を変更することを特徴とする画像表示装置。
  29. 請求項27に記載の画像表示装置において、
    前記画像処理部は、前記第1画像全体に対する奥行き距離を変更することを特徴とする画像表示装置。
  30. 請求項1から請求項4のいずれか1項に記載の画像表示装置において、
    前記立体視表示において前記第1画像が知覚される面を、前記表示部の周縁部の奥行き距離が前記表示部の中心部の奥行き距離よりも短く設定される湾曲面、又は屈曲面からなることを特徴とする画像表示装置。
  31. 請求項30に記載の画像表示装置において、
    人物の接触を検知する検知部を備え、
    前記検知部による前記人物の接触を検知したときに、前記人物の接触を検知した位置近傍における前記第1画像が知覚される面の奥行き距離を零(0)に設定することを特徴とする画像表示装置。
  32. 請求項31に記載の画像表示装置において、
    前記検知部により検知される人物の接触位置の移動により、前記表示部の中心部の奥行き距離を変化させることを特徴とする画像表示装置。
  33. 請求項1から請求項32のいずれか1項に記載の画像表示装置を備えたことを特徴とする撮像装置。
JP2011181618A 2010-09-22 2011-08-23 画像表示装置及び撮像装置 Active JP5263355B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011181618A JP5263355B2 (ja) 2010-09-22 2011-08-23 画像表示装置及び撮像装置
US13/220,218 US9076245B2 (en) 2010-09-22 2011-08-29 Image display apparatus and imaging apparatus
CN201110291048.9A CN102547324B (zh) 2010-09-22 2011-09-22 图像显示装置及摄像装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010211704 2010-09-22
JP2010211704 2010-09-22
JP2011181618A JP5263355B2 (ja) 2010-09-22 2011-08-23 画像表示装置及び撮像装置

Publications (2)

Publication Number Publication Date
JP2012090256A true JP2012090256A (ja) 2012-05-10
JP5263355B2 JP5263355B2 (ja) 2013-08-14

Family

ID=45817325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011181618A Active JP5263355B2 (ja) 2010-09-22 2011-08-23 画像表示装置及び撮像装置

Country Status (3)

Country Link
US (1) US9076245B2 (ja)
JP (1) JP5263355B2 (ja)
CN (1) CN102547324B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686130A (zh) * 2012-09-11 2014-03-26 株式会社东芝 图像处理设备、图像处理方法以及立体显示装置
WO2014097653A1 (ja) * 2012-12-21 2014-06-26 株式会社 東芝 電子機器、制御方法およびプログラム
JP2020520032A (ja) * 2016-04-08 2020-07-02 マックス メディア グループ, エルエルシーMaxx Media Group,Llc 電子ディスプレイの前方または上に投影されて見える仮想3次元画像を作製するためのシステム、方法、およびソフトウェア
JP2020532091A (ja) * 2017-08-23 2020-11-05 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. 可撓性基板およびその製造方法、屈曲検出方法ならびに可撓性表示装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5965339B2 (ja) * 2013-03-11 2016-08-03 シャープ株式会社 携帯型装置
US9838672B2 (en) * 2013-05-16 2017-12-05 Mediatek Inc. Apparatus and method for referring to motion status of image capture device to generate stereo image pair to auto-stereoscopic display for stereo preview
JP2015141526A (ja) * 2014-01-28 2015-08-03 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR20150104302A (ko) * 2014-03-05 2015-09-15 삼성전자주식회사 전자 장치의 사용자 입력 검출 방법 및 그 전자 장치
US9706910B1 (en) * 2014-05-29 2017-07-18 Vivid Vision, Inc. Interactive system for vision assessment and correction
EP3765890A4 (en) 2018-03-14 2022-01-12 Magic Leap, Inc. DISPLAY SYSTEMS AND CONTENT CROPPING METHODS TO INCREASE VIEWING COMFORT
US20210132689A1 (en) * 2019-11-05 2021-05-06 Micron Technology, Inc. User interface based in part on eye movement
US11614797B2 (en) 2019-11-05 2023-03-28 Micron Technology, Inc. Rendering enhancement based in part on eye tracking
CN114566132A (zh) * 2022-02-28 2022-05-31 北京京东方显示技术有限公司 参数处理方法、装置、电子设备及计算机可读存储介质

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01107247A (ja) * 1987-10-21 1989-04-25 Matsushita Electric Ind Co Ltd 3次元映像表示装置
JPH11122638A (ja) * 1997-10-15 1999-04-30 Oki Electric Ind Co Ltd 画像処理装置および画像処理方法ならびに画像処理プログラムが記録されたコンピュータ読み取り可能な情報記録媒体
JPH11155155A (ja) * 1997-11-19 1999-06-08 Toshiba Corp 立体映像処理装置
JPH11355808A (ja) * 1998-06-04 1999-12-24 Olympus Optical Co Ltd 映像システム
JP2004178579A (ja) * 2002-11-12 2004-06-24 Namco Ltd 立体視用印刷物の製造方法、立体視用印刷物
JP2004221700A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2006267456A (ja) * 2005-03-23 2006-10-05 Casio Hitachi Mobile Communications Co Ltd 画像処理装置、その画像処理方法及びプログラム
JP2006293878A (ja) * 2005-04-14 2006-10-26 Nippon Telegr & Teleph Corp <Ntt> 画像表示システムおよび画像表示方法、ならびに画像表示プログラム
JP2006293106A (ja) * 2005-04-12 2006-10-26 Toshiba Corp 立体表示装置
JP2006349921A (ja) * 2005-06-15 2006-12-28 Mitsubishi Electric Corp 画像表示装置
JP2007047294A (ja) * 2005-08-08 2007-02-22 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
JP2008033202A (ja) * 2006-08-01 2008-02-14 Sharp Corp 映像表示装置
JP2008146221A (ja) * 2006-12-07 2008-06-26 Sony Corp 画像表示システム
JP2009251141A (ja) * 2008-04-03 2009-10-29 Mitsubishi Electric Corp 立体画像表示装置
JP2010002513A (ja) * 2008-06-18 2010-01-07 Sony Corp 電子双眼鏡
WO2010061689A1 (ja) * 2008-11-26 2010-06-03 日本電気株式会社 表示装置、端末装置および表示方法
JP2010183154A (ja) * 2009-02-03 2010-08-19 Casio Hitachi Mobile Communications Co Ltd 端末装置及びプログラム
JP2012060607A (ja) * 2010-09-13 2012-03-22 Toshiba Corp 立体画像表示装置、方法およびプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3647376B2 (ja) * 2001-01-31 2005-05-11 キヤノン株式会社 視点位置検出装置、視点位置検出方法及び立体画像表示システム
US6752498B2 (en) * 2001-05-14 2004-06-22 Eastman Kodak Company Adaptive autostereoscopic display system
US20030112508A1 (en) * 2001-08-17 2003-06-19 Byoungyi Yoon Method and system for controlling space magnification for stereoscopic images
JP2003223095A (ja) 2002-01-29 2003-08-08 Seiko Epson Corp 携帯機器及びプログラム
US7680322B2 (en) 2002-11-12 2010-03-16 Namco Bandai Games Inc. Method of fabricating printed material for stereoscopic viewing, and printed material for stereoscopic viewing
US7401300B2 (en) * 2004-01-09 2008-07-15 Nokia Corporation Adaptive user interface input device
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP4975256B2 (ja) 2005-01-31 2012-07-11 学校法人早稲田大学 立体映像呈示装置
US8717423B2 (en) * 2005-05-09 2014-05-06 Zspace, Inc. Modifying perspective of stereoscopic images based on changes in user viewpoint
KR100893616B1 (ko) * 2006-04-17 2009-04-20 삼성모바일디스플레이주식회사 전자 영상 기기, 2d/3d 영상 표시 장치 및 그 구동방법
JP4257356B2 (ja) * 2006-09-26 2009-04-22 株式会社日立製作所 画像生成装置および画像生成方法
JP2008219788A (ja) * 2007-03-07 2008-09-18 Toshiba Corp 立体画像表示装置、方法およびプログラム
US8345751B2 (en) * 2007-06-26 2013-01-01 Koninklijke Philips Electronics N.V. Method and system for encoding a 3D video signal, enclosed 3D video signal, method and system for decoder for a 3D video signal
US8373630B2 (en) * 2007-10-01 2013-02-12 Mitsubishi Electric Corporation Display device
US10235827B2 (en) * 2007-11-09 2019-03-19 Ball Gaming, Inc. Interaction with 3D space in a gaming system
US8477139B2 (en) * 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
TWI405104B (zh) * 2009-11-16 2013-08-11 Quanta Comp Inc 利用觸碰感測輸入裝置來翻轉三維圖形物件之方法
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US8890941B2 (en) * 2010-04-29 2014-11-18 Virginia Venture Industries, Llc Methods and apparatuses for viewing three dimensional images
US8378985B2 (en) * 2010-05-26 2013-02-19 Sony Mobile Communications Ab Touch interface for three-dimensional display control
US9179133B2 (en) * 2010-10-19 2015-11-03 Mitsubishi Electric Corporation 3Dimension stereoscopic display device

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01107247A (ja) * 1987-10-21 1989-04-25 Matsushita Electric Ind Co Ltd 3次元映像表示装置
JPH11122638A (ja) * 1997-10-15 1999-04-30 Oki Electric Ind Co Ltd 画像処理装置および画像処理方法ならびに画像処理プログラムが記録されたコンピュータ読み取り可能な情報記録媒体
JPH11155155A (ja) * 1997-11-19 1999-06-08 Toshiba Corp 立体映像処理装置
JPH11355808A (ja) * 1998-06-04 1999-12-24 Olympus Optical Co Ltd 映像システム
JP2004178579A (ja) * 2002-11-12 2004-06-24 Namco Ltd 立体視用印刷物の製造方法、立体視用印刷物
JP2004221700A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2006267456A (ja) * 2005-03-23 2006-10-05 Casio Hitachi Mobile Communications Co Ltd 画像処理装置、その画像処理方法及びプログラム
JP2006293106A (ja) * 2005-04-12 2006-10-26 Toshiba Corp 立体表示装置
JP2006293878A (ja) * 2005-04-14 2006-10-26 Nippon Telegr & Teleph Corp <Ntt> 画像表示システムおよび画像表示方法、ならびに画像表示プログラム
JP2006349921A (ja) * 2005-06-15 2006-12-28 Mitsubishi Electric Corp 画像表示装置
JP2007047294A (ja) * 2005-08-08 2007-02-22 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
JP2008033202A (ja) * 2006-08-01 2008-02-14 Sharp Corp 映像表示装置
JP2008146221A (ja) * 2006-12-07 2008-06-26 Sony Corp 画像表示システム
JP2009251141A (ja) * 2008-04-03 2009-10-29 Mitsubishi Electric Corp 立体画像表示装置
JP2010002513A (ja) * 2008-06-18 2010-01-07 Sony Corp 電子双眼鏡
WO2010061689A1 (ja) * 2008-11-26 2010-06-03 日本電気株式会社 表示装置、端末装置および表示方法
JP2010183154A (ja) * 2009-02-03 2010-08-19 Casio Hitachi Mobile Communications Co Ltd 端末装置及びプログラム
JP2012060607A (ja) * 2010-09-13 2012-03-22 Toshiba Corp 立体画像表示装置、方法およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686130A (zh) * 2012-09-11 2014-03-26 株式会社东芝 图像处理设备、图像处理方法以及立体显示装置
WO2014097653A1 (ja) * 2012-12-21 2014-06-26 株式会社 東芝 電子機器、制御方法およびプログラム
JP2020520032A (ja) * 2016-04-08 2020-07-02 マックス メディア グループ, エルエルシーMaxx Media Group,Llc 電子ディスプレイの前方または上に投影されて見える仮想3次元画像を作製するためのシステム、方法、およびソフトウェア
JP2020532091A (ja) * 2017-08-23 2020-11-05 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. 可撓性基板およびその製造方法、屈曲検出方法ならびに可撓性表示装置
JP7238247B2 (ja) 2017-08-23 2023-03-14 京東方科技集團股▲ふん▼有限公司 可撓性基板およびその製造方法、屈曲検出方法ならびに可撓性表示装置

Also Published As

Publication number Publication date
CN102547324B (zh) 2016-02-17
US9076245B2 (en) 2015-07-07
JP5263355B2 (ja) 2013-08-14
CN102547324A (zh) 2012-07-04
US20120069002A1 (en) 2012-03-22

Similar Documents

Publication Publication Date Title
JP5263355B2 (ja) 画像表示装置及び撮像装置
JP5450791B2 (ja) 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体
US9001192B2 (en) Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
JP5689707B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP5739671B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
EP2391138B1 (en) Hand-held electronic device
WO2011148544A1 (ja) 携帯型電子機器
JP5702653B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6148714B2 (ja) 携帯型電子機器
JP2012068964A (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
WO2012124150A1 (ja) 映像表示装置
JP6339887B2 (ja) 画像表示装置
JP2010055266A (ja) 3次元表示時における指示位置設定装置および方法並びにプログラム
CN112616048B (zh) Ar眼镜及其显示方法和***、图像处理方法及设备
JP5181084B1 (ja) 立体画像表示制御装置及び立体画像表示制御方法
JP2012069126A (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JPH11353118A (ja) 情報入力装置
KR20140047620A (ko) 입체적 효과 조정을 위한 상호적인 사용자 인터페이스
US8791946B2 (en) Computer-readable storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
JP2011217229A (ja) 撮像装置および表示方法
JP2012175358A (ja) 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム
JP5541973B2 (ja) 立体画像表示プログラム、立体画像表示装置、立体画像表示システム、および、立体画像表示方法
JP5620748B2 (ja) 携帯型電子機器
WO2013111201A1 (ja) 立体画像表示制御装置及び立体画像表示制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130415

R150 Certificate of patent or registration of utility model

Ref document number: 5263355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250