JP2012227728A - 電子機器および映像表示方法 - Google Patents

電子機器および映像表示方法 Download PDF

Info

Publication number
JP2012227728A
JP2012227728A JP2011093420A JP2011093420A JP2012227728A JP 2012227728 A JP2012227728 A JP 2012227728A JP 2011093420 A JP2011093420 A JP 2011093420A JP 2011093420 A JP2011093420 A JP 2011093420A JP 2012227728 A JP2012227728 A JP 2012227728A
Authority
JP
Japan
Prior art keywords
video
user
video data
viewed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011093420A
Other languages
English (en)
Other versions
JP5087695B2 (ja
Inventor
Norikazu Nagawawa
澤 則 和 長
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011093420A priority Critical patent/JP5087695B2/ja
Priority to US13/332,221 priority patent/US20120268564A1/en
Publication of JP2012227728A publication Critical patent/JP2012227728A/ja
Application granted granted Critical
Publication of JP5087695B2 publication Critical patent/JP5087695B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

【課題】適切に3次元映像を表示できる電子機器および映像表示方法を提供する。
【解決手段】実施形態によれば、電子機器は、カメラと、トラッキング部と、3次元映像調整部と、表示部と、出力方向制御部とを備える。前記トラッキング部は、前記カメラで撮影された映像に基づいてユーザの位置を認識する。前記3次元映像調整部は、入力される3次元映像信号を調整し、予め定めた所定の位置から見たときに立体的に見える第1の立体映像に対応する第1の映像データ、または、前記認識されたユーザの位置から見たときに立体的に見える第2の立体映像に対応する第2の映像データを出力する。前記表示部は、前記3次元映像調整部から出力された前記第1の映像データに対応する前記第1の立体映像または前記第2の映像データに対応する前記第2の立体映像を表示する。前記出力方向制御部は、前記所定の位置、または、前記ユーザの位置から見たときに前記表示部に表示された映像が立体的に見えるよう、前記表示部からの出力方向を制御する。
【選択図】図3

Description

本発明の実施形態は、電子機器および映像表示方法に関する。
近年、映像を3次元表示可能なパーソナルコンピュータが普及しつつある。この種のパーソナルコンピュータでは、異なる視点から見た複数の視差画像がディスプレイに表示され、右目と左目とで異なる視差画像を見ることにより、ユーザは映像を立体視できる。
眼鏡を用いずに裸眼で映像が立体的に見えるように表示する場合、映像が立体的に見える範囲が狭くなることがある。そこで、ユーザの位置を認識し、その位置から映像が立体的に見えるように調整して表示するトラッキング機能が知られている。しかしながら、このトラッキング機能をオンからオフに切り替えると、トラッキング機能がオンであったときのユーザの位置に対して最適な映像が出力され続けるという問題がある。
特開2006−235332号公報
適切に3次元映像を表示できる電子機器および映像表示方法を提供する。
実施形態によれば、電子機器は、カメラと、トラッキング部と、3次元映像調整部と、表示部と、出力方向制御部とを備える。前記トラッキング部は、前記カメラで撮影された映像に基づいてユーザの位置を認識する。前記3次元映像調整部は、入力される3次元映像信号を調整し、予め定めた所定の位置から見たときに立体的に見える第1の立体映像に対応する第1の映像データ、または、前記認識されたユーザの位置から見たときに立体的に見える第2の立体映像に対応する第2の映像データを出力する。前記表示部は、前記3次元映像調整部から出力された前記第1の映像データに対応する前記第1の立体映像または前記第2の映像データに対応する前記第2の立体映像を表示する。前記出力方向制御部は、前記所定の位置、または、前記ユーザの位置から見たときに前記表示部に表示された映像が立体的に見えるよう、前記表示部からの出力方向を制御する。
電子機器100の斜視図。 電子機器100のシステム構成を示す概略ブロック図。 第1の実施形態に係る電子機器100が有する映像表示システムの概略構成を示すブロック図。 図3の映像表示システムの処理動作の一例を示すフローチャート。 出力方向制御部22および表示部21を上方から見た図。 第2の実施形態に係る電子機器100が有する映像表示システムの概略構成を示すブロック図。 図6の映像表示システムの処理動作の一例を示すフローチャート。
以下、実施形態について、図面を参照しながら具体的に説明する。
(第1の実施形態)
図1は、電子機器100の斜視図である。同図は電子機器100の例であるパーソナルコンピュータを示している。電子機器100は、本体10と、ディスプレイユニット20と、カメラ30とを備えている。
本体10は薄い箱形の筐体11を有する。筐体11の上面には、ユーザの操作を受け付けるキーボード12、タッチパッド13およびパワーボタン14や、スピーカ15等が配置される。また、筐体11の内部には、後述するCPU(Central Processing Unit)や主メモリ、HDD等が配置される。
キーボード12は文字入力やアイコン選択等の操作内容を示す信号を生成する入力デバイスである。タッチパッド13は、画面の遷移やカーソルの移動、アイコンの選択等の操作内容を示す信号を生成するポインティングデバイスである。パワーボタン14は電子機器100の電源のオン・オフを制御するスイッチである。その他、筐体11の上面には、電源がオンであるかオフであるか、バッテリを充電中であるか否か、等を示す各種インジケータや、所定の機能を起動するためのボタンが配置されていてもよい。
ディスプレイユニット20は、表示部21と、表示部21と対向して設けられる出力方向制御部22と、表示部21および出力方向制御部22を制御する各種回路(不図示)とを有し、ヒンジ(不図示)を介して本体10に回動自在に取り付けられる。
表示部21は、映像を立体的に表示するため、それぞれ異なる視点から見た複数の視差画像を同時に表示することができる。出力方向制御部22は表示部21に表示された映像の出力方向を制御する。出力方向制御部22は、例えば液晶フィルタであり、液晶材料を偏向させて出力方向を制御することができる。
カメラ30は、例えばディスプレイユニット20の上方に設けられる。ユーザの位置を認識するために、カメラ30は表示部21前方の所定の範囲を撮影する。また、セキュリティ向上のために、カメラ30の動作状態を示すインジケータ(不図示)をカメラ30に近接して設けてもよい。
図2は、電子機器100のシステム構成を示す概略ブロック図である。電子機器100は、CPU101と、ノースブリッジ102と、主メモリ103と、サウスブリッジ104と、GPU(Graphic Processing Unit)105と、トラッキング部40と、ディスプレイユニット20と、VRAM(Video Memory)106と、サウンドコントローラ107と、スピーカ15と、BIOS−ROM(Basic Input Output System Read Only Memory)108と、HDD109と、光ディスクドライブ110と、USB(Universal Serial Bus)インターフェース111と、カメラ30と、EC/KBC(Embedded Controller / Keyboard Controller)112とを備えている。
CPU101は電子機器100の動作を制御するプロセッサであり、HDD109から主メモリ103にロードされるOS(Operating System)や各種アプリケーションプログラムを実行する。また、CPU101はBIOS−ROM108から主メモリ103にロードされるシステムBIOSを実行する。システムBIOSはハードウェア制御のためのプログラムである。
ノースブリッジ102は、CPU101とサウスブリッジ104とを接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103を制御するメモリコントローラが内蔵されている。また、ノースブリッジ102はシリアルバスを介して、GPU105との通信を実行する。主メモリ103は、HDD109に記憶されるOSおよび各種アプリケーションプログラムや、BIOS−ROM108に格納されたシステムBIOSを展開するためのワーキングメモリである。
サウスブッリジ104は、BIOS−ROM108、HDD109および光ディスクドライブ110を制御する。また、サウスブリッジ104はサウンドコントローラ107との通信を実行する。さらに、サウスブリッジ104はUSBコントローラを内蔵し、USBインターフェース111を介してカメラ30が接続される。カメラ30で撮影された映像は、CPU101によりトラッキング部40に供給される。その他、USBインターフェース111には、本体10に設けられるUSB端子16を介して、映像信号や音声信号が記憶された外付けHDDやUSBメモリ等を接続することもできる。
GPU105はOSによりVRAM106に蓄積された映像信号をディスプレイユニット20に出力する。サウンドコントローラ107は、再生対象の音声データをスピーカ15に送信し、スピーカ15から出力させる。EC/KBC112は、電力管理を行うエンベデッドコントローラと、キーボード12やタッチパッド13等を制御するキーボードコントローラとを集積したワンチップマイコンである。また、EC/KBC112は、ユーザによるパワーボタン14の操作に応じて、電子機器100のオン・オフを制御する。
図3は、第1の実施形態に係る電子機器100が有する映像表示システムの概略構成を示すブロック図である。映像表示システムは、カメラ30と、トラッキング部40と、トラッキング制御部23と、3次元映像調整部24と、メモリ25と、タイミングコントローラ26と、ゲートドライバ27と、ソースドライバ28と、表示部21と、出力方向制御部22とを有する。
カメラ30はユーザの位置を認識するために表示部21前方の所定の範囲を撮影し、撮影された映像をトラッキング部40へ供給する。
トラッキング部40は、カメラ30で撮影された映像から顔、より具体的には、目をトラッキング(追跡)することにより、ユーザの位置を認識する。そして、トラッキング部40は認識されたユーザの位置を3次元映像調整部24へ供給する。トラッキング部40は、例えば1つのIC(Integrated Circuit)により実現される。
トラッキング制御部23は、ユーザからキーボード12あるいはタッチパッド13を介して指示を受け、これに従ってユーザの位置に応じた処理を行うか否か、すなわち、トラッキング機能をオンするかオフするかを制御する。
3次元映像調整部24にはGPU105から3次元映像信号が入力される。この3次元映像信号は、例えばHDD109や光ディスクドライブ110に挿入された光ディスクに記憶された2次元映像信号と奥行き情報とに基づいて生成され、複数の視差画像、少なくとも右目用および左目用の2つの視差画像を含む。奥行き情報とは、各画素をどの程度、表示部21の手前または奥に見えるように表示するかを示す情報であり、予め映像信号に付加されていてもよいし、付加されていない場合は、映像信号の特徴に基づいて奥行き情報を生成してもよい。
そして、3次元映像調整部24は3次元映像信号を調整して、表示部21の中央に対向する位置(以下、正面という)から見たときに立体的に見える映像(第1の立体映像)を表示するための正面用映像データ(第1の映像データ)を生成し、これをメモリ25に記憶しておく。トラッキング機能がオフの場合、3次元映像調整部24はメモリ25に記憶された正面用映像データを読み出してタイミングコントローラ26に供給する。
一方、トラッキング機能がオンの場合、3次元映像調整部24は3次元映像信号を調整して、ユーザの位置から見たときに立体的に見える映像(第2の立体映像)に対応するトラッキング用映像データ(第2の映像データ)を生成して、タイミングコントローラ26に供給する。
3次元映像調整部24およびトラッキング制御部23は、例えば1つのICにより実現される。
出力方向制御部22は表示部21に表示された画像の出力方向を制御する。より具体的には、トラッキング機能がオフの場合、出力方向制御部22は、正面から映像が立体的に見えるよう、出力方向を制御する。一方、トラッキング機能がオンの場合、3次元映像調整部24の制御により、出力方向制御部22は、ユーザの位置から映像が立体的に見えるよう、出力方向を制御する。これにより、ユーザの右目に右目用の視差画像が、左目に左目用視差画像がそれぞれ出力され、ユーザは裸眼で映像を立体的に見ることができる。
表示部21は、例えば対角線の長さが15.6インチの液晶パネルであり、一対のガラス基板を対向配置して、これらガラス基板の間に液晶材料を配置した構造である。表示部21は、複数(例えば768本)の走査線と、複数(例えば1366*3本)の信号線と、走査線および信号線の各交差箇所に形成される液晶画素とを有する。また、表示部21の背面には、表示部21に光を照射するバックライト装置(不図示)が設けられる。
タイミングコントローラ26は、3次元映像調整部22から供給される正面用映像データまたはトラッキング用映像データをソースドライバ28に供給するとともに、ゲートドライバ27およびソースドライバ28の動作タイミングを制御する。ゲートドライバ27は走査線の1つを順繰りに選択する。ソースドライバ28は映像データを信号線に供給する。映像データはゲートドライバ27に選択された走査線に接続される液晶画素に供給され、映像データに応じて液晶画素内の液晶材料の配向が変化する。バックライト装置から照射された光のうち、液晶材料の配向に応じた強度の光が液晶材料を透過して、映像データに応じた映像が表示部21上に表示される。
トラッキング制御部23、3次元映像調整部24、メモリ25、タイミングコントローラ26、ゲートドライバ27およびソースドライバ28は、例えばバックライト装置の裏面に設けられ、表示部21および出力方向制御部22と合わせてディスプレイユニット20を構成する。その他、ディスプレイユニット20は、VESA(Video Electronics Standards Association)で規定された情報を記憶する、IC(Inter-Integrated Circuit)で接続されたEDID−ROM等を有してもよい。
図4は、図3の映像表示システムの処理動作の一例を示すフローチャートである。なお、3次元映像の再生中、3次元映像調整部24は入力される3次元映像信号を逐次調整して正面用映像データを生成し、予めメモリ25に記憶しているものとする。
3次元映像信号の再生中、ユーザによりトラッキング機能がオンに設定されている場合(ステップS1のYES)、カメラ30は表示部21前方の所定の範囲を撮影し、トラッキング部40に供給する(ステップS2)。この映像に基づいて、トラッキング部40はユーザの位置を認識する(ステップS3)。続いて、3次元映像調整部24は、認識されたユーザの位置から、表示部21に表示される映像が立体的に見えるよう、入力される3次元映像信号を調整してトラッキング用映像データを生成し、タイミングコントローラ26に供給する(ステップS4)。そして、トラッキング用映像データに対応する映像が表示部21に表示される(ステップS5)。
さらに、表示された映像がユーザの位置から立体的に見えるよう、3次元映像調整部24は出力方向制御部22を制御する(ステップS6)。
図5は、出力方向制御部22および表示部21を上方から見た図である。表示部21に表示される映像は表示部21に対してほぼ垂直な方向に出力される。そこで、例えばユーザが表示部21に向かって右側の位置P1にいる場合、出力方向制御部22は、位置P1近辺から表示部21を見たときに映像が立体的に見えるよう、位置P1側へ映像の出力方向を制御する。
なお、トラッキング用映像データに対応する映像が表示部21の全面に表示される場合、表示部21に表示される映像全体の出力方向が制御されるよう、3次元映像調整部24は出力方向制御部22を制御するが、トラッキング用映像データに対応する映像が表示部21の一部の領域にのみ表示される場合、その映像の出力方向のみが制御されるようにしてもよい。
3次元映像信号の再生が続いており(ステップS7のYES)、トラッキング機能の設定がオンのまま変更されない限り、映像表示システムは上記の処理を繰り返す。なお、ステップS1〜S7の順序は適宜入れ替えてもよい。
一方、ユーザによりトラッキング機能がオフに設定されている場合、あるいは、オンからオフに切り替えられた場合(ステップS1のNO)、3次元映像調整部24は、メモリ25に記憶された正面用映像データを読み出し、タイミングコントローラ26に供給する(ステップS8)。そして、正面用映像データに対応する映像が表示部21に表示される(ステップS5)。さらに、表示された映像が正面を含む位置から立体的に見えるよう、3次元映像調整部24は出力方向制御部22を制御する(ステップS6)。
例えば、ユーザが図5の位置P1にいてトラッキング機能をオンに設定していたとする。この場合、上述のように出力方向制御部22は位置P1方向に映像を出力している。ある時刻でユーザがトラッキング機能をオフに切り替えると、出力方向制御部22の出力方向は、図4のステップS8の処理により、正面の位置P2から映像が立体的に見えるように切り替わる。決して、出力方向制御部22の出力方向が、ユーザがいた位置P1方向のまま固定されるのではない。
仮に出力方向が固定されるとすると、トラッキング機能をオフに切り替えた後の映像の出力方向は、切り替える直前のユーザの位置に依存してしまうため、毎回異なることになる。その結果、トラッキング機能をオフに切り替えた後にユーザが移動すると、どの位置から映像が立体的に見えるのか分からなくなるおそれがある。これに対し、本実施形態では、トラッキング機能をオフにした場合、その時のユーザの位置に関わらず常に正面から映像が立体的に見えるよう制御されるため、ユーザは正面に移動すれば映像を立体的に見ることができる。
なお、3次元映像調整部24からタイミングコントローラ26に供給する映像データを、正面用映像データからトラッキング用映像データへ、あるいは、トラッキング用映像データから正面用映像データへ切り替える場合、任意のタイミングではなく、切替前の映像データの垂直ブランキング期間中に切り替えるのがよい。これにより、確実に映像の1ライン目から表示が切り替わるため、走査中に映像が切り替わることによる乱れた映像が表示されたり、ノイズが生じたりするのを抑制できる。
このように、第1の実施形態では、トラッキング機能がオフの場合、ユーザの位置に関わらず正面から映像が立体的に見えるよう映像を表示する。そのため、トラッキング機能をオンにしてもオフにしても、適切に3次元映像を表示できる。
(第2の実施形態)
ユーザが、トラッキング機能をオンに設定しても、トラッキング部40がユーザの位置を認識できないことがある。そこで、以下に説明する第2の実施形態は、ユーザの位置を認識できない場合は、トラッキング機能をオフにするものである。
図6は、第2の実施形態に係る電子機器100が有する映像表示システムの概略構成を示すブロック図である。図6では、図3と共通する構成部分には同一の符号を付しており、以下では相違点を中心に説明する。
図6の映像表示システムでは、トラッキング部40がユーザの位置を認識できたか否かの情報をトラッキング制御部23に供給する。トラッキング制御部23は、ユーザがトラッキング機能をオンに設定し、かつ、トラッキング部40がユーザの位置を認識できた場合、トラッキング機能をオンする。言い換えると、ユーザがトラッキング機能をオンに設定していたとしても、トラッキング部40がユーザの位置を認識できない場合、トラッキング制御部23はトラッキング機能をオフする。
図7は、図6の映像表示システムの処理動作の一例を示すフローチャートである。ユーザによりトラッキング機能がオンに設定されている場合(ステップS1のYES)、カメラ30は表示部21前方の所定の範囲を撮影し、トラッキング部40に供給する(ステップS2)。
供給された映像に基づいて、トラッキング部40がユーザの位置を認識できれば(ステップS3’のYES)、映像表示システムは第1の実施形態と同様にステップS4以降の処理を行って、トラッキング用映像データに応じた映像を表示する。
一方、トラッキング部40がユーザの位置を認識できなければ(ステップS3’のNO)、トラッキング制御部23はトラッキング機能をオフし、正面用映像データに応じた映像を表示する(ステップS8以降)。例えば、トラッキング機能をオンにして映像を見ていたユーザがカメラ30の撮影範囲の外側に移動すると、正面から見て立体的に見える映像が表示されることになる。
このように、第2の実施形態では、ユーザの位置が認識できない場合はトラッキング機能をオフにするため、ユーザの位置が認識できない場合であっても、適切に3次元映像を表示できる。例えば、電子機器100を店頭に展示する場合、必ずしも誰かが表示部21上の映像を見ているわけではないし、複数の人が映像を見ていることもある。このような場合はユーザの位置を認識できないこともあるが、常に正面からは映像が立体的に見えるように表示できる。また、カメラ30が不良になった場合にも、正面から立体的に見えるように表示でき、有効である。
上述した実施形態で説明した映像表示システムの少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、映像表示システムシステムの少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。
また、映像表示システムの少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
20 ディスプレイユニット
21 表示部
22 出力方向制御部
23 トラッキング制御部
24 3次元映像調整部
25 メモリ
30 カメラ
40 トラッキング部
100 電子機器
実施形態によれば、電子機器は、カメラと、トラッキング部と、メモリと、3次元映像調整部と、表示部と、出力方向制御部とを備える。前記トラッキング部は、前記カメラで撮影された映像に基づいてユーザの位置を認識する。前記3次元映像調整部は、入力される3次元映像信号を調整し、予め定めた所定の位置から見たときに立体的に見える第1の立体映像に対応する第1の映像データを生成して前記メモリに記憶するとともに、前記認識されたユーザの位置から見たときに立体的に見える第2の立体映像に対応する第2の映像データを生成し、前記第1の映像データまたは前記第2の映像データを出力する。前記表示部は、前記3次元映像調整部から出力された前記第1の映像データに対応する前記第1の立体映像または前記第2の映像データに対応する前記第2の立体映像を表示する。前記出力方向制御部は、前記所定の位置、または、前記ユーザの位置から見たときに前記表示部に表示された映像が立体的に見えるよう、前記表示部からの出力方向を制御する。そして、前記3次元映像調整部は、出力する映像データを前記第2の映像データから前記第1の映像データに切り替える場合、前記第1の映像データを前記メモリから読み出して出力する。

Claims (16)

  1. カメラと、
    前記カメラで撮影された映像に基づいてユーザの位置を認識するトラッキング部と、
    入力される3次元映像信号を調整し、予め定めた所定の位置から見たときに立体的に見える第1の立体映像に対応する第1の映像データ、または、前記認識されたユーザの位置から見たときに立体的に見える第2の立体映像に対応する第2の映像データを出力する3次元映像調整部と、
    前記3次元映像調整部から出力された前記第1の映像データに対応する前記第1の立体映像または前記第2の映像データに対応する前記第2の立体映像を表示する表示部と、
    前記所定の位置、または、前記ユーザの位置から見たときに前記表示部に表示された映像が立体的に見えるよう、前記表示部からの出力方向を制御する出力方向制御部と、を有する電子機器。
  2. 前記3次元映像調整部が予め生成した前記第1の映像データを記憶するメモリを有する請求項1に記載の電子機器。
  3. 前記3次元映像調整部は、出力する映像データを切り替える場合、切り替え前の映像データの垂直ブランキング期間中に、出力する映像データを切り替える請求項1に記載の電子機器。
  4. 受信した指示に従い、前記ユーザの位置に応じた処理を行うか否かを切り替えるよう、前記3次元映像調整部および前記出力方向制御部を制御するトラッキング制御部を有する請求項1に記載の電子機器。
  5. 前記トラッキング制御部は、前記トラッキング部が前記ユーザの位置を認識できない場合、前記ユーザの位置に応じた処理を行わないよう制御する請求項4に記載の電子機器。
  6. 前記所定の位置は、前記表示部の中央と対向する位置を含む請求項1に記載の電子機器。
  7. 前記トラッキング部は、前記カメラで撮影された映像から前記ユーザの顔を追跡することにより、前記ユーザの位置を認識する請求項1に記載の電子機器。
  8. 前記出力方向制御部は、前記表示部に表示される映像のうち、少なくとも前記第1の立体映像または前記第2の立体映像の出力方向を制御する請求項1に記載の電子機器。
  9. カメラで撮影された映像に基づいてユーザの位置を認識するステップと、
    入力される3次元映像信号を調整し、予め定めた所定の位置から見たときに立体的に見える第1の立体映像に対応する第1の映像データ、または、前記認識されたユーザの位置から見たときに立体的に見える第2の立体映像に対応する第2の映像データを生成して出力するステップと、
    前記出力された前記第1の映像データに対応する前記第1の立体映像または前記第2の映像データに対応する前記第2の立体映像を表示部に表示するステップと、
    前記所定の位置、または、前記ユーザの位置から見たときに前記表示部に表示された映像が立体的に見えるよう、前記表示部からの出力方向を制御するステップと、を有する映像表示方法。
  10. 前記3次元映像信号から予め前記第1の映像データを生成して記憶するステップを備える請求項9に記載の映像表示方法。
  11. 前記第1の映像データまたは第2の映像データを出力するステップで、出力する映像データを切り替える場合、切り替え前の映像データの垂直映像ブランキング期間中に、出力する映像データを切り替える請求項9に記載の映像表示方法。
  12. 受信した指示に従い、前記ユーザの位置に応じた処理を行うか否かを切り替えるよう制御する請求項9に記載の映像表示方法。
  13. 前記ユーザの位置を認識できない場合、前記ユーザの位置に応じた処理を行わないよう制御する請求項12に記載の映像表示方法。
  14. 前記所定の位置は、前記表示部の中央と対向する位置を含む請求項9に記載の映像表示方法。
  15. 前記カメラで撮影された映像から前記ユーザの顔を追跡することにより、前記ユーザの位置を認識する請求項9に記載の映像表示方法。
  16. 前記表示部からの出力方向を制御するステップでは、前記表示部に表示される映像のうち、少なくとも前記第1の立体映像または前記第2の立体映像の出力方向を制御する請求項9に記載の映像表示方法。
JP2011093420A 2011-04-19 2011-04-19 電子機器および映像表示方法 Active JP5087695B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011093420A JP5087695B2 (ja) 2011-04-19 2011-04-19 電子機器および映像表示方法
US13/332,221 US20120268564A1 (en) 2011-04-19 2011-12-20 Electronic apparatus and video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011093420A JP5087695B2 (ja) 2011-04-19 2011-04-19 電子機器および映像表示方法

Publications (2)

Publication Number Publication Date
JP2012227728A true JP2012227728A (ja) 2012-11-15
JP5087695B2 JP5087695B2 (ja) 2012-12-05

Family

ID=47021027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011093420A Active JP5087695B2 (ja) 2011-04-19 2011-04-19 電子機器および映像表示方法

Country Status (2)

Country Link
US (1) US20120268564A1 (ja)
JP (1) JP5087695B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168529A (ja) * 1993-12-14 1995-07-04 Hitachi Ltd 携帯型情報処理装置
JPH07210705A (ja) * 1994-01-26 1995-08-11 Sharp Corp 仮想現実装置
JP2000156876A (ja) * 1998-09-17 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> 3次元表示方法及び装置
JP2005022065A (ja) * 2003-07-03 2005-01-27 Sony Corp 音声対話装置及び方法並びにロボット装置
JP2005175973A (ja) * 2003-12-12 2005-06-30 Canon Inc 立体表示装置
JP2006005828A (ja) * 2004-06-21 2006-01-05 Sony Corp 直視型液晶表示装置および映像信号処理装置
JP2007006052A (ja) * 2005-06-23 2007-01-11 Alpine Electronics Inc 立体画像表示システム
JP2007065067A (ja) * 2005-08-29 2007-03-15 Seijiro Tomita 立体映像表示装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW376669B (en) * 1997-02-10 1999-12-11 Shinsedai Kk Color graphic processor
JP4198054B2 (ja) * 2001-08-15 2008-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dビデオ会議システム
KR100488804B1 (ko) * 2002-10-07 2005-05-12 한국전자통신연구원 Mpeg-4 기반의 양안식 3차원 동영상 데이터 처리시스템 및 그 방법
KR101324440B1 (ko) * 2009-02-11 2013-10-31 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168529A (ja) * 1993-12-14 1995-07-04 Hitachi Ltd 携帯型情報処理装置
JPH07210705A (ja) * 1994-01-26 1995-08-11 Sharp Corp 仮想現実装置
JP2000156876A (ja) * 1998-09-17 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> 3次元表示方法及び装置
JP2005022065A (ja) * 2003-07-03 2005-01-27 Sony Corp 音声対話装置及び方法並びにロボット装置
JP2005175973A (ja) * 2003-12-12 2005-06-30 Canon Inc 立体表示装置
JP2006005828A (ja) * 2004-06-21 2006-01-05 Sony Corp 直視型液晶表示装置および映像信号処理装置
JP2007006052A (ja) * 2005-06-23 2007-01-11 Alpine Electronics Inc 立体画像表示システム
JP2007065067A (ja) * 2005-08-29 2007-03-15 Seijiro Tomita 立体映像表示装置

Also Published As

Publication number Publication date
JP5087695B2 (ja) 2012-12-05
US20120268564A1 (en) 2012-10-25

Similar Documents

Publication Publication Date Title
US10534428B2 (en) Image processing device and image processing method, display device and display method, and image display system
US10692300B2 (en) Information processing apparatus, information processing method, and image display system
KR20140141100A (ko) 시력 보호 방법 및 장치
JP4802276B2 (ja) 映像表示装置、方法、及び位置判定装置
JP2012060236A (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
JP5306494B2 (ja) 電子機器及び表示制御方法
US20110085029A1 (en) Video display apparatus and video display method
KR20190083464A (ko) 스크롤 입력에 기반하여 이미지 표시를 제어하는 전자 장치 및 방법
US20120268457A1 (en) Information processing apparatus, information processing method and program storage medium
JP5087695B2 (ja) 電子機器および映像表示方法
JP5052683B1 (ja) 電子機器および映像表示方法
US20120268454A1 (en) Information processor, information processing method and computer program product
JP5770018B2 (ja) 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム
JP5161999B2 (ja) 電子機器、表示制御方法及び表示制御プログラム
WO2019150624A1 (ja) 表示装置及び表示システム
US20120268456A1 (en) Information processor, information processing method, and computer program product
JP5526196B2 (ja) 電子機器および映像表示方法
JP2012252711A (ja) 情報処理装置、情報処理方法及びプログラム
US20240069703A1 (en) Electronic apparatus and control method thereof
JPWO2017056597A1 (ja) 情報処理装置
JP5433774B2 (ja) 電子機器、表示制御方法及び表示制御プログラム
JP2013174665A (ja) 情報処理装置、画質補正の制御方法およびプログラム
KR20230152418A (ko) 영상표시장치
KR101186063B1 (ko) 3차원 영상 디스플레이 시스템
JP2015038650A (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120910

R151 Written notification of patent or utility model registration

Ref document number: 5087695

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350