JP2012216951A - 電子機器およびインジケータの制御方法 - Google Patents

電子機器およびインジケータの制御方法 Download PDF

Info

Publication number
JP2012216951A
JP2012216951A JP2011080073A JP2011080073A JP2012216951A JP 2012216951 A JP2012216951 A JP 2012216951A JP 2011080073 A JP2011080073 A JP 2011080073A JP 2011080073 A JP2011080073 A JP 2011080073A JP 2012216951 A JP2012216951 A JP 2012216951A
Authority
JP
Japan
Prior art keywords
indicator
camera
display
electronic device
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011080073A
Other languages
English (en)
Inventor
Ryo Saito
藤 旅 斎
Tomohiro Wada
田 智 宏 和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011080073A priority Critical patent/JP2012216951A/ja
Priority to US13/427,535 priority patent/US20120249758A1/en
Publication of JP2012216951A publication Critical patent/JP2012216951A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

【課題】低コストで複数の動作状態を示すことが可能な電子機器、およびインジケータの制御方法を提供する。
【解決手段】実施形態によれば、電子機器は、カメラと、インジケータと、第1の制御部と、を備える。前記第1の制御部は、前記カメラで撮影をしているか否か、および、前記カメラで撮影された映像に基づいてユーザの目の認識を行うか否か、に応じて、前記インジケータの表示を切り替える。
【選択図】図3

Description

本発明の実施形態は、電子機器およびインジケータの制御方法に関する。
パーソナルコンピュータ等の電子機器では、その動作状態を示すインジケータが搭載される。例えば、カメラ付きのパーソナルコンピュータでは、カメラが起動していることを示すためのLED(Light Emitting Diode)が搭載されることが多い。1つの動作状態を示すために1つのインジケータを用いると、多くの部品が必要となり、また、デザイン性を損ねるという問題がある。
実用新案登録第3019791号公報
低コストで複数の動作状態を示すことが可能な電子機器およびインジケータの制御方法を提供する。
実施形態によれば、電子機器は、カメラと、インジケータと、第1の制御部と、を備える。前記第1の制御部は、前記カメラで撮影をしているか否か、および、前記カメラで撮影された映像に基づいてユーザの目の認識を行うか否か、に応じて、前記インジケータの表示を切り替える。
第1の実施形態に係るパーソナルコンピュータ100の斜視図。 インジケータ50を制御するシステム構成の一例を示す概略ブロック図。 制御部200の処理動作の一例を示すフローチャート。 インジケータ50の表示とパーソナルコンピュータ100の動作状態との関係を示す図。 第2の実施形態に係るパーソナルコンピュータ101の斜視図。 インジケータ50を制御するシステム構成の一例を示す概略ブロック図。 制御部201の処理動作の一例を示すフローチャート。 インジケータ50の表示とパーソナルコンピュータ101の動作状態との関係を示す図。 第3の実施形態に係るパーソナルコンピュータ102の斜視図。 インジケータ50を制御するシステム構成の一例を示す概略ブロック図。 制御部202の処理動作の一例を示すフローチャート。 インジケータ50の表示とパーソナルコンピュータ102の動作状態との関係を示す図。
以下、実施形態について、図面を参照しながら具体的に説明する。本実施形態では、電子機器を代表してパーソナルコンピュータを例にとって説明するが、一般的なパーソナルコンピュータの説明は省略し、本実施形態の特徴について詳しく説明する。
(第1の実施形態)
図1は、第1の実施形態に係るパーソナルコンピュータ100の斜視図である。パーソナルコンピュータ100は、コンピュータ本体10と、ディスプレイユニット20と、カメラ30と、マイク40と、インジケータ50とを備えている。
コンピュータ本体10は薄い箱形の筐体11を有する。筐体11の上面には、ユーザの操作を受け付けるキーボード12、タッチパッド13およびパワーボタン14や、スピーカ15、USB(Universal Serial Bus)端子16等が配置される。また、筐体11の内部には、CPU(Central Processing Unit)やメモリ、HDD(Hard Disk Drive)、光ディスクドライブ等(不図示)が配置される。
キーボード12は文字入力やアイコン選択等の操作内容を示す信号を生成する入力デバイスである。タッチパッド13は、画面の遷移やカーソルの移動、アイコンの選択等の操作内容を示す信号を生成するポインティングデバイスである。パワーボタン14はパーソナルコンピュータ100の電源のオン・オフを制御するスイッチである。
コンピュータ本体10に内蔵されるCPUは、ハードディスクに記録されたプログラムを実行し、ハードディスクや、光ディスクドライブに挿入されたDVD(Digital Versatile Disk)、HD DVD(High Definition DVD)、BD(Blu-ray Disk)等の光ディスクあるいはUSB端子16に接続されたUSBデバイス等の記録媒体に記録された映像信号を再生する。
本実施形態では、ユーザが裸眼で映像を立体視できるよう、コンピュータ本体10はディスプレイユニット20へそれぞれ異なる視点から見た複数の視差画像を出力する。映像信号に予め奥行き情報が含まれる場合は、これを用いて視差画像を生成してもよいし、奥行き情報が含まれない場合は、映像信号を解析して奥行き情報を算出し、視差画像を生成してもよい。また、右目用および左目用に少なくとも2枚の視差画像を生成すればよく、より自然な立体映像を表示するために、水平方向に並ぶ9か所の視点から見た9枚の視差画像を生成してもよい。
また、コンピュータ本体10は、後述するように、ディスプレイユニット20、カメラ30およびインジケータ50を制御するための制御部(不図示)を内蔵している。制御部は、例えばコンピュータプログラムとしてハードディスクに記憶されている。
ディスプレイユニット20はヒンジ(不図示)を介してコンピュータ本体10に回動自在に取り付けられている。ディスプレイユニット20は、液晶パネル(表示部)21およびフィルタ(出力部)22を有する。液晶パネル21には、再生された複数の視差画像が同時に表示される。フィルタ22は、例えば液晶フィルタであり、液晶材料を偏向させて液晶パネル21からの出力方向を制御する。
裸眼で映像を立体表示する場合、ユーザの位置によっては映像が立体的に見えないことがある。そこで、液晶パネル21に対向してフィルタ22を設け、液晶パネル21に表示される視差画像をフィルタ22から特定の方向へ出力する。すなわち、フィルタ22は複数の視差画像のうちの1つをユーザの右目に出力し、他の1つを左目に出力する。右目と左目とで異なる視差画像を見ることで、ユーザは映像を立体的に見ることができる。フィルタ22の出力方向は、後述するように、制御部により制御可能である。
カメラ30は、例えばディスプレイユニット20の上方に設けられる。ユーザの右目および左目の位置を追跡して認識し(アイトラッキング)、フィルタ22の出力方向を制御するために、カメラ30は所定の範囲を撮影し、撮影された映像を制御部へ供給する。また、カメラ30で撮影された映像はアイトラッキングに用いられる他、液晶パネル21に表示したり、コンピュータ本体10のハードディスクに記憶したり、ネットワークを介して他のパーソナルコンピュータに送信したりすることもできる。
マイク40は、例えばカメラ30と連動して所定の範囲の音声を取得する。
インジケータ50はカメラ30に近接して設けられ、セキュリティの向上のためにカメラ30の動作状態を示す。インジケータ50は、例えば1つのLEDを有する。本実施形態の1つは、後述するように、インジケータ50が、カメラ30で撮影をしているか否かと、アイトラッキングを行っているか否か、の両方を示す多目的インジケータである点である。
カメラ30およびインジケータ50はカメラモジュールとして構成され、コンピュータ本体10と例えばディスプレイユニット20の内部でUSBケーブル(不図示)により接続され、制御部により制御される。
図2は、インジケータ50を制御するシステム構成の一例を示す概略ブロック図である。制御部200は、カメラ30、インジケータ50およびフィルタ22をそれぞれ制御するカメラ制御部1、インジケータ制御部(第1の制御部)2およびフィルタ制御部(第2の制御部)3を有する。
カメラ制御部1は、ユーザからキーボード12やタッチパッド13を介して指示を受け、カメラ30のオン・オフおよびアイトラッキングを行うか否かを制御する。インジケータ制御部2は、カメラ30で撮影をしているか否かとアイトラッキングを行っているか否かとに応じて、インジケータ50を制御する。フィルタ制御部3はカメラ30で撮影された映像に基づいてアイトラッキングを行い、液晶パネル21に表示される複数の視差画像のうちの1つがユーザの右目に出力され、他の1つが左目に出力されるよう、フィルタ22を制御する。
図3は、制御部200の処理動作の一例を示すフローチャートであり、図4は、インジケータ50の表示とパーソナルコンピュータ100の動作状態との関係を示す図である。
カメラ制御部1がカメラ30をオンしておらず、撮影が行われていない場合(ステップS1のNO)、インジケータ制御部2はインジケータ50を消灯する(ステップS2)。
一方、カメラ制御部1がカメラ30をオンして撮影を行っており(ステップS1のYES)、かつ、フィルタ制御部3がアイトラッキングを行っている場合(ステップS3のYES)、インジケータ制御部2はインジケータ50を点滅させる(ステップS4)。さらに、フィルタ制御部3は、アイトラッキングにより認識されたユーザの目の位置に基づき、ユーザが映像を立体視できるようフィルタ22を制御する。
また、撮影を行っているが(ステップS1のYES)、アイトラッキングを行っていない場合(ステップS3のNO)、インジケータ制御部2はインジケータ50を点灯させる(ステップS5)。
このように、第1の実施形態では、カメラ30で撮影をしているか否かのみならず、アイトラッキングを行うか否かも考慮して、インジケータ制御部2がインジケータ50の表示を切り替えるので、ユーザは、図4に示すように、カメラ30で撮影されているか否かと、アイトラッキングが行われているか否かの両方の情報を、1つのインジケータ50から得ることができる。そのため、部品点数を減らすことができ、コストの低減やデザイン性の向上を図れる。
なお、本実施形態ではインジケータ50が1つのLEDを有し、消灯・点灯・点滅の3形態により表示を切り替える例を示したが、例えば図3のステップS2,S4およびS5で輝度を切り替えるようにしてもよい。また、インジケータ50がそれぞれ異なる色の光を発する複数のLEDを有し、インジケータの色を切り替えるようにしてもよい。もちろん、これら組み合わせてもよい。
(第2の実施形態)
上述した第1の実施形態のパーソナルコンピュータ100は1つのカメラ30を備えるものであったが、以下に説明する第2の実施形態は、複数のカメラを備え、ステレオ撮影可能なパーソナルコンピュータに関するものである。
図5は、第2の実施形態に係るパーソナルコンピュータ101の斜視図である。図5では、図1と共通する構成部分には同一の符号を付しており、以下では相違点を中心に説明する。
パーソナルコンピュータ101は、図1のパーソナルコンピュータ100と異なり、それぞれ2つずつのカメラ30a,30bと、マイク40a,40bと、赤外線送信器(信号送信部)60とを備えている。また、ディスプレイユニット20はフィルタ22を有さない。
カメラ30a,30bは、ディスプレイユニット20の上方右側および上方左側にそれぞれ設けられる。2つのカメラ30a,30bで被写体をステレオ撮影することにより、カメラ30a,30bで撮影された映像をそれぞれ左目用および右目用視差画像として、液晶パネル21やこの映像が送信された他のパーソナルコンピュータ上で立体表示でき、テレビ会議等に使用できる。同様に2つのマイク40a,40bにより、ステレオ音声を記録することができる。
また、本実施形態では、裸眼で映像を立体表示するのではなく、シャッタを有する眼鏡を用いて立体表示すること念頭に置いている。すなわち、液晶パネル21には右目用の視差画像と左目用の視差画像とが交互に表示される。そして、赤外線送信器60はどちらの視差画像が表示されているのかを示す赤外線信号をユーザの眼鏡に送信する。赤外線信号に応じて、右目用の視差画像が表示されているときは右目のシャッタが開き、左目用の視差画像が表示されているときは左目のシャッタが開く。その結果、右目には右目用の視差画像が、左目には右目用とは異なる左目用の視差画像が見え、これにより映像が立体的に見える。
眼鏡を用いる場合、右目用の視差画像と左目用の視差画像とを交互に表示するため、ユーザの位置によらず、映像が立体的に見える。そのため、アイトラッキングを行う必要はないし、フィルタ22も必要はない。なお、液晶パネル21に表示するのはカメラ30a,30bで撮影された映像に限られず、ハードディスク等に記録された映像信号から視差画像を生成して表示してもよい。
図6は、インジケータ50を制御するシステム構成の一例を示す概略ブロック図である。制御部201は、カメラ30a,30bおよびインジケータ50をそれぞれ制御するカメラ制御部1およびインジケータ制御部2を有する。
図7は、制御部201の処理動作の一例を示すフローチャートであり、図8は、インジケータ50の表示とパーソナルコンピュータ101の動作状態との関係を示す図である。
カメラ制御部1がカメラ30a,30bの両方をオンしてステレオ撮影を行っている場合(ステップS11のYES)、インジケータ制御部2はインジケータ50を点滅させる(ステップS12)。この場合、ステレオ撮影された映像を液晶パネル21等に立体表示させることができる。
また、カメラ制御部1がカメラ30a,30bのうちの一方をオンしてモノラル撮影を行っている場合(ステップS11のNO,S13のYES)、インジケータ制御部2はインジケータ50を点灯させる(ステップS14)。
カメラ制御部1がカメラ30a,30bをともにオフして撮影が行われていない場合(ステップS13のNO)、インジケータ制御部2はインジケータ50を消灯する(ステップS15)。
このように、第2の実施形態では、いくつのカメラを用いて撮影をしているかを考慮してインジケータ50の表示を切り替えるので、ユーザは、ステレオ撮影されているか、モノラル撮影されているか、撮影されていないか、の情報を1つのインジケータ50から得ることができる。
図5では、パーソナルコンピュータ101が2つのカメラ30a,30bを備える例を示したが、3つ以上のカメラを備えていてもよい。この場合、撮影中のカメラの数に応じて、例えば点滅の速度を切り替えたり、輝度を切り替えたり、色を切り替えたりしてもよい。
(第3の実施形態)
上述した第2の実施形態は、眼鏡を用いて立体表示するものであったが、以下に説明する第3の実施形態は、複数のカメラを備えるパーソナルコンピュータにおいて、第1の実施形態と同様に裸眼で映像を立体表示するものである。
図9は、第3の実施形態に係るパーソナルコンピュータ102の斜視図である。パーソナルコンピュータ102は、第2の実施形態と同様に、2つずつのカメラ30a,30bと、マイク40a,40bとを有する。また、裸眼で映像を立体表示することを念頭に置いているため、第1の実施形態と同様にディスプレイユニット20はフィルタ22を有し、パーソナルコンピュータ102は赤外線送信器60を備えていない。
2つのカメラ30a,30bを用いてステレオ撮影し立体表示に用いるとともに、カメラ30a,30bのうちの一方で得られた映像を用いてアイトラッキングを行うこともできる。もちろん、ステレオ撮影をしてアイトラッキングを行わなくてもよい。また、カメラ30a,30bのうちの一方を用いてモノラル撮影をしつつ、アイトラッキングを行ってもよい。この場合、1つのカメラでモノラル撮影を行い、他方のカメラで撮影された映像を用いてアイトラッキングを行ってもよいし、モノラル撮影で得られた映像を用いてアイトラッキングを行ってもよい。
図10は、インジケータ50を制御するシステム構成の一例を示す概略ブロック図である。制御部202は、カメラ30a,30b、インジケータ50およびフィルタ22をそれぞれ制御するカメラ制御部1、インジケータ制御部2およびフィルタ制御部3を有する。また、本実施形態のインジケータ50は、発光色が異なる2つのLED、例えば青色LED51と橙色LED52とを有する。
図11は、制御部202の処理動作の一例を示すフローチャートであり、図12は、インジケータ50の表示とパーソナルコンピュータ102の動作状態との関係を示す図である。
カメラ制御部1がカメラ30a,30bの両方をオンしてステレオ撮影を行っており(ステップS21のYES)、かつ、フィルタ制御部3がアイトラッキングを行っている場合(ステップS22のYES)、インジケータ制御部2はインジケータ50の青色LED51を消灯するとともに、橙色LED52を点滅させる(ステップS23)。さらに、フィルタ制御部3は、アイトラッキングにより認識されたユーザの目の位置に基づき、ユーザが映像を立体視できるようフィルタ22を制御する。
また、ステレオ撮影を行っているが(ステップS21のYES)、アイトラッキングを行っていない場合(ステップS22のNO)、インジケータ制御部2は青色LED51を点滅させるとともに、橙色LED52を消灯する(ステップS24)。
一方、カメラ制御部1がカメラ30a,30bのうちの一方をオンしてモノラル撮影を行っており(ステップS21のNO,S25のYES)、かつ、フィルタ制御部3がアイトラッキングを行っている場合(ステップS26のYES)、インジケータ制御部2は青色LED51を消灯するとともに、橙色LED52を点灯させる(ステップS27)。
また、モノラル撮影を行っているが(S25のYES)、アイトラッキングを行っていない場合(ステップS26のNO)、インジケータ制御部2は青色LED51を点灯するとともに、橙色LED52を消灯させる(ステップS28)。
カメラ制御部1がカメラ30a,30bをともにオフして撮影が行われていない場合(S25のNO)、インジケータ制御部2は青色LED51および橙色LED52を消灯する(ステップS29)。
以上のようにして図12に示すように、インジケータ50は、発光色が青色であるか橙色であるかに応じてアイトラッキングが行われているか否かを、点灯か点滅かに応じてステレオ撮影されているかモノラル撮影されているかを示すことができる。
このように、第3の実施形態では、いくつのカメラを用いて撮影をしているか、に加え、アイトラッキングを行っているか否かを考慮してインジケータ50の表示を切り替えるので、ユーザは、ステレオ撮影されているか、モノラル撮影されているか、撮影されていないか、アイトラッキングが行われているか否かの情報を1つのインジケータ50から得ることができる。
以上の各実施形態では、カメラの制御に応じてインジケータの表示を切り替えるものであったが、さらに他の情報もインジケータで示すようにしてもよい。例えば、パーソナルコンピュータが、スリープ状態になるまでの時間を短縮したり、イルミネーションを消灯したりして、通常より消費電力を抑えるエコモード(低消費電力モード)で動作していることを示すようにしてもよい。例えば、図3や図7で、エコモードでない場合は青色LEDを消灯・点灯・点滅させ、エコモードである場合は、緑色LEDを消灯・点灯・点滅させてもよい。
上述した実施形態で説明した制御部200〜202の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、制御部200〜202の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。
また、制御部200〜202の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 カメラ制御部
2 インジケータ制御部
3 フィルタ制御部
20 ディスプレイユニット
21 液晶パネル
22 フィルタ
30,30a,30b カメラ
50 インジケータ
100,101,102 パーソナルコンピュータ
200,201,202 制御部

Claims (14)

  1. カメラと、
    インジケータと、
    前記カメラで撮影をしているか否か、および、前記カメラで撮影された映像に基づいてユーザの目の認識を行うか否か、に応じて、前記インジケータの表示を切り替える第1の制御部と、を備える電子機器。
  2. 複数の視差画像を表示する表示部と、
    前記表示された視差画像のそれぞれを特定の方向へ出力する出力部と、
    前記カメラで撮影された映像に基づいて前記ユーザの目を認識し、その位置に基づき、前記表示部に表示された視差画像が立体的に見えるよう、前記出力部の出力方向を制御する第2の制御部と、を備える請求項1に記載の電子機器。
  3. 複数の前記カメラを備え、
    前記第1の制御部は、前記複数のカメラのうちいくつのカメラで撮影しているか、および、前記カメラで撮影された映像に基づいてユーザの目の認識を行うか否か、に応じて、前記インジケータの表示を切り替える請求項1に記載の電子機器。
  4. 前記第1の制御部は、前記インジケータの色および輝度、ならびに、前記インジケータを消灯させるか点灯させるか点滅させるか、のうちの少なくとも1つを切り替える請求項1に記載の電子機器。
  5. 前記第1の制御部は、さらに、前記電子機器が低消費電力モードで動作中であるか否かに応じて、前記インジケータの表示を切り替える請求項1に記載の電子機器。
  6. 複数のカメラと、
    インジケータと、
    前記複数のカメラのうちいくつのカメラで撮影しているかに応じて、前記インジケータの表示を切り替える第1の制御部と、を備える電子機器。
  7. 前記複数のカメラで撮影された映像を順繰りに表示する表示部と、
    前記複数のカメラのうち、どのカメラで撮影された映像を表示しているかを示す信号を送信する信号送信部と、を備える請求項6に記載の電子機器。
  8. 前記第1の制御部は、前記インジケータの色および輝度、ならびに、前記インジケータを消灯させるか点灯させるか点滅させるか、のうちの少なくとも1つを切り替える請求項6に記載の電子機器。
  9. 前記第1の制御部は、さらに、前記電子機器が低消費電力モードで動作中であるか否かに応じて、前記インジケータの表示を切り替える請求項6に記載の電子機器。
  10. カメラを備える電子機器のインジケータの制御方法であって、
    前記カメラで撮影をしているか否か、および、前記カメラで撮影された映像に基づいてユーザの目の認識を行うか否か、に応じて、前記インジケータの表示を切り替えるステップを備えるインジケータの制御方法。
  11. 前記カメラで撮影された映像に基づいて前記ユーザの目を認識し、その位置に基づき、表示部に表示された視差画像が立体的に見えるよう、前記表示部に表示された視差画像の出力方向を制御するステップを備える請求項10に記載のインジケータの制御方法。
  12. 前記インジケータの表示を切り替えるステップは、前記電子機器が備える複数のカメラのうちいくつのカメラで撮影しているか、および、前記カメラで撮影された映像に基づいてユーザの目の認識を行うか否か、に応じて、前記インジケータの表示を切り替える請求項10に記載のインジケータの制御方法。
  13. 前記インジケータの表示を切り替えるステップは、前記インジケータの色および輝度、ならびに、前記インジケータを消灯させるか点灯させるか点滅させるか、のうちの少なくとも1つを切り替える請求項10に記載のインジケータの制御方法。
  14. 前記インジケータの表示を切り替えるステップは、さらに、前記電子機器が低消費電力モードで動作中であるか否かに応じて、前記インジケータの表示を切り替える請求項10に記載のインジケータの制御方法。
JP2011080073A 2011-03-31 2011-03-31 電子機器およびインジケータの制御方法 Pending JP2012216951A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011080073A JP2012216951A (ja) 2011-03-31 2011-03-31 電子機器およびインジケータの制御方法
US13/427,535 US20120249758A1 (en) 2011-03-31 2012-03-22 Electric apparatus and control method of indicator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011080073A JP2012216951A (ja) 2011-03-31 2011-03-31 電子機器およびインジケータの制御方法

Publications (1)

Publication Number Publication Date
JP2012216951A true JP2012216951A (ja) 2012-11-08

Family

ID=46926718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011080073A Pending JP2012216951A (ja) 2011-03-31 2011-03-31 電子機器およびインジケータの制御方法

Country Status (2)

Country Link
US (1) US20120249758A1 (ja)
JP (1) JP2012216951A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019068430A (ja) * 2014-06-18 2019-04-25 サムスン エレクトロニクス カンパニー リミテッド 裸眼3dディスプレイ装置及び設定方法
JP2021005346A (ja) * 2019-06-27 2021-01-14 パナソニックIpマネジメント株式会社 電子機器
US11428951B2 (en) 2014-06-18 2022-08-30 Samsung Electronics Co., Ltd. Glasses-free 3D display mobile device, setting method of the same, and using method of the same
WO2022259794A1 (ja) * 2021-06-09 2022-12-15 株式会社デンソー 乗員撮像装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9674510B2 (en) * 2012-11-21 2017-06-06 Elwha Llc Pulsed projection system for 3D video
CN103248905A (zh) * 2013-03-22 2013-08-14 深圳市云立方信息科技有限公司 一种模仿全息3d场景的显示装置和视觉显示方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05244643A (ja) * 1992-02-27 1993-09-21 Tomohiko Hattori 立体テレビ装置
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JP2000047138A (ja) * 1998-07-27 2000-02-18 Mr System Kenkyusho:Kk 画像表示装置
JP2004015770A (ja) * 2002-06-12 2004-01-15 Fujitsu Ltd 携帯端末
JP2006258943A (ja) * 2005-03-15 2006-09-28 Fujinon Corp オートフォーカスシステム
JP2008289189A (ja) * 2008-08-15 2008-11-27 Sony Corp 撮像装置および表情評価装置
JP2009246832A (ja) * 2008-03-31 2009-10-22 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2010186289A (ja) * 2009-02-12 2010-08-26 Sony Corp 情報処理装置
JP2010272998A (ja) * 2009-05-20 2010-12-02 Hitachi Ltd 情報記録装置、省電力方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05244643A (ja) * 1992-02-27 1993-09-21 Tomohiko Hattori 立体テレビ装置
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JP2000047138A (ja) * 1998-07-27 2000-02-18 Mr System Kenkyusho:Kk 画像表示装置
JP2004015770A (ja) * 2002-06-12 2004-01-15 Fujitsu Ltd 携帯端末
JP2006258943A (ja) * 2005-03-15 2006-09-28 Fujinon Corp オートフォーカスシステム
JP2009246832A (ja) * 2008-03-31 2009-10-22 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2008289189A (ja) * 2008-08-15 2008-11-27 Sony Corp 撮像装置および表情評価装置
JP2010186289A (ja) * 2009-02-12 2010-08-26 Sony Corp 情報処理装置
JP2010272998A (ja) * 2009-05-20 2010-12-02 Hitachi Ltd 情報記録装置、省電力方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019068430A (ja) * 2014-06-18 2019-04-25 サムスン エレクトロニクス カンパニー リミテッド 裸眼3dディスプレイ装置及び設定方法
US11428951B2 (en) 2014-06-18 2022-08-30 Samsung Electronics Co., Ltd. Glasses-free 3D display mobile device, setting method of the same, and using method of the same
JP2021005346A (ja) * 2019-06-27 2021-01-14 パナソニックIpマネジメント株式会社 電子機器
JP7304539B2 (ja) 2019-06-27 2023-07-07 パナソニックIpマネジメント株式会社 電子機器
WO2022259794A1 (ja) * 2021-06-09 2022-12-15 株式会社デンソー 乗員撮像装置

Also Published As

Publication number Publication date
US20120249758A1 (en) 2012-10-04

Similar Documents

Publication Publication Date Title
JP5978592B2 (ja) ヘッド・マウント・ディスプレイ及び表示制御方法
EP3029550A1 (en) Virtual reality system
JP2012216951A (ja) 電子機器およびインジケータの制御方法
CN104076512A (zh) 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
GB2495159A (en) A head-mounted somatosensory control and display system based on a user's body action
JP2011244318A (ja) 使用メガネ識別装置、映像観賞システム、映像観賞用メガネ、使用メガネ識別プログラム、コンピュータ読み取り可能な記録媒体、及び表示装置
JP7243193B2 (ja) 表示システム、表示システムの制御方法、情報処理装置、及び情報処理装置の制御プログラム
JP2016020959A (ja) 表示装置及びその制御方法
WO2022241981A1 (zh) 头戴显示设备和头戴显示***
US8791943B2 (en) Image processing device, image processing method and program
TW201215089A (en) Method for controlling ambient brightness perceived via three-dimensional glasses, three-dimensional glasses, and video display device thereof
US20200225734A1 (en) Display apparatus and method of indicating level of immersion using visual indicator
JP2017116562A (ja) 表示装置、表示装置の制御方法、及び、プログラム
WO2017022769A1 (ja) ヘッドマウントディスプレイ、表示制御方法及びプログラム
JP2012182527A (ja) 電子機器およびインジケータの制御方法
JP2012060236A (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
CN201993554U (zh) 一种可切换显示模式的显示器和平板电脑
JP5199308B2 (ja) コンテンツ再生装置、コンテンツ再生方法、およびコンテンツ表示システム
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
KR20070113067A (ko) 휴대용 입체 카메라
US20150237338A1 (en) Flip-up stereo viewing glasses
JP2017191144A (ja) 表示制御装置、その制御方法およびプログラム
JP5770018B2 (ja) 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム
JP5549421B2 (ja) 投影装置、投影方法及びプログラム
US20110234762A1 (en) Apparatus and method for capturing three-dimensional image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130118