JP6042353B2 - コンテンツを表示するためのシステムおよび方法 - Google Patents

コンテンツを表示するためのシステムおよび方法 Download PDF

Info

Publication number
JP6042353B2
JP6042353B2 JP2013556830A JP2013556830A JP6042353B2 JP 6042353 B2 JP6042353 B2 JP 6042353B2 JP 2013556830 A JP2013556830 A JP 2013556830A JP 2013556830 A JP2013556830 A JP 2013556830A JP 6042353 B2 JP6042353 B2 JP 6042353B2
Authority
JP
Japan
Prior art keywords
display
content
viewing direction
difference
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013556830A
Other languages
English (en)
Other versions
JP2014510344A (ja
JP2014510344A5 (ja
Inventor
ビ、ニン
アレクシク、ミリボジェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014510344A publication Critical patent/JP2014510344A/ja
Publication of JP2014510344A5 publication Critical patent/JP2014510344A5/ja
Application granted granted Critical
Publication of JP6042353B2 publication Critical patent/JP6042353B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、一般にコンテンツを表示することに関する。
技術の進歩により、コンピューティングデバイスは、より小型でより強力になった。たとえば、現在、小型で、軽量で、ユーザが容易に持ち運べる、ポータブルワイヤレス電話、携帯情報端末(PDA)、およびページングデバイスなど、ワイヤレスコンピューティングデバイスを含む、様々なポータブルパーソナルコンピューティングデバイスが存在する。より具体的には、セルラー電話やインターネットプロトコル(IP)電話など、ポータブルワイヤレス電話は、ワイヤレスネットワークを介してボイスおよびデータパケットを通信することができる。さらに、多くのそのようなワイヤレス電話は、その中に組み込まれた他のタイプのデバイスを含む。たとえば、ワイヤレス電話は、デジタルスチルカメラ、デジタルビデオカメラ、デジタルレコーダ、およびオーディオファイルプレーヤをも含むことができる。また、そのようなワイヤレス電話は、インターネットにアクセスするために使用され得る、ウェブブラウザアプリケーションなど、ソフトウェアアプリケーションを含む、実行可能な命令を処理することができる。したがって、これらのワイヤレス電話はかなりの計算能力を含むことができる。これらのポータブル電子デバイスのいくつかは、ユーザがコンテンツにアクセスし、表示することを可能にし得る。しかしながら、これらのポータブル電子デバイスのディスプレイのサイズまたは解像度は、一度にどのくらいのコンテンツが表示され得るかを制限することがある。
コンテンツを表示するための装置および方法を開示する。特定の実施形態では、開示する装置および方法は、視認者(viewer)デバイス対話型(viewer-device interactive)レンダリングを使用して電子デバイスの表示容量を増加させる。たとえば、ディスプレイに対するユーザの視認方向(viewing orientation)の変化に応じて、ディスプレイにおいて表示されるコンテンツは変更され得る。例示のために、視認方向は、ユーザの顔、頭または眼と電子デバイスのセンサーとの間の角度または距離を含み得る。
特定の一実施形態では、コンテンツを表示する方法を開示する。本方法は、ディスプレイを有するデバイスにおいて表示可能コンテンツを受信することを含む。表示可能コンテンツは複数の視認可能要素(viewable elements)を含む。本方法はまた、ディスプレイに対するユーザの視認方向に基づいて、およびディスプレイの表示サイズに基づいて表示可能コンテンツの第1の部分を判断することを含む。第1の部分は、複数の視認可能要素のうちの少なくとも第1の視認可能要素を含み、複数の視認可能要素のうちの少なくとも1つの第2の視認可能要素を含まない。本方法はまた、ディスプレイにおいて表示可能コンテンツの第1の部分を表示することを含む。本方法は、ディスプレイに対するユーザの更新された視認方向を検出することと、更新された視認方向に基づいて表示可能コンテンツの第2の部分を判断することとをさらに含む。第2の部分は、少なくとも第2の視認可能要素を含む。第1の部分と第2の部分との間の表示差は、視認方向と更新された視認方向との間の方向差(orientation difference)に非線形的に関係する。本方法は、ディスプレイにおいて第2の部分を表示すること含む。
別の特定の実施形態では、コンテンツを表示するための装置を開示する。本装置は、プロセッサとプロセッサに結合されたメモリとを含む。メモリは、複数の視認可能要素を含むコンテンツを含む。メモリはまた、ディスプレイに対するユーザの視認方向を判断するようにプロセッサによって実行可能である命令を含む。命令は、視認方向に基づいてディスプレイにコンテンツの第1の部分を与えるようにプロセッサによって実行可能である。第1の部分は、コンテンツの少なくとも第1の視認可能要素を含み、コンテンツの少なくとも1つの第2の視認可能要素を含まない。命令はまた、ユーザの更新された視認方向を判断し、更新された視認方向に基づいてディスプレイにコンテンツの更新された部分を与えるようにプロセッサによって実行可能である。更新された部分は、少なくとも第2の視認可能要素を含む。第1の部分と更新された部分との間の表示差は、視認方向と更新された視認方向との間の方向差に非線形的に関係する。
別の特定の実施形態では、コンテンツを表示するための装置を開示する。本装置は、ディスプレイデバイスにおける表示のためのユーザインターフェースを生成するためのインターフェース手段を含む。ユーザインターフェースは、ディスプレイデバイスに対するユーザの視認方向に基づいて判断されるコンテンツの一部分を含む。本装置はまた、視認方向を判断し、視認方向の変化を検出するための方向検出手段(orientation detection means)を含む。コンテンツの第1の部分は、第1の視認方向に基づいて判断される。第1の部分は、コンテンツの少なくとも第1の視認可能要素を含み、コンテンツの少なくとも1つの第2の視認可能要素を含まない。コンテンツの第2の部分は、第2の視認方向への視認方向の変化に応じて判断される。コンテンツの第2の部分は、少なくとも第2の視認可能要素を含む。第1の部分と第2の部分との間の表示差は、第1の視認方向と第2の視認方向との間の方向差に非線形的に関係する。
別の特定の実施形態では、非一時的コンピュータ可読媒体を開示する。非一時的コンピュータ可読媒体は、プロセッサによって実行されたとき、プロセッサに、ディスプレイに対するユーザの視認方向を判断させるプロセッサ実行可能命令を含む。命令はさらに、プロセッサに、視認方向に基づいてディスプレイにコンテンツの一部分を与えさせるように、プロセッサによって実行可能である。部分は、コンテンツの少なくとも第1の視認可能要素を含み、コンテンツの少なくとも1つの第2の視認可能要素を含まない。命令はまた、プロセッサに、ユーザの更新された視認方向を判断することと、更新された視認方向に基づいてコンテンツの部分を更新することとを行わせるように、プロセッサによって実行可能である。更新された部分は、少なくとも第2の視認可能要素を含む。部分と更新された部分との間の表示差は、視認方向と更新された視認方向との間の方向差に非線形的に関係する。
開示する実施形態の少なくとも1つによって与えられる1つの特定の利点は、電子デバイスの比較的小型または低解像度のスクリーンを介して、ユーザがより多くの情報にアクセスし、閲覧し得ることである。
本開示の他の態様、利点、および特徴は、図面の簡単な説明、発明を実施するための形態、および特許請求の範囲を含む、本出願全体の検討の後に明らかになろう。
コンテンツを表示するためのシステムの特定の例示的な実施形態の図。 コンテンツを表示するためのシステムの特定の例示的な実施形態の図。 コンテンツを表示するためのシステムの特定の例示的な実施形態の図。 特定の例示的な実施形態による、コンテンツを表示する方法を示す図。 コンテンツを表示するためのシステムの特定の例示的な実施形態の図。 特定の例示的な実施形態による、コンテンツを表示する方法を示す図。 コンテンツを表示するためのシステムの特定の例示的な実施形態の図。 コンテンツを表示するための方法の特定の例示的な実施形態のフローチャート。 コンテンツを表示するための方法の特定の例示的な実施形態のフローチャート。 特定の例示的な実施形態による、コンテンツを表示するように適応されたポータブルコンピューティングデバイスのブロック図。
図1は、コンテンツを表示するためのシステムの特定の例示的な実施形態の図である。図1では、コンピューティングデバイス100は、ディスプレイ101を含むか、またはそれに結合される。コンピューティングデバイス100は、ディスプレイ101を介した表示のためのコンテンツ102を記憶するメモリ(図1に図示せず)を含み得る。コンピューティングデバイス100はまた、コンテンツ102を取り出すためにワイヤレスインターフェースまたはワイヤードネットワークインターフェースなど、ネットワークインターフェース(図1に図示せず)を含み得る。コンピューティングデバイス100は、カメラ、携帯電話、ポータブルコンピュータ、携帯情報端末、ポータブルメディアプレーヤ、タブレットコンピュータ、またはそれらの任意の組合せなどのポータブル電子デバイスであり得る。
図1に、コンテンツ102が、ディスプレイ101において都合よく一斉に表示されるには大きすぎる状況を示す。たとえば、ディスプレイ101のサイズまたは解像度は、一度にどのくらいのコンテンツ102がディスプレイ101において有効に提示され得るかを制限し得る。したがって、コンテンツ102の第1の部分120のみが表示され、コンテンツ102の他の部分は表示されない。
コンテンツ102は、複数の視認可能要素111〜115を含み得る。図1に示す例は、視認可能要素111〜115をもつ4つのディスプレイウィンドウ104〜107を含むが、コンテンツ102は、5つ以上のディスプレイウィンドウを含むか、または4つ未満のディスプレイウィンドウを含み得る。さらに、コンテンツ102は、図1に示す視認可能要素111〜115よりも多いまたは少ない視認可能要素を含み得る。視認可能要素111〜115は、情報、テキスト、グラフィック、画像、マルチメディアコンテンツ、他の視認可能要素、またはそれらの任意の組合せを含み得る。視認可能要素111〜115は、ディスプレイウィンドウ104〜107のうちの1つまたは複数に関連し得る。ディスプレイウィンドウ104〜107のうちの2つ以上は相互依存であり得る(たとえば、第2のディスプレイウィンドウ105は第1のディスプレイウィンドウ104のポップアップウィンドウまたは他のサブウィンドウであり得る)。ディスプレイウィンドウ104〜107のうちの2つ以上は独立であり得る。たとえば、第1のディスプレイウィンドウ104は第1のアプリケーションのユーザインターフェースディスプレイを含み得、第3のディスプレイウィンドウ106は第2のアプリケーションのユーザインターフェースディスプレイを含み得る。第1のアプリケーションを閉じること、または場合によってはそれと対話することは、第2のアプリケーションに影響を及ぼし得ない。したがって、第1のディスプレイウィンドウ104は第3のディスプレイウィンドウ106とは無関係であり得る。別の例では、第4のディスプレイウィンドウ107は、第1のアプリケーションの第2のインスタンスに関連するユーザインターフェースを含み得る。第1のディスプレイウィンドウ104を介して第1のアプリケーションの第1のインスタンスを閉じること、または場合によってはそれと対話することは、第1のアプリケーションの第2のインスタンスに影響を及ぼし得ない。したがって、第1のディスプレイウィンドウ104と第4のディスプレイウィンドウ107とは互いに無関係であり得る。
コンテンツ102とのユーザ対話を改善するために、コンテンツ102の第1の部分120は、ディスプレイ101に対するユーザの視認方向の変化に応じて更新され得る。たとえば、第1の部分120は第1の視認可能要素115を含み得る。他の視認可能要素111〜114は第1の部分120中に含まれ得ない。しかしながら、視認方向の変化を検出したことに応答して、視認可能要素111〜114のうちの1つなど、第2の視認可能要素がコンテンツ102の第2の部分としてディスプレイ101を介して提示され得る。視認方向の変化の測定量は、コンテンツ102のどの1つまたは複数の部分がディスプレイ101に存在するかを判断するために使用され得る。特定の実施形態では、以下でさらに説明するように、ディスプレイ101を介して提示されるコンテンツ102の変化は、視認方向の変化に非線形的に関係する。
図2は、コンテンツを表示するためのシステムの特定の例示的な実施形態の図である。特に、図2は、コンピューティングデバイス200のディスプレイ212において表示されるコンテンツの一部分を変更するためにコンピューティングデバイス200と対話しているユーザ210を示している。ディスプレイ212に対するユーザ210の3つの異なる視認方向が示されている。
説明の便宜のために、ディスプレイ212に対するユーザ210の視野角を、ユーザ210の視線216とディスプレイ212の平面との間の角度として説明する。説明のために、第1の視認方向201において、ユーザ210は、コンピューティングデバイス200のディスプレイ212にまっすぐに対面する。したがって、ユーザ210とディスプレイ212との間の視野角は約90度である。すなわち、ディスプレイ212は、ユーザ210の視線216に対してほぼ直角である。(特定の文脈によって別段に規定されていない限り本明細書で使用しない)視野角を特徴づける代替方法は、ディスプレイ212の法線(図示せず)に対する視野角を測定することであろう。この方法で考えると、第1の視認方向201におけるコンピューティングデバイス200に対するユーザ210の視野角は、ほぼ0度になる。
第1の視認方向201において、コンテンツの第1の部分206がディスプレイ212において表示され得る。コンテンツは、画像、ウィンドウ、グラフィカル要素など、複数の視認可能要素を含み得る。たとえば、第1の部分206は、図1のコンテンツの第1の部分120に対応し得る。ユーザ210は、ユーザの顔または頭を左に移動することによって、またはディスプレイ212を右に回転することによって、第1の視認方向201から第2の視認方向202に変化し得る。第2の視認方向202に変化することに応答して、コンテンツの第2の部分207がディスプレイ212において表示され得る。コンテンツの第2の部分207は、コンテンツの第1の部分206中に表示されなかったコンテンツを含み得る。説明のために、第2の部分207は、視認可能要素111〜114のうちの1つなど、コンテンツ102の第1の部分120中に含まれない図1のコンテンツ102の一部分に対応し得る。コンテンツの第1の部分206は、コンテンツの第1の視認可能要素を含むが、第2の視認可能要素は含まず、第2の部分207は第2の視認可能要素を含み得る。説明のために、第1の部分206はディスプレイウィンドウの第1の部分を含み得、第2の部分207は、第1の部分206中に表示されなかったディスプレイウィンドウの第2の部分を含み得る。別の例示的な例では、第1の部分206は第1のディスプレイウィンドウを含み得、第2の部分207は、第1のディスプレイウィンドウとは無関係の第2のディスプレイウィンドウを含み得る。たとえば、第1のディスプレイウィンドウは、コンピューティングデバイス200において動作している第1のアプリケーションに関連するユーザインターフェースを含み得、第2のディスプレイウィンドウは、第1のアプリケーションに関連する第2のユーザインターフェース、第1のアプリケーションの第2のインスタンスに関連するユーザインターフェース、またはコンピューティングデバイス200において動作している第2のアプリケーションに関連するユーザインターフェースを含み得る。
第3の視認方向203に変化することに応答して、コンテンツの第3の部分208がディスプレイ212において表示され得る。ユーザ210は、ユーザの顔または頭を右に移動することによって、またはディスプレイ212を左に回転することによって、第1の視認方向201から第3の視認方向203に変化し得る。コンテンツの第3の部分208は、コンテンツの第1の部分206中に表示されなかったコンテンツ、第2の部分207中に表示されなかったコンテンツ、あるいは第1の部分206または第2の部分207のいずれの中にも表示されなかったコンテンツを含み得る。たとえば、第3の部分208は、視認可能要素111〜114のうちの1つなど、コンテンツ102の第1の部分120中に含まれない図1のコンテンツ102の一部分に対応し得る。
表示されるコンテンツの部分の変化量は、視認方向の変化量に非線形的に関係し得る。たとえば、視認方向が、比較的小さい(たとえば、しきい値量よりも少ない)第1の量だけ変更されたとき、表示されるコンテンツの部分は変更され得ない。視認方向が、第1の量よりも大きい(たとえば、しきい値量よりも大きい)第2の量だけ変更されたとき、表示されるコンテンツの部分は変更され得る。さらに、視認方向が、第2の量よりも大きい(たとえば、第2のしきい値量よりも大きい)第3の量だけ変更されたとき、コンテンツの部分は、第2のしきい値量が満たされないときとは異なる方法で変更され得る。説明のために、視認方向変化が第1のしきい値量と第2のしきい値量との間であるとき、特定のウィンドウ内のコンテンツの一部分が表示され得る。しかしながら、視認方向変化が第2のしきい値量よりも大きいとき、異なるウィンドウが表示され得る。
別の例では、視認方向が「ニュートラル方向(neutral orientation)」(たとえば、第1の視認方向201のしきい値量内)から変更される限り、表示されるコンテンツの部分は更新され続け得る。説明のために、表示されたコンテンツは、デバイス200が第2の視認方向202にある間にスクロールし得、デバイスが第1の視認方向201に戻されると、スクロールを停止し得る。この例では、コンテンツがディスプレイ212中でスクロールするレートは、視認方向に非線形的に関係し得る。
特定の実施形態では、視認方向または視認方向の変化は、コンピューティングデバイス200のセンサー214を使用して判断され得る。たとえば、センサー214は、ディスプレイ212に対するユーザ210の眼のロケーションまたはユーザ210の顔の一部分のロケーションを判断するために分析されるべき画像をキャプチャするために使用され得るカメラを含み得る。眼または顔の一部分の相対位置が変化したとき、視認方向の変化が検出され、表示されるコンテンツの部分の変化を生じ得る。別の例では、センサー214は、視認方向を推定するために周囲または環境条件を検出することが可能である別の受動センサーを含み得る。別の例では、センサー214は、信号を送信し、信号への応答または信号の変化に基づいて視認方向を判断するのに適合された能動センサーを含み得る。
したがって、ユーザ210が視認方向を変更することに応答して、以前に見えなかったコンテンツの部分が表示され得る。表示された部分の変化量は視認方向の変化量に非線形的に関係し得る。この非線形関係により、ユーザ210は、容易にコンテンツの大きい範囲にアクセスし、表示することが可能になり得る。
図3は、コンテンツを表示するためのシステムの特定の例示的な実施形態の図である。第1の時間301において、ユーザ310は、ディスプレイ300に対する第1の視野角304を有する。第1の視野角304において、(表示部分320として示された)コンテンツの一部分がディスプレイ300を介して提示される。たとえば、表示部分320は第1のスクリーン321の一部分であり得る。コンテンツはまた、第1の時間301において表示されない他のコンテンツ322を含み得る。たとえば、第1の時間301におけるコンテンツの表示部分320は、図1のコンテンツ102の第1の部分120に対応し得、第1のスクリーン321は、第1のディスプレイウィンドウ104に対応し得る。表示部分320中にない第1のスクリーン321の部分は、コンテンツ102の第1の部分120中に表示されない図1の視認可能要素111〜114に対応し得る。他のコンテンツ322は、第2のディスプレイウィンドウ105、第3のディスプレイウィンドウ106、第4のディスプレイウィンドウ107、またはそれらの任意の組合せなど、図1の他のディスプレイウィンドウに対応し得る。
第2の時間302において、ユーザ310は、ディスプレイ300に対する第2の視野角305を有する。その結果、表示部分320は、異なるコンテンツを含むように更新される。たとえば、第1のスクリーン321の別の部分が第2の時間302においてディスプレイ300を介して提示され得る。さらに、第1の時間301において表示された第1のスクリーン321のいくつかの部分は、第2の時間302において表示され得ない。
第3の時間303において、ユーザ310はディスプレイ300に対する第3の視野角306を有し、表示部分320は異なるコンテンツを含む。たとえば、表示部分320は、他のコンテンツ322の一部分を含み得、第1のスクリーン321を含み得ない。
図3はまた、ディスプレイ300が3次元描画312によって情報を表す特定の実施形態を示す。たとえば、3次元描画312は、円柱描画314または別の3次元描画を含み得る。コンテンツの視認可能要素など、情報は、円柱描画314の表面の部分として表され得る。図3で説明する実施形態では、円柱描画314は、表示部分320を変更するために円柱描画314がその周りを回転され得る軸316を有する。この実施形態では、ユーザ310は表示部分320を見ることが可能であるが、円柱描画314の他のコンテンツ322はディスプレイ300を介して見えない。ディスプレイ300に結合されたコンピューティングデバイスは、視認方向の変化に応じて円柱描画314が回転されるようにコンテンツの表示部分320をレンダリングするために、ユーザ310とディスプレイ300との相対ロケーションを追跡し得る。
図3はさらに、視野角の変化と表示部分320の変化との間の関係が非線形であり得ることを示す。たとえば、視野角が第1の視野角304から第2の視野角305に変更されたとき、表示部分320は、第1のスクリーン321から選択されたコンテンツを含み得る。しかしながら、視野角が第1の視野角304から第3の視野角306に変更されたとき、表示部分320は、第1のスクリーン321からではない(すなわち、他のコンテンツ322からである)コンテンツを含み得る。
図4は、特定の例示的な実施形態による、コンテンツを表示する方法を示す図である。図4は、視野角404と表示変化406との間の特定の非線形関係402を示すグラフ400を含む。関係402は、幾何学的関係、対数関係、不連続関係、または別の非線形関係であり得る。図4に示す関係402は、様々な実施形態で使用され得る視野角404と表示変化406との間の非線形関係の1つの特定の図にすぎない。
説明しやすいように、図4はまた、関係402の異なる部分に対応する表示のいくつかの図420〜図423を示す。特定の実施形態では、視野角404が、第1のしきい値408を満たさない量だけ変更されたとき、表示は変更されない(すなわち、表示変化406は0である)。したがって、420において、第1のコンテンツ430を含む表示が示される。視認方向が、第1のしきい値408よりも大きい量だけ変更されたとき、表示は、視野角404または視野角404の変化に非線形的に関係する量だけ変更され得る。たとえば、421および422において、第1の部分430の一部は表示から除外され、他のコンテンツによって置き換えられ得る。
特定の実施形態では、関係402は第2のしきい値410を含む。視野角404が第2のしきい値410を満たす量だけ変更されたとき、表示は、視野角が第1のしきい値408と第2のしきい値410との間にある量だけ変更されたときとは異なる方法または異なるレートで変更され得る。説明のために、423において、第2のしきい値410が満たされたとき、第1のコンテンツ430は新しいコンテンツ431によって完全に置き換えられ得る。新しいコンテンツ431は、第1のコンテンツ430に関連するコンテンツの次のページ(たとえば、テキストの後続のページ、スライドショー中の後続の画像、ファイルシステム中の後続のファイルなど)に対応し得る。新しいコンテンツ431は次のウィンドウに対応し得る。説明のために、図1を参照すると、第1のコンテンツ430は第1のディスプレイウィンドウ104に対応し得、新しいコンテンツ431は他のディスプレイウィンドウ105〜107のうちの1つに対応し得る。この例では、第1のしきい値408が満たされ、第2のしきい値410が満たされなかったとき、図1のディスプレイ101は、第1のディスプレイウィンドウ104の異なる部分を示し得る。しかしながら、第2のしきい値410が満たされたとき、図1のディスプレイ101は、第2のディスプレイウィンドウ105など、異なるディスプレイウィンドウに変化し得る。
図5は、コンテンツを表示するためのシステムの特定の例示的な実施形態の図である。第1の時間501において、ユーザ510は、ディスプレイ500に対する第1の視野角504を有する。第1の視野角504において、(表示部分520として示された)コンテンツの一部分がディスプレイ500を介して提示される。たとえば、第1の時間501におけるコンテンツの表示部分520は、図1のコンテンツ102の第1の部分120に対応し得る。表示部分520中にないコンテンツの部分(すなわち、他のコンテンツ522)は、コンテンツ102の第1の部分120、他のディスプレイウィンドウ(たとえば、第2のディスプレイウィンドウ105、第3のディスプレイウィンドウ106、第4のディスプレイウィンドウ107)、またはそれらの任意の組合せ中に表示されない図1の視認可能要素111〜114に対応し得る。
第2の時間502において、ユーザ510は、ディスプレイ500に対する第2の視野角505を有する。その結果、表示部分520は、異なるコンテンツを含むように更新される。たとえば、(図5に矢印によって示された)スクロール表示部分521が、第2の時間502においてディスプレイ500を介して提示され得る。スクロール表示部分521は、第2の視野角に関係するか、または第1の視野角504と第2の視野角505との間の変化量に関係する第1のスクロールレートでスクロールし得る。第3の時間503において、ユーザ510はディスプレイ500に対する第3の視野角506を有し、スクロール表示部分521は異なるスクロールレートでスクロールし得る。スクロールレートは、視野角の特定の変化に関連する浮動小数点数として表され得る。
図5では、ディスプレイ500が3次元描画512によって情報を表す。たとえば、3次元描画512は、円柱描画514または別の3次元描画を含み得る。コンテンツの視認可能要素など、情報は、円柱描画514の表面の部分としてレンダリングされ得る。図5で説明する実施形態では、円柱描画514は、表示部分520を変更するために円柱描画514がその周りを回転され得る軸516を有する。たとえば、軸516の周りの円柱描画514の回転は、スクロール表示部分521のスクロールに対応し得る。
図5はまた、視野角の変化とディスプレイ500において提示されたコンテンツの変化との間の関係が非線形であり得ることを示している。たとえば、視野角が第1の視野角504から第2の視野角505に変更されたとき、スクロール表示部分521は第1のレートでスクロールされ得る。視野角が第1の視野角504から第2の視野角506に変更されたとき、スクロール表示部分521は第2のレートでスクロールされ得る。第1および第2のレートは、視野角の変化に非線形的に関係する方法で選択され得る。
図6は、特定の例示的な実施形態による、コンテンツを表示する方法を示す図である。図6は、視野角604とスクロールレート606によって示された表示変化との間の特定の非線形関係602を示すグラフ600を含む。関係602は、幾何学的関係、対数関係、不連続関係、または別の非線形関係であり得る。図6に示す関係602は、様々な実施形態で使用され得る視野角604とスクロールレート606との間の非線形関係の1つの特定の例である。
説明しやすいように、図6はまた、関係602の異なる部分に対応する表示のいくつかの図620〜図623を示す。特定の実施形態では、視野角604が第1のしきい値608を満たさない量だけ変更されたとき、表示は変更されない(すなわち、スクロールレート606は0である)。したがって、620において、表示は静的であり、スクロールなしである。視認方向が第1のしきい値608を満たす量だけ変更されたとき、表示は、視野角604または視野角変化に基づいて関係602に従って変化するスクロールレートでスクロールし得る。たとえば、621において、表示は第1のスクロールレートでスクロールし、622において、表示は第2のスクロールレートでスクロールする。
特定の実施形態では、関係602は第2のしきい値610を含む。視野角604が第2のしきい値610を満たす量だけ変更されたとき、表示は、単にスクロールレートを変更することとは異なる方法で変更され得る。たとえば、623において、第2のしきい値610が満たされたとき、表示は特定のコンテンツをスキップし得る。説明のために、第2のしきい値610が満たされたとき、表示はコンテンツの末尾(たとえば、現在のページまたはファイルの末尾)に進み得る。別の例では、第2のしきい値610が満たされたとき、表示は一部のコンテンツをスキップし、次のウィンドウ、次のページまたは次のファイルなど、後続のコンテンツに進み得る。
図7は、コンテンツを表示するためのシステムの特定の例示的な実施形態の図である。図7は、ユーザ710とディスプレイ700との間の視野角の一連の変化の別の特定の実施形態を示している。図7では、視野角の変化は垂直変化であり得るが、図3および図5では、視野角の変化を視野角の水平変化として表した。
第1の時間701において、ユーザ710はディスプレイ700に対する第1の視野角704を有し、コンテンツの第1のページ721を含むコンテンツの表示部分720がディスプレイ700を介して提示され得る。第2の時間702において、ユーザ710はディスプレイ700に対する第2の視野角705を有し、コンテンツの第2のページ722がディスプレイ700を介して提示され得る。第3の時間703において、ユーザはディスプレイ700に対する第3の視野角706を有し、コンテンツの第3のページ723がディスプレイ700を介して提示され得る。したがって、コンテンツの表示部分を更新するために、任意の方向における視認方向の変化が使用され得る。説明のために、視認方向の変化は、視野角の垂直変化、視野角の水平変化、またはそれらの組合せを含み得る。他の例では、視認方向の変化は、ユーザ710とディスプレイ700との間の距離の変化を含み得る。
図8は、コンテンツを表示するための方法の特定の例示的な実施形態のフローチャートである。本方法は、802において、ディスプレイを有するデバイスにおいて表示可能コンテンツを受信することを含む。表示可能コンテンツは複数の視認可能要素を含み得る。たとえば、デバイスは図1のデバイス100であり得、複数の視認可能要素は、コンテンツ102のディスプレイウィンドウ104〜107の視認可能要素111〜115に対応し得る。
本方法はまた、804において、ディスプレイに対するユーザの視認方向とディスプレイの表示サイズとに基づいて表示可能コンテンツの第1の部分を判断することを含み得る。第1の部分は、複数の視認可能要素のうちの少なくとも第1の視認可能要素を含み得、複数の視認可能要素のうちの少なくとも1つの第2の視認可能要素を含まない。説明のために、図1を参照すると、コンテンツ102の第1の部分120は、第1のディスプレイウィンドウ104の第1の視認可能要素115を含み、視認可能要素111〜114など、第2の視認可能要素を含まない。
本方法はまた、806において、ディスプレイにおいて表示可能コンテンツの第1の部分を表示することを含む。808において、ディスプレイに対するユーザの更新された視認方向が検出されたとき、本方法は、810において、更新された視認方向に基づいて表示可能コンテンツの第2の部分を判断することを含み得る。第2の部分は、少なくとも第2の視認可能要素を含む。第1の部分と第2の部分との間の表示差は、視認方向と更新された視認方向との間の方向差に非線形的に関係し得る。たとえば、第2の表示部分は、図1の視認可能要素111、視認可能要素112、視認可能要素113、または視認可能要素114を含み得る。本方法はまた、812において、ディスプレイにおいて第2の表示部分を表示することを含み得る。
図8の方法は、フィールドプログラマブルゲートアレイ(FPGA)デバイス、特定用途向け集積回路(ASIC)、中央処理ユニット(CPU)などの処理ユニット、デジタル信号プロセッサ(DSP)、グラフィックス処理ユニット(GPU)、コントローラ、別のハードウェアデバイス、ファームウェアデバイス、またはそれらの任意の組合せによって実装され得る。例として、図8の方法は、命令を実行するプロセッサによって実行され得る。
図9は、コンテンツを表示するための方法の特定の例示的な実施形態のフローチャートである。本方法は、902において、ディスプレイを有するデバイスにおいて表示可能コンテンツを受信することを含む。表示可能コンテンツは複数の視認可能要素を含み得る。たとえば、視認可能要素は、1つまたは複数のディスプレイウィンドウに対応するか、またはそれらの中に含まれ得る。説明のために、図1を参照すると、コンテンツ102は、複数の視認可能要素111〜115を含むディスプレイウィンドウ104〜107のうちの1つまたは複数に対応し得る。
本方法はまた、904において、ディスプレイに対するユーザの視認方向とディスプレイの表示サイズとに基づいて表示可能コンテンツの第1の部分を判断することを含み得る。第1の部分は、複数の視認可能要素のうちの少なくとも第1の視認可能要素を含み、複数の視認可能要素のうちの少なくとも1つの第2の視認可能要素を含まない。特定の実施形態では、第1の部分は、複数の視認可能要素がそれの周りに構成された3次元描画の一部分に対応し得る。たとえば、複数の視認可能要素が図3の円柱描画314または図5の円柱描画514の周りに構成され、第1の部分は表示される円柱描画の一部に対応し得る。したがって、902において、受信される少なくとも1つの視認可能要素は、第1の部分中に表示されない。
本方法はまた、906において、ディスプレイにおいて表示可能コンテンツの第1の部分を表示することを含み得る。第1の部分は、単一のディスプレイウィンドウの特定の部分に対応し得る。代替的に、第1の部分は、特定のアプリケーションの異なるインスタンスに関連するウィンドウまたは異なるアプリケーションに関連するウィンドウなど、1つまたは複数の独立ディスプレイウィンドウの部分を含み得る。ウィンドウのうちの1つを閉じることが他のウィンドウに影響を及ぼし得ないように、ウィンドウは独立であり得る。たとえば、図1を参照すると、コンテンツの第1の部分120は、表示されない他の視認可能要素111をも含む第1のディスプレイウィンドウ104の一部分に対応し得る。
本方法はまた、908において、ディスプレイに対するユーザの更新された視認方向を検出することを含み得る。更新された視認方向は、ディスプレイに結合されたカメラまたは他のセンサーを使用して視野角の測定された変化に基づいて、またはディスプレイデバイスの相対的動きを使用することによって検出され得る。たとえば、更新された視認方向は、ディスプレイデバイスのカメラを使用してディスプレイに対するユーザの眼のロケーションに基づいて検出され得る。別の例では、更新された視認方向は、カメラを使用してユーザの顔の少なくとも一部分のロケーションに基づいて検出され得る。さらに別の例では、更新された視認方向は、カメラを使用してユーザのジェスチャーに基づいて検出され得る。視認方向および更新された視認方向はさらにまたは代替として、ディスプレイデバイスの測定された移動に基づいて判断され得る。また、視認者デバイス相対ジオメトリロケーションの変化の測定に対応する方向差を判断するために、他のセンサーまたは方法が使用され得る。
本方法は、910において、更新された視認方向に基づいて表示可能コンテンツの第2の部分を判断することを含み得る。第2の部分は、第1の部分中に含まれなかった第2の視認可能要素を含み得る。第1の部分と第2の部分との間の表示差は、視認方向と更新された視認方向との間の方向差に非線形的に関係し得る。特定の実施形態では、912において、方向差は、デバイスの測定された移動(たとえば、デバイスの動き検出器によって検出されるようなデバイスの回転または他の移動の量)、視認者デバイス相対ジオメトリロケーションの変化、ディスプレイの測定された移動、(たとえば、ディスプレイに結合されたカメラを使用して測定された)ディスプレイに対するユーザの視野角の測定された変化、またはそれらの任意の組合せに対応する。
914において、表示差は、複数の視認可能要素を含む3次元描画(たとえば、円柱描画)の軸の周りの回転量、軸の周りの3次元描画の回転のレート、第1の部分中にない第2の部分中にある独立ディスプレイウィンドウまたは他の別個の視認可能要素の数、第2の部分中にない第1の部分中にある独立ディスプレイウィンドウまたは他の視認可能要素の数、またはそれらの任意の組合せに対応し得る。説明のために、図1を参照すると、表示差は、視認可能要素111〜115の数、第2の部分中に示されない第1の部分120中のディスプレイ101に示されるコンテンツ102の一部分またはパーセンテージに対応し得る。別の例として、図3を参照すると、表示差は、軸316の周りの3次元描画312の回転量に対応し得る。別の例では、図5を参照すると、表示差は、軸516の周りの3次元描画512のスクロールレートまたは回転のレートに対応し得る。
本方法はまた、916において、ディスプレイにおいて第2の部分を表示することを含み得る。特定の実施形態では、方向差がしきい値を満たす限り、第2の部分は更新され続け得る。たとえば、方向差がしきい値よりも大きいか、またはそれ以上である限り、第2の部分は更新され、(図5および図6に関して説明したように)表示にスクロールさせ得る。さらに、方向差の大きさは、(図5および図6に関して説明したように)表示が更新されるレートに非線形的に関係し得る。たとえば、方向差の比較的小さい変化は第1の更新レートを生じるが、方向差のより大きい変化はコンテンツの部分にわたるスキップ、またはコンテンツの特定のセットの末尾への早送りを生じ得る。
図9の方法は、フィールドプログラマブルゲートアレイ(FPGA)デバイス、特定用途向け集積回路(ASIC)、中央処理ユニット(CPU)などの処理ユニット、デジタル信号プロセッサ(DSP)、グラフィックス処理ユニット(GPU)、コントローラ、別のハードウェアデバイス、ファームウェアデバイス、またはそれらの任意の組合せによって実装され得る。例として、図9の方法は、命令を実行するプロセッサによって実行され得る。
図10は、特定の例示的な実施形態による、コンテンツを表示するように適応されたコンピューティングデバイスのブロック図である。コンピューティングデバイス1000は、ワイヤレス通信デバイスなど、ポータブルコンピューティングデバイスを含み得る。コンピューティングデバイス1000は、メモリ1032に結合されたデジタル信号プロセッサ(DSP)1010などのプロセッサを含む。メモリ1032は、1つまたは複数の視認可能要素など、コンテンツ1062を含み得る。メモリ1032はまた、プロセッサに図8の方法、図9の方法、またはそれらの任意の組合せを実行させるようにプロセッサによって実行可能である命令1060を含み得る。さらに、または代替として、プロセッサは、図8の方法、図9の方法、またはそれらの任意の組合せを実行するために構成要素を含み得る。説明のために、命令1060またはプロセッサは方向検出機能(orientation detection functionality)1064を有し得る。さらに、命令1060またはプロセッサはインターフェース生成機能1066を有し得る。
例示的な一実施形態では、方向検出機能1064は、コンピューティングデバイス1000の動き検出器1072、コンピューティングデバイス1000のカメラ1070、コンピューティングデバイス1000の別のセンサー(図示せず)、またはそれらの任意の組合せを使用して視野角の変化を検出するコンピューティングデバイス1000の構成要素、システム、または回路に対応する。動き検出器1072は、加速度計、ジャイロスコープ、コンパス、受動デバイス(すなわち、方向を検出するために周囲または環境条件を感知するデバイス)、能動デバイス(すなわち、方向を感知するために使用される信号を生成するデバイス)、またはそれらの任意の組合せを含み得る。
インターフェース生成機能1066は、図1の第1の部分120を表示するユーザインターフェースなど、コンテンツ1062の一部分を含むユーザインターフェースを生成することが可能であるコンピューティングデバイス1000の構成要素、システム、または回路に対応し得る。特定の例示的な実施形態では、方向検出機能1064およびインターフェース生成機能1066は命令1060中に含まれ得る。インターフェース生成機能1066は、方向検出機能1064に応答して、方向(たとえば、視野角)の変化が検出されたとき、ディスプレイ1028を介して表示されるコンテンツ1062の一部分を更新し得る。インターフェース生成機能1066は、方向の変化に非線形的に関係する方法で表示されるコンテンツ1062の部分を更新し得る。たとえば、視認方向の変化は、第1の浮動小数点数(たとえば、測定された度数)として表され得る。表示されたコンテンツに対して行われるべきである変更に対応する表示変化は、表示変化と視認方向との間の非線形関係に基づいて第2の浮動小数点数として計算され得る。
図10はまた、DSP1010とディスプレイ1028とに結合されたディスプレイコントローラ1026を示す。コーダ/デコーダ(コーデック)1034はまたデジタル信号プロセッサ1010に結合され得る。スピーカー1036およびマイクロフォン1038はコーデック1034に結合され得る。
図10はまた、ワイヤレスコントローラ1040がデジタル信号プロセッサ1010とアンテナ1042とに結合され得ることを示す。特定の一実施形態では、DSP1010、ディスプレイコントローラ1026、メモリ1032、コーデック1034、およびワイヤレスコントローラ1040は、システムインパッケージまたはシステムオンチップデバイス1022中に含まれる。特定の実施形態では、入力デバイス1030および電源1044はシステムオンチップデバイス1022に結合される。さらに、特定の実施形態では、図10に示すように、ディスプレイ1028、入力デバイス1030、スピーカー1036、マイクロフォン1038、カメラ1070、アンテナ1042、動き検出器1072、および電源1044は、システムオンチップデバイス1022の外部にある。ただし、ディスプレイ1028、入力デバイス1030、スピーカー1036、マイクロフォン1038、アンテナ1042、および電源1044の各々は、インターフェースまたはコントローラなど、システムオンチップデバイス1022の構成要素に結合され得る。
説明する実施形態とともに、図10のインターフェース生成機能1066、視認方向に基づいてディスプレイデバイスにおける表示のためのユーザインターフェースを生成するように構成された1つまたは複数の他のデバイスまたは回路、またはそれらの任意の組合せなど、ディスプレイデバイスにおける表示のためのユーザインターフェースを生成するためのインターフェース手段を含み得るシステムが開示され、ユーザインターフェースはディスプレイデバイスに対するユーザの視認方向に基づいて判断されたコンテンツの一部分を含む。本システムはまた、図2のセンサー214、図10のカメラ1070、図10の動き検出器1072、図10の方向検出機能1064、視認方向の変化を検出するように構成された1つまたは複数の他のデバイスまたは回路、またはそれらの任意の組合せなど、視認方向を判断することと視認方向の変化を検出することとのための方向検出手段を含み得る。
さらに、本明細書で開示した実施形態に関して説明した様々な例示的な論理ブロック、構成、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、プロセッサによって実行されるコンピュータソフトウェア、または両方の組合せとして実装され得ることを、当業者は諒解されよう。様々な例示的な構成要素、ブロック、構成、モジュール、回路、およびステップを、上記では概して、それらの機能に関して説明した。そのような機能をハードウェアとして実装するか、プロセッサ実行可能命令として実装するかは、特定の適用例および全体的なシステムに課される設計制約に依存する。当業者は、説明した機能を特定の適用例ごとに様々な方法で実装し得るが、そのような実装の決定は、本開示の範囲からの逸脱を生じるものと解釈すべきではない。
本明細書で開示する実施形態に関して説明した方法またはアルゴリズムのステップは、直接ハードウェアで実施され得るか、プロセッサによって実行されるソフトウェアモジュールで実施され得るか、またはその2つの組合せで実施され得る。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)、フラッシュメモリ、読取り専用メモリ(ROM)、プログラマブル読取り専用メモリ(PROM)、消去可能プログラマブル読取り専用メモリ(EPROM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM)、レジスタ、ハードディスク、リムーバブルディスク、コンパクトディスク読取り専用メモリ(CD−ROM)、または当技術分野で知られている他の形態の非一時的記憶媒体に常駐し得る。例示的な記憶媒体は、プロセッサが記憶媒体から情報を読み取り、記憶媒体に情報を書き込むことができるように、プロセッサに結合される。代替として、記憶媒体はプロセッサに一体化され得る。プロセッサおよび記憶媒体は特定用途向け集積回路(ASIC)中に常駐し得る。ASICは、コンピューティングデバイスまたはユーザ端末中に常駐し得る。代替として、プロセッサおよび記憶媒体は、コンピューティングデバイスまたはユーザ端末中に個別構成要素として常駐し得る。
開示した実施形態の上記の説明は、開示した実施形態を当業者が作成または使用することができるように行ったものである。これらの実施形態への様々な変更は当業者にはすぐに明らかになり、本明細書で定義された原理は本開示の範囲から逸脱することなく他の実施形態に適用され得る。したがって、本開示は、本明細書に示した実施形態に限定されるものではなく、特許請求の範囲によって定義される原理および新規の特徴と一致する可能な最も広い範囲を与えられるべきである。
以下に本願出願当初の特許請求の範囲を付記する。
[C1] ディスプレイを有するデバイスにおいて表示可能コンテンツを受信することであって、前記表示可能コンテンツが複数の閲覧可能要素を含む、受信することと、
前記ディスプレイに対するユーザの閲覧配向に基づいて、および前記ディスプレイの表示サイズに基づいて、前記表示可能コンテンツの第1の部分を判断することであって、前記第1の部分が、前記複数の閲覧可能要素のうちの少なくとも第1の閲覧可能要素を含み、前記複数の閲覧可能要素のうちの少なくとも1つの第2の閲覧可能要素を含まない、判断することと、
前記ディスプレイにおいて前記表示可能コンテンツの前記第1の部分を表示することと、
前記ディスプレイに対する前記ユーザの更新された閲覧配向を検出することと、
前記更新された閲覧配向に基づいて前記表示可能コンテンツの第2の部分を判断することであって、前記第2の部分が少なくとも前記第2の閲覧可能要素を含み、前記第1の部分と前記第2の部分との間の表示差が、前記閲覧配向と前記更新された閲覧配向との間の配向差に非線形的に関係する、判断することと、
前記ディスプレイにおいて前記第2の部分を表示することとを備える、方法。
[C2] 前記第2の閲覧可能要素が複数の独立ディスプレイウィンドウを含み、前記第2の部分における表示のために選択される前記独立ディスプレイウィンドウの数が前記配向差に非線形的に関係する、C1に記載の方法。
[C3] 前記配向差が、前記ディスプレイの測定された移動に基づいて判断される、C2に記載の方法。
[C4] 前記配向差が、前記ディスプレイに対する前記ユーザの閲覧角の測定された変化に基づいて判断される、C2に記載の方法。
[C5] 前記閲覧角の前記変化が、前記ディスプレイに結合されたカメラを使用して測定される、C4に記載の方法。
[C6] 前記第1の部分が第1の複数の閲覧可能要素を備え、前記第2の部分が第2の複数の閲覧可能要素を備え、前記表示差が、前記第1の複数の閲覧可能要素と前記第2の複数の閲覧可能要素との間で別個である閲覧可能要素の数に対応する、C1に記載の方法。
[C7] 前記更新された閲覧配向を検出することが、前記ユーザの眼のロケーションを検出することと、ユーザの顔の少なくとも一部分のロケーションを検出することとのうちの少なくとも1つを含む、C1に記載の方法。
[C8] 前記配向差が、閲覧者デバイス相対ジオメトリロケーションの変化に対応する、C1に記載の方法。
[C9] 前記更新された閲覧配向が、前記ユーザの検出されたジェスチャーに少なくとも部分的に基づいて検出される、C1に記載の方法。
[C10] 前記配向差が、前記デバイスの測定された移動に少なくとも部分的に基づいて判断される、C1に記載の方法。
[C11] 前記第1の部分および前記第2の部分が、前記ディスプレイによってレンダリングされる前記複数の閲覧可能要素の円筒表現の部分に対応する、C1に記載の方法。
[C12] 前記表示差が、軸の周りの前記円筒表現の回転量に対応する、C11に記載の方法。
[C13] 前記配向差が前記デバイスの回転量に対応し、前記デバイスの前記回転量が、前記軸の周りの前記円筒表現の前記回転量に非線形的に関係する、C12に記載の方法。
[C14] 前記円筒表現の前記回転のレートが、前記配向差に基づいて判断される、C13に記載の方法。
[C15] 前記回転の前記レートが浮動小数点数によって表される、C14に記載の方法。
[C16] プロセッサと、
前記プロセッサに結合されたメモリとを備え、前記メモリが、複数の閲覧可能要素を含むコンテンツを含み、前記メモリが、
ディスプレイに対するユーザの閲覧配向を判断することと、
前記閲覧配向に基づいて前記ディスプレイに前記コンテンツの第1の部分を与えることであって、前記第1の部分が、前記コンテンツの少なくとも第1の閲覧可能要素を含み、前記コンテンツの少なくとも1つの第2の閲覧可能要素を含まない、与えることと、
前記ユーザの更新された閲覧配向を判断することと、
前記更新された閲覧配向に基づいて前記ディスプレイに前記コンテンツの更新された部分を与えることであって、前記更新された部分が少なくとも前記第2の閲覧可能要素を含み、前記第1の部分と前記更新された部分との間の表示差が、前記閲覧配向と前記更新された閲覧配向との間の配向差に非線形的に関係する、与えることとを行うように前記プロセッサによって実行可能な命令をさらに含む、装置。
[C17] 前記ディスプレイが前記装置と一体である、C16に記載の装置。
[C18] 前記プロセッサに結合されたカメラをさらに備える、C17に記載の装置。
[C19] 前記命令が、前記カメラによってキャプチャされた1つまたは複数の画像に基づいて前記ディスプレイに対する前記ユーザの閲覧配向を判断するように前記プロセッサによってさらに実行可能である、C18に記載の装置。
[C20] ディスプレイデバイスにおける表示のためのユーザインターフェースを生成するためのインターフェース手段であって、前記ユーザインターフェースが、前記ディスプレイデバイスに対するユーザの閲覧配向に基づいて判断されたコンテンツの一部分を含む、インターフェース手段と、
前記閲覧配向を判断し、前記閲覧配向の変化を検出するための配向検出手段とを備え、
前記コンテンツの第1の部分が、第1の閲覧配向に基づいて判断され、前記第1の部分が、前記コンテンツの少なくとも第1の閲覧可能要素を含み、前記コンテンツの少なくとも1つの第2の閲覧可能要素を含まず、
前記コンテンツの第2の部分が、第2の閲覧配向への閲覧配向の変化に応じて判断され、前記コンテンツの前記第2の部分が少なくとも前記第2の閲覧可能要素を含み、
前記第1の部分と前記第2の部分との間の表示差が、前記第1の閲覧配向と前記第2の閲覧配向との間の配向差に非線形的に関係する装置。
[C21] 前記インターフェース手段が、表示される前記コンテンツの前記部分を更新し続け、前記配向検出手段は、前記配向差がしきい値を満たすことを示す、C20に記載の装置。
[C22] 前記インターフェース手段が表示される前記コンテンツの前記部分を更新するレートが、前記配向差の大きさに非線形的に関係する、C21に記載の装置。
[C23] 前記配向差が、前記ディスプレイデバイスに対する前記ユーザの閲覧角の測定された変化に基づいて判断される、C21に記載の装置。
[C24] 前記配向検出手段が、前記ディスプレイデバイスに結合されたカメラを使用して前記閲覧角の前記変化を測定する、C23に記載の装置。
[C25] 前記閲覧配向の前記変化を検出することが、前記ユーザの眼のロケーションを検出することと、ユーザの顔の少なくとも一部分のロケーションを検出することとのうちの少なくとも1つを含む、C21に記載の装置。
[C26] 前記ディスプレイデバイスの移動を検出するための移動検出手段をさらに備え、前記閲覧配向の前記変化が、前記ディスプレイデバイスの測定された移動に少なくとも部分的に基づいて判断される、C21に記載の装置。
[C27] 前記コンテンツの第3の部分が、前記第2の閲覧配向から第3の閲覧配向への前記閲覧配向の変化に応じて判断され、前記第2の部分と前記第3の部分との間の第2の表示差が、前記第1の部分と前記第2の部分との間の前記表示差よりも大きい、C21に記載の装置。
[C28] プロセッサによって実行されたとき、前記プロセッサに、
ディスプレイに対するユーザの閲覧配向を判断することと、
前記閲覧配向に基づいて前記ディスプレイにコンテンツの一部分を与えることであって、前記部分が、前記コンテンツの少なくとも第1の閲覧可能要素を含み、前記コンテンツの少なくとも1つの第2の閲覧可能要素を含まない、与えることと、
前記ユーザの更新された閲覧配向を判断することと、
前記更新された閲覧配向に基づいて前記コンテンツの前記部分を更新することであって、前記更新された部分が少なくとも前記第2の閲覧可能要素を含み、前記部分と前記更新された部分との間の表示差が、前記閲覧配向と前記更新された閲覧配向との間の配向差に非線形的に関係する、更新することとを行わせるプロセッサ実行可能命令を備える非一時的コンピュータ可読媒体。
[C29] 前記命令がさらに、前記コンテンツの複数の閲覧可能要素を備える前記コンテンツの3次元表現を生成するように前記プロセッサによって実行可能であり、前記部分が前記3次元表現の一部に対応する、C28に記載の非一時的コンピュータ可読記憶媒体。
[C30] 前記配向差が、前記ディスプレイに対する前記ユーザの閲覧角の変化に対応する、C29に記載の非一時的コンピュータ可読媒体。
[C31] 前記表示差が前記3次元表現の回転のレートに対応し、前記3次元表現の回転の前記レートが前記配向差に非線形的に関係する、C30に記載の非一時的コンピュータ可読媒体。
[C32] 前記3次元表現が、円筒構成に配置された前記複数の閲覧可能要素を含む、C29に記載の非一時的コンピュータ可読媒体。
[C33] 前記命令が、前記配向差がしきい値を超える限り前記部分を更新し続けるように前記プロセッサによって実行可能である、C28に記載の非一時的コンピュータ可読媒体。
[C34] 前記部分が更新され続けるレートが前記配向差に非線形的に関係する、C33に記載の非一時的コンピュータ可読媒体。
[C35] 前記第1の閲覧可能要素と前記第2の閲覧可能要素とが独立ディスプレイウィンドウである、C28に記載の非一時的コンピュータ可読媒体。
[C36] 前記第1の閲覧可能要素と前記第2の閲覧可能要素とが、単一のディスプレイウィンドウの異なる一部である、C28に記載の非一時的コンピュータ可読媒体。

Claims (33)

  1. ディスプレイを有するデバイスにおいて表示可能コンテンツを受信することであって、前記表示可能コンテンツが複数のディスプレイウィンドウを含む、受信することと、
    前記ディスプレイに対するユーザの視認方向に基づいて、前記表示可能コンテンツの第1の部分を決定することであって、前記第1の部分が、前記複数のディスプレイウィンドウのうちの少なくとも1つの第1のディスプレイウィンドウを含み、前記複数のディスプレイウィンドウのうちの複数の独立ディスプレイウィンドウを含まない、決定することと、
    前記ディスプレイにおいて前記表示可能コンテンツの前記第1の部分を表示することと、
    前記ディスプレイに対する前記ユーザの更新された視認方向を検出することと、
    前記更新された視認方向に基づいて前記表示可能コンテンツの第2の部分と前記第1の部分との間の表示差を決定することであって、前記第2の部分が前記複数の独立ディスプレイウィンドウのうちの少なくとも1つの第1の独立ディスプレイウィンドウと1つの第2の独立ディスプレイウィンドウとを含み、前記第1の部分と前記第2の部分との間の前記表示差が、前記視認方向と前記更新された視認方向との間の方向差に非線形的に関係し、前記複数の独立ディスプレイウィンドウのうちの前記第1の独立ディスプレイウィンドウは、第1のアプリケーションのユーザインターフェースディスプレイであり、前記複数の独立ディスプレイウィンドウのうちの前記第2の独立ディスプレイウィンドウは、第2のアプリケーションのユーザインターフェースディスプレイであり、前記第1の部分は、第1の視認方向に基づいた表示部であり、前記第2の部分は第2の視認方向に基づいた表示部であり、前記表示差は、前記第1の視認方向に基づいた表示と前記第2の視認方向に基づいた表示との間の差である、決定することと、
    前記ディスプレイにおいて前記第2の部分を表示することと
    を備える、方法。
  2. 前記第2の部分における表示のために選択される前記独立ディスプレイウィンドウの数が前記方向差に非線形的に関係する、請求項1に記載の方法。
  3. 前記方向差が、前記ディスプレイの測定された移動に基づいて決定される、請求項2に記載の方法。
  4. 前記方向差が、前記ディスプレイに対する前記ユーザの視野角の測定された変化に基づいて決定される、請求項2に記載の方法。
  5. 前記視野角の前記変化が、前記ディスプレイに結合されたカメラを使用して測定される、請求項4に記載の方法。
  6. 前記第1の部分が前記複数のディスプレイウィンドウのうちの第1の複数のディスプレイウィンドウを備え、前記第2の部分が、前記第1の独立ディスプレイウィンドウと第2の独立ディスプレイウィンドウとを含む前記複数のディスプレイウィンドウのうちの第2の複数のディスプレイウィンドウを備え、前記表示差が、前記第1の複数のディスプレイウィンドウと前記第2の複数のディスプレイウィンドウとの間で明確に区別できるディスプレイウィンドウの数に対応する、請求項1に記載の方法。
  7. 前記更新された視認方向を検出することが、前記ユーザの眼のロケーションを検出することと、ユーザの顔の少なくとも一部分のロケーションを検出することとのうちの少なくとも1つを含む、請求項1に記載の方法。
  8. 前記方向差が、視認者デバイスの相対的な幾何学配置の変化に対応する、請求項1に記載の方法。
  9. 前記更新された視認方向が、前記ユーザの検出されたジェスチャーに少なくとも部分的に基づいて検出される、請求項1に記載の方法。
  10. 前記方向差が、前記デバイスの測定された移動に少なくとも部分的に基づいて決定される、請求項1に記載の方法。
  11. 前記第1の部分および前記第2の部分が、前記ディスプレイによってレンダリングされる前記表示可能コンテンツの円柱描画の部分に対応する、請求項1に記載の方法。
  12. 前記表示差が、軸の周りの前記円柱描画の回転量に対応する、請求項11に記載の方法。
  13. 前記方向差が前記デバイスの回転量に対応し、前記デバイスの前記回転量が、前記軸の周りの前記円柱描画の前記回転量に非線形的に関係する、請求項12に記載の方法。
  14. 前記円柱描画の前記回転のレートが、前記方向差に基づいて決定される、請求項13に記載の方法。
  15. 前記回転の前記レートが浮動小数点数によって表される、請求項14に記載の方法。
  16. プロセッサと、
    前記プロセッサに結合されたメモリとを備え、前記メモリが、複数のディスプレイウィンドウを含むコンテンツを含み、前記メモリが、
    ディスプレイに対するユーザの視認方向を決定することと、
    前記視認方向に基づいて前記ディスプレイに前記コンテンツの第1の部分を与えることであって、前記第1の部分が、前記複数のディスプレイウィンドウのうちの少なくとも1つの第1のディスプレイウィンドウを含み、前記複数のディスプレイウィンドウのうちの複数の独立ディスプレイウィンドウを含まない、与えることと、
    前記ユーザの更新された視認方向を決定することと、
    前記更新された視認方向に基づいて前記ディスプレイに前記コンテンツの更新された部分を与えることであって、前記更新された部分が前記複数の独立ディスプレイウィンドウのうちの少なくとも1つの第1の独立ディスプレイウィンドウと1つの第2の独立ディスプレイウィンドウとを含み、前記第1の部分と前記更新された部分との間の表示差が、前記視認方向と前記更新された視認方向との間の方向差に非線形的に関係し、前記複数の独立ディスプレイウィンドウのうちの前記第1の独立ディスプレイウィンドウは、第1のアプリケーションのユーザインターフェースディスプレイであり、前記複数の独立ディスプレイウィンドウのうちの前記第2の独立ディスプレイウィンドウは、第2のアプリケーションのユーザインターフェースディスプレイである、与えること
    を行うように前記プロセッサによって実行可能な命令をさらに含む、装置。
  17. 前記ディスプレイが前記装置と一体である、請求項16に記載の装置。
  18. 前記プロセッサに結合されたカメラをさらに備える、請求項17に記載の装置。
  19. 前記命令が、前記カメラによってキャプチャされた1つまたは複数の画像に基づいて前記ディスプレイに対する前記ユーザの視認方向を決定するように前記プロセッサによってさらに実行可能である、請求項18に記載の装置。
  20. ディスプレイデバイスにおける表示のためのユーザインターフェースを生成するためのインターフェース手段であって、前記ユーザインターフェースが、前記ディスプレイデバイスに対するユーザの視認方向に基づいて決定されたコンテンツの一部分を含む、インターフェース手段と、
    前記視認方向を決定し、前記視認方向の変化を検出するための方向検出手段とを備え、
    前記コンテンツの第1の部分が、第1の視認方向に基づいて判断され、前記第1の部分が、前記コンテンツに含まれる複数のディスプレイウィンドウのうちの少なくとも1つの第1のディスプレイウィンドウを含み、前記複数のディスプレイウィンドウのうちの複数の独立ディスプレイウィンドウを含まず、
    前記コンテンツの第2の部分が、第2の視認方向への前記視認方向の変化に応じて判断され、前記コンテンツの前記第2の部分が、前記複数の独立ディスプレイウィンドウのうちの少なくとも1つの第1の独立ディスプレイウィンドウと1つの第2の独立ディスプレイウィンドウとを含み、
    前記第1の部分と前記第2の部分との間の表示差が、前記第1の視認方向と前記第2の視認方向との間の方向差に非線形的に関係し、
    前記複数の独立ディスプレイウィンドウのうちの前記第1の独立ディスプレイウィンドウは、第1のアプリケーションのユーザインターフェースディスプレイであり、前記複数の独立ディスプレイウィンドウのうちの前記第2の独立ディスプレイウィンドウは、第2のアプリケーションのユーザインターフェースディスプレイである、
    装置。
  21. 前記方向検出手段が、前記方向差がしきい値以上であることを示す間、前記インターフェース手段が、表示される前記コンテンツの前記部分を更新し続け、前記インターフェース手段が表示される前記コンテンツの前記部分を更新するレートが、前記方向差の大きさに非線形的に関係する、請求項20に記載の装置。
  22. 前記方向差が、前記ディスプレイデバイスに対する前記ユーザの視野角の測定された変化に基づいて判断される、請求項21に記載の装置。
  23. 前記方向検出手段が、前記ディスプレイデバイスに結合されたカメラを使用して前記視野角の前記変化を測定する、請求項22に記載の装置。
  24. 前記視認方向の前記変化を検出することが、前記ユーザの眼のロケーションを検出することと、ユーザの顔の少なくとも一部分のロケーションを検出することとのうちの少なくとも1つを含む、請求項21に記載の装置。
  25. 前記ディスプレイデバイスの移動を検出するための移動検出手段をさらに備え、前記視認方向の前記変化が、前記ディスプレイデバイスの測定された移動に少なくとも部分的に基づいて判断される、請求項21に記載の装置。
  26. 前記コンテンツの第3の部分が、前記第2の視認方向から第3の視認方向への前記視認方向の変化に応じて判断され、前記第2の部分と前記第3の部分との間の第2の表示差が、前記第1の部分と前記第2の部分との間の前記表示差よりも大きい、請求項21に記載の装置。
  27. プロセッサによって実行されたとき、前記プロセッサに、
    ディスプレイに対するユーザの視認方向を判断することと、
    前記視認方向に基づいて前記ディスプレイにコンテンツの一部分を与えることであって、前記部分が、前記コンテンツに含まれる複数のディスプレイウィンドウのうちの少なくとも1つの第1のディスプレイウィンドウを含み、前記複数のディスプレイウィンドウのうちの複数の独立ディスプレイウィンドウを含まない、与えることと、
    前記ユーザの更新された視認方向を判断することと、
    前記更新された視認方向に基づいて前記コンテンツの前記部分を更新することであって、前記更新された部分が前記複数の独立ディスプレイウィンドウのうちの少なくとも1つの第1の独立ディスプレイウィンドウと1つの第2の独立ディスプレイウィンドウとを含み、前記部分と前記更新された部分との間の表示差が、前記視認方向と前記更新された視認方向との間の方向差に非線形的に関係し、前記複数の独立ディスプレイウィンドウのうちの前記第1の独立ディスプレイウィンドウは、第1のアプリケーションのユーザインターフェースディスプレイであり、前記複数の独立ディスプレイウィンドウのうちの前記第2の独立ディスプレイウィンドウは、第2のアプリケーションのユーザインターフェースディスプレイである、更新すること
    を行わせるプロセッサ実行可能命令を備える非一時的コンピュータ可読記憶媒体。
  28. 前記命令がさらに、前記コンテンツの3次元描画を生成するように前記プロセッサによって実行可能であり、前記部分が前記3次元描画の一部に対応する、請求項27に記載の非一時的コンピュータ可読記憶媒体。
  29. 前記方向差が、前記ディスプレイに対する前記ユーザの視野角の変化に対応する、請求項28に記載の非一時的コンピュータ可読記憶媒体。
  30. 前記表示差が前記3次元描画の回転のレートに対応し、前記3次元描画の回転の前記レートが前記方向差に非線形的に関係する、請求項29に記載の非一時的コンピュータ可読記憶媒体。
  31. 前記3次元描画が、円柱構成に配置された前記複数のディスプレイウィンドウを含む、請求項28に記載の非一時的コンピュータ可読記憶媒体。
  32. 前記命令が、前記方向差がしきい値を超える限り前記部分を更新し続けるように前記プロセッサによって実行可能である、請求項27に記載の非一時的コンピュータ可読記憶媒体。
  33. 前記部分が更新され続けるレートが前記方向差に非線形的に関係する、請求項32に記載の非一時的コンピュータ可読記憶媒体。
JP2013556830A 2011-03-01 2012-02-29 コンテンツを表示するためのシステムおよび方法 Active JP6042353B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/038,166 2011-03-01
US13/038,166 US9285883B2 (en) 2011-03-01 2011-03-01 System and method to display content based on viewing orientation
PCT/US2012/027157 WO2012118904A1 (en) 2011-03-01 2012-02-29 System and method to display content

Publications (3)

Publication Number Publication Date
JP2014510344A JP2014510344A (ja) 2014-04-24
JP2014510344A5 JP2014510344A5 (ja) 2015-03-12
JP6042353B2 true JP6042353B2 (ja) 2016-12-14

Family

ID=45841637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013556830A Active JP6042353B2 (ja) 2011-03-01 2012-02-29 コンテンツを表示するためのシステムおよび方法

Country Status (6)

Country Link
US (1) US9285883B2 (ja)
EP (1) EP2681639A1 (ja)
JP (1) JP6042353B2 (ja)
KR (1) KR101523161B1 (ja)
CN (1) CN103430126A (ja)
WO (1) WO2012118904A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8121813B2 (en) 2009-01-28 2012-02-21 General Electric Company System and method for clearance estimation between two objects
JP5413250B2 (ja) * 2010-03-05 2014-02-12 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8521848B2 (en) * 2011-06-28 2013-08-27 Microsoft Corporation Device sensor and actuation for web pages
US9454617B1 (en) 2011-12-30 2016-09-27 hopTo Inc. Client rendering
US8856262B1 (en) 2011-12-30 2014-10-07 hopTo Inc. Cloud-based image hosting
US9218107B1 (en) 2011-12-30 2015-12-22 hopTo Inc. Cloud-based text management for cross-platform display
US8775545B1 (en) 2011-12-30 2014-07-08 hop To Inc. Image hosting for cross-platform display over a communication network
US9367931B1 (en) 2011-12-30 2016-06-14 hopTo Inc. Motion vectors for cross-platform display
US9223534B1 (en) 2011-12-30 2015-12-29 hopTo Inc. Client side detection of motion vectors for cross-platform display
US9269310B1 (en) * 2012-02-16 2016-02-23 Amazon Technologies, Inc. Progressive display updates
US9035878B1 (en) 2012-02-29 2015-05-19 Google Inc. Input system
KR101850035B1 (ko) * 2012-05-02 2018-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8990363B1 (en) 2012-05-18 2015-03-24 hopTo, Inc. Decomposition and recomposition for cross-platform display
US9124562B1 (en) 2012-05-18 2015-09-01 hopTo Inc. Cloud-based decomposition and recomposition for cross-platform display
US10452769B1 (en) * 2012-08-31 2019-10-22 United Services Automobile Association (Usaa) Concurrent display of application between devices
US20140071159A1 (en) * 2012-09-13 2014-03-13 Ati Technologies, Ulc Method and Apparatus For Providing a User Interface For a File System
JP6100497B2 (ja) * 2012-10-09 2017-03-22 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
US8763054B1 (en) 2012-11-02 2014-06-24 hopTo Inc. Cross-platform video display
US8776152B1 (en) 2012-11-02 2014-07-08 hopTo Inc. Cloud-based cross-platform video display
CN103809737A (zh) * 2012-11-13 2014-05-21 华为技术有限公司 一种人机交互方法及装置
JP6073664B2 (ja) * 2012-12-07 2017-02-01 株式会社東芝 コンテンツ再生装置及びコンテンツ再生プログラム
CN103941984A (zh) * 2013-01-18 2014-07-23 维沃移动通信有限公司 一种应用于移动手持设备中的浏览器网页界面智能滑动的方法及***
US9430134B1 (en) 2013-03-15 2016-08-30 hopTo Inc. Using split windows for cross-platform document views
US9292157B1 (en) 2013-03-15 2016-03-22 hopTo Inc. Cloud-based usage of split windows for cross-platform document views
TWI637348B (zh) * 2013-04-11 2018-10-01 緯創資通股份有限公司 影像顯示裝置和影像顯示方法
KR102232621B1 (ko) * 2013-07-30 2021-03-29 삼성디스플레이 주식회사 광 테라피 표시 장치
TWI723271B (zh) * 2013-09-18 2021-04-01 日商半導體能源研究所股份有限公司 顯示裝置、顯示裝置的驅動方法、程式以及儲存介質
US9411422B1 (en) 2013-12-13 2016-08-09 Audible, Inc. User interaction with content markers
US9383818B2 (en) 2013-12-27 2016-07-05 Google Technology Holdings LLC Method and system for tilt-based actuation
CN104750395B (zh) * 2013-12-31 2018-05-22 富泰华工业(深圳)有限公司 用户界面调整***及其调整方法
CN103760971A (zh) * 2013-12-31 2014-04-30 上海闻泰电子科技有限公司 使用电子设备时保护眼睛的方法及***
US10055009B2 (en) 2014-05-30 2018-08-21 Apple Inc. Dynamic display refresh rate based on device motion
TWI584154B (zh) * 2014-07-08 2017-05-21 拓連科技股份有限公司 以角度為基礎之項目決定方法及系統,及相關電腦程式產品
JP6095614B2 (ja) * 2014-07-18 2017-03-15 ヤフー株式会社 情報表示プログラム、配信装置、情報表示方法および情報表示装置
CN105808091B (zh) * 2014-12-31 2022-06-24 创新先进技术有限公司 调整界面操作图标分布范围的装置、方法及触摸屏设备
US9927961B2 (en) * 2015-01-09 2018-03-27 Flipboard, Inc. Video ad unit with time and orientation-based playback
KR102355935B1 (ko) * 2015-02-27 2022-01-27 삼성전자주식회사 회전 입력에 기반한 어플리케이션을 활성화하는 방법 및 이를 수행하는 전자 장치
CN105183169B (zh) * 2015-09-22 2018-09-25 小米科技有限责任公司 视线方向识别方法及装置
CN106980360A (zh) * 2016-01-19 2017-07-25 中兴通讯股份有限公司 终端控制方法及装置
JP2017134558A (ja) * 2016-01-27 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
JP6663131B2 (ja) * 2016-01-28 2020-03-11 カシオ計算機株式会社 表示装置、表示制御方法及びプログラム
US10654422B2 (en) 2016-08-29 2020-05-19 Razmik Karabed View friendly monitor systems
KR102655187B1 (ko) 2017-02-15 2024-04-05 삼성전자주식회사 전자 장치 및 그의 동작 방법
CN108632661A (zh) * 2017-03-17 2018-10-09 北京京东尚科信息技术有限公司 播放方法和播放装置
US11550394B2 (en) * 2018-11-08 2023-01-10 Goto Group, Inc. Force-based control for a mobile device having a non-linear surface
KR20210056563A (ko) 2019-11-11 2021-05-20 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11388354B2 (en) 2019-12-06 2022-07-12 Razmik Karabed Backup-camera-system-based, on-demand video player
US11941341B2 (en) * 2022-02-28 2024-03-26 Apple Inc. Intelligent inset window placement in content

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263205A (ja) 1995-03-24 1996-10-11 Toshiba Corp 携帯用情報端末装置
JPH1049290A (ja) 1996-08-05 1998-02-20 Sony Corp 情報処理装置および方法
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
EP0874303B1 (en) 1997-04-25 2002-09-25 Texas Instruments France Video display system for displaying a virtual threedimensinal image
US6351273B1 (en) 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
AU2211799A (en) 1998-01-06 1999-07-26 Video Mouse Group, The Human motion following computer mouse and game controller
WO2000039662A1 (fr) * 1998-12-25 2000-07-06 Matsushita Electric Industrial Co., Ltd. Dispositif d'execution selectif de programme, dispositif d'execution selectif de donnees, dispositif d'affichage d'images et dispositif de selection de voies
US6201554B1 (en) 1999-01-12 2001-03-13 Ericsson Inc. Device control apparatus for hand-held data processing device
US7098914B1 (en) * 1999-07-30 2006-08-29 Canon Kabushiki Kaisha Image synthesis method, image synthesis apparatus, and storage medium
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6504649B1 (en) * 2000-01-13 2003-01-07 Kenneth J. Myers Privacy screens and stereoscopic effects devices utilizing microprism sheets
GB0007863D0 (en) * 2000-03-31 2000-05-17 Koninkl Philips Electronics Nv Hand-held electronic device having a display
GB0011455D0 (en) 2000-05-13 2000-06-28 Mathengine Plc Browser system and method for using it
JP2002095012A (ja) * 2000-09-18 2002-03-29 Hitachi Ltd ステレオ画像生成装置およびその方法
US6834249B2 (en) 2001-03-29 2004-12-21 Arraycomm, Inc. Method and apparatus for controlling a computing system
US6886137B2 (en) 2001-05-29 2005-04-26 International Business Machines Corporation Eye gaze control of dynamic information presentation
TWI238348B (en) * 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
JP4684107B2 (ja) * 2003-09-11 2011-05-18 シャープ株式会社 携帯型表示装置および携帯型表示装置の制御方法
US7365738B2 (en) 2003-12-02 2008-04-29 International Business Machines Corporation Guides and indicators for eye movement monitoring systems
US7301528B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices
JP2005321972A (ja) 2004-05-07 2005-11-17 Sony Corp 情報処理装置、情報処理装置における処理方法及び情報処理装置における処理プログラム
US7834834B2 (en) * 2004-09-07 2010-11-16 Sharp Kabushiki Kaisha Display device, viewing angle control device, and electronic apparatus
WO2006030702A1 (ja) * 2004-09-15 2006-03-23 Sharp Kabushiki Kaisha 表示装置、視野角制御装置、および電子機器
WO2006030745A1 (ja) * 2004-09-17 2006-03-23 Sharp Kabushiki Kaisha 表示装置および視野角制御装置、電子機器
US20060129948A1 (en) * 2004-12-14 2006-06-15 Hamzy Mark J Method, system and program product for a window level security screen-saver
US8125444B2 (en) * 2005-07-04 2012-02-28 Bang And Olufsen A/S Unit, an assembly and a method for controlling in a dynamic egocentric interactive space
KR20080019266A (ko) * 2005-07-08 2008-03-03 미쓰비시덴키 가부시키가이샤 터치패널 표시장치 및 휴대 기기
KR101229283B1 (ko) * 2005-09-15 2013-02-15 올레그 스탄니슬라보비치 루린 가상 3차원 객체들의 시각화를 위한 방법 및 시스템
US7486350B2 (en) * 2005-12-23 2009-02-03 Sharp Kabushiki Kaisha Display device, viewing angle control device, electronic display device, and multiple image display device
US8139030B2 (en) 2006-02-01 2012-03-20 Memsic, Inc. Magnetic sensor for use with hand-held devices
US7595810B2 (en) * 2006-03-22 2009-09-29 Apple Inc. Methods of manipulating a screen space of a display device
JP2007280461A (ja) 2006-04-04 2007-10-25 Sony Corp 再生装置、ユーザインターフェイス制御方法、プログラム
KR100772909B1 (ko) * 2006-05-30 2007-11-05 삼성전자주식회사 이미지 검색 방법 및 장치
JP2008216293A (ja) * 2007-02-28 2008-09-18 Canon Inc データ処理装置及びその制御方法、並びに制御プログラム及び記憶媒体
US8026930B2 (en) * 2007-08-06 2011-09-27 International Business Machines Corporation Preventing viewing by bystanders of information on a display screen
JP5218426B2 (ja) * 2007-12-17 2013-06-26 富士通株式会社 表示制御装置、表示制御プログラム及び方法
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP4384697B2 (ja) 2008-03-26 2009-12-16 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、ならびに、プログラム
US9092053B2 (en) 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8645871B2 (en) 2008-11-21 2014-02-04 Microsoft Corporation Tiltable user interface
US8441441B2 (en) * 2009-01-06 2013-05-14 Qualcomm Incorporated User interface for mobile devices
JP2010176170A (ja) 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
JP5444824B2 (ja) * 2009-05-01 2014-03-19 コニカミノルタ株式会社 画像形成装置
JP2010286930A (ja) 2009-06-10 2010-12-24 Net-Clay Co Ltd コンテンツ表示装置、コンテンツ表示方法、及びプログラム
JP5446624B2 (ja) 2009-09-07 2014-03-19 ソニー株式会社 情報表示装置、情報表示方法及びプログラム
JP2011090400A (ja) * 2009-10-20 2011-05-06 Sony Corp 画像表示装置および方法、並びにプログラム

Also Published As

Publication number Publication date
EP2681639A1 (en) 2014-01-08
KR20130141670A (ko) 2013-12-26
CN103430126A (zh) 2013-12-04
WO2012118904A1 (en) 2012-09-07
US20120223884A1 (en) 2012-09-06
JP2014510344A (ja) 2014-04-24
US9285883B2 (en) 2016-03-15
KR101523161B1 (ko) 2015-05-26

Similar Documents

Publication Publication Date Title
JP6042353B2 (ja) コンテンツを表示するためのシステムおよび方法
JP2014510344A5 (ja)
US10540079B2 (en) Tilting to scroll
AU2014315443B2 (en) Tilting to scroll
CA2922708C (en) Tilting to scroll

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141222

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20150123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150624

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151217

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151225

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161109

R150 Certificate of patent or registration of utility model

Ref document number: 6042353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250