JP6050352B2 - ビデオ・ピーキング(peeking) - Google Patents

ビデオ・ピーキング(peeking) Download PDF

Info

Publication number
JP6050352B2
JP6050352B2 JP2014523917A JP2014523917A JP6050352B2 JP 6050352 B2 JP6050352 B2 JP 6050352B2 JP 2014523917 A JP2014523917 A JP 2014523917A JP 2014523917 A JP2014523917 A JP 2014523917A JP 6050352 B2 JP6050352 B2 JP 6050352B2
Authority
JP
Japan
Prior art keywords
video
video image
screen
swipe
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014523917A
Other languages
English (en)
Other versions
JP2014529212A (ja
JP2014529212A5 (ja
Inventor
ジエイコブ ワルデナール、マシユー
ジエイコブ ワルデナール、マシユー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2014529212A publication Critical patent/JP2014529212A/ja
Publication of JP2014529212A5 publication Critical patent/JP2014529212A5/ja
Application granted granted Critical
Publication of JP6050352B2 publication Critical patent/JP6050352B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4383Accessing a communication channel

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Description

(関連出願の相互参照)
本願は、米国特許法119(e)条に基づき、2011年8月5日出願の仮特許出願第61/515,578号の出願日の利益を主張するものである。発明の背景に関する限り、本願は、国際出願日が2010年9月22日の所有者が共通のPCT/US2010/049772号に関する。
本発明の背景は、ビデオ・タブレットまたはその他のディスプレイ装置のタッチ作動可能スクリーンの一般的な動作に関する。本明細書に見られるビデオ・タブレットまたはその他のディスプレイ装置のタッチ作動可能スクリーンに関する記述は、PCT/US2010/049772号にも見ることができる。PCT/US2010/049772号の最初の国際調査報告に引用されており、従ってタッチ作動可能スクリーンの一般的動作に関係する特許、公開出願および論文としては、米国特許出願公開第2009210819(A1)号、米国特許出願公開第20070013708(A1)号、米国特許出願公開第20080079972(A1)号、米国特許出願公開第20090153478(A1)号、米国特許出願公開第2009019924(A1)号、EP1450277A2、およびSHIRAZI Jによる「Java(登録商標)パフォーマンス・チューニング」、第4章「オブジェクト生成」などが挙げられる。図面に示す要素は、ハードウェア、ソフトウェア、またはそれらの組合せといった様々な形態で実装することができることを理解されたい。これらの要素は、プロセッサ、メモリおよび入出力インタフェースを含むことができる1つまたは複数の適当にプログラムされた汎用装置において、ハードウェアとソフトウェアの組合せとして実装することが好ましい。本明細書では、「結合される」という文言は、1つまたは複数の中間構成要素を介して直接的または間接的に接続されることを意味するように定義される。このような中間構成要素は、ハードウェア・ベースの構成要素およびソフトウェア・ベースの構成要素の両方を含むことができる。
本明細書は、本開示の原理を例示するものである。従って、本明細書に明示的には記述または図示していなくても、本開示の原理を実現し、本開示の趣旨および範囲に含まれる様々な構成を、当業者なら考案することができることを理解されたい。
本明細書に記載した全ての例および条件に関する表現は、本開示の原理と、当技術分野をさらに進歩させるために発明者が与える概念とを、読者が理解するのを助けるという教育的な目的を有するものであって、これらの具体的に記載した例および条件に限定されるわけではないものと解釈されたい。
さらに、本開示の原理、態様および実施形態ならびに本開示の具体的な例について本明細書で述べる全ての記述は、その構造的均等物および機能的均等物の両方を含むものとする。さらに、これらの均等物には、現在既知の均等物だけでなく、将来開発されるであろう均等物も含まれる、すなわち、その構造にかかわらず、同じ機能を実行する開発される任意の要素も含まれるものとする。
従って、例えば、当業者なら、本明細書に示すブロック図が本開示の原理を実施する例示的な回路の概念図を表していることを理解するであろう。同様に、任意のフローチャート、流れ図、状態遷移図、擬似コードなどが、コンピュータ可読媒体中に実質的に表現され、明示してある場合もしていない場合もあるコンピュータまたはプロセッサによって実質的に実行される様々なプロセスを表すことも理解されたい。
図面に示す様々な要素の機能は、専用のハードウェアを使用することによって、またソフトウェアを実行することができるハードウェアを適当なソフトウェアと関連付けて使用することによって、実現することができる。プロセッサによってそれらの機能を実現するときには、単一の専用プロセッサで実現することも、単一の共用プロセッサで実現することも、あるいはその一部を共用することもできる複数の個別プロセッサで実現することもできる。さらに、「プロセッサ」または「コントローラ」という用語を明示的に用いていても、ソフトウェアを実行することができるハードウェアのみを指していると解釈すべきではなく、ディジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを記憶するための読取り専用メモリ(ROM)、ランダム・アクセス・メモリ(RAM)および不揮発性記憶装置(ただしこれらに限定されない)を暗に含むことがある。
従来の、且つ/または特注のその他ハードウェアも含まれることがある。同様に、図面に示す任意のスイッチも、概念的なものに過ぎない。それらの機能は、プログラム論理の動作によっても、専用論理によっても、プログラム制御と専用論理の相互作用によっても、あるいは手作業でも実施することができ、実施者が、前後関係から適宜判断して特定の技術を選択することができる。
本明細書の特許請求の範囲において、特定の機能を実行する手段として表現されている任意の要素は、その機能を実行する任意の形態を含むものとする。例えば、(a)その機能を実行する回路素子の組合せや、(b)ファームウェアやマイクロコードなども含めた任意の形態のソフトウェアを、そのソフトウェアを実行してその機能を実行する適当な回路と組み合わせたものなども含むものとする。特許請求の範囲によって定義される本開示は、記載した様々な手段が実施する機能を、特許請求の範囲が要求する形式で組み合わせ、まとめることにある。従って、これらの機能を実施することができるものであればどのような手段でも、本明細書に示す手段の均等物とみなすものとする。
本開示は、ユーザが1組のデータ要素セットを2次元空間内で(すなわちx方向およびy方向に)ナビゲートすることを可能にするグラフィカル・ユーザ・インタフェースの見た目であるグリッド・ディスプレイを提供するものである。グリッド・ディスプレイは、2次元(2D)パターン、例えば複数の列および複数の行を有することができるが、その他の形態をとることもできる。グリッド・ディスプレイのナビゲーションは、所望の要素の位置を特定するジェスチャなどのコマンドを用いて行うことができる。グリッド・ディスプレイへの入力をタッピング(tap)などによって選択して、例えば関連するコンテンツを実行または再生するなど、さらなる動作を開始する。このインタフェース機構は、グリッド・ディスプレイ上の項目を、例えばオーディオ・アルバムのカバーやビデオ・ポスター画像などによってグラフィック表現することができるメディア・アプリケーションで使用するためのものである。特定の実施形態では、表示要素の数が最小限に抑えられ、且つ全データセット中の項目数に依存しないようにグリッド・ディスプレイの実施態様の見た目を最適化することに関連する装置および方法について記述する。また、これらの実施形態は、表示部分の視認性が滑らか且つ効率的になるようにデータベース内をナビゲートすることに関する問題に対処するものである。この装置および方法は、特に、メディア・コンテンツの大きなデータベースへの制御されたアクセスを含むコンテンツ配信ネットワークで使用するように構成することができる。
本開示のユーザ・インタフェースにおけるナビゲーションは、テレビジョン、モニタまたはタッチ・スクリーンなどのディスプレイ上を素早く、簡単に、且つ正確に移動する機構によって容易になる。一実施形態では、動き感知リモート・コントローラなどの入力装置が提供される。別の実施形態では、ユーザの1本または複数本の指がリモート・コントローラのスクリーン上を移動するときに実質的にトラッキングするカーソルをスクリーン上に有するタッチ・スクリーンまたはパネル遠隔装置を利用する。ユーザがグリッド・ディスプレイ上をなでると、特定のグラフィック要素が消滅して新たなグラフィック要素が出現するユーザの入力に応答してデータベース中のコンテンツを表すグラフィック要素が移動する。タッチ・スクリーンまたはパネル遠隔装置の実施形態では、タッチ・スクリーンまたはパネル遠隔装置は、ディスプレイ装置自体として機能することもできるし、または単にナビゲーション・ツールとして機能することもできることを理解されたい。さらに別の実施形態では、リモート・コントローラの表面上に配置された少なくとも1つのボタンまたは入力機構を使用してグリッド・ディスプレイをナビゲートする従来の手持ち型リモート・コントローラを利用する。
最初に、様々なタイプのコンテンツをユーザに配信するシステムについて述べる。その後に、本開示の実施形態によるコンテンツを検索する方法およびユーザ・インタフェースについて詳述する。
ここで図1を参照すると、コンテンツを家庭またはエンド・ユーザに配信するシステム100の実施形態を示すブロック図が示してある。コンテンツは、映画スタジオまたはプロダクション・ハウスなどのコンテンツ・ソース102で生成される。コンテンツは、2つの形態のうちの少なくとも1つで供給することができる。1つの形態は、コンテンツの放送形態とすることができる。放送コンテンツは、通常はアメリカン・ブロードキャスティング・カンパニー(ABC)、ナショナル・ブロードキャスティング・カンパニー(NBC)、コロンビア・ブロードキャスティング・システム(CBS)などの全国的な放送サービスである、放送アフィリエイト・マネージャ104に供給される。放送アフィリエイト・マネージャは、コンテンツを収集して蓄積することができ、配信ネットワーク1(106)として示す配信ネットワークによるコンテンツの配信をスケジューリングすることができる。配信ネットワーク1(106)は、ナショナル・センターから1つまたは複数の地域またはローカル・センターへの衛星リンク伝送を含むことができる。配信ネットワーク1(106)は、無線(over the air)放送、衛星放送またはケーブル放送などのローカル配信システムを用いたローカル・コンテンツ配信を含むこともできる。ローカルに配信されたコンテンツは、ユーザの家庭内の受信装置108に供給され、その後、そこでユーザによって検索される。受信装置108は、多数の形態をとることができ、セット・トップ・ボックス/ディジタル・ビデオ・レコーダ(DVR)、ゲートウェイ、モデムなどとして実施することができることを理解されたい。さらに、受信装置108は、ホーム・ネットワーク内のクライアント装置またはピア装置として構成された別の装置を含むホーム・ネットワーク・システムのエントリ・ポイントまたはゲートウェイとして作用することができる。
コンテンツの第2の形態は、特殊コンテンツと呼ばれる。特殊コンテンツとしては、例えば映画、ビデオ・ゲームまたはその他のビデオ要素など、放送アフィリエイト・マネージャに供給されないプレミアム・ビューイング・コンテンツ、ペイ・パー・ビュー・コンテンツまたはその他のコンテンツとして配信されるコンテンツが挙げられる。多くの場合には、特殊コンテンツは、ユーザから要求されたコンテンツとすることができる。特殊コンテンツは、コンテンツ・マネージャ110に配信することができる。コンテンツ・マネージャ110は、インターネット・ウェブサイトなど、例えばコンテンツ・プロバイダ、放送サービスまたは配信ネットワークサービスと提携したサービス・プロバイダとすることができる。コンテンツ・マネージャ110は、インターネット・コンテンツを配信システムに組み込むこともできる。コンテンツ・マネージャ110は、別個の配信ネットワークである配信ネットワーク2(112)を介してユーザの受信装置108にコンテンツを配信することができる。配信ネットワーク2(112)は、高速放送インターネット型通信システムを含むことができる。放送アフィリエイト・マネージャ104からのコンテンツを、配信ネットワーク2(112)の全体または一部を使用して配信することもできること、およびコンテンツ・マネージャ110からのコンテンツを、配信ネットワーク1(106)の全体または一部を使用して配信することもできることに留意することは重要である。さらに、ユーザは、必ずしもコンテンツ・マネージャ110によって管理されたコンテンツに限らず、配信ネットワーク2(112)を介してインターネットから直接コンテンツを取得することもできる。
別個に配信されたコンテンツを利用するためのいくつかの改変が可能である。考えられる1つの手法では、特殊コンテンツは、放送コンテンツの付加物として供給され、代替表示、購入および販売促進のオプション、機能強化マテリアルなどを提供する。別の実施形態では、特殊コンテンツは、放送コンテンツとして供給される一部のプログラミング・コンテンツと完全に置き換えられることもある。最後に、特殊コンテンツを放送コンテンツから完全に分離して、単にユーザが選んで利用することができるメディア代替物とすることもできる。例えば、特殊コンテンツは、放送コンテンツとしてはまだ利用可能になっていない映画のライブラリとすることもできる。
受信装置108は、配信ネットワーク1および配信ネットワーク2の一方または両方から、様々なタイプのコンテンツを受信することができる。受信装置108は、コンテンツを処理し、ユーザの好みおよびコマンドに基づいてコンテンツの分離を行う。受信装置108は、ハード・ドライブまたは光ディスク・ドライブなど、オーディオ・コンテンツおよびビデオ・コンテンツを記録および再生するための記憶装置を含むこともできる。受信装置108の動作についてのさらなる詳細、および記憶したコンテンツの再生に関連する特徴について、図2との関連で、以下で述べる。処理後のコンテンツが、ディスプレイ装置114に供給される。ディスプレイ装置114は、従来の2D型ディスプレイであってもよいし、あるいは最新の3Dディスプレイであってもよい。
受信装置200の実施形態を示すブロック図を、図2に示す。受信装置は、図1で述べた受信装置108と同様に動作することができ、ゲートウェイ装置、モデム、セット・トップ・ボックスまたはその他の同様の通信装置の一部として含めることができる。図示の装置200は、ディスプレイ装置(114)自体を含むその他のシステムに組み込むこともできる。何れの場合も、システムの動作を完了するために必要ないくつかの構成要素は、当業者には周知であるため、簡略にするために図示していない。
装置200において、コンテンツは、入力信号受信器202で受信される。入力信号受信器202は、無線ネットワーク、ケーブル・ネットワーク、衛星ネットワーク、イーサネット(登録商標)・ネットワーク、ファイバ・ネットワーク、電話回線網など、いくつかの可能なネットワークのうちの1つを介して供給される信号を受信し、復調し、復号するために使用されるいくつかの既知の受信器回路のうちの1つとすることができる。入力信号受信器202では、制御インタフェース(図示せず)を介して与えられるユーザ入力に基づいて、所望の入力信号を選択し、取り出すことができる。復号された出力信号は、入力ストリーム・プロセッサ204に供給される。入力ストリーム・プロセッサ204は、最終的な信号の選択および処理を実行するものであり、コンテンツ・ストリームのオーディオ・コンテンツからのビデオ・コンテンツの分離も含む。オーディオ・コンテンツは、オーディオ・プロセッサ206に供給されて、圧縮ディジタル信号などの受信時のフォーマットからアナログ波形信号に変換される。アナログ波形信号は、オーディオ・インタフェース208に供給され、さらにディスプレイ装置114またはオーディオ増幅器(図示せず)に供給される。あるいは、オーディオ・インタフェース208は、高精細度マルチメディア・インタフェース(HDMI(登録商標))ケーブルまたはソニー/フィリップス・ディジタル相互接続フォーマット(SPDIF)などの代替のオーディオ・インタフェースを用いて、ディジタル信号をオーディオ出力装置またはディスプレイ装置に供給することもできる。オーディオ・プロセッサ206は、オーディオ信号を記憶するために必要な任意の変換も実行する。
入力ストリーム・プロセッサ204からのビデオ出力は、ビデオ・プロセッサ210に供給される。ビデオ信号は、いくつかのフォーマットのうちの1つとすることができる。ビデオ・プロセッサ210は、必要に応じて、入力信号フォーマットに基づいてビデオ・コンテンツの変換を行う。ビデオ・プロセッサ210は、ビデオ信号を記憶するために必要な任意の変換も実行する。
記憶装置212は、入力で受信したオーディオ・コンテンツおよびビデオ・コンテンツを記憶する。記憶装置212によって、コントローラ214の制御下で、また例えばユーザ・インタフェース216から受信した早送り(FF)や巻戻し(Rew)などのナビゲーション命令などのコマンドに基づいて、コンテンツの後に取り出したり再生したりすることが可能になる。記憶装置212は、ハード・ディスク・ドライブ、スタティックRAM(SRAM)やダイナミックRAM(DRAM)などの1つまたは複数の大容量一体型電子メモリとすることができ、あるいはコンパクト・ディスク(CD)ドライブやディジタル・ビデオ・ディスク(DVD)ドライブなどの交換可能光ディスク記憶システムとすることができる。
ビデオ・プロセッサ210からの変換後のビデオ信号は、入力から得られたものであっても記憶装置212から得られたものであっても、ディスプレイ・インタフェース218に供給される。ディスプレイ・インタフェース218は、さらに、上述のタイプのディスプレイ装置にディスプレイ信号を供給する。ディスプレイ・インタフェース218は、赤/緑/青(RGB)などのアナログ信号インタフェースであってもよいし、HDMI(登録商標)などのディジタル・インタフェースであってもよい。ディジタル・インタフェース218は、以下でさらに詳細に述べるように、検索結果を3次元グリッドで表現する様々な画面を生成することを理解されたい。
コントローラ214は、バスを介して、入力ストリーム・プロセッサ202、オーディオ・プロセッサ206、ビデオ・プロセッサ210、記憶装置212およびユーザ・インタフェース216など、装置200の構成要素のいくつかと相互接続される。コントローラ214は、入力ストリーム信号を記憶装置への記憶または表示に適した信号に変換する変換プロセスを管理する。コントローラ214は、記憶したコンテンツの取出しおよび再生も管理する。さらに、以下で述べるように、コントローラ214は、上述の記憶されたコンテンツまたは配信ネットワークを介して配信されるコンテンツの検索、ならびにコンテンツを表現するグリッド・ディスプレイの生成および調整も実行する。コントローラ214は、さらに、コントローラ214のための情報および命令コードを記憶する制御メモリ220(例えば、RAM、SRAM、DRAM、ROM、プログラマブルROM(PROM)、フラッシュ・メモリ、電気的プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)などの揮発性メモリまたは不揮発性メモリなど)に結合される。さらに、メモリの実施態様には、単一のメモリ装置、あるいは通信可能に接続または結合されて1つの共用または共通のメモリとなる複数のメモリ回路など、いくつかの可能な実施形態が含まれる。さらに、メモリは、バス通信回路の一部などその他の回路とともに、さらに大きな回路に含めることもできる。
効果的な動作のために、本開示のユーザ・インタフェース216は、ディスプレイにおいてカーソルを移動させる入力装置を利用している。ユーザの体験をさらに向上させ、映画ライブラリなどのデータベースの表示およびそのナビゲーションを容易にするために、図3(a)に示すように、タッチ・パネル装置300は、受信装置108とインタフェースをとることができる。タッチ・パネル装置300により、パネルを通してセット・トップ・ボックス用のコマンドに変換される手の動きまたはジェスチャおよびアクションに基づいて、受信装置またはセット・トップ・ボックスを操作することが可能になる。一実施形態では、タッチ・パネル300は、単にナビゲーション・ツールとして機能して、グリッド・ディスプレイをナビゲートすることができる。他の実施形態では、タッチ・パネル300は、さらにディスプレイ装置として機能して、ユーザがコンテンツのグリッド表示を通してさらに直接的にナビゲーションと対話できるようにする。
あるいは、以下で述べるように、マウス装置、ナビゲーション機能を備えたリモート・コントローラ、またはジェスチャ式のリモート・コントローラを使用することもできる。
ユーザ・インタフェース・コントローラは、ユーザ・インタフェース216の一部またはコントローラ214の一部として、受信装置200に含めることができる。ユーザ・インタフェース・コントローラは、データベース中のコンテンツを表すグリッドを介した表示およびナビゲーションならびにコンテンツのビデオ表示に有用な機能を内蔵している。ユーザ・インタフェース、さらに詳細にはグリッド・ユーザ・インタフェース要素は、グラフィックを操作するためのスクリプティングまたはプログラミング機能を含むビデオ・メディア・プレイヤ・インタフェースに組み込まれる。ビデオ・メディア・プレイヤおよびインタフェースは、受信装置200において、ハードウェア、ソフトウェアまたはファームウェアの任意の組合せを用いて実装することができる。あるいは、コントローラおよびビデオ・ディスプレイの動作の一部を、タッチ・パネル装置300に含め、ホーム・ネットワークを介して伝送される情報の一部とすることもできる。
別の実施形態では、入力装置は、ジャイロスコープまたは加速度計など、ユーザがスクリーンまたはディスプレイにおいて自由にカーソルを動かすことができるようにする、ある形態の動き検出器を備えたリモート・コントローラである。例示的な手持ち型角度感知リモート・コントローラ301を、図3(b)に示す。リモート・コントローラ301は、ユーザの親指で選択的に作動されるようにコントローラ301の上側に位置決めされた親指ボタン302を含む。親指ボタン302の作動は、「クリック」とも呼ばれる。「クリック」は、選択された機能の作動または開始にしばしば関連するコマンドである。コントローラ301は、ユーザの人差し(または「トリガ」)指で選択的に作動されるようにコントローラ301の下側に位置決めされたトリガ・ボタン304をさらに含む。トリガ・ボタン304の作動は、「トリガ」とも呼ばれ、トリガを押した状態でコントローラ301を角運動(すなわちピッチ、ヨーおよび/またはロール)させることを、「トリガ・ドラッグ」と呼ぶ。トリガ・ドラッグ・コマンドは、カーソル、仮想カーソル、または状態変化などのディスプレイ上のユーザの対話位置を示すその他の指標(すなわちハイライト付きまたは白抜きのセル)の動きとしばしば関連し、一般に、対話ディスプレイにおいてエントリをナビゲートして選択するために使用される。さらに数字および/または文字を入力するために複数のボタン306が設けられている。一実施形態では、これらの複数のボタン306は、電話型のキーパッドと同様に構成されている。
図3(b)に示すコントローラ301などの手持ち型角度感知リモート・コントローラを使用することにより、いくつかのタイプのユーザ対話が実現できる。角度感知コントローラを使用するときには、ヨーの変化は左右方向の運動にマッピングされ、ピッチの変化は上下方向の運動にマッピングされ、ロールの変化はコントローラの長手方向軸に沿った回転運動にマッピングされる。これらの入力を使用してジェスチャを定義し、これらのジェスチャが、特定の文脈コマンドを定義する。従って、ヨーとピッチの組合せを使用して、斜め運動など任意の2次元運動を定義することができ、ヨーとピッチとロールの組合せを使用して、揺動など任意の3次元運動を定義することができる。いくつかのジェスチャを、図3に示す。ジェスチャは、状況内で解釈され、トリガ・ボタン304を押さえた状態でのコントローラ301の定義された運動(「トリガ・ドラッグ」運動)によって識別される。
バンピング320は、上、下、左または右の何れか1方向を指すように2行程の線引きを行う動作によって定義される。バンピング・ジェスチャは、状況内で特定のコマンドと関連付けられる。例えば、タイム・シフト・モードでは、左バンプ・ジェスチャ320は巻戻しを示し、右バンプ・ジェスチャは早送りを示す。他の状況では、バンプ・ジェスチャ320は、バンプが示す方向に特定の値を増分させるものと解釈される。チェッキング330は、図面では、チェックマークとして定義してある。これは、下向きのバンプ・ジェスチャ320と同様である。チェッキングは、文脈内で、リマインダまたはユーザタグを示す、あるいは項目または要素を選択するものとして識別される。サークリング340は、何れか1方向に円を描く動作として定義される。両方向を区別することができることもある。ただし、混乱を避けるために、1つの円は、方向にかかわらず1つのコマンドとして識別される。ドラッギング350は、トリガ・ボタン304を押さえた状態(すなわち「トリガ・ドラッグ」)でのコントローラの角運動(ピッチおよび/またはヨーの変化)として定義される。ドラッギング・ジェスチャ350は、ナビゲーション、速度、距離、タイムシフト、巻戻し、早送りに使用される。ドラッギング350は、カーソルまたは仮想カーソルを移動する、あるいはディスプレイ上でハイライト、白抜きまたは選択を行うなど状態を変化させるために使用することができる。ドラッギング350は、何れの方向に行ってもよいが、一般的には、2方向にナビゲートするために使用される。ただし、特定のインタフェースでは、ドラッギング・コマンドに対する応答に修正を加えることが好ましい。例えば、いくつかのインタフェースでは、仮想カーソルの位置または移動の方向によっては、1次元または1方向の動作が、他の次元または方向より優先される。ノッディング360は、上下方向のトリガ・ドラッグ運動を素早く2回行う動作として定義される。ノッディング360は、「イエス」または「受容」を示すために使用される。クロッシング(X−ing)370は、文字「X」を描く動作として定義される。クロッシング370は、「削除」または「ブロック」コマンドに使用される。ワギング380は、水平方向前後にトリガ・ドラッグ運動を素早く2回行う動作として定義される。ワギング・ジェスチャ380は、「ノー」または「取消し」を示すために使用される。
ビデオ再生のための従来のコントローラに加えて、入力装置は、ディスプレイまたはスクリーン上で選択された任意の要素に対する少なくとも3つの別個のオプションを呼び出す、または実行する機構も含む。これらのオプションは、「追加情報」、「再生」および「追加検索」と呼ばれる。「追加情報」機能は、現在選択されている要素についてのさらなる情報を表示するために使用される。「再生」機能は、選択されている要素について利用可能である場合には、その要素を再生のために選択するものであり、コンテンツの購入などのために2次ユーザ・インタフェースが必要になる場合もある。「追加検索」機能は、1つの新たなコンテンツ・セット全体を生成して選択された要素によって定義される基準に基づいてスクリーン全体を更新することになる追加のさらに高度な検索のソースとしてユーザが任意の要素を使用できるようにする機構を表す。これら3つのオプションは、例えばタッチ・パネル300上の既定のジェスチャまたは新たなジェスチャと関連付けることができる、あるいは各オプションを例えばリモート・コントローラ301の複数のボタン306のうちの所定のボタンに割り当てることができることを理解されたい。
図1から図3との関連で上述した構成要素のうちの少なくともいくつかが、ユーザ・インタフェースを生成する装置および/またはシステムを形成することを理解されたい。
図4は、本開示のグリッド・ディスプレイの表示およびナビゲーションの特徴に関するユーザ・インタフェースの動作を示すグラフィックの流れ図である。最初に、ステップ402で、放送ソースまたは管理特殊ソースからのビデオ・コンテンツ401を表示することができる。ステップ404で、ビデオ・スクリーン上でタッピングなどによって選択することにより、インタフェースのメイン・メニューの入力を行うことができる。メイン・メニュー画面は、いくつかのユーザ情報要素403を含むことができ、また、直前のビデオ・コンテンツ401を依然として表示しているディスプレイの一部分を含んでいてもよい。ビデオ・コンテンツは、引き続き再生されていてもよいし、一時停止モードになっていてもよい。
コンテンツ・ライブラリへのナビゲーションは、所望のボタンをタッピングなどによって選択することによって検索ボタン、閲覧ボタンまたは推奨ボタンを使用することを含むことがある。ステップ406で、検索または推奨ボタンを選択して、ライブラリまたはデータベース内の特定のオブジェクトの線形表示構造405にアクセスするが、この選択は、俳優、ジャンルまたはタイトル基準など、データベースの有効範囲サイズを制限する検索または推奨機能の追加基準を含む。線形グリッド405は、ライブラリへのアクセスに制限が課され、検索可能なコンテンツが減少するので、これらのアクセス機能ではさらに有用であることがある。
ステップ408で、ナビゲーション・ツールとして閲覧機能を選択して、コンテンツ選択のための別個の2次元グリッド・ディスプレイ407を引き出す(pull up)。閲覧機能は、ライブラリまたはデータベース全体へのアクセスを可能にするもので、データベースのナビゲーションにおける制限が非常に少ない。グリッド・ディスプレイ407およびライブラリまたはデータベースのナビゲーションについては、以下でさらに詳細に述べる。ステップ410で、以前の機能の動作のうちの1つによってハイライトまたは拡大されている状態で、コンテンツ表示からある要素を(例えばタッピングによって)入力または選択すると、選択されたコンテンツエントリについてのさらなる詳細を与える詳細画面が開く。この詳細画面も、コンテンツを再生または実行する、借りる、記録する、または購入する追加オプション、ならびに上述の以前のコンテンツ・ナビゲーション機能に戻るオプションを与える。
図5は、本開示の特徴を用いたグリッド・ディスプレイ500の実施形態を示す詳細図である。グリッド・ディスプレイ500は、図4に示すグリッド・ディスプレイ407の動作と同様に動作する。グリッド・ディスプレイ500は、ディスプレイ装置114に表示することができ、上述のタッチ・パネル300またはその他のナビゲーション装置を用いて操作またはナビゲートすることができる。インタフェース画面は、遠隔ディスプレイとしてタッチ・パネル装置300に表示して、ユーザがコンテンツのグリッド・ディスプレイを通してより直接的にナビゲーションと対話できるようにすることもできる。
グリッド・ディスプレイ500は、2次元格子状に配列された、いくつかのグラフィック要素502で構成される。この2次元グリッドは、複数の行および複数の列を含むことができる。あるいは、1つまたは複数の中心点の周囲の放射状パターンまたは楕円パターンなど、その他の何らかの2次元パターン構成を含むことができる。一実施形態では、全ての要素が1つの連続単位として一緒に動く。各グラフィック要素502は、図7との関連で以下で述べる制御ソフトウェア中のモデルと呼ばれる、コンテンツのライブラリまたはデータベースからの1つのデータ・エントリの位置を表す。例えば、グリッド・ディスプレイ500は、映画のポスターを表すグラフィック要素を含む。書籍のカバーやアルバムまたはCDのカバーなどを表すグラフィック要素を示すグリッド・ディスプレイを使用することもできる。現在の項目504は、この場合、例えばその要素を拡大してビュー領域の中央に配置するなど、その項目の見た目を調整することによってハイライトされている。ユーザ入力に応答してある項目がハイライトされると、そのグラフィック要素に関連する特定のコンテンツに関係するグラフィック要素によって、追加情報を与えることができる。さらに、さらなるユーザ入力に応答して、例えば映画なら再生する、ゲームならロードする、ウェブ・サイトなら起動するなど、そのグラフィック要素に関連する特定のコンテンツを実行することができる。
グリッド・ディスプレイは、追加のオプションおよび文脈を複数の次元で与えるために、スクリーン有効領域(screen real−estate)または表示領域を利用する。グリッド・ディスプレイのナビゲーションは、単一の次元(通常は水平方向)に制約されない。例えば映画コンテンツやオーディオ・コンテンツなど、グリッド内のデータは、任意に、または明示的に2次元空間内で構成することができる。明示的に構成されるときには、データまたはグラフィック要素502は、そのグラフィック要素に関連する特定のコンテンツに関係する少なくとも1つの変数に従って構成される。例えば、行が英数字構成を表し、列がジャンルを表すというようにすることもできる。
任意の要素502は、1つの記録されたコンテンツの中の定義されたフレーム、ネットワークまたはユーザから供給された、あるいはそのコンテンツに手作業または自動で割り当てられた汎用要素のライブラリから供給された画像など、特定のコンテンツを表す画像で構成することができる。これらの要素は何れも、その要素自体に重ねた、またはその要素自体とともに表示されたテキスト、および/あるいはコンテンツのタイプを示すそれより小さな追加要素によって補足することができる。例えば、図1に示す受信装置108などの受信装置にローカルに記憶されたコンテンツを表す要素は、コンテンツ自体を表す大きな画像の右下隅にあるディスク・ドライブの小さな要素とともに提示することができる。要素は、それらが表すコンテンツのタイプがユーザに明白に分かるだけの詳細が与えられるように構成される。また、要素は、現在放送チャネルで再生されているコンテンツの要素を含むなど、ある程度まで、または完全に、動的に作成することもできる。例えば、最近放送されたビデオのシーンから要素を動的に(ローカルで、またはネットワークからの配信によって)生成し、それを現在放送されているチャネルを示すロゴまたは何らかの指標と組み合わせることができる。この場合、ユーザは、多数のチャネルで現在放送されているものが一目で分かる。
図6は、本開示の特徴を用いたグリッド・ディスプレイにおけるユーザによる動作およびナビゲーションを示す図である。図6に示すグリッド・ディスプレイ600との対話について、図3(a)に示すタッチ・パネル装置300と関連付けて説明する。タッチ式または容量感度型パネル上またはその上方でユーザの手によって行われるジェスチャは、メッセージに変換され、図1に示すように、ホーム・ネットワークなどのネットワークを介して受信装置108に通信される。これらのメッセージは、タッチ・パネル装置内のコントローラによって、セット・トップ・ボックスまたは受信装置が処理する変化に変換される。なお、これらの変化を生み出すメッセージを、コンテンツ・ライブラリを表す物理的データ構造(モデルとして知られている)および本実施態様の表示構造(ビューとして知られている)部分の中で様々な効果を生じるように受信装置108が解釈することができることに留意することは重要である。
一例として、図3(a)に示すようにタッチ・パネル上で左下から右上へのドラッグ運動を開始すると、グリッド600の要素は、図6に示すように、位置Bにある項目(要素602)が右上に移動してディスプレイ装置のスクリーンから外れ、位置Aにある項目(要素604)によって取って代わられ、さらに、位置Cにある項目(要素606)が位置Aに移動するように移動する。さらに、移動は、滑らかに移行するようにディスプレイ上でアニメーション化することができる。ビューの物理学的特徴を向上させるために運動量の効果を適用することもできる。例えば、ジェスチャが行われる速度を、表示がグリッドおよび/またはグリッド・ディスプレイ上で移動する距離に変換することができる。
なお、タッチ・パネル・インタフェースは、この装置またはシステムへの入力に使用することができる複数の可能な入力装置のうちの1つに過ぎないことに留意することは重要である。例えば、図3(b)に示す手持ち型角度感知コントローラを使用して、いくつかのタイプのユーザ対話を行うことができる。
図7は、本開示の特徴を用いたグリッド・ディスプレイの実施態様を示す状態制御図である。このグリッド・ディスプレイおよびインタフェースの実施態様は、モデル・ビュー・コントローラ(MVC)符号化構造に従う。モデル部分702またはデータベース・ライブラリは、全データのセットを保持し(または全データのセットにアクセスすることができ)、仮想x/y座標704を、2次元行列状に配列された特定のデータ項目と相関させる。モデル部分702は、仮想座標に基づいて(理想的には選択された項目がビュー内に生成されたときにセンタリングして)データベース内の現在選択されている項目706をトラッキングする。コントローラ部分708は、マウスおよびその他のメッセージ710(例えば遠隔入力装置からのメッセージ)を、x/y座標の相対変化に変換し、このx/y座標の相対変化がモデルに提示され、モデルが、その仮想位置704を更新する。ビュー部分712は、モデル702からのイベントに加入し、更新に基づいてディスプレイのグリッドを生成する。ビュー部分712は、位置更新および項目詳細更新を含む。
さらに、この実施態様は、ジェスチャ対話を用いるタッチ・パネルなどの遠隔入力装置の制御インタプリタを含むこともできる。遠隔入力装置からのメッセージは、インタフェース・ソフトウェアおよび/またはハードウェアを介して実施されたグリッド・ディスプレイに通信され、コントローラ708によって解釈されて、モデル702に入力される。
グリッド・ディスプレイおよびインタフェースの表示を最適化する方法について、図8から図13との関連で述べる。
最初に、ステップ802で、グラフィック要素のデータベース中の項目の総数を決定する。データまたはグラフィック要素は、仮想空間中の2次元グリッドと相関がある2次元アレイ状に配列される。仮想空間の範囲は、個々のグリッド要素の高さおよび幅とデータセット中のデータの行および列の数の積によって決まる。さらに、データセットは、水平次元および垂直次元に対称に配列しなくてもよい。データセット中の各データ項目は、画像、タイトル、評価、ユニフォーム・リソース・ロケータ(URL)、および上記の例では長編映画である特定のコンテンツに関係のあるその他のメタデータのうちの少なくとも1つを含む。
図9は、本開示の特徴を用いたデータ構造900の実施形態を示す図である。データ構造900は、表示用のパターンに基づいて配列された複数のデータ要素のアレイを含むことができる。例えば、データ構造900は、80列×80行(行の寸法と列の寸法は同一でなくてもよい)のアレイ状にデータ要素が配列された、6400個の項目からなるデータセットを含むことができる。
データ構造900は、ディスプレイ上の表示領域とアレイを関係付ける際の各データ要素902の2次元指標付けを示す。実施形態の例示として、グリッドの仮想寸法が80×80個の要素であり、その各要素が150×200画素を有する場合には、12,000×16,000画素の仮想空間が得られる。本開示の方法は、12,000×16,000画素の平面内の6400個の項目全ての画像をロードするのではなく、ステップ804で、その空間全体の一部のみ、すなわちグラフィック要素の第1のサブセットのみを生成する。これは、ステップ806で、グリッドの隣接する領域への滑らかなナビゲーションをサポートするのに十分なキャッシュを容易にするために可視領域に追加境界領域を加えた領域を構成する「ウィンドウ」を、データセットに対して選択することによって行われる。図10は、可視領域1004の周りの1つの要素境界1002を示す図である。以下でさらに詳細に述べるように、境界1002内の要素1001は全て生成されるが、領域1004内の要素1003のみが可視である。スクリーンの全幅に及ぶ素早いジェスチャの動きに対応するために任意の方向のスクリーン全体分の情報を捕捉することが望ましい場合には、境界領域1002を拡大することもできる。
データ(画像など)のロードの優先順位を確立することができる。画像は、中心から外向きに境界1002の縁部に向かう順序でロードするものとする。移動の方向が既知であるので、ビューから出て行く要素よりビューに入ってくる要素が優先されるように画像ロードの優先順位に重み付けする。図10は、可視領域1004、境界領域1002および非生成仮想データ空間1006をさらに示す。生成された視覚要素は、AA(要素1001)、BA(要素1005)などとラベル付けされる。仮想データ空間1006内の例えば要素1007などのグラフィック要素は生成されないが、コンテナまたはプレースホルダに指定されることを理解されたい。ユーザ入力に応答して要素1007が領域1002に進入すると、コンテナがロードされ、これに関連するグラフィック要素がロードまたは生成される。
ステップ808で、グラフィック要素の第1のサブセットの一部分が表示される。図10に示すように、可視領域1004内の要素は生成され、ディスプレイ上で可視であるが、事前に生成された境界領域1002内の要素は、生成されるが、ディスプレイ上で可視ではない。ステップ810で、ユーザ入力に応答して、第1のサブセット中の少なくとも1つのグラフィック要素の位置を、ディスプレイ上の中心点に調整し、ステップ812で、この少なくとも1つのグラフィック要素とともにグラフィック要素の第2のサブセットを中心点に表示する。要素を動かすときに、境界領域1002内の要素は既に生成されているので、可視領域1004内に素早く出現することを理解されたい。例えば、ユーザが要素CE(37、25)を選択し、この要素を左上にドラッグした場合には、少なくとも要素GC(41、23)は境界領域1002内に移動して、可視領域から出ることになる。さらに、少なくとも要素AG(35、27)は、境界領域1002から可視領域1004に移動するが、要素AGは既に生成されており、境界領域に隠れていたので、その遷移はシームレスに見える。
縁部または隅部のデータに近づいた場合など、特別な例外を取り扱うこともできる。グリッド・ディスプレイは、縁部を超えたナビゲーションを避けるように構成されるものとする。縁部の終端位置は、理想的には、図11に示すようにビューの中心にある(且つ選択された項目として強調される)ものとする。ここで、要素1、1(要素1101)は、可視領域1004の中心にある。ユーザが要素1、1(要素1101)を選択し、ディスプレイの右下隅に向かう方向に移動させようとしても、全ての要素は同じ位置に留まる、すなわち固定されている。このように、ユーザ入力がブランク画面を生じることはない。
図12は、本開示の特徴を用いたグリッド・ディスプレイにさらに大きなデータベースまたはライブラリの一部分を表示する最適化プロセスを示す流れ図である。この最適化では、必要に応じて視覚要素の割当ておよび割当て解除を行うのではなく、視覚要素を再利用する。ステップ1202で、この方法が開始され、ステップ1204で、変化に基づいて、すなわちユーザ入力に応答して要素を位置決めする。ステップ1206で、この要素の位置が境界領域1002を超えるかどうかを判定する。表示要素が事前に生成された境界領域1002の外側に移動するときには、ステップ1208で、この要素を、境界領域の反対側の縁部まで移動させる。ステップ1210で、ビュー要素は、仮想空間内の新たな位置に関するデータについてモデルに問い合わせる。仮想空間位置は、実際の表示座標による現在の仮想位置のずれによって決まる。
図13は、データベースまたはライブラリとともに表示要素のウィンドウをシフトさせるユーザ入力に対する応答に続いて起こるグリッド・ディスプレイ内の表示要素の移動の例示的な実施形態を示す図である。このディスプレイ図は、グリッドを対角線方向に移動させたときに右上側にある視覚要素がどのように左下側にシフトしてスペースを埋めるかを示している。例えば、右側の要素IB1302は、その物理的位置を左側のIB’1304にシフトする。この遷移の一部として、視覚要素はモデルに問い合わせて、この新しい仮想位置(IB’1304の場合にはデータ要素34、22となる)に関するデータを取得する。視覚要素IA1306の場合には、実際には2つの移動がある。すなわち、右から左に移動してIA’1308に移る移動と、上から下に移動して最終位置IA’’1310に移る移動である。このようにして、要素は、境界領域1002に移動するときには、境界領域内の別の位置に移動するので、その背後にある、データまたはグラフィック要素のコンテナまたはプレースホルダをアンロードする必要はない。コンテナは再利用されるが、新たなコンテナをロードしなければならないよりもリソース負荷の低いグラフィック要素だけはロードする必要がある。
本開示のグリッド・ディスプレイを使用して、数百、さらには数千の項目、例えば映画などのコンテンツを閲覧することができる。各要素の視覚要素を生成すると、プロセッサ負荷が高くなる可能性がある。本開示の技術は、より大きな仮想情報空間をナビゲートしているような錯覚を維持しながら、グリッド・ディスプレイ・ビューを生成するために必要な表示要素の数を最小限に抑えることができる。
上述のようにタッチ作動可能スクリーンを備えたビデオ・ディスプレイを操作するために使用することができるソフトウェア・コードの実施形態は、仮特許出願第61/515,578号およびPCT/US2010/049772号に見ることができる。このソフトウェア・コードは、本明細書に教示する様々な本発明の特徴を可能にして実施する手段を表しているが、前述の様々な本発明の特徴は、PCT/US2010/049772号が出願された時点では既知ではなかった。このソフトウェア・コードは例示であり、当業者なら、本明細書に教示する本発明の特徴を実施するためのその他のソフトウェア・コードも開発することができることを理解されたい。従って、記載のソフトウェア・コードは、当業者には理解されるものと考えられるので、本明細書で繰り返し述べる必要はない。
ここまでに述べたのは、利用可能なコンテンツを表す要素のデータベースまたはライブラリを表示してナビゲートする装置および方法である。これらの要素は、アルバムのカバーや映画のポスターなどの画像オブジェクトとすることができる。この構造では、これらのオブジェクトを、ナビゲーションのためにディスプレイの2つの次元、すなわち垂直次元および水平次元を利用するグリッド・ディスプレイ内に配列する。このユーザ・インタフェースに関連するナビゲーションの特徴は、カバー・グリッドの表示の変化に変換されるジェスチャによる動きを含む。表示要素の数が最小限に抑えられ、且つ全データセット内の項目の数に依存しないように、またデータベース内のナビゲーションが表示部分の視認性の点で滑らか且つ効率的になるように実施されるグリッド・ディスプレイの見た目を最適化することについて述べた。
例示を目的としたものであり、制限を目的としたものではない、グリッド・ナビゲーションの装置、方法およびユーザ・インタフェースの現在好ましい実施形態について述べたが、当業者なら、上記の教示に照らして修正および変更を加えることができることに留意されたい。
タッチ・スクリーンを備えたビデオ・ディスプレイ装置のための新たなユーザ・インタフェースおよび表示システムは、第1のビデオ・コンテンツを見ている間に、第2の、または好みのビデオ・コンテンツをピーキングする、すなわち短い時間だけ見ることを可能にする。ビデオ・ピーキング中には、第2のビデオ・ソースからのビデオは、現在見ているビデオの一部分を部分的に追い出して一時的に置き換わるように見える。その他のビデオ・ソースの選択は、例えば、1本、2本、3本または4本の指または指先でスワイプし、ビデオ・ディスプレイの縁部の何れか1つから内側にスワイプすることによって、制御することができる。さらに、現在見ているビデオを、ピーキングしているビデオと入れ替えることができる。
基本的なタッチ・スクリーン動作を超えるビデオ・ピーキングの特徴に関係する関心のある特許、公開出願および論文には、以下が挙げられる。米国特許第7864163(B2)号。この文献は、複数のコンテンツ・ボックスを含む構造化電子文書の少なくとも一部分をタッチ・スクリーン・ディスプレイに表示し、構造化電子文書の表示部分のある位置における第1のジェスチャを、その複数のボックスのうち第1のジェスチャの位置にある第1のボックスが決定されるように検出することに関する。タッチ・スクリーン・ディスプレイ上の第1のボックスは、その後拡大され、ほぼ中心に位置決めされる。米国特許出願公開第2010077433(A1)号。この文献は、加入テレビジョン・サービスからの番組コンテンツをディスプレイに表示し、ディスプレイ上でマルチパネル閲覧モードを開始する信号を受信する方法に関する。この方法は、ディスプレイ上にマルチパネル・ビューを表示することを含む。マルチパネル・ビューは、番組コンテンツを備えたパネルと、サーバから受信したトップ番組(top program)情報に基づくトップ番組を備えたパネルとを含む。マルチパネル・ビューに含まれる追加のパネルは、加入テレビジョン・サービスから入手できる対話型ゲームまたはその他のコンテンツを含むことができる。米国特許出願公開第2003126605(B1)号。この文献は、EPGのグリッド・ガイドを閲覧して番組タイトルがハイライトされたセルまでナビゲートし、そのハイライトされたセルに所定の遅延時間だけ留まった後で、ビデオ・クリップ・プレビューを自動的に起動することによってビデオ・クリップ・プレビュー・オン・デマンドを提供する電子番組ガイド(EPG)を読み込むように設計された対話型テレビジョン・システムに関する。この表示プロセスは、閲覧中に視聴者が選択を行うことを必要としない、「非接触表示」プロセスである。「INDIRECT MULTI−TOUCH INTERACTION FOR BRUSHING IN PARALLEL COORDINATES」、Kosara,R.、ノースカロライナ大学、VISUALIZATION AND DATA ANALYSIS 2011、7868:2011、SPIE−INT SOC OPTICAL ENGINEERING。この文献は、スクリーンを直接使用するのではなく、マルチタッチ・トラックパッドを使用して、ユーザの手が対話中に視覚化の妨げにならないようにすることにより、マルチタッチ対話を使用して平行座標との高速で便利な対話を実現することに関する。ユーザはトラックパッド上で1本、2本、3本または4本の指を使用して、データセットにおける複雑な選択を実行する。
ビデオ・ピーキングのための本発明の構成は、例えば、ピクチャ・イン・ピクチャ(PIP)機能を大幅に改良したものである。これは、PIPピクチャの方がはるかに小さいために解像度が低く、またPIPピクチャを大きくすると、1次ビデオ・ソースまたはメイン・ピクチャの相対的な完全性が損なわれるからである。また、ピクチャ・イン・ピクチャ機能は、ビデオ・ディスプレイの側面から内向きに流れるように見える2次ビデオ・ソースのビデオには対応しておらず、2次ビデオ・ソースのビデオが反対方向に流れて自動的に消えることもない。それどころか、PIPの表示をオン/オフするには、リモート・コントローラをそれぞれ別に操作しなければならない。一般に、ピクチャ・アウトサイド・ピクチャ(POP)機能にも、同じ欠点がある。
本発明の構成によるユーザ・インタフェースは、タッチ作動可能スクリーンと、スワイプ動作の方向の違い、スワイプ動作の長さの違い、およびスワイプ動作の幅の違いのうちの少なくとも1つまたは複数を区別することも含めて、前記スクリーンの複数の領域を横切るスワイプ動作を検出することができるタッチ・スクリーン・プロセッサと、第1のビデオ画像を選択的に前記スクリーンに供給し、複数のその他のビデオ画像のうちの少なくとも1つを選択的に前記スクリーンに供給するビデオ信号プロセッサとを含み、前記複数のその他のビデオ画像のうちの前記少なくとも1つは、前記スクリーンを横切るスワイプ動作が所与の範囲の方向、所与の範囲の長さおよび所与の範囲の幅で発生したのに応答して、所与の時間間隔の間だけ選択的に前記スクリーンに供給され、前記スクリーンに供給される前記その他のビデオ画像は、前記第1のビデオ画像の一部分の代わりに表示される。
前記タッチ・スクリーン・プロセッサは、前記スワイプ動作の方向の違い、前記スワイプ動作の長さの違い、および前記スワイプ動作の幅の違いのうちの少なくとも2つを区別することも含めて、前記スクリーンの複数の領域を横切るスワイプ動作を検出することができることが好ましい。また、前記タッチ・スクリーン・プロセッサは、前記スワイプ動作の方向の違い、前記スワイプ動作の長さの違い、および前記スワイプ動作の幅の違いのそれぞれを区別することも含めて、前記スクリーンの複数の領域を横切るスワイプ動作を検出することができることも好ましい。
前記その他のビデオ画像は、前記スワイプ動作の前記方向に概ね対応するスイープ動作によって前記第1のビデオ画像の前記部分を押し出すことによって、前記スクリーンに供給されることが好ましい。前記時間間隔の最後に、前記スクリーンに供給される前記その他のビデオ画像は、前記スワイプ動作の前記方向と反対の方向に概ね対応するスイープ動作によって視野から消えることが好ましい。
全てではないとしてもほとんどのディスプレイ装置のスクリーンは、認識可能な辺を有し、前記スクリーンの各辺は、前記スワイプ動作のうちの少なくとも1つ、2つ、3つまたはそれ以上の始点である。
本明細書で教示する現在好ましい実施形態では、各スワイプ動作は、スワイプ動作の起点、スワイプ動作の幅、スワイプ動作の方向およびスワイプ動作の長さのうちの少なくとも1つまたは複数によって特徴付けられる。スワイプ動作の特徴の組合せを変えることによって、選択的にスクリーンに供給される複数のその他のビデオ画像を変えることができることが好ましい。例えば、スクリーンがほぼ長方形である場合には、スワイプ動作の幅とスワイプ動作の方向の異なる組合せによって、少なくとも8つの異なるビデオ・ソースのうちの何れか1つから選択されたその他のビデオ画像を与えることができる。
本発明の構成によれば、さらなる制御を行うこともできる。例えば、スワイプ動作の最後に所与の時間間隔の間だけスクリーンに対する押圧を維持することにより、第1のビデオ画像をその他のビデオ画像で置き換えることができる。あるいは、スクリーン上でその他のビデオ画像のうちの1つの表示を開始するのに必要な長さより長いスワイプ動作により、第1のビデオ画像がその他のビデオ画像のうちの1つで置き換えられる。
本発明の構成は、タッチ作動可能スクリーンを有するビデオ・ディスプレイを制御する方法であって、前記スクリーン上に第1のビデオ画像を表示するステップと、前記スクリーンの第1の領域を横切るスワイプ動作を検出するステップと、前記スワイプ動作の可能性として考えられる異なる起点、前記スワイプ動作の可能性として考えられる異なる方向、および前記スワイプ動作の可能性として考えられる異なる幅を区別するステップと、前記区別ステップに応答して複数のその他のビデオ画像のうちの少なくとも1つを選択するステップと、前記選択したビデオ画像を、所与の時間間隔の間だけ前記第1のビデオ画像の一部分の代わりに前記スクリーンに供給するステップと、前記時間間隔の満了時に前記供給ステップを終了するステップとを含む方法でも、実施することができる。
前記スワイプ動作の少なくとも1つの長さの範囲を区別するステップに関して、本発明の構成は、第1の長さのスワイプ動作が第1の長さの範囲内で起こったのを検出したのに応答して、前記供給ステップを開始すること、および第2の長さのスワイプ動作が前記第1の範囲を除く第2の長さの範囲内で起こったのを検出したのに応答して、前記第1のビデオ画像を前記選択したビデオ画像で置き換えることを含むことが好ましい。あるいは、この方法は、前記スワイプ動作以外のユーザ入力を検出したのに応答して、前記第1のビデオ画像を前記選択したビデオ画像で置き換えるステップを含むこともできる。
現在好ましい実施形態では、前記供給ステップは、前記スワイプ動作の前記方向に概ね対応する方向に前記選択したビデオ画像を移動させることによって、前記第1のビデオ画像の前記一部分を徐々に置換するステップをさらに含み、前記終了ステップは、前記スワイプ動作の前記方向とほぼ反対の方向に前記選択したビデオ画像を移動させることによって、前記選択したビデオ画像を前記第1のビデオ画像の前記一部分で徐々に置換するステップを含む。一般に、この方法は、前記複数のその他のビデオ画像のそれぞれを、前記スワイプ動作の前記可能性として考えられる異なる起点、前記可能性として考えられる異なる方向および前記可能性として考えられる異なる幅の異なる組合せと関連付けるステップをさらに含むことが好ましい。
図1から図3およびそれに付随する記述は、タッチ作動可能ユーザ・インタフェースを含むビデオ・タブレットにおいてグリッド・ナビゲーションを行う方法および装置の文脈において、ビデオ・タブレットの一般的な動作を説明するものである。
図4から図7およびそれに付随する記述は、上述の「ビデオ・ピーキング」機能を実施する方法および装置を説明するものである。
以下の図面では、全図を通して、同じ参照番号は、同じ要素を指している。
本開示によるビデオ・コンテンツを配信する例示的なシステムを示すブロック図である。 本開示による例示的な受信装置を示すブロック図である。 本開示によるタッチ・パネルを示す斜視図である。 ワイヤレス手持ち型角度感知リモート・コントローラを示す斜視図であり、リモート・コントローラを用いて行われるいくつかの例示的なジェスチャを示す図である。 本開示の実施形態による例示的なユーザ・インタフェースの動作を示すグラフィック流れ図である。 本開示のユーザ・インタフェースの例示的な実施形態を示す図である。 本開示の例示的な実施形態によるユーザ・インタフェースのユーザによる操作およびナビゲーションを示す図である。 本開示によるユーザ・インタフェースの例示的な実施形態の状態制御図である。 本開示の実施形態によるユーザ・インタフェースを最適化する例示的なプロセスを示す流れ図である。 ユーザ・インタフェースの各データ要素の2次元指標付けを示す図である。 本開示の例示的な実施形態によるユーザ・インタフェースの可視領域ウィンドウおよび生成グラフィック要素の境界領域を示す図である。 本開示の例示的な実施形態によるユーザ・インタフェースの見た目を示す図である。 本開示の別の実施形態によるユーザ・インタフェースを最適化する例示的なプロセスを示す流れ図である。 本開示の例示的な実施形態によるユーザ・インタフェースのグリッド内のグラフィック要素の移動を示す図である。 本開示による例示的な実施形態のユーザ・インタフェースを説明するのに有用なビデオ・ディスプレイを示す図である。 本発明の構成による1本、2本、3本および4本の指に対応するそれぞれの幅の例示的な1本および複数本の指のスワイプを示す図である。 図14に示す流れ図によるビデオ・ディスプレイを示す図である。 図14に示す流れ図による代替のビデオ・ディスプレイを示す図である。 図14に示す流れ図による代替のビデオ・ディスプレイを示す図である。 図14に示す流れ図による代替のビデオ・ディスプレイを示す図である。 図17(a)〜図17(e)は本開示によるビデオ・ピーキングを順次説明する図の1つであって、本願の目的のためにカラー・ピクチャをグレースケールで描画した図である。
これらの図面は、本開示の概念を説明するためのものであり、必ずしも本開示の説明および実施のための唯一の可能な構成を表しているわけではないことを理解されたい。
本発明の構成は、本明細書ではビデオ・ピーキングと呼ぶ、その他のコンテンツを見ている間に第1のビデオ・コンテンツ(場合により好みのビデオ・コンテンツ)をピーキングすることを可能にする、ビデオ・ディスプレイ装置のユーザ・インタフェースおよび表示システムを提供するものである。このようなビデオ・ディスプレイとしては、例えば、複数のビデオ・ソースからビデオ・コンテンツを受信することができ、タッチ・スクリーン作動および制御のために十分にユーザの近くに配置することができる、ビデオ・タブレット、ビデオ・パッド、スマートフォン、電子書籍、ラップ・トップ・コンピュータ、コンピュータ・モニタおよび様々なテレビジョン装置が挙げられる(ただしこれらに限定されない)。ビデオ・コンテンツは、より一般的には1次ビデオまたはビデオ・ソースと2次ビデオまたはビデオ・ソース、あるいは第1のビデオ・ソースと複数のその他のビデオ・ソースと考えることができる。タッチ・スクリーン・インタフェース上でのスワイプ・コマンドにより、例えば、ある時間間隔の間、複数のその他のビデオ・ソースのうちの1つのビデオをユーザがピーキングすることを可能にすることができる。
本発明の構成によれば、その他のビデオ・ソースのうちの1つのビデオは、現在見ているビデオの一部分を部分的に追い出して一時的に置き換わるように見える。その他のビデオ・ソースの選択は、例えば、1本、2本、3本または4本の指先をスワイプすることによって制御することができる。その他のビデオ・ソースの選択は、さらに、例えば長方形のビデオ・ディスプレイの4つの縁部の何れか1つから内向きにスワイプすることによって制御することができる。このようにして、例えば、ユーザは、何本の指先を同時にスワイプしたかに基づいて、またビデオ・ディスプレイのどの側からスワイプが始まったかに基づいて、1次または第1のビデオ・ソースのビデオを見ている間に、16個のその他の2次ビデオ・ソースのうちの何れか1つのビデオを容易にピーキングすることができる。さらに、タッチ・スクリーンは、2次ソースの「ピーキング中」のビデオをその前の1次ビデオ・ソースのビデオと入れ替えることができるようにプログラムすることができる。この入替えは、例えば、ピーキングに必要なときより長くスワイプすることによって実施することができる(ただしこれに限定されない)。従って、その後に2次ソースになるソースのビデオは、スワイプ可能になることができる。
ビデオ・ピーキングについて、図14から図17に関連してさらに詳細に説明する。ビデオ・ピーキングの基本的な実施形態では、第1のビデオ・ソースの第1のビデオ(または第1のビデオ・コンテンツ)を見ているユーザは、複数のその他のビデオ・ソースのうちの1つのビデオ(または第2のビデオ・コンテンツ)が、現在見ているビデオの一部分を滑らかに部分的に追い出して一時的に置き換わり、その後自動的に、その選択された他のビデオが滑らかに消えることができるようにすることができる。第1のビデオ・ソースのコンテンツは、1次ビデオ・ソースと考えることもできる。
図14は、上述のようにスワイプを使用して、ビデオ・タブレットまたはそれと同様の機能を有する装置において選択したビデオ・ソースのビデオ・ピーキングを実施して制御する過程を示す流れ図1400である。ステップ1402で、ユーザは、本発明の構成に従って見ることができる複数のビデオ・ソースを選択する。これらのビデオ・コンテンツ・ソースは、ユーザが別のソースのビデオ・コンテンツを見ている間に本発明の構成によるビデオ・ピーキングによって時折見ることを期待する「好みの」または「好ましい」ソースと考えることができる。この流れ図から分かるように、視聴者は、第1のビデオ・ソースをビデオ・ソース1として割り当て、別の4つのビデオ・ソース(2〜5)をビデオ・ソース2から5として水平ビデオ・ピーキングに割り当て、さらに別の4つのビデオ・ソースをビデオ・ソース6から9として垂直ビデオ・ピーキングに割り当てることができる。従って、ユーザがステップ1404でビデオ・ソース1の表示を開始し、ビデオ・ソース1がステップ1406で表示されたときに、ユーザは、ビデオ・ソース1の表示を完全には中断することなくビデオ・ピーキングによって短い間だけ見ることができる8つの異なるビデオ・コンテンツ・チャネルまたはビデオ・コンテンツ・ソースのセットを利用することができる。次いで、ユーザは、ステップ1408でビデオ・ディスプレイの左縁部もしくは左側または右縁部もしくは右側からの水平スクリーン・スワイプを用いて、あるいはステップ1412でビデオ・ディスプレイの上縁部もしくは上側または下縁部もしくは下側からの垂直スクリーン・スワイプを用いて、水平ビデオ・ピーキングを実施することを選ぶことができる。
参照番号1410に関連するブロックが示すように、1本、2本、3本または4本の指を水平にスワイプすると、それぞれビデオ・コンテンツまたはビデオ・ソース6、7、8および9のビデオ・ピーキングが開始される。参照番号1414に関連するブロックが示すように、1本、2本、3本または4本の指を垂直にスワイプすると、それぞれビデオ・コンテンツまたはビデオ・ソース2、3、4および5のビデオ・ピーキングが開始される。多くのタイプのビデオ・ディスプレイが、ビデオ・コンテンツを回転させてビデオ・ディスプレイ装置の回転を補償する機能を備えていることを理解されたい。本発明の構成は、このような回転制御で操作可能であることを理解されたい。
図14に示す実施形態では、その他のビデオ・コンテンツ・ソースの数は、左または右方向のスワイプに応答して表示することができるソースが4つ、上または下方向のスワイプに応答して表示することができるソースが4つである。図14に示すソースの数は、本発明の目的のために限定的なものではない。実際に、例えば、左方向のみおよび右方向のみのスワイプならびに上方向のみおよび下方向のみのスワイプにより、16個のその他のビデオ・コンテンツ・ソースのうちのどの1つでもビデオ・ピーキングのために呼び出すことができる。ただし、その他のビデオ・コンテンツ・ソースの数は、実際問題としては、特定の実用上の問題および個人的な問題によって制限される。このような問題の1つは、任意の所与のユーザがどれだけの数の指の方向と本数の組合せを記憶することができるかという問題である。別の問題は、ユーザの手先の器用さである。従って、流れ図1400に関しては、8つ未満のその他のビデオ・コンテンツ・ソースを選択することは、依然として本発明の構成の範囲内であることを理解されたい。実際には、1つのその他のビデオ・コンテンツ・ソースをビデオ・ピーキングすることも、本発明の範囲内である。
図15は、ビデオ・ディスプレイ装置1502を示す図である。このディスプレイ装置は、上縁部または上側1504、右側または右縁部1506、下側縁部または下側1508および左側または左縁部1510を有する。破線の円1512、1514、1516および1518はそれぞれ、スワイプ動作を開始することができるタッチ作動可能ディスプレイ上の位置に対応する。これらの円は、正確な大きさまたは形状を表すためのものではない。破線の円は、一時的なトレーニング手段として表示することもできるし、永続的に表示することもできるし、あるいは表示しないままにすることもできる。矢印は、スワイプ方向を示すことを意図したものである。破線の円1512に関連する矢印は、1本指のスワイプを示すことを意図したものである。破線の円1514に関連する矢印は、2本指のスワイプを示すことを意図したものである。破線の円1516に関連する矢印は、3本指のスワイプを示すことを意図したものである。破線の円1518に関連する矢印は、4本指のスワイプを示すことを意図したものである。
図14に示す流れ図1400の実用的な応用を、図16(a)から図16(d)に示す。図14に示す流れ図1400および図16(a)を参照すると、指1本の幅の下向きのスワイプにより、ビデオ・ソース1中でのビデオ・ソース2のビデオ・ピーキングを呼び出す。図14に示す流れ図1400および図16(b)を参照すると、指2本の幅の左向きのスワイプにより、ビデオ・ソース1中でのビデオ・ソース7のビデオ・ピーキングを呼び出す。図14に示す流れ図1400および図16(c)を参照すると、指3本の幅の上向きのスワイプにより、ビデオ・ソース1中でのビデオ・ソース4のビデオ・ピーキングを呼び出す。図14に示す流れ図1400および図16(d)を参照すると、指4本の幅の右向きのスワイプにより、ビデオ・ソース1中でのビデオ・ソース9のビデオ・ピーキングを呼び出す。
なお、スワイプの幅とスワイプの方向の関連付けは、ビデオ・ピーキングの値を最適化することができるように行うことができることに留意されたい。例えば、図16(a)は、上側または上縁部から下向き方向のビデオ・ピーキングを示す。ティッカまたはバナーは、通常はニュースおよび天気に関係のあるビデオ・コンテンツの下部に表示されることは既知である。従って、ユーザがニュースおよび天気に関係のあるビデオ・コンテンツのソースを選択して下向き方向のスワイプによって呼び出し、ティッカまたはバナーの全体が見えるようにすると有利である。同様に、スポーツ・イベントのビデオ・コンテンツ・ソースでは、点数などの状況情報は、ビデオ・コンテンツの上部またはビデオ・コンテンツの左上隅に表示されることが多い。自分のひいきのチームの放送の表示の仕方に慣れているユーザは、これらのスポーツ・イベントの状況に関する情報を直ちに与えるスワイプ・オプションを選択することもできる。
図17(a)から図17(e)は、ビデオ・ピーキングを視覚的に示すための、ビデオ・クリップから抽出されたビデオ・フレーム1702、1704、1706、1708および1710のシーケンス1700を示す図である。各ビデオ・フレームにおいて、第1のビデオ・ソース(ビデオ・ソース1あるいは1次ビデオまたは1次ビデオ・ソース)のコンテンツは、1712で示してある。フレーム1702には、この例ではペンギンであるビデオ・ソース1のみが表示される。ビデオ・フレーム1702には、図15および図16(a)から図16(d)に関連して説明したように、円1716および矢印1718も示される。フレーム1704では、矢印1716の方向のスワイプ動作に応答して、1次ビデオ1712の一部が、この例では野球の試合である、右側から入ってくるその他のビデオ・コンテンツ1714の一部分によって部分的に押し出されて一時的に置換されている様子を見ることができる。フレーム1706では、1次ビデオ1714の一部分の押出しおよび置換が完了している。ビデオ・フレーム1708では、その他のビデオ1714の左縁部が右に移動して小さくなっているのが見える。フレーム1710では、再び1次ビデオ1712のみが表示されている。
現在好ましい実施形態によれば、ビデオ・ピーキングは、ある時間間隔だけ続くことができ、その時間間隔は調節可能であるものと企図されている。さらに、現在好ましい実施形態によれば、例えば、ユーザは、スワイプの最後にタッチ・スクリーンを押し続けることによってビデオ・ピーキングを保持または維持することができ、このようにして、ユーザがスクリーンを押すのを止めるまでビデオ・ピーキングを続けることができる。さらに、現在好ましい実施形態では、新たなビデオをピーキングしているユーザがそのピーキングしているビデオを全画面で見たいと思ったときには、例えば、スクリーン全体をスワイプする、またはスワイプ動作の最後に押圧することによって、そのビデオを全画面で見ることができる。これに関連して、2次ビデオが1次ビデオを押し出して置き換わる程度は、スワイプの長さによって制御することができるものと企図されている。
本発明の構成によれば、ユーザは、例えばスポーツ、ニュースまたは娯楽のチャネル(ただしこれらに限定されない)を有利には見ることができ、その他のビデオをピーキングして、点数および速報を確認する、または娯楽ビデオ中のコマーシャルが終了したかどうかを判定して1次ビデオ・ソースに戻ることができる。
本発明は以下の態様を含む。
(付記1)
タッチ作動可能なスクリーンと、
スワイプ動作の方向の違い、前記スワイプ動作の長さの違い、および前記スワイプ動作の幅の違いのうちの少なくとも1つを区別することも含めて、前記スクリーンの複数の領域を横切る前記スワイプ動作を検出することができるタッチ・スクリーン・プロセッサと、
第1のビデオ画像を選択的に前記スクリーンに供給し、複数のその他のビデオ画像のうちの少なくとも1つを選択的に前記スクリーンに供給するビデオ信号プロセッサと、を含み、
前記複数のその他のビデオ画像のうちの前記少なくとも1つが、前記スクリーンを横切るスワイプ動作が予め定められた範囲の前記方向、予め定められた範囲の前記長さおよび予め定められた範囲の前記幅で発生したのに応答して、予め定められた時間間隔の間だけ選択的に前記スクリーンに供給され、
前記スクリーンに供給される前記その他のビデオ画像が、前記第1のビデオ画像の一部分の代わりに表示される、ビデオ・ディスプレイのユーザ・インタフェース。
(付記2)
前記タッチ・スクリーン・プロセッサが、前記スワイプ動作の方向の違い、前記スワイプ動作の長さの違い、および前記スワイプ動作の幅の違いのうちの少なくとも2つを区別することも含めて、前記スクリーンの複数の領域を横切る前記スワイプ動作を検出することができる、付記1に記載のユーザ・インタフェース。
(付記3)
前記タッチ・スクリーン・プロセッサが、前記スワイプ動作の方向の違い、前記スワイプ動作の長さの違い、および前記スワイプ動作の幅の違いのそれぞれを区別することも含めて、前記スクリーンの複数の領域を横切る前記スワイプ動作を検出することができる、付記1に記載のユーザ・インタフェース。
(付記4)
前記スクリーンに供給される前記その他のビデオ画像が、前記スワイプ動作の前記方向に概ね対応するスイープ動作によって前記第1のビデオ画像の前記一部分を押し出す、付記1に記載のユーザ・インタフェース。
(付記5)
前記時間間隔の最後に、前記スクリーンに供給される前記その他のビデオ画像が、前記スワイプ動作の前記方向と反対の方向に概ね対応するスイープ動作によって視野から消える、付記2に記載のユーザ・インタフェース。
(付記6)
前記スクリーンが、認識可能な辺を有し、前記スクリーンの各辺が、前記スワイプ動作のうちの少なくとも1つの始点である、付記1に記載のユーザ・インタフェース。
(付記7)
前記スクリーンの各辺が、前記スワイプ動作のうちの少なくとも2つの始点であり、
前記スワイプ動作の幅と前記スワイプ動作の方向の異なる組合せによって、前記スクリーンに選択的に供給される前記複数のその他のビデオ画像が変わる、付記2に記載のユーザ・インタフェース。
(付記8)
前記スクリーンの各辺が、前記スワイプ動作のうちの少なくとも3つの始点であり、
前記スワイプ動作の幅と前記スワイプ動作の方向の異なる組合せによって、前記スクリーンに選択的に供給される前記複数のその他のビデオ画像が変わる、付記3に記載のユーザ・インタフェース。
(付記9)
前記スクリーンが、ほぼ長方形であり、
前記スワイプ動作の幅と前記スワイプ動作の方向の前記異なる組合せによって、少なくとも8つの異なるビデオ・ソースのうちの何れか1つから選択された前記その他のビデオ画像を与えることができる、付記8に記載のユーザ・インタフェース。
(付記10)
前記少なくとも8つの異なるビデオ・ソースを、前記スワイプ動作の幅と前記スワイプ動作の方向の少なくとも8つの異なる組合せに割り当てることができる、付記8に記載のユーザ・インタフェース。
(付記11)
スワイプ動作の最後に予め定められた時間間隔の間だけ前記スクリーンに対する押圧を維持することにより、前記第1のビデオ画像が前記その他のビデオ画像で置き換えられる、付記1に記載のユーザ・インタフェース。
(付記12)
前記スクリーン上で前記その他のビデオ画像のうちの1つの表示を開始するのに必要な長さより長いスワイプ動作により、前記第1のビデオ画像が前記その他のビデオ画像のうちの前記1つで置き換えられる、付記3に記載のユーザ・インタフェース。
(付記13)
タッチ作動可能なスクリーンを有するビデオ・ディスプレイを制御する方法であって、
前記スクリーン上に第1のビデオ画像を表示するステップと、
前記スクリーンの第1の領域を横切るスワイプ動作を検出するステップと、
前記スワイプ動作の可能性として考えられる異なる起点、前記スワイプ動作の可能性として考えられる異なる方向、および前記スワイプ動作の可能性として考えられる異なる幅を区別するステップと、
前記区別するステップに応答して複数のその他のビデオ画像のうちの少なくとも1つを選択するステップと、
前記選択したビデオ画像を、予め定められた時間間隔の間だけ前記第1のビデオ画像の一部分の代わりに前記スクリーンに供給するステップと、
前記時間間隔の満了時に前記供給ステップを終了するステップと、を含む、方法。
(付記14)
前記スワイプ動作の少なくとも1つの長さの範囲を区別するステップをさらに含む、付記13に記載の方法。
(付記15)
前記スワイプ動作の少なくとも1つの長さの範囲を区別する前記ステップが、
第1の長さの前記スワイプ動作が第1の長さの範囲内で起こったのを検出したのに応答して、前記供給するステップを開始すること、および
第2の長さの前記スワイプ動作が前記第1の範囲を除く第2の長さの範囲内で起こったのを検出したのに応答して、前記第1のビデオ画像を前記選択したビデオ画像で置き換えることを含む、付記14に記載の方法。
(付記16)
前記スワイプ動作以外のユーザ入力を検出したのに応答して、前記第1のビデオ画像を前記選択したビデオ画像で置き換えるステップを含む、付記13に記載の方法。
(付記17)
前記供給するステップが、前記スワイプ動作の前記方向に概ね対応する方向に前記選択したビデオ画像を移動させることによって、前記第1のビデオ画像の前記一部分を徐々に置換するステップをさらに含む、付記13に記載の方法。
(付記18)
前記終了するステップが、前記スワイプ動作の前記方向とほぼ反対の方向に前記選択したビデオ画像を移動させることによって、前記選択したビデオ画像を前記第1のビデオ画像の前記一部分で徐々に置換するステップを含む、付記13に記載の方法。
(付記19)
前記複数のその他のビデオ画像の異なるそれぞれを、前記スワイプ動作の前記可能性として考えられる異なる起点、前記可能性として考えられる異なる方向および前記可能性として考えられる異なる幅の異なる組合せと関連付けるステップをさらに含む、付記13に記載の方法。
(付記20)
前記供給するステップが、前記スワイプ動作の前記方向に概ね対応する方向に前記選択したビデオ画像を移動させることによって、前記第1のビデオ画像の前記一部分を徐々に置換するステップをさらに含み、
前記終了するステップが、前記スワイプ動作の前記方向とほぼ反対の方向に前記選択したビデオ画像を移動させることによって、前記選択したビデオ画像を前記第1のビデオ画像の前記一部分で徐々に置換するステップを含む、付記14に記載の方法。

Claims (20)

  1. タッチ作動可能なスクリーンと、
    記スクリーンの複数の領域を横切るスワイプ動作を検出するように構成されたタッチ・スクリーン・プロセッサと、
    第1のビデオ画像を選択的に前記スクリーンに供給し、複数のその他のビデオ画像のうちの少なくとも1つを選択的に前記スクリーンに供給するように構成されたビデオ信号プロセッサと、を含み、
    前記スワイプ動作の上方向、下方向、左方向、右方向の少なくとも1つの間でスワイプ方向を決定するようにさらに構成された前記タッチ・スクリーン・プロセッサは、前記スワイプ動作の長さを決定すると共に、前記スワイプ動作に使用される指の本数を決定し、
    前記複数のその他のビデオ画像のうちの前記少なくとも1つが、決定された方向、決定された長さ、および決定された前記スワイプ動作に使用される指の本数に従って、前記スクリーンを横切るスワイプ動作に応答して、選択的に前記スクリーンに供給され、
    前記スクリーンに供給される前記その他のビデオ画像の一部分が、前記第1のビデオ画像の一部分の代わりに表示される、ビデオ・ディスプレイのユーザ・インタフェース。
  2. 前記スクリーンに提供される前記その他のビデオ画像の一部分は、予め定められた時間間隔の間だけ前記第1のビデオ画像の一部の代わりに表示される、請求項1に記載のユーザ・インタフェース。
  3. 前記スワイプ動作に関連した圧力が加えられている限りは、前記第1のビデオ画像の一部の代わりに、前記スクリーンに供給される前記その他のビデオ画像の部分が表示され、圧力が解除された後は消える、請求項1に記載のユーザ・インタフェース。
  4. 前記スクリーンに供給される前記その他のビデオ画像が、前記スワイプ動作の前記方向に対応するスイープ動作によって前記第1のビデオ画像の前記一部分を押し出す、請求項1から3のいずれかに記載のユーザ・インタフェース。
  5. 前記時間間隔の最後に、前記スクリーンに供給される前記その他のビデオ画像が、前記スワイプ動作の前記方向と反対の方向に対応するスイープ動作によって視野から消える、請求項に記載のユーザ・インタフェース。
  6. 前記スクリーンが、認識可能な辺を有し、前記スクリーンの各辺が、前記スワイプ動作のうちの少なくとも1つの始点を含む、請求項1に記載のユーザ・インタフェース。
  7. 前記スクリーンの各辺が、前記スワイプ動作のうちの少なくとも2つの始点を含み
    前記スワイプ動作に使用される前記指の本数と前記スワイプ動作の前記方向の異なる組合せによって、前記スクリーンに選択的に供給される前記複数のその他のビデオ画像が変わる、請求項2に記載のユーザ・インタフェース。
  8. 前記スクリーンの各辺が、前記スワイプ動作のうちの少なくとも3つの始点を含み
    前記スワイプ動作に使用される前記指の本数と前記スワイプ動作の前記方向の異なる組合せによって、前記スクリーンに選択的に供給される前記複数のその他のビデオ画像のうちのビデオ画像が変わる、請求項3に記載のユーザ・インタフェース。
  9. 前記スワイプ動作に使用される前記指の本数と前記スワイプ動作の前記方向の前記異なる組合せによって、少なくとも8つの異なるビデオ・ソースのうちの何れか1つから選択された前記その他のビデオ画像を与える、請求項8に記載のユーザ・インタフェース。
  10. 前記少なくとも8つの異なるビデオ・ソースを、前記スワイプ動作に使用される前記指の本数と前記スワイプ動作の前記方向の少なくとも8つの異なる組合せに割り当てることができる、請求項8に記載のユーザ・インタフェース。
  11. 前記スワイプ動作の最後に予め定められた時間間隔の間だけ前記スクリーンに対する押圧を維持することにより、前記第1のビデオ画像が前記その他のビデオ画像で置き換えられる、請求項1に記載のユーザ・インタフェース。
  12. 前記スクリーン上で前記その他のビデオ画像のうちの1つの表示を開始するのに必要な長さより長いスワイプ動作により、前記第1のビデオ画像が前記その他のビデオ画像のうちの前記1つで置き換えられる、請求項3に記載のユーザ・インタフェース。
  13. タッチ作動可能なスクリーンを有するビデオ・ディスプレイを制御する方法であって、
    前記スクリーン上に第1のビデオ画像を表示するステップと、
    前記スクリーンの第1の領域を横切るスワイプ動作を検出するステップと、
    前記検出されたスワイプ動作の上方向、下方向、左方向、右方向の少なくとも1つの間でスワイプ方向を決定するステップであって、前記検出されたスワイプ動作の長さを決定すると共に、前記検出されたスワイプ動作に使用される指の本数を決定する、前記決定するステップと、
    決定された方向、決定された長さ、および決定された前記スワイプ動作に使用される指の本数に従って、前記スクリーンを横切るスワイプ動作に応答して複数のその他のビデオ画像のうちの少なくとも1つを選択するステップと、
    前記選択したビデオ画像の一部分を、予め定められた時間間隔の間だけ前記第1のビデオ画像の一部分の代わりに前記スクリーンに供給するステップと、
    前記時間間隔の満了時に前記供給するステップを終了するステップと、を含む、前記方法。
  14. 前記スワイプ動作の少なくとも1つの長さの範囲を区別するステップをさらに含む、請求項13に記載の方法。
  15. 前記スワイプ動作の少なくとも1つの長さの範囲を区別する前記ステップが、
    第1の長さの前記スワイプ動作が第1の長さの範囲内で起こったのを検出したのに応答して、前記供給するステップを開始すること、および
    第2の長さの前記スワイプ動作が前記第1の長さの範囲を除く第2の長さの範囲内で起こったことを検出したのに応答して、前記第1のビデオ画像を前記選択したビデオ画像で置き換えることを含む、請求項14に記載の方法。
  16. 前記スワイプ動作以外のユーザ入力を検出したのに応答して、前記第1のビデオ画像を前記選択したビデオ画像で置き換えるステップを含む、請求項13に記載の方法。
  17. 前記供給するステップが、前記スワイプ動作の前記方向に対応する方向に前記選択したビデオ画像を移動させることによって、前記第1のビデオ画像の前記一部分を徐々に置換するステップをさらに含む、請求項13に記載の方法。
  18. 前記終了するステップが、前記スワイプ動作の前記方向と反対の方向に前記選択したビデオ画像を移動させることによって、前記選択したビデオ画像を前記第1のビデオ画像の前記一部分で徐々に置換するステップを含む、請求項13に記載の方法。
  19. 前記複数のその他のビデオ画像の異なるそれぞれを、前記スワイプ動作の可能性として考えられる異なる起点、可能性として考えられる異なる方向および可能性として考えられる異なる使用する指の本数の異なる組合せと関連付けるステップをさらに含む、請求項13に記載の方法。
  20. 前記供給するステップが、前記スワイプ動作の前記方向に対応する方向に前記選択したビデオ画像を移動させることによって、前記第1のビデオ画像の前記一部分を徐々に置換するステップをさらに含み、
    前記終了するステップが、前記スワイプ動作の前記方向と反対の方向に前記選択したビデオ画像を移動させることによって、前記選択したビデオ画像を前記第1のビデオ画像の前記一部分で徐々に置換するステップを含む、請求項14に記載の方法。
JP2014523917A 2011-08-05 2012-02-21 ビデオ・ピーキング(peeking) Active JP6050352B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161515578P 2011-08-05 2011-08-05
US61/515,578 2011-08-05
PCT/US2012/025878 WO2013022486A1 (en) 2011-08-05 2012-02-21 Video peeking

Publications (3)

Publication Number Publication Date
JP2014529212A JP2014529212A (ja) 2014-10-30
JP2014529212A5 JP2014529212A5 (ja) 2015-04-16
JP6050352B2 true JP6050352B2 (ja) 2016-12-21

Family

ID=45809665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014523917A Active JP6050352B2 (ja) 2011-08-05 2012-02-21 ビデオ・ピーキング(peeking)

Country Status (7)

Country Link
US (1) US9152235B2 (ja)
EP (1) EP2740264B1 (ja)
JP (1) JP6050352B2 (ja)
KR (1) KR20140044881A (ja)
CN (1) CN103797784A (ja)
BR (1) BR112014002039B1 (ja)
WO (1) WO2013022486A1 (ja)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9465440B2 (en) 2011-01-06 2016-10-11 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9423878B2 (en) * 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
WO2013169870A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for transitioning between display states in response to gesture
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
CN104487930A (zh) 2012-05-09 2015-04-01 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
CN106201316B (zh) 2012-05-09 2020-09-29 苹果公司 用于选择用户界面对象的设备、方法和图形用户界面
EP3401773A1 (en) 2012-05-09 2018-11-14 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
DE112013002412T5 (de) 2012-05-09 2015-02-19 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
KR101515623B1 (ko) * 2012-05-14 2015-04-28 삼성전자주식회사 벤디드 디스플레이를 갖는 휴대단말의 기능 운용 방법 및 장치
US9582157B1 (en) * 2012-08-03 2017-02-28 I4VU1, Inc. User interface and program guide for a multi-program video viewing apparatus
CN107831991B (zh) 2012-12-29 2020-11-27 苹果公司 用于确定是滚动还是选择内容的设备、方法和图形用户界面
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
US8994828B2 (en) 2013-02-28 2015-03-31 Apple Inc. Aligned video comparison tool
US20140298245A1 (en) * 2013-03-28 2014-10-02 Microsoft Corporation Display Instance Management
KR101799294B1 (ko) * 2013-05-10 2017-11-20 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
US9071798B2 (en) 2013-06-17 2015-06-30 Spotify Ab System and method for switching between media streams for non-adjacent channels while providing a seamless user experience
US10097604B2 (en) 2013-08-01 2018-10-09 Spotify Ab System and method for selecting a transition point for transitioning between media streams
KR102134404B1 (ko) * 2013-08-27 2020-07-16 삼성전자주식회사 데이터 표시 방법 및 그 전자 장치
US9917869B2 (en) 2013-09-23 2018-03-13 Spotify Ab System and method for identifying a segment of a file that includes target content
US9529888B2 (en) 2013-09-23 2016-12-27 Spotify Ab System and method for efficiently providing media and associated metadata
US20150100885A1 (en) * 2013-10-04 2015-04-09 Morgan James Riley Video streaming on a mobile device
US9063640B2 (en) * 2013-10-17 2015-06-23 Spotify Ab System and method for switching between media items in a plurality of sequences of media items
US9686581B2 (en) * 2013-11-07 2017-06-20 Cisco Technology, Inc. Second-screen TV bridge
US9990125B2 (en) * 2013-11-15 2018-06-05 Lg Electronics Inc. Mobile terminal and method of controlling the same
KR101522468B1 (ko) * 2013-12-05 2015-05-28 네이버 주식회사 동영상 간 전환 방법 및 그 시스템
USD765139S1 (en) * 2013-12-24 2016-08-30 Tencent Technology (Shenzhen) Company Limited Portion of a display screen with graphical user interface
USD770325S1 (en) * 2013-12-24 2016-11-01 Tencent Technology (Shenzhen) Company Limited Penguin figurine
US10222935B2 (en) 2014-04-23 2019-03-05 Cisco Technology Inc. Treemap-type user interface
KR20150142347A (ko) * 2014-06-11 2015-12-22 삼성전자주식회사 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템
US9685194B2 (en) * 2014-07-23 2017-06-20 Gopro, Inc. Voice-based video tagging
USD770492S1 (en) * 2014-08-22 2016-11-01 Google Inc. Portion of a display panel with a computer icon
KR20160028272A (ko) * 2014-09-03 2016-03-11 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN105446608A (zh) * 2014-09-25 2016-03-30 阿里巴巴集团控股有限公司 信息搜索方法、信息搜索装置及电子装置
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
JP6643776B2 (ja) * 2015-06-11 2020-02-12 株式会社バンダイナムコエンターテインメント 端末装置及びプログラム
US9652125B2 (en) 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US9928029B2 (en) 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
USD811428S1 (en) * 2015-09-24 2018-02-27 4Thought Sa Display screen or portion thereof with transitional graphical user interface
CN106791352A (zh) * 2015-11-25 2017-05-31 中兴通讯股份有限公司 一种拍照方法、装置及终端
JP2017126941A (ja) * 2016-01-15 2017-07-20 株式会社サイバーエージェント コンテンツ配信システム
US10397632B2 (en) * 2016-02-16 2019-08-27 Google Llc Touch gesture control of video playback
USD833454S1 (en) * 2016-05-27 2018-11-13 Axis Ab Display screen or portion thereof with graphical user interface
US11388455B2 (en) * 2016-06-02 2022-07-12 Multimo, Llc Method and apparatus for morphing multiple video streams into single video stream
JP6729069B2 (ja) * 2016-06-28 2020-07-22 富士ゼロックス株式会社 情報処理装置
KR20180020830A (ko) * 2016-08-19 2018-02-28 삼성전자주식회사 비디오월 시스템 및 그 제어방법과, 디스플레이장치
US10372520B2 (en) 2016-11-22 2019-08-06 Cisco Technology, Inc. Graphical user interface for visualizing a plurality of issues with an infrastructure
US10739943B2 (en) 2016-12-13 2020-08-11 Cisco Technology, Inc. Ordered list user interface
US11042262B2 (en) * 2017-02-01 2021-06-22 Opentv, Inc. Menu modification based on controller manipulation data
USD831700S1 (en) * 2017-07-31 2018-10-23 Shenzhen Valuelink E-Commerce Co., Ltd. Display screen or portion thereof with graphical user interface
USD916860S1 (en) 2017-09-26 2021-04-20 Amazon Technologies, Inc. Display system with a virtual reality graphical user interface
US10614616B1 (en) 2017-09-26 2020-04-07 Amazon Technologies, Inc. Virtual reality user interface generation
USD896235S1 (en) 2017-09-26 2020-09-15 Amazon Technologies, Inc. Display system with a virtual reality graphical user interface
CN115016692A (zh) 2018-03-01 2022-09-06 华为技术有限公司 信息显示方法、图形用户接口及终端
US11785304B2 (en) * 2018-03-28 2023-10-10 Huawei Technologies Co., Ltd. Video preview method and electronic device
US10862867B2 (en) 2018-04-01 2020-12-08 Cisco Technology, Inc. Intelligent graphical user interface
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device
CN109640188B (zh) * 2018-12-28 2020-02-07 北京微播视界科技有限公司 视频预览方法、装置、电子设备及计算机可读存储介质
JP7332919B2 (ja) * 2019-09-20 2023-08-24 株式会社Mixi コンピュータプログラム、情報処理装置及び情報処理方法
JP6826295B1 (ja) * 2019-09-20 2021-02-03 株式会社ミクシィ コンピュータプログラム、情報処理装置及び情報処理方法
JP6865343B1 (ja) * 2020-02-17 2021-04-28 株式会社インフォシティ 情報通信端末装置及び該装置における表示制御方法
JP2022126543A (ja) * 2021-02-18 2022-08-30 富士フイルム株式会社 情報処理装置およびプログラム

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60124196U (ja) 1984-01-30 1985-08-21 並木精密宝石株式会社 ピツクアツプ・カ−トリツジの発電コイル
JPH11103470A (ja) * 1997-09-26 1999-04-13 Toshiba Corp 映像切替え処理装置
US20030126605A1 (en) 2001-12-28 2003-07-03 Betz Steve Craig Method for displaying EPG video-clip previews on demand
JP3925297B2 (ja) * 2002-05-13 2007-06-06 ソニー株式会社 映像表示システム及び映像表示制御装置
GB0303888D0 (en) 2003-02-19 2003-03-26 Sec Dep Acting Through Ordnanc Image streaming
US7975531B2 (en) 2005-03-18 2011-07-12 Nanyang Technological University Microfluidic sensor for interfacial tension measurement and method for measuring interfacial tension
US9041744B2 (en) 2005-07-14 2015-05-26 Telecommunication Systems, Inc. Tiled map display on a wireless device
US7532253B1 (en) * 2005-07-26 2009-05-12 Pixelworks, Inc. Television channel change picture-in-picture circuit and method
JP2007334525A (ja) * 2006-06-14 2007-12-27 Sofny Group:Kk コンピュータ、クライアント−サーバコンピュータ群、サーバコンピュータ、表示プログラム、及びディスプレイ表示方法
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US7667719B2 (en) 2006-09-29 2010-02-23 Amazon Technologies, Inc. Image-based document display
JP4973245B2 (ja) * 2007-03-08 2012-07-11 富士ゼロックス株式会社 表示装置及びプログラム
US8194037B2 (en) 2007-12-14 2012-06-05 Apple Inc. Centering a 3D remote controller in a media system
US8250604B2 (en) 2008-02-05 2012-08-21 Sony Corporation Near real-time multiple thumbnail guide with single tuner
JP5039903B2 (ja) 2008-02-18 2012-10-03 インターナショナル・ビジネス・マシーンズ・コーポレーション アプリケーションを実行するシステム、方法およびプログラム
JP5016553B2 (ja) * 2008-05-28 2012-09-05 京セラ株式会社 携帯通信端末および端末操作方法
US20090328101A1 (en) * 2008-06-30 2009-12-31 Nokia Corporation User interface for mobile tv interactive services
KR101526973B1 (ko) * 2008-07-07 2015-06-11 엘지전자 주식회사 이동단말기 및 그 제어 방법
US20100077433A1 (en) 2008-09-24 2010-03-25 Verizon Data Services Llc Multi-panel television browsing
KR101588660B1 (ko) * 2008-09-30 2016-01-28 삼성전자주식회사 영상 이동이 가능한 디스플레이 장치 및 그 방법
JP4666053B2 (ja) 2008-10-28 2011-04-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5202425B2 (ja) * 2009-04-27 2013-06-05 三菱電機株式会社 映像監視システム
JP5179537B2 (ja) * 2010-04-09 2013-04-10 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
JP5541998B2 (ja) * 2010-07-28 2014-07-09 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
JP2012038271A (ja) * 2010-08-11 2012-02-23 Kyocera Corp 電子機器及びその制御方法
US20120069055A1 (en) * 2010-09-22 2012-03-22 Nikon Corporation Image display apparatus
JP5678576B2 (ja) * 2010-10-27 2015-03-04 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および監視システム
US9471145B2 (en) * 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9423878B2 (en) * 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US20120262462A1 (en) * 2011-04-18 2012-10-18 Johan Montan Portable electronic device for displaying images and method of operation thereof
US20130141371A1 (en) * 2011-12-01 2013-06-06 Research In Motion Limited Electronic device and method of displaying information in response to a gesture
WO2013105254A1 (ja) * 2012-01-12 2013-07-18 三菱電機株式会社 地図表示装置および地図表示方法
KR20130090138A (ko) * 2012-02-03 2013-08-13 삼성전자주식회사 다중 터치 패널 운용 방법 및 이를 지원하는 단말기
JP5882779B2 (ja) * 2012-02-15 2016-03-09 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
JP5598737B2 (ja) * 2012-02-27 2014-10-01 カシオ計算機株式会社 画像表示装置、画像表示方法及び画像表示プログラム
CN102929527A (zh) * 2012-09-27 2013-02-13 鸿富锦精密工业(深圳)有限公司 具有图片切换功能的装置及图片切换方法
CN103902080A (zh) * 2012-12-27 2014-07-02 华硕电脑股份有限公司 触控装置以及触控处理方法
KR102010955B1 (ko) * 2013-01-07 2019-08-14 삼성전자 주식회사 프리뷰 제어 방법 및 이를 구현하는 휴대 단말
KR102134404B1 (ko) * 2013-08-27 2020-07-16 삼성전자주식회사 데이터 표시 방법 및 그 전자 장치

Also Published As

Publication number Publication date
US20140176479A1 (en) 2014-06-26
BR112014002039A2 (pt) 2017-03-01
EP2740264A1 (en) 2014-06-11
BR112014002039B1 (pt) 2022-02-01
JP2014529212A (ja) 2014-10-30
EP2740264B1 (en) 2016-10-19
CN103797784A (zh) 2014-05-14
WO2013022486A1 (en) 2013-02-14
KR20140044881A (ko) 2014-04-15
US9152235B2 (en) 2015-10-06

Similar Documents

Publication Publication Date Title
JP6050352B2 (ja) ビデオ・ピーキング(peeking)
JP5681193B2 (ja) グリッドナビゲーションのための機器および方法
US10514832B2 (en) Method for locating regions of interest in a user interface
US10353577B2 (en) Method and system for implementing content navigation or selection using touch-based input
US9436359B2 (en) Methods and systems for enhancing television applications using 3D pointing
KR101669017B1 (ko) 컨텐츠 검색을 위한 시스템, 방법 및 유저 인터페이스
KR100994011B1 (ko) 미디어 항목들을 편성하고, 선택하며, 개시하기 위한주밍(zooming) 가능한 그래픽 유저 인터페이스를갖춘 제어 프레임워크
JP2008547316A (ja) 動的なメディアガイドリスティング
US11671673B2 (en) Systems and methods for facilitating navigation of a media content guide

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161124

R150 Certificate of patent or registration of utility model

Ref document number: 6050352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250