JP2016027481A - 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション - Google Patents

側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション Download PDF

Info

Publication number
JP2016027481A
JP2016027481A JP2015173781A JP2015173781A JP2016027481A JP 2016027481 A JP2016027481 A JP 2016027481A JP 2015173781 A JP2015173781 A JP 2015173781A JP 2015173781 A JP2015173781 A JP 2015173781A JP 2016027481 A JP2016027481 A JP 2016027481A
Authority
JP
Japan
Prior art keywords
user interface
touch event
touch
application
branch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015173781A
Other languages
English (en)
Inventor
ニコラス パパキポス、マシュー
Nicholas Papakipos Matthew
ニコラス パパキポス、マシュー
ケイヒル、マシュー
Cahill Matthew
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Inc
Original Assignee
Facebook Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Inc filed Critical Facebook Inc
Publication of JP2016027481A publication Critical patent/JP2016027481A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Abstract

【課題】タッチ式ユーザ・インタフェースに関し、側面に搭載されたタッチパッドを用いたナビゲーションを提供する。【解決手段】携帯型デバイス500のユーザは、携帯型デバイス500の側面に搭載されたタッチパッド502へのタッチ入力の使用によってアプリケーション・ユーザ・インタフェース層間のナビゲーションを行う。【選択図】図5

Description

本発明は、概して、タッチ式ユーザ・インタフェースに関し、より詳しくは、側面に搭載されたタッチパッドを有するコンピュータ・デバイスがホストとなるアプリケーションのユーザ・インタフェース層(レイヤ)間のナビゲーションに関する。
タッチパッドは、ユーザのタッチ式入力を検知する表面を備えた入力装置である。タッチ・スクリーンは、ユーザのタッチ入力の存在と位置とを検知する電子可視ディスプレイである。携帯電話機、タブレット・コンピュータ、およびラップトップ・コンピュータなどの携帯型デバイスは、多くの場合、その携帯型デバイスで動作しているアプリケーション・プログラムとの対話をユーザが容易に行うことができるように、タッチ・スクリーンまたはタッチパッドを備えている。
ウェブページを表示するブラウザ・クライアントのホストである携帯電話機のタッチ・スクリーンの一例を示す図。 タッチ式入力デバイス(複数可)を備えた携帯型デバイスの処理スタックの一例を示す図。 タッチ・スクリーン・デバイスがホストするアプリケーションのユーザ・インタフェース層間のナビゲーションを行う方法の一例を示す図。 タッチ・スクリーン・デバイスがホストするアプリケーションのユーザ・インタフェース層間のナビゲーションを行う方法の一例を示す図。 タッチ・スクリーン・デバイスがホストするアプリケーションのユーザ・インタフェース層間のナビゲーションを行う方法の一例を示す図。 タッチ・スクリーン・デバイス上で処理されるアプリケーションのアプリケーション・ユーザ・インタフェースの階層の一例を示す図。 正面に搭載されたタッチ・スクリーンと側面に搭載されたタッチパッドを備えた携帯型デバイスの一例の正面図および側面図。 図5の携帯型デバイスの他の一例を示す図。 背面に搭載されたタッチ面を備えた携帯型デバイスの一例を示す図。 図5の携帯型デバイスの一例の1つ以上の側面に搭載されたタッチパッドに関連付けられたタッチ・イベントの一例を示す図。 図5の携帯型デバイスの一例の1つ以上の側面に搭載されたタッチパッドに関連付けられたタッチ・イベントの一例を示す図。 図5の携帯型デバイスの一例の1つ以上の側面に搭載されたタッチパッドに関連付けられたタッチ・イベントの一例を示す図。 図5の携帯型デバイスの一例の1つ以上の側面に搭載されたタッチパッドに関連付けられたタッチ・イベントの一例を示す図。 図5Bの携帯型デバイスの一例の背面に搭載されたタッチ面に関連付けられたタッチ・イベントの一例を示す図。 図5Bの携帯型デバイスの一例の背面に搭載されたタッチ面に関連付けられたタッチ・イベントの一例を示す図。 図5Bの携帯型デバイスの一例の背面に搭載されたタッチ面に関連付けられたタッチ・イベントの一例を示す図。 側面に搭載されたタッチパッドを用いた、アプリケーションのユーザ・インタフェース層間のナビゲーションを行う方法の一例を示す図。 携帯型デバイスのプラットホームの一例を示す図。
特定の実施形態は、コンピュータ・デバイスのユーザに、側面に搭載されたタッチパッドへのタッチ入力を用いて、アプリケーション・ユーザ・インタフェース層間のナビゲートを行わせるタッチ式ユーザ・インタフェースに関する。本開示におけるこれらおよび他の特徴、態様、および有用性は、以下の詳細な説明において、以下の図面と関連付けながら、さらに詳しく説明する。
本発明を、添付の図面に示す数種の実施形態を参照しながら詳細に説明する。以下の説明において、数々の特定の詳細は、本開示の完全な理解を得るために記載する。しかし、当業者であれば、本開示はそれらの特定の詳細の一部または全部がなくても明らかに実施可能である。他の例では、周知の処理工程および/または構成は本開示を不必要に不明瞭にすることを避けるために詳細には説明されない。また、本開示は特定の実施形態に関連付けて説明されるが、この説明は、本開示を説明した実施形態に限定することを意図するものではないことに留意されるべきである。むしろ、この記載は、変更、改良、および均等物が、添付の請求の範囲に規定する開示の精神と範囲とに含まれることを意図する。
タッチパッドは、ユーザのタッチ式入力を検知する面を備えた入力デバイスである。同様に、タッチ・スクリーンは、ユーザのタッチ入力の存在および位置を検知する電子可視ディスプレイである。いわゆるデュアル・タッチまたはマルチ・タッチのディスプレイまたはタッチパッドとは、指による2つまたは3つのタッチ(接触)など、2つ以上のタッチ入力の存在、位置および移動を識別可能なデバイスのことである。1つ以上のタッチ式入力デバイスを備えたシステムは、ユーザからの1つ以上のタッチまたはニアタッチによる入力に対して1つ以上のタッチセンサ式の面を監視してもよい。1つ以上のかかるユーザの入力が発生したときに、このシステムは、明確な接触面積(複数可)を判定し、幾何学的特徴および幾何学的配置(位置、移動等)によってタッチまたはニアタッチによる入力(複数可)の性質を識別し、それらが各種タッチ・イベント(タップ、ドラッグ、スワイプ、ピンチ等)に対応しているかどうかを判定してもよい。これらのタッチ・イベントはその後、図1に示すように、それらのイベントに対するリスナー(listener)として登録またはサブスクライブするハンドラ機能によって処理してもよい。図1は、ウェブページを表示するブラウザ・クライアントのホストである携帯電話機のタッチ・スクリーンの一例を示している。図1の例において、携帯電話機100のタッチ・スクリーン101は、以下に記載したように、「Tap on this text(このテキストをタップする)」というテキスト文字列を表示するHTML/JAVA(登録商標)Scriptコードスニペットを表示する。
ユーザが「Tap on this text」(102)というテキスト文字列上をタップ(tap)すると、タッチ・イベント・リスナーである「onTouchEvent」がテキスト文字列を「Tap on this text(このテキストをタップする)」から「Boo!」(103)に変更するアクションを始動させることができる。
1つ以上のタッチ式入力デバイスを用いたシステムによるタッチ・イベントの認識、すなわち、ユーザによる1つ以上のタッチ入力を識別し、対応するタッチ・イベント(複数可)を判定することは、ハードウェア、ソフトウェア、および/またはファームウェア(またはデバイス・ドライバ)の組み合わせによって実行してもよい。図2は、タッチ式入力デバイス(複数可)を備えた携帯型デバイス(スマートフォン等)の処理スタックの一例を示している。ハードウェア層201には、1つ以上のプロセッサと、カメラ、通信インタフェース、およびタッチ式入力デバイス(タッチ・スクリーン、タッチパッド等)などの多様なハードウェア入出力デバイスを含むことができる。ドライバ層202は、ハードウェア層200を通信制御する1つ以上のドライバ、例えば、タッチ・スクリーン・ディスプレイによって生成されたタッチ入力信号を受信して処理するドライバを含む。オペレーティング・システム203は、計算プログラムを実行し、ドライバ層202の1つ以上のドライバを介してハードウェア層201を管理する。ライブラリ204は、アプリケーション205の1つ以上のアプリケーション・プログラム(ウェブ・ブラウザ、アドレス帳等)によって使用される1つ以上のライブラリを含む。例えば、図1および上記のHTML/JAVA(登録商標)Scriptコードスニペットに示すように、タッチ・イベント・ライブラリ210は、タッチ入力をタッチ・イベントまたはジェスチャと解釈するコードを含むことができ、ウェブ・ブラウザ・アプリケーション・プログラムはタッチ・イベント・ライブラリ210にアクセスして(例えばファンクション・セルを介して)、ウェブページをそのページに組み込まれたタッチ・イベント・ハンドラで処理することができる。
コンピュータ・デバイスがホストとなるアプリケーション・プログラムのユーザ・インタフェース層は、コンピュータ・デバイスのオペレーティング・システムのユーザ・インタフェース層を含み、通常、階層ツリー構造などの階層構造内に配置される。このツリー構造のルートノードは、ホーム・ユーザ・インタフェース層またはアプリケーションのホーム画面に対応し、アイコン、ボタン、プルダウン・メニュー、ハイパーテキスト・リン
クまたはその他の、ユーザを子(チャイルド)ユーザ・インタフェース層にナビゲートさせるコントロール部を含んでいてもよい。チャイルド・ユーザ・インタフェース層は、ユーザをアイコンまたはボタンの選択によって、親(ペアレント)ユーザ・インタフェース層に戻るようにナビゲートするアイコンまたはボタンを含んでいてもよい。それらのボタンの多くは、メニューバーの上に表示されるが、数々の例外もある。
図3A〜図3Cに示すように、タッチ・スクリーン・デバイスを用いて、ユーザは、タッチ・スクリーン・デバイスがホストとなるアプリケーションのユーザ・インタフェース層間を、タッチ・スクリーンで表示されたアプリケーションのユーザ・グラフィック・インタフェース内の1つ以上の選択可能な項目にタッチすることによってナビゲートすることがよくある。図3A〜図3Cに示す特定のアプリケーションは、タッチ・スクリーンを備えた携帯電話機(例えば、カリフォルニア州クパティーノのApple,Inc.製のiPhone(登録商標)スマートフォン)がホストとなるFacebook(登録商標)クライアントである。ユーザがアプリケーションを始動すると、アプリケーションはホーム画面301(図3A)またはそのアプリケーションのホーム・ユーザ・インタフェース層を表示するインタフェースを表示する。ホーム画面301は、他の層にナビゲートするためのアイコンまたはボタン、例えば、News Feed(ニュース・フィード)アイコン310、写真(Photos)アイコン330、友人(Friends)アイコン340などの、ユーザ・インタフェース・エレメント(要素)を含んでいてもよい。図4は、図3A〜図3Cに示すアプリケーションのアプリケーション・ユーザ・インタフェースの階層400の一例を示している。アプリケーション・ユーザ・インタフェースの階層はホーム層401と、ニュース・フィード410、プロフィール420、写真430、友人440その他の、1つ以上のサブ層402とを含む。さらに、写真層430自体が、そのサブ層としてアルバム・リスト432を有し、さらにそのサブ層として写真リスト434などを有している。全ての層がサブ層を有するわけではなく、ニュース・フィード・コンテンツ412、セルフ(自己)プロフィール・コンテンツ422、「写真1」436などはリーフ層である。図4の例では、階層のノードが、アプリケーションによって提供される、異なるユーザ・インタフェース層を表す一方、ノード間のエッジは潜在的なナビゲーションの流れを示している。さらに、アプリケーションは、兄弟ノード層間の直接的ナビゲーション、層間の直接的な2以上のホップの横断などの、階層モデルに従わない方法で、ノード間をナビゲートすることを許容してもよい。
例えば、ホーム層401から、ユーザはホーム画面301内の友人(Friends)アイコン340にタッチすることによって友人層440へナビゲートすることができ、現在の画面が、図3Bに示すように、友人層440に対応する画面341に変わる。友人層440に対応する画面341は友人のリストを備え、各友人は選択可能なアイコン(プロフィール写真など)で示されている。ユーザは、特定の友人の層「ローラ(Laura)」442に、対応するアイコン(342)にタッチすることによってナビゲートすることができ、現在の画面が、図3Cに示すように、特定の友人に対応する画面(343)に変わる。この特定の友人の層「ローラ」442から、または図3Cに示す特定の友人に対応する画面343から、ユーザは、「情報」アイコン344にタッチすることによって特定の友人のさらなる情報(電子メールアドレス、電話番号等)を調べ、「Friends(友人)」アイコン345にタッチすることによって友人層に戻り、あるいはホームのアイコン346にタッチすることによってホーム層にナビゲートすることができる。
本明細書の特定の実施形態は、タッチ・スクリーンおよび1つ以上の側面に搭載されたタッチパッドを備えたコンピュータ・デバイス(携帯電話機、ネットブック、スマートフォン、タブレット、または、その他の携帯型デバイス)およびユーザに1つ以上の側面に搭載されたタッチパッドを用いてユーザ・インタフェース層間のナビゲートを行わせる方法に関連している。この側面に搭載されたタッチパッド(複数可)はユーザの側面に搭載
されたタッチパッド(複数可)との対話の負担を取り除き、タッチ・スクリーンの有用性の向上をもたらすことができるため(例えば、ナビゲーション・エレメントまたはアイコンがより少ない、より密集していないグラフィカル・ユーザ・インタフェース)、特定の実施形態によって、携帯型デバイスに関するユーザ・エクスペリエンスを向上させることができる。図5は、正面に搭載されたタッチ・スクリーンと側面に搭載されたタッチパッドとを備えた携帯型デバイスの一例の正面図および側面図を示している。特定の実施形態において、携帯型デバイス500は、マルチ・タッチ式タッチ・スクリーン501をその正面に配置した筐体を備えてもよい。
携帯型デバイス500はさらに、いずれもデバイス500の側方の面または縁部に配置された、側面に搭載されたマルチ・タッチ式タッチパッド502と側面に搭載されたシングル・タッチ式タッチパッド503とを備えてもよい。特定の実施形態において、携帯型デバイス500は、多様な機能をサポートまたは実行するハードウェアおよび/またはソフトウェアを備えてもよい。例えば、携帯型デバイス500は、電話機能、チャットおよび/または電子メール機能をサポートしてもよい。携帯型デバイス500はまた、ネットワーク・データ通信もサポートし、ウェブページにアクセスして表示するためのウェブ・ブラウザを含んでいてもよい。携帯型デバイス500はさらに、Wi−Fi基地局機能、デジタル・メディア・プレイヤ機能、および/またはゲーム・デバイス機能をサポートしてもよく、組み込んでもよい。一実施形態においては、側面に搭載されたタッチパッド503を、クリック可能なボタン(クリッカブル・ボタン)またはキーパッド・デバイスに置き換えてもよい。他の実施形態においては、側面に搭載されたタッチパッド503は、マルチ・タッチ式タッチパッドであってよい。いくつかの実施形態では、タッチパッド402はシングルまたはマルチ・タッチ式デバイスであってよい。いくつかの実施形態においては、側面に搭載されたタッチパッド502は図5Aに示すようにわずかに凹状のマルチ・タッチ面を備えていてもよい。タッチ・スクリーン501および側面に搭載されたタッチパッド503は、シングル・タッチ式、デュアル・タッチ式またはマルチ・タッチ式デバイスであってよい。さらに、本発明の実施形態は、タッチ・スクリーン・デバイスを備えず、その代わりに通常の表示装置およびトラックボールまたはタックパッド(tackpad)などのポインタ・デバイスを用いて動作することができる。他の実施形態においては、携帯型デバイス500は携帯型デバイス500の背面側に背面に搭載されたタッチ面505を備えていてもよい。背面に搭載されたタッチ面505は、図5Bに示すように、携帯型デバイス500の背面の略全部または一部を覆ってもよい。背面に搭載されたタッチ面505は、マルチ・タッチ式タッチパッドまたはマルチ・タッチ式タッチ・スクリーンを備えてもよい。
携帯型デバイス500は、タッチ入力を認識し、1つ以上の対応するタッチ・イベントまたはジェスチャを判定してもよい。携帯型デバイス500がホストとなる1つ以上のアプリケーションは、その1つ以上のタッチ・イベントに対応するハンドラ機能を登録するように構成されていてもよい。特定の実施形態においては、携帯型デバイス500は、タッチ・スクリーン501、タッチパッド502、タッチパッド503、および/または背面に搭載されたタッチ面505にて実行された1つ以上のユーザのタッチ入力を認識して、1つ以上の対応するタッチ・イベントを判定してもよい。特定の実施形態においては、携帯型デバイス500は、図5Cに示す、タッチパッド502に関連付けられた「進む(forward)」側方フリック・イベントを判定してもよい。図5Cの例において、ユーザは前方横方向(矢印510で示す方向)に迅速な動きでタッチパッド502にタッチし、携帯型デバイス500のジェスチャ認識ライブラリはタッチパッド502によって生成されたデータにアクセスしてタッチパッド502に関連付けられた進む側方フリック・イベントまたはジェスチャに対応するタッチ入力を判定することができる。特定の実施形態において、携帯型デバイス500は、図5Dに示す、タッチパット502に関連付けられた「戻る(backward)」側方フリック・イベントを判定してもよい。図5Dの
例において、ユーザは後方横方向(矢印512に示す方向)への迅速な動きでタッチパッド502にタッチし、携帯型デバイス500のジェスチャ認識ライブラリはタッチパッド502によって生成されたデータにアクセスしてタッチパッド502に関連付けられた戻る側方フリック・イベントまたはジェスチャに対応するタッチ入力を判定することができる。
特定の実施形態において、携帯型デバイス500は、タップ・イベントを識別してもよい。いくつかの実施形態において、携帯型デバイス500は、図5Eに示すように、タッチパッド502に関連付けられたタップ・イベントを判定してもよい。図5Eの例において、ユーザはタッチパッド502をタップし、または軽く叩き(矢印514に示す)、携帯型デバイス500のジェスチャ認識ライブラリはユーザのタッチ入力を解釈してタップ・イベントに対応するタッチ入力を識別することができる。他の実施形態において、携帯型デバイス500は、図5Fに示すように、タッチパッド503に関連付けられたタップ・イベントを識別してもよい。図5Fの例において、ユーザはタッチパッド503をタップし、または軽く叩き(矢印516に示す)、携帯型デバイス500のジェスチャ認識ライブラリはユーザのタッチ入力を解釈してタップ・イベントに対応するタッチ入力を識別することができる。一実施形態において、携帯型デバイス500は、タッチパッド503がクリッカブル・ボタンであり、ユーザがクリッカブル・ボタンをクリックした場合、タッチパッド503に関連付けられたタップ・イベントを識別してもよい。
他の実施形態において、携帯型デバイス500は、図5G〜図5Iに示すように、背面に搭載されたタッチ面505に関連付けられたタッチ・イベントを識別してもよい。図5Gの例において、ユーザは上方向(矢印531で示す方向)への迅速な動きで背面に搭載されたタッチ面505にタッチする。携帯型デバイス500のジェスチャ認識ライブラリはユーザのタッチ入力を解釈して、背面に搭載されたタッチ面505に関連付けられた上方向のフリック・イベントまたはジェスチャに対応するタッチ入力を識別することができる。図5Hの例において、ユーザは下方向(矢印532で示す方向)への迅速な動きで背面に搭載されたタッチ面505にタッチする。携帯型デバイス500のジェスチャ認識ライブラリはユーザの入力を解釈して、背面に搭載されたタッチ面505に関連付けられた下方向のフリック・イベントまたはジェスチャに対応するタッチ入力を識別することができる。図5Iの例において、ユーザは背面に搭載されたタッチ面505をタップし、または軽く叩き(矢印533に示す)。携帯型デバイス500のジェスチャ認識ライブラリはユーザの入力を解釈して、背面に搭載されたタッチ面505に関連付けられたタップ・イベントに対応するタッチ入力を識別することができる。
図3A〜図3Cの例に示すようなタッチ・スクリーンに対するタッチ入力によるアプリケーションのユーザ・インタフェース層間のナビゲーションに対して、図6は、側面に搭載されたタッチパッドを用いた、アプリケーションのユーザ・インタフェース層間のナビゲーションを行う方法の一例を示す。すなわち、図6の方法の一例によって、ユーザが、側面に搭載されたタッチパッドを横切るフリックによるユーザ・インタフェース層間のナビゲーション、および側面に搭載された「ホーム・ボタン」をタップまたはクリックすることによるアプリケーションのホーム画面への移行を行ってもよい。タッチ・イベント(601)に対するリスナーとして、ハンドラ機能は、タッチ・イベントに対応して、アプリケーションに異なるユーザ・インタフェース層へのナビゲーションを行わせることができる。特定の実施形態においては、タッチ・イベント(601)が発生したときに、ハンドラ機能がタッチ・イベントに対応する現在のアプリケーション層の判定を行ってもよい。特定の実施形態においては、アプリケーションが、ユーザがナビゲートした層を追跡するナビゲーション履歴を記憶してもよい。特定の実施形態においては、ハンドラ機能が、タッチ・イベントが進む側方フリック・イベントであるかどうかの判定を行ってもよい(602)。特定の実施形態においては、タッチ・イベントが進む側方フリック・イベント
である場合、かつ、前方ナビゲーション履歴が現在の層の次の層を識別する場合には、ハンドラ機能がアプリケーションに次の層へのナビゲーションを行わせてもよい(603)。特定の実施形態においては、ハンドラ機能が、タッチ・イベントが戻る側方フリック・イベントであるかどうかの判定を行ってもよい(604)。特定の実施形態においては、タッチ・イベントが戻る側方フリック・イベントである場合、かつ、後方ナビゲーション履歴が現在の層の前の層を識別する場合には、ハンドラ機能がアプリケーションに前の層へのナビゲートを行わせてもよい(605)。特定の実施形態においては、ハンドラ機能が、タッチ・イベントが入力デバイス503に関連付けられたタップ・イベントであるかどうかの判定を行ってもよい(606)。特定の実施形態においては、タッチ・イベントがタップ・イベントである場合、かつ、現在の層がホーム層ではない場合、ハンドラ機能がアプリケーションにホーム層へのナビゲーションを行わせてもよい(607)。
さらに、特定の実施形態によって、上記の背面に搭載されたタッチ面を用いたアプリケーションのユーザ・インタフェース層間のナビゲーションができてもよい。例えば、タッチ・イベントのリスナーとして、ハンドラ機能は、タッチ・イベントに対応して、アプリケーションに異なるユーザ・インタフェース層へのナビゲーションを行わせることができる。タッチ・イベントが発生したときに、ハンドラ機能がタッチ・イベントに対応する現在のアプリケーション層の判定を行ってもよい。アプリケーションが、ユーザがナビゲートした層を追跡するナビゲーション履歴を記憶してもよい。ハンドラ機能が、タッチ・イベントが背面に搭載されたタッチ面505に関連付けられた上方向のフリック・イベントであるかどうかの判定を行ってもよい。タッチ・イベントが背面に搭載されたタッチ面505に関連付けられた上方向のフリック・イベントである場合、かつ、前方ナビゲーション履歴が現在の層の次の層を識別する場合には、ハンドラ機能がアプリケーションに次の層へのナビゲーションを行わせてもよい。ハンドラ機能が、タッチ・イベントが背面に搭載されたタッチ面505に関連付けられた下方向のフリック・イベントであるかどうかの判定を行ってもよい。タッチ・イベントが背面に搭載されたタッチ面505に関連付けられた下方向のフリック・イベントである場合、かつ、後方ナビゲーション履歴が現在の層の前の層を識別する場合には、ハンドラ機能がアプリケーションに前の層へのナビゲーションを行わせてもよい。ハンドラ機能が、タッチ・イベントが背面に搭載されたタッチ面505に関連付けられたタップ・イベントであるかどうかの判定を行ってもよい。タッチ・イベントが背面に搭載されたタッチ面505に関連付けられたタップ・イベントである場合、かつ、現在の層がホーム層ではない場合、ハンドラ機能がアプリケーションにホーム層へのナビゲーションを行われてもよい。
上述の前方および後方のジェスチャは、ホーム・コントロール入力と共に、多様なアプリケーションおよびコンピュータ・デバイスに関連して利用することができる。例えば、上述のように、前方および後方のジェスチャを、ホーム・コントロール入力と共に、多様なアプリケーション層のナビゲーションを容易にするために、特別な目的のクライアント・アプリケーションに関連して使用してもよい。かかる実施の形態においては、ホーム入力によってアプリケーションのホームまたはルート層へ戻すナビゲーションが行われる。前方および後方のジェスチャはまた、ホーム・コントロール入力と共に、1つ以上のドメインによって提供される一連のウェブページのナビゲーションを容易にするためにブラウザ・クライアントに関連して使用してもよい。かかる実装においては、ホーム入力によってホーム・ページへ戻すナビゲーションが行われる一方、前方および後方のジェスチャがブラウザ・クライアント・アプリケーションに共通する、対応する前方および後方のナビゲーション機能を実行してもよい。さらに、前方および後方のジェスチャを、ホーム・コントロール入力と共に、オペレーティング・システムのグラフィカル・ユーザ・インタフェース・シェルに関連して使用することができる。かかる実装においては、ホーム入力によってオペレーティング・システムのホーム画面へ戻るナビゲーションが行われる一方、前方および後方のジェスチャがオペレーティング・システム・シェルによって提供される
各層にまたがって、対応する前方および後方のナビゲーション機能を実行してもよい。
上述のアプリケーションおよび機能性を、実行されるとプログラム可能なプロセッサに上記の動作を実施させるコンピュータ可読記憶媒体に記憶された一連の命令として実施することができる。携帯型デバイス500が多様な異なるハードウェアおよびコンピュータ・システムにおいて実施されるのに対して、図7は、多様な特定の実施形態に従う、クライアントまたは携帯型デバイスのコンピューティングプラットホームの一例の主要な構成要素の概略図である。特定の実施形態において、コンピューティングプラットホーム702は、コントローラ704、メモリ706、および入出力サブシステム710を備えてもよい。特定の実施形態において、コントローラ704は、命令を実行し、コンピューティングプラットホームに関連する動作を行うように構成されている、1つ以上のプロセッサおよび/または1つ以上のマイクロコントローラを備えてもよい。各種実施形態において、コントローラ704は、シングル・チップ、マルチ・チップおよび/または1つ以上の集積回路およびプリント回路基板を含むその他の電気部品として実装してもよい。コントローラ704は、命令、データ、またはコンピュータ・アドレスの一時的なローカル記憶のためのキャッシュメモリ・ユニットを任意で備えていてもよい。例えば、メモリから読み出した命令を用いて、コントローラ704が、コンピューティングプラットホーム702の構成要素間の入出力データの受領および処理を制御してもよい。例えば、コントローラ704は、1つ以上のプロセッサ、または例えば2D/3Dグラフィックス処理、画像処理、または動画処理などのためのコンピューティングプラットホーム702の特定の処理タスク専用の1つ以上のコントローラを備えていてもよい。
コントローラ704は、適切なオペレーティング・システムと共に、コンピュータ・コードの形式の命令を実行し、データを生成および使用するように動作する。これらに限定されない例として、オペレーティング・システムは他の適切なオペレーティング・システムのうち、ウィンドウズ(WINDOWS)(登録商標)、マック(Mac)、ユニックス(UNIX)(登録商標)またはリナックス(LINUX)(登録商標)、シンビアン(Symbian)、またはアンドロイド(ANDROID(登録商標))のオペレーティング・システムであってもよい。オペレーティング・システム、他のコンピュータ・コードおよび/またはデータは、動作可能なようにコントローラ704に接続されたメモリ706内に物理的に記憶させてもよい。
メモリ706は、1つ以上の記憶媒体を含み、通常、コンピューティングプラットホーム702が用いるコンピュータ・コード(例えばソフトウェアおよび/またはファームウェア)およびデータを記憶する場所を提供してもよい。例えば、メモリ706はROM(Read−Only Memory)および/またはRAM(Random−Access Memory)を含む多様な有形のコンピュータ可読記憶媒体を含んでもよい。当該技術分野において周知のように、ROMはコントローラ704にデータおよび命令を一方向に転送し、RAMは通常、データおよび命令を双方向に転送するように用いられる。メモリ706はまた、コントローラ704に双方向に接続された他の適切な形態のメモリのうち、例えばハード・ディスク・ドライブ(HHD)、ソリッド・ステート・ドライブ(SSD)、フラッシュ・メモリ・カード(例えばセキュア・デジタル・カードすなわちSDカード、組み込みマルチ・メディア・カードすなわちeMMDカード等)などの形態の1つ以上の固定記憶デバイスも含んでいてもよい。情報は、必要に応じて、コンピューティングプラットホーム702にロードまたはインストールされた1つ以上の取り外し可能な記憶媒体にも存在してもよい。例えば、数々の適切なメモリ・カード(SDカード等)のうちのいずれかを、一時的または永久的にコンピューティングプラットホーム702にロードしてもよい。
入出力サブシステム710は、コントローラ704に動作可能に接続された1つ以上の
入力および出力デバイスを備えていてもよい。例えば、入出力サブシステムは、キーボード、マウス、1つ以上のボタン、サム・ホイール(thumb wheel)、および/またはディスプレイ(例えば、液晶ディスプレイ(LCD)、発光ダイオード(LED)、干渉変調器ディスプレイ(IMOD)、またはその他の適切な表示技術)などを含んでいてもよい。通常、入力デバイスは外部からのデータ、コマンドおよび応答をコンピューティングプラットホーム702に転送するように構成されている。ディスプレイは通常、コンピューティングプラットホーム702のユーザと携帯型デバイスにおいて動作しているオペレーティング・システムまたはアプリケーション(複数可)との間の使い易いビジュアル・インタフェースを提供するグラフィカル・ユーザ・インタフェース(GUI)を表示するように構成されている。通常、GUIはプログラム、ファイルおよび任意の動作をグラフィック・イメージで表す。動作中、ユーザは関連する機能およびタスクを起動するためにディスプレイ上に表示された多様なグラフィック・イメージを選択して起動することができる。入出力サブシステム710はまた、タッチパッドやタッチ・スクリーンなどのタッチ式デバイスも備えていてもよい。タッチパッドは、ユーザのタッチ式入力を検知する表面を備えた入力デバイスである。同様に、タッチ・スクリーンは、ユーザのタッチ入力の存在および位置を検知するディスプレイである。入出力システム710はまた、指による2つまたは3つのタッチなどの2つ以上のタッチ入力の存在、位置および移動を識別できる、デュアル・タッチ式またはマルチ・タッチ式ディスプレイまたはタッチパッドを備えていてもよい。
特定の実施形態においては、コンピューティングプラットホーム702はさらに、コンピューティングプラットホーム702の多様な機能を容易にするために動作可能にコントローラ704に接続されたオーディオ・サブシステム712、カメラ・サブシステム712、無線通信サブシステム716、センサ・サブシステム718、および/または有線通信サブシステム720を備えていてもよい。例えば、スピーカ、マイクロフォン、および音声信号を処理するように構成されたコーデック・モジュールを備えるオーディオ・サブシステム712は、音声認識、音声複製、デジタル録音、および電話機能などの音声使用可能機能を可能とするために利用することができる。例えば、光学センサ(例えば電荷結合素子(CCD)、または相補型金属酸化膜半導体(CMOS)イメージ・センサ)を備えるカメラ・サブシステム712は、写真およびビデオクリップの記録などのカメラ機能を可能とするために利用することができる。例えば、有線通信サブシステム720は、ファイル転送のためのユニバーサル・シリアル・バス(USB)ポート、またはローカル・エリア・ネットワーク(LAN)への接続のためのイーサネット(登録商標)・ポートを含むことができる。さらに、コンピューティングプラットホーム702は、電源732によって電力供給させてもよい。
無線通信サブシステム716を、例えば、無線PAN(WPAN)(例えばブルートゥース(BLUETOOTH)(登録商標)WPAN)、赤外線PAN等)、ワイファイ(WI−FI)ネットワーク(例えば802.11a/b/g/n WI−FIネットワーク、802.11sメッシュ・ネットワーク等)、ワイマックス(WI−MAX)ネットワーク、携帯電話ネットワーク(例えばグローバル・システム・フォー・モバイル・コミュニケーション(GSM)(登録商標)ネットワーク、エンハンス・データ・レート・フォー・GSM(登録商標)・エボリューション(EDGE)ネットワーク、ユニバーサル・モバイル・テレコミュニケーション・システム(UMTS)ネットワーク、および/またはロング・ターム・エボリューション(LTE)ネットワーク等)などの1つ以上の無線ネットワークにわたって動作するように設計することができる。さらに、無線通信サブシステム716は、コンピューティングプラットホーム702を他の無線デバイスの基地局として構成できるようなホスティング・プロトコルを備えていてもよい。
センサ・サブシステム718は、追加入力を行い、コンピューティングプラットホーム
702の数々の機能性を可能とするための1つ以上のセンサ・デバイスを備えていてもよい。例えば、センサ・サブシステム718は、場所の位置決めのためのGPSセンサ、高度の位置決めのための高度計、携帯式デバイスの方向を判定するためのモーション・センサ、カメラ・サブシステム714を用いた撮影機能のための光センサ、気温を測定するための温度センサ、および/または保安用途のための生体認証センサ(指紋リーダ等)を備えていてもよい。他の入出力デバイスは、デバイスの方向を検知するために用いることができる加速度計を備えていてもよい。
特定の実施形態においては、コンピューティングプラットホーム702の多様な構成要素が1つ以上のバス(ハードウェアおよび/またはソフトウェア)によって共に動作可能に接続されていてもよい。例えば、これに限定されないが、1つ以上のバスは、アクセラレーテッド・グラフィックス・ポート(AGP)またはその他のグラフィックス・バス、エンハンスト・インダストリー・スタンダード・アーキテクチャ(EISA)バス、正面側バス(FSB)、ハイパー・トランスポート(HT)相互接続、インダストリー・スタンダード・アーキテクチャ(ISA)バス、インフィニバンド相互接続、ロー・ピン・カウント(low−pin−count)(LPC)バス、メモリ・バス、マイクロ・チャネル・アーキテクチャ(MCA)バス、周辺構成要素相互接続(PCI)バス、PCIエクスプレス(PCI−X)バス、シリアル・アドバンスト・テクノロジー・アタッチメント(SATA)バス、ビデオ・エレクトロニクス・スタンダード・アソシエーション・ローカル(VLB)バス、万能非同期送受信機(UART)インタフェース、集積回路間(IC)バス、シリアル・ペリフェラル・インタフェース(SPI)バス、セキュア・デジタル(SD)メモリ・インタフェース、マルチ・メディア・カード(MMC)メモリ・インタフェース、メモリ・スティック(MS)メモリ・インタフェース、セキュア・デジタル・インプット・アウトプット(SDIO)インタフェース、マルチチャネル・バッファード・シリアル・ポート(McBSP)バス、ユニバーサル・シリアル・バス(USB)、汎用メモリ・コントローラ(GPMC)バス、SDRAMコントローラ(SDRC)バス、汎用入出力(GPIO)バス、セパレート・ビデオ(S−Video)バス、ディスプレイ・シリアル・インタフェース(DSI)バス、アドバンスト・マイクロコントローラ・バス・アーキテクチャ(AMBA)バス、またはその他の適切なバス、またはこれらのうちの2以上の組み合わせを含んでいてもよい。
ここで、コンピュータ可読記憶媒体という表現は、1つ以上の、持続性を有し、有形のコンピュータ可読記憶媒体処理構造を含む。例えば、これに限定されないが、コンピュータ可読記憶媒体は、半導体その他の集積回路(IC)(例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)または特定用途向け集積回路(ASIC)等)、ハード・ディスク、HDD、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスク・ドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピー(登録商標)ディスク、フロッピー(登録商標)ディスク・ドライブ(FDD)、磁気テープ、ホログラフィック記憶媒体、半導体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カード、セキュア・デジタル・ドライブ、マルチ・メディア・カード(MMC)、組み込みMMC(eMMC)カード、またはその他の適切なコンピュータ可読記憶媒体または、適切な場合、これらのうち2以上の組み合わせを含んでいてもよい。ここで、コンピュータ可読記憶媒体という表現には、米国特許法第101条に基づく特許権の保護の対象とならない媒体は含まれない。ここで、コンピュータ可読記憶媒体という表現には、信号伝達の一時的な形態(例えば電気的または電磁的な信号伝達それ自体)は、米国特許法第101条に基づく特許権の保護の対象とならない限りにおいて含まれない。
本開示は、1つ以上のコンピュータ可読記憶媒体が適切な記憶を実行することを意図する。特定の実施形態において、コンピュータ可読記憶媒体は、コントローラ704の1つ以上の部分(例えば1つ以上の内部レジスタまたはキャッシュ等)、メモリ705の1つ
以上の部分、または適切である場合、これらの組み合わせを実装する。特定の実施形態において、コンピュータ可読記憶媒体は、RAMまたはROMを実装する。特定の実施形態において、コンピュータ可読記憶媒体は、揮発性または継続的なメモリを実装する。特定の実施形態において、1つ以上のコンピュータ可読記憶媒体は、ソフトウェアを具現化する。ここで、ソフトウェアという表現は、1つ以上のアプリケーション、バイトコード、1つ以上のコンピュータ・プログラム、1つ以上の実行ファイル、1つ以上の命令、論理回路、マシン・コード、1つ以上のスクリプト、またはソース・コード、および適切であればその逆も含んでいてもよい。特定の実施形態において、ソフトウェアは、1つ以上のアプリケーション・プログラミング・インタフェース(API)を含む。本開示は、適切なプログラム言語またはプログラム言語の組み合わせで書かれたあるいはその他の方法で表された適切なソフトウェアを意図する。特定の実施形態において、ソフトウェアは、ソース・コードまたはオブジェクト・コードとして表される。特定の実施形態において、ソフトウェアは、例えばC、Perl、JAVA(登録商標)Script、またはそれらを適切に拡張したものなどの、高レベルのプログラム言語で表されている。特定の実施形態において、ソフトウェアは、アセンブリ言語(またはマシン・コード)などの低レベルのプログラム言語で表される。特定の実施形態において、ソフトウェアはJAVA(登録商標)で表されている。特定の実施形態において、ソフトウェアは、ハイパー・テキスト・マークアップ言語(HTML)、拡張マークアップ言語(XML)、またはその他の適切なマークアップ言語で表されている。
本開示は、当業者であれば理解できる本明細書に例示する実施形態に対する変更、置き換え、変化、調整および修正を全て包含する。同様に、適切な場合、添付の特許請求の範囲は、当業者であれば理解できる本明細書に例示する実施形態に対する変更、置き換え、変化、調整および修正を全て包含する。

Claims (19)

  1. コンピュータ・デバイスが、該コンピュータ・デバイス上で実行しているアプリケーションの現在のユーザ・インタフェースの表示中に該コンピュータ・デバイスの側面に搭載されたタッチパッドにおけるタッチ・イベントを検知する工程であって、前記アプリケーションはナビゲーション階層を含み、該ナビゲーション階層は、ホーム・ユーザ・インタフェース層と、複数のサブ・ユーザ・インタフェース層と、複数のユーザ・インタフェース・ブランチとを含む、前記工程と、
    前記コンピュータ・デバイスが、前記現在のユーザ・インタフェースが対応する特定のサブ・ユーザ・インタフェース層と特定のユーザ・インタフェース・ブランチとを判定する工程と、
    前記コンピュータ・デバイスが、前記タッチ・イベントの種類を判定する工程と、
    該タッチ・イベントの種類が進むタッチ・イベントであり、かつ、前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチに次のユーザ・インタフェース層が存在する場合、前記コンピュータ・デバイスが、前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチにおける該次のユーザ・インタフェース層にナビゲートする工程と、
    該タッチ・イベントの種類が戻るタッチ・イベントであり、かつ、前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチに前のユーザ・インタフェース層が存在する場合、前記コンピュータ・デバイスが、前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチにおける該前のユーザ・インタフェース層にナビゲートする工程と、を備える方法。
  2. 前記タッチ・イベントの種類がタップ・イベントである場合、前記コンピュータ・デバイスが、前記ホーム・ユーザ・インタフェース層に直接ナビゲートする工程をさらに備える、請求項1に記載の方法。
  3. 前記タッチ・イベントが進むタッチ・イベントであるか戻るタッチ・イベントであるかの判定は、
    前記側面に搭載されたタッチパッドにおける前記タッチ・イベントの位置と、
    前記側面に搭載されたタッチパッドにおける前記タッチ・イベントの方向と、
    前記側面に搭載されたタッチパッドにおける前記タッチ・イベントの時間と、のうちの1つ以上に基づく、請求項1に記載の方法。
  4. 前記アプリケーションはウェブ・ブラウザである、請求項1に記載の方法。
  5. 前記アプリケーションはオペレーティング・システムである、請求項1に記載の方法。
  6. 前記側面に搭載されたタッチパッドは凹面を備える、請求項1に記載の方法。
  7. 装置であって、
    ディスプレイと、
    側面に搭載されたタッチパッドと、
    1つ以上のプロセッサと、
    前記プロセッサに接続されているメモリであって、前記プロセッサによって実行可能な命令を含むメモリと、を備える装置であって、
    前記命令の実行時、前記プロセッサは、
    前記装置上で実行しているアプリケーションの現在のユーザ・インタフェースの表示中に前記装置の側面に搭載されたタッチパッドにおけるタッチ・イベントを検知する工程であって、前記アプリケーションはナビゲーション階層を含み、該ナビゲーション階層は、
    ホーム・ユーザ・インタフェース層と、複数のサブ・ユーザ・インタフェース層と、複数のユーザ・インタフェース・ブランチとを含む、前記工程と、
    前記現在のユーザ・インタフェースが対応する特定のサブ・ユーザ・インタフェース層と特定のユーザ・インタフェース・ブランチとを判定する工程と、
    前記タッチ・イベントの種類を判定する工程と、
    該タッチ・イベントの種類が進むタッチ・イベントであり、かつ、前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチに次のユーザ・インタフェース層が存在する場合、前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチにおける該次の層にナビゲートする工程と、
    該タッチ・イベントの種類が戻るタッチ・イベントであり、かつ、前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチに前のユーザ・インタフェース層が存在する場合、
    前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチにおける該前のユーザ・インタフェース層にナビゲートする工程と、を実行するように動作可能である、装置。
  8. 前記命令の実行時、前記プロセッサは、前記タッチ・イベントの種類がタップ・イベントである場合、前記ホーム・ユーザ・インタフェース層に直接ナビゲートする工程を実行するようにさらに動作可能である、請求項7に記載の装置。
  9. 前記命令の実行時、前記プロセッサは、前記タッチ・イベントが進むタッチ・イベントであるか戻るタッチ・イベントであるかを
    前記側面に搭載されたタッチパッドにおける前記タッチ・イベントの位置と、
    前記側面に搭載されたタッチパッドにおける前記タッチ・イベントの方向と、
    前記側面に搭載されたタッチパッドにおける前記タッチ・イベントの時間と、のうちの1つ以上に基づき判定する工程を実行するようにさらに動作可能である、請求項7に記載の装置。
  10. 前記ディスプレイはタッチ・スクリーンである、請求項7に記載の装置。
  11. 前記側面に搭載されたタッチパッドは凹面を備える、請求項7に記載の装置。
  12. 前記アプリケーションはウェブ・ブラウザである、請求項7に記載の装置。
  13. 前記アプリケーションはオペレーティング・システムである、請求項7に記載の装置。
  14. ソフトウェアを具現化する1つ以上の非一時的なコンピュータ可読記憶媒体であって、実行時、該ソフトウェアは、
    コンピュータ・デバイス上で実行しているアプリケーションの現在のユーザ・インタフェースの表示中に前記コンピュータ・デバイスの側面に搭載されたタッチパッドにおけるタッチ・イベントを検知する工程であって、前記アプリケーションはナビゲーション階層を含み、該ナビゲーション階層は、ホーム・ユーザ・インタフェース層と、複数のサブ・ユーザ・インタフェース層と、複数のユーザ・インタフェース・ブランチとを含む、前記工程と、
    前記現在のユーザ・インタフェースが対応する特定のサブ・ユーザ・インタフェース層と特定のユーザ・インタフェース・ブランチとを判定する工程と、
    前記タッチ・イベントの種類を判定する工程と、
    該タッチ・イベントの種類が進むタッチ・イベントであり、かつ、前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチに次のユーザ・インタフェース層が存在する場合、前記現在のユーザ・インタフェースの前記特定のユーザ・イン
    タフェース・ブランチにおける該次の層にナビゲートする工程と、
    該タッチ・イベントの種類が戻るタッチ・イベントであり、かつ、前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチに前のユーザ・インタフェース層が存在する場合、前記現在のユーザ・インタフェースの前記特定のユーザ・インタフェース・ブランチにおける該前のユーザ・インタフェース層にナビゲートする工程と、を実行するように動作可能である、媒体。
  15. 前記ソフトウェアは、実行時、
    前記タッチ・イベントの種類がタップ・イベントである場合、前記ホーム・ユーザ・インタフェース層に直接ナビゲートする工程、を実行するようにさらに動作可能である、請求項14に記載の媒体。
  16. 前記ソフトウェアは、実行時、
    前記タッチ・イベントが進むタッチ・イベントであるか戻るタッチ・イベントであるかを
    前記側面に搭載されたタッチパッドにおける前記タッチ・イベントの位置と、
    前記側面に搭載されたタッチパッドにおける前記タッチ・イベントの方向と、
    前記側面に搭載されたタッチパッドにおける前記タッチ・イベントの時間と、のうちの1つ以上に基づき判定する工程を実行するようにさらに動作可能である、請求項14に記載の媒体。
  17. 前記アプリケーションはウェブ・ブラウザである、請求項14に記載の媒体。
  18. 前記アプリケーションはオペレーティング・システムである、請求項14に記載の媒体。
  19. 前記側面に搭載されたタッチパッドは凹面を備える、請求項14に記載の媒体。
JP2015173781A 2011-10-17 2015-09-03 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション Pending JP2016027481A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/275,095 2011-10-17
US13/275,095 US8711116B2 (en) 2011-10-17 2011-10-17 Navigating applications using side-mounted touchpad

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014537067A Division JP5806411B2 (ja) 2011-10-17 2012-09-13 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018108529A Division JP6663453B2 (ja) 2011-10-17 2018-06-06 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション

Publications (1)

Publication Number Publication Date
JP2016027481A true JP2016027481A (ja) 2016-02-18

Family

ID=48085662

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2014537067A Active JP5806411B2 (ja) 2011-10-17 2012-09-13 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション
JP2015173781A Pending JP2016027481A (ja) 2011-10-17 2015-09-03 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション
JP2018108529A Active JP6663453B2 (ja) 2011-10-17 2018-06-06 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014537067A Active JP5806411B2 (ja) 2011-10-17 2012-09-13 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018108529A Active JP6663453B2 (ja) 2011-10-17 2018-06-06 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション

Country Status (12)

Country Link
US (3) US8711116B2 (ja)
EP (1) EP2769287B1 (ja)
JP (3) JP5806411B2 (ja)
KR (1) KR101555627B1 (ja)
CN (1) CN103890697B (ja)
AU (3) AU2012326592B2 (ja)
BR (1) BR112014009521A2 (ja)
CA (3) CA2907550C (ja)
IL (2) IL232191A (ja)
IN (1) IN2014CN03013A (ja)
MX (2) MX344760B (ja)
WO (1) WO2013058896A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102389147B1 (ko) 2007-09-24 2022-04-21 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8711116B2 (en) * 2011-10-17 2014-04-29 Facebook, Inc. Navigating applications using side-mounted touchpad
JP2013235344A (ja) * 2012-05-07 2013-11-21 Sony Computer Entertainment Inc 入力装置、入力制御方法、及び入力制御プログラム
EP2850510A2 (en) * 2012-05-18 2015-03-25 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
JP6217633B2 (ja) * 2012-06-27 2017-10-25 日本電気株式会社 携帯端末装置、携帯端末装置の制御方法、及びプログラム
US9001035B2 (en) * 2012-10-19 2015-04-07 Red Bird Rising, Llc Configured input display for communicating to computational apparatus
US10373149B1 (en) 2012-11-12 2019-08-06 Square, Inc. Secure data entry using a card reader with minimal display and input capabilities having a display
US20140173466A1 (en) * 2012-12-14 2014-06-19 Microsoft Corporation Transitions within views of conversation environments
TWI474266B (zh) * 2012-12-20 2015-02-21 Inst Information Industry 觸控方法及手持裝置
TWI492119B (zh) * 2013-07-01 2015-07-11 原相科技股份有限公司 手持式電子裝置
US20150058809A1 (en) * 2013-08-23 2015-02-26 General Electric Company Multi-touch gesture processing
US9613353B1 (en) 2013-12-26 2017-04-04 Square, Inc. Passcode entry through motion sensing
JP2017107252A (ja) * 2014-04-14 2017-06-15 シャープ株式会社 表示装置及び電子機器
US9927927B2 (en) 2014-05-05 2018-03-27 Atmel Corporation Implementing a virtual controller outside an area of a touch sensor
JP6092157B2 (ja) * 2014-06-09 2017-03-08 富士フイルム株式会社 電子機器、電子機器の表示制御方法、及び電子機器の表示制御プログラム
US20160070446A1 (en) * 2014-09-04 2016-03-10 Home Box Office, Inc. Data-driven navigation and navigation routing
US9681765B2 (en) * 2014-09-30 2017-06-20 Pamela Ann Cignarella Interactive children's table dishes
CN105573574A (zh) * 2014-10-09 2016-05-11 阿里巴巴集团控股有限公司 应用界面的导航方法及装置
DE102014019626A1 (de) * 2014-12-23 2016-06-23 Aleksej Kadnikov Handheld-Gerät mit verbesserte Bedienbarkeit Funktions- und Betriebssicherheit
CN104811523A (zh) * 2015-05-13 2015-07-29 努比亚技术有限公司 按键控制方法、移动终端
US9912364B2 (en) 2015-06-25 2018-03-06 International Business Machines Corporation Mobile application interaction guide via tactile feedback
CN105549868A (zh) * 2015-07-25 2016-05-04 宇龙计算机通信科技(深圳)有限公司 一种移动终端操作处理方法、装置和移动终端
US9619802B1 (en) * 2015-12-09 2017-04-11 Square, Inc. Interception of touch pad events for handling in a secure environment
US10209821B2 (en) 2016-04-05 2019-02-19 Google Llc Computing devices having swiping interfaces and methods of operating the same
WO2018208047A1 (en) 2017-05-09 2018-11-15 Samsung Electronics Co., Ltd. Method and system for managing and displaying application
KR20190027553A (ko) * 2017-09-07 2019-03-15 주식회사 하이딥 측면에 터치 압력 감지부를 구비한 휴대용 단말기
WO2020194163A1 (en) * 2019-03-24 2020-10-01 Rayapati Sandeep Kumar User interface system, method and device
CN112035271B (zh) * 2019-06-04 2023-10-10 杭州海康威视数字技术股份有限公司 用户操作信息的处理方法、装置、电子设备及存储介质
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
WO2022065767A1 (ko) * 2020-09-28 2022-03-31 한영수 대화면의 휴대용 단말기를 한손으로도 편하게 사용할 수 있도록, swipe 및 touch, 누르는 압력세기등등의 다양한 제스처를 인식하는 버튼이나 테두리등의 구조물

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03202914A (ja) * 1989-12-29 1991-09-04 Pfu Ltd 画面移動制御方式
JPH04128787A (ja) * 1990-09-19 1992-04-30 Hitachi Ltd 表示画面切換方式
JP2005107861A (ja) * 2003-09-30 2005-04-21 Konami Computer Entertainment Japan Inc ウェブページの表示方法
JP2006244380A (ja) * 2005-03-07 2006-09-14 Konica Minolta Business Technologies Inc 画面表示装置、画面表示方法、およびコンピュータプログラム
JP2007187708A (ja) * 2006-01-11 2007-07-26 Kenwood Corp ポータブル音楽機器、および、プログラム
JP2008047159A (ja) * 2007-10-30 2008-02-28 Kyocera Corp 携帯情報端末装置及びこれに用いられる画面遷移制御方法
JP2010231653A (ja) * 2009-03-27 2010-10-14 Softbank Mobile Corp 表示装置、表示方法、およびプログラム
WO2010147704A1 (en) * 2009-06-16 2010-12-23 Intel Corporation Optical capacitive thumb control with pressure sensor
US20110179368A1 (en) * 2010-01-19 2011-07-21 King Nicholas V 3D View Of File Structure

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2411331A (en) 2004-02-19 2005-08-24 Trigenix Ltd Rendering user interface using actor attributes
CN100592247C (zh) * 2005-09-21 2010-02-24 鸿富锦精密工业(深圳)有限公司 多层次菜单显示装置及其显示控制方法
US8269725B2 (en) * 2006-06-28 2012-09-18 Microsoft Corporation Input simulation system for touch based devices
CN101675410A (zh) * 2007-02-23 2010-03-17 Tp-I股份有限公司 使用数字装置中的指点设备的虚拟键盘输入***
US8677285B2 (en) * 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
KR101470543B1 (ko) * 2008-02-15 2014-12-08 엘지전자 주식회사 터치스크린을 구비하는 휴대 단말기 및 그 동작 제어방법
CN101615101A (zh) * 2008-06-25 2009-12-30 启碁科技股份有限公司 用于具有触控屏幕的电子装置的操控方法及其操控界面
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
US8654085B2 (en) * 2008-08-20 2014-02-18 Sony Corporation Multidimensional navigation for touch sensitive display
US8332400B2 (en) * 2008-09-23 2012-12-11 Sage Inventions, Llc System and method for managing web search information in navigation hierarchy
WO2010036050A2 (en) 2008-09-26 2010-04-01 Lg Electronics Inc. Mobile terminal and control method thereof
US8674951B2 (en) 2009-06-16 2014-03-18 Intel Corporation Contoured thumb touch sensor apparatus
KR101631912B1 (ko) * 2009-11-03 2016-06-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US8441460B2 (en) * 2009-11-24 2013-05-14 Mediatek Inc. Apparatus and method for providing side touch panel as part of man-machine interface (MMI)
US8860672B2 (en) * 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
US8712931B1 (en) * 2011-06-29 2014-04-29 Amazon Technologies, Inc. Adaptive input interface
US8711116B2 (en) * 2011-10-17 2014-04-29 Facebook, Inc. Navigating applications using side-mounted touchpad

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03202914A (ja) * 1989-12-29 1991-09-04 Pfu Ltd 画面移動制御方式
JPH04128787A (ja) * 1990-09-19 1992-04-30 Hitachi Ltd 表示画面切換方式
JP2005107861A (ja) * 2003-09-30 2005-04-21 Konami Computer Entertainment Japan Inc ウェブページの表示方法
JP2006244380A (ja) * 2005-03-07 2006-09-14 Konica Minolta Business Technologies Inc 画面表示装置、画面表示方法、およびコンピュータプログラム
JP2007187708A (ja) * 2006-01-11 2007-07-26 Kenwood Corp ポータブル音楽機器、および、プログラム
JP2008047159A (ja) * 2007-10-30 2008-02-28 Kyocera Corp 携帯情報端末装置及びこれに用いられる画面遷移制御方法
JP2010231653A (ja) * 2009-03-27 2010-10-14 Softbank Mobile Corp 表示装置、表示方法、およびプログラム
WO2010147704A1 (en) * 2009-06-16 2010-12-23 Intel Corporation Optical capacitive thumb control with pressure sensor
US20110179368A1 (en) * 2010-01-19 2011-07-21 King Nicholas V 3D View Of File Structure

Also Published As

Publication number Publication date
EP2769287A1 (en) 2014-08-27
CA2929619A1 (en) 2013-04-25
CA2907550C (en) 2016-08-30
MX353890B (es) 2018-02-01
CA2852664C (en) 2016-01-05
IN2014CN03013A (ja) 2015-07-03
JP6663453B2 (ja) 2020-03-11
IL249114A0 (en) 2017-01-31
US8976142B2 (en) 2015-03-10
IL232191A (en) 2016-12-29
EP2769287A4 (en) 2015-04-15
AU2015285964B2 (en) 2016-06-09
KR101555627B1 (ko) 2015-09-24
AU2015285964A1 (en) 2016-01-28
EP2769287B1 (en) 2017-10-25
AU2012326592B2 (en) 2015-10-01
KR20140082817A (ko) 2014-07-02
US20130093687A1 (en) 2013-04-18
CA2852664A1 (en) 2013-04-25
CN103890697B (zh) 2017-10-31
AU2012326592A1 (en) 2014-05-15
AU2016222381B2 (en) 2016-12-08
CA2907550A1 (en) 2013-04-25
JP5806411B2 (ja) 2015-11-10
JP2014530443A (ja) 2014-11-17
WO2013058896A1 (en) 2013-04-25
AU2016222381A1 (en) 2016-09-22
BR112014009521A2 (pt) 2017-05-09
MX2014004717A (es) 2015-02-12
US8866786B2 (en) 2014-10-21
US20140125617A1 (en) 2014-05-08
US20140333568A1 (en) 2014-11-13
CA2929619C (en) 2017-06-27
CN103890697A (zh) 2014-06-25
US8711116B2 (en) 2014-04-29
MX344760B (es) 2017-01-05
IL249114B (en) 2020-05-31
JP2018156680A (ja) 2018-10-04
IL232191A0 (en) 2014-06-30

Similar Documents

Publication Publication Date Title
JP6663453B2 (ja) 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション
US10712925B2 (en) Infinite bi-directional scrolling
US11256396B2 (en) Pinch gesture to navigate application layers
AU2013352248B2 (en) Using clamping to modify scrolling
US9348364B2 (en) Content scrolling and transitioning using touchpad input
US20130093688A1 (en) Virtual Soft Keys in Graphic User Interface with Side Mounted Touchpad Input Device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170321

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180206