JP5991808B2 - 触覚フィードバック支援によるテキスト操作 - Google Patents

触覚フィードバック支援によるテキスト操作 Download PDF

Info

Publication number
JP5991808B2
JP5991808B2 JP2011264400A JP2011264400A JP5991808B2 JP 5991808 B2 JP5991808 B2 JP 5991808B2 JP 2011264400 A JP2011264400 A JP 2011264400A JP 2011264400 A JP2011264400 A JP 2011264400A JP 5991808 B2 JP5991808 B2 JP 5991808B2
Authority
JP
Japan
Prior art keywords
text
generated
type
haptic
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011264400A
Other languages
English (en)
Other versions
JP2012118993A (ja
Inventor
ラムステイン クリストファー
ラムステイン クリストファー
バーンバウム デヴィッド
バーンバウム デヴィッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2012118993A publication Critical patent/JP2012118993A/ja
Application granted granted Critical
Publication of JP5991808B2 publication Critical patent/JP5991808B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

一実施の形態は、概してコンピュータータッチスクリーンに関し、特に、コンピュータータッチスクリーン用の触覚(ハプティック)フィードバックに関する。
タッチスクリーンは、表示領域内でタッチがあったこと及びその位置を検出することができる電子視覚ディスプレイである。「タッチ」は、一般に、デバイスのディスプレイを指又は手で触れることをいう。タッチスクリーンはまた、スタイラス等、他のパッシブオブジェクト(passive object)又はアクティブオブジェクト(active object)を検知することができる。
タッチスクリーンは2つの主な属性を有している。第1に、タッチスクリーンは、人が、マウス又はタッチパッドによって制御されるカーソルにより間接的にではなく、表示されているものと直接やりとりすることができるようにする。第2に、タッチスクリーンは、人がそのようなやりとりを、本来手で保持する必要のある、いかなる中間デバイスも必要とすることなく行えるようにする。タッチスクリーンを、コンピューターに又は端末としてネットワークに取り付けることができる。タッチスクリーンはまた、携帯情報端末(「PDA」)、パーソナルメディアプレイヤー(「PMP」)、衛星航法装置、携帯電話、及びビデオゲーム等、デジタル装置の設計において大きな役割も果たしている。
タッチスクリーンは、ワードプロセッシング、スプレッドシート等の標準的な「オフィス」アプリケーションを実施するコンピューター又はコンピューター「パッド」とともにますます使用されている。タッチ機能は、これらのアプリケーションのユーザーエクスペリエンスを向上させることができる場合がある。
一実施の形態は、タッチスクリーンに表示されているテキストの操作に応じて触覚効果を生成する該タッチスクリーンを備えたシステムである。本システムは、テキスト内のタッチを検知し、そのタッチがテキストの操作であるか否かを判断し、操作のタイプを特定する。そして、システムは、特定された操作のタイプに少なくとも部分的に基づく、或るタイプの触覚イベントを生成する。
本発明の一実施形態によるデバイスの平面図である。 本発明の一実施形態による触覚フィードバックシステムのブロック図である。 テキスト操作に応じて触覚フィードバックを提供する発明の一実施形態を示す図である。 指が左から右に移動して、単語の量を増やしながら選択/強調表示する際の拡大ウインドウの推移を示す図である。 一実施形態による、テキスト操作に応じて触覚フィードバックを生成する場合の触覚フィードバックモジュールの機能の流れ図である。
一実施形態は、ユーザーのジェスチャに応じて及び/又はテキストの内容に基づいて触覚フィードバック効果を組み込むことにより、ユーザーのテキスト操作を容易にするタッチスクリーンを有するデバイスである。したがって、ユーザーは、テキストのサイズ、タッチスクリーンのサイズ、又はユーザーが自身の人差し指若しくは他の物体の下にあるテキストを見ることができるか否かにかかわらず、より容易にかつ効率的にテキストを操作するとともにテキストとやりとりすることができる。
図1は、本発明の一実施形態によるデバイス50の平面図である。デバイス50は、図示するように、ハンドヘルドコンピュータータブレット又はパッドであり、タッチスクリーン55を有している。しかしながら、デバイス50を、他の実施形態では、PDA、ポータブルメディアプレイヤー、ポータブルゲーム機等を含む、タッチスクリーンを有するいかなるタイプのハンドヘルドデバイスとすることも可能である。デバイス50は、テキスト58を生成するアプリケーションを実行し、ユーザーが、指56又は他の物体を用いてテキスト58とやりとりし、テキスト58を操作することができるようにする。やりとりに応じて、デバイス50は、指56によって感覚することができる振動の形態とすることができる、触覚フィードバック54を生成する。デバイス50はまた、任意選択で、ユーザーが、マウス、タッチパッド等のような他のインターフェースデバイスを用いてテキスト58を操作するのを可能にすることができる。
テキストの操作は、ユーザーが表示されたテキスト/文字に対して又はそれらに応じて実行することができる任意のタスクを含むことができる。操作の例には、ユーザーがテキストの本文内でカーソルを移動させること、表示されたテキスト中の特定の文字、単語、若しくは行を選択すること、及び表示されたテキストの一部をコピーしてペーストすること、テキストの一部の位置を変更すること、テキストを削除すること、テキストスタイル(例えば、太さ、傾き等)、サイズ、色、若しくは字体(例えばフォント)、順序(例えばアルファベット順リスト)を変更すること、作表、アウトライン、行間、カーニング等を書式設定すること、又は他の動作が挙げられる。
図2は、本発明の一実施形態による触覚フィードバックシステム10のブロック図である。システム10は、図1のデバイス50の一部であり、テキスト操作機能に応じて触覚フィードバックを提供する。システム10の機能は、単一システムとして示されるが、分散システムとして実施することができる。システム10は、情報を通信するバス12又は他の通信機構と、バス12に結合され情報を処理するプロセッサ22とを有している。プロセッサ22を、いかなるタイプの汎用プロセッサ又は専用プロセッサとすることも可能である。システム10は、更に情報及びプロセッサ22が実行する命令を格納するメモリ14を有している。メモリ14を、ランダムアクセスメモリ(「RAM」)、リードオンリーメモリ(「ROM」)、磁気ディスク若しくは光ディスク等の静的記憶装置、又は他の任意のタイプのコンピューター可読媒体から構成することができる。
コンピューター可読媒体を、プロセッサ22がアクセスすることができる任意の利用可能な媒体とすることができ、コンピューター可読媒体には、揮発性媒体及び不揮発性媒体の両方、リムーバブル媒体及び非リムーバブル媒体、並びに通信媒体が含まれる。通信媒体は、コンピューター可読命令、データ構造、プログラムモジュール、又は搬送波若しくは他の伝送機構等の変調データ信号での他のデータを含むことができ、任意の情報配信媒体(information delivery media)を含む。
一実施形態では、メモリ14は、プロセッサ22によって実行されるときに機能を提供するソフトウェアモジュールを格納する。モジュールは、システム10のためのオペレーティングシステム機能を提供するオペレーティングシステム15を、一実施形態におけるデバイス50の他のものと同様に含む。モジュールは、以下でより詳細に開示するように、テキスト操作を認識し触覚フィードバックを生成する触覚フィードバックモジュール16を更に含む。システム10は、通常、モジュール16にまだ組み込まれていない場合、図1のテキスト58を生成するワードプロセッシングアプリケーション等の追加の機能を含む1つ又は複数の追加のアプリケーションモジュール18を有している。
システム10は、遠隔ソースにデータを送信し及び/又はそこからデータを受信する実施形態では、赤外線、無線、Wi−Fi、又は携帯電話ネットワーク通信等のモバイル無線ネットワーク通信を提供する、ネットワークインターフェースカード等の通信デバイス20を更に有している。他の実施形態では、通信デバイス20は、イーサネット(登録商標)接続又はモデム等の有線ネットワーク接続を提供する。
プロセッサ22は、グラフィカル表現又はユーザーインターフェースをユーザーに表示し、ユーザーのタッチを認識するために、バス12を介してタッチスクリーンディスプレイ24に更に結合されている。タッチスクリーンディスプレイ24を、マルチタッチスクリーンを含む任意のタイプのタッチスクリーンとすることができる。
システム10は、1つ又は複数のアクチュエータ26を更に有している。プロセッサ22は、触覚効果又は「触覚イベント」に関連する触覚信号をアクチュエータ26に送信することができ、それによりアクチュエータ26は触覚フィードバック/効果を出力する。アクチュエータ26は、例えば、電気モーター、電磁アクチュエータ、音声コイル、圧電アクチュエータ、形状記憶合金、電気活性ポリマー、ソレノイド、偏心回転質量モーター(eccentric rotating mass motor)(「ERM」)、又はリニア共振アクチュエータ(linear resonant actuator)(「LRA」)とすることができる。図1のデバイス50の場合、アクチュエータ26は、タッチスクリーン55若しくはデバイス50のハウジングに結合されか、又はデバイス50から遠隔に配置されうるが、依然としてユーザーによってアクセス可能とすることができる。例えば、プロセッサ22からの信号によって生成される触覚フィードバックを、ユーザーの遠隔電話又は時計に「表示する」か又はそこで感知することができる。
一実施形態では、ユーザーがテキストを横切って指をドラッグすると、1つ又は複数のタイプの触覚フィードバックが、ユーザーに対して、テキストに対する指の位置に関する情報を提供することができる。一実施形態では、触覚フィードバックは、アクチュエータによって生成される振動であり、振動の振幅及び/若しくは周波数を変更するか、又は個々の触覚イベントの持続時間を変更することにより、種々のタイプの触覚フィードバック、又はユーザーによって識別可能な種々の触覚フィードバック「イベント」を生成することができる。いくつかの実施形態では、触覚フィードバックとともに、通常、ユーザーの指によって視覚的に遮られるカーソルの位置を見つけることができるように、テキストが拡大される。
図3は、テキスト操作に応じて触覚フィードバックを提供する発明の一実施形態を示す。図3に示すように、指56が、タッチスクリーン55にタッチすることによりテキスト58の一部を選択する。図3の実施形態では、指56によって覆われるテキスト(すなわち、「back' with un」)を表示するために、拡大ウインドウ70が生成される。ユーザーが最初にテキスト58にタッチしたときに、カーソルの初期位置を示す「ハンドル」78が表示される。指56がハンドル78から右又は左にスライドすると、テキストのその部分が強調表示され(強調表示74)、ユーザーがテキストのその部分を選択していることが示される。指56がテキスト58を横切ってスライドする時、異なる触覚イベントが、例えば、指56がテキスト文字を覆っているか又は文字間若しくは単語間のスペースにあることを示す指標を生成している。
図4は、指56が左から右に移動し、単語の量を増やしながら選択/強調表示する際の拡大ウインドウ70の推移を示す。図示するように、ウインドウ70は、指56がテキスト58の種々の単語を遮るに従い、「ch back' with」の表示から「back' with un」の表示へ、さらに「for an ever-gr」の表示へ推移する。
指56がテキスト58を横切ってタッチするか又はスライドするに従い、指56の位置、テキストの内容等に応じて、種々の触覚イベントを生成することができる。例えば、文字が選択される場合、特定の触覚フィードバックイベントが生成される。一意の文字を一意の触覚イベントに関連付けることができる。文字群を触覚イベント群に関連付けることができる。さらに、完全な単語が選択される場合、異なる触覚イベントが生成される。完全な単語の選択を、選択されたスペースを探すことにより、又は他の手段により達成することができる。さらに、行が選択される場合、異なる触覚イベントが生成される。行の選択を、選択された改行文字を探すことにより、又は他の手段により達成することができる。またさらに、段落が選択される場合、異なる触覚イベントが生成される。段落の選択を、選択された段落区切り文字を探すことにより、又は他の手段より達成することができる。
さらに、触覚イベントを、選択された項目の最後に生成することができる。例えば、単語、文、又は段落が選択される場合、その単語、文、又は段落の最後に達すると、触覚イベントが生成される。この生成は、ジェスチャの方向によって決めることができ、そのため、例えば単語の場合、当該方向が左から右である場合は、最後の文字に達したときに触覚イベントが生成され、当該方向が右から左である場合は、最初の文字に達したときに触覚イベントが生成される(テキストが左から右に読まれるように意図されているものとする)。
一実施形態では、触覚イベントのタイプが、速度等、他のジェスチャのパラメーターによって影響を受ける場合がある。例えば、高速なジェスチャにより、低速なジェスチャのときに通常発生する触覚イベントのうちのいくつかを取り除くことができる。したがって、ユーザーがテキストを横切って指を低速に移動させている場合、触覚フィードバックは、文字間のスペースに遭遇したときに触覚イベントのタイプを変更することによって、ユーザーが各文字を感知するのを可能にすることができる。一方、ユーザーがテキストを横切って指をより迅速に移動させている場合、触覚フィードバックは、単語間のスペースに遭遇したときに触覚イベントのタイプを変更することによって、ユーザーが文字ではなく各個々の単語を感知することを可能にすることができる。速度の他の変形形態により、例えば、文又は段落を触覚イベントによって識別することができる。
図5は、一実施形態による、テキスト操作に応じて触覚フィードバックを生成するときの触覚フィードバックモジュール16の機能のフローチャートである。一実施形態では、図5のフローチャートの機能は、メモリ若しくは他のコンピューター可読媒体又は有形の媒体に格納され、プロセッサによって実行されるソフトウェアによって実施される。他の実施形態では、機能を、ハードウェアにより(例えば、特定用途向け集積回路(「ASIC」)、プログラマブルゲートアレイ(「PGA」)、フィールドプログラマブルゲートアレイ(「FPGA」)等を使用することによって)、又はハードウェア及びソフトウェアの任意の組合せによって実行することができる。
502において、モジュール16は、図1のタッチスクリーン55等のディスプレイにおいて、生成されたテキスト又は文字内でのジェスチャを検出する。「テキスト」は、アプリケーションによって生成される任意のタイプの文字、又はデータベースクエリ若しくは他の発生の結果として表示されるデータとすることができる。概して、テキストは、動的に生成され、より静的な入力コントロール、又はテキスト若しくはデータを制御若しくは変更するために用いられる他のタイプのユーザーインターフェースとは異なる。大部分の実施形態では、テキストは、UIコントロール及び他の非テキスト領域から分離されているディスプレイの領域に表示される。
504において、ジェスチャが、ユーザーの指又は他の物体がテキストに接触したものであると判断された場合、モジュール16は、ユーザーが、テキストを選択しようとしているか、又はテキスト内にカーソルを配置しようとしているか、又は他の方法でテキストを操作するように試みているかを判断する。
504においてYES(はい)である場合、506において、テキスト選択又はカーソル挿入のタイプに基づいて、触覚フィードバックイベントが検索及び/又は生成される。例えば、文字が選択されているか、単語が選択されているか、行が選択されているか、又は段落が選択されているかに応じて、異なる触覚イベントを生成することができる。
触覚イベントを、選択中ではなくカーソルがテキスト内で移動しているときに提供することができる。カーソル配置を、区別するために選択とは異なる感覚とするか、又はユーザーエクスペリエンスの一貫性を重視するために同じ感覚とすることができる。
一実施形態では、テキストの種々の部分に適用する種々の触覚イベントを判断するインテリジェントテキスト処理(intelligent text processing)を用いて、触覚フィードバックを、選択が発生しているときの他の「関心点」において提供することも可能である。例えば、ユーザーが連絡先の名前、又は電話番号であると認識される一続きの番号を選択するときに、触覚効果を再生することができる。例えば、電子メール等のテキストには、アドレスが埋め込まれている可能性がある。アドレスは、ユーザーがタッチしたときに一意の触覚効果を生成することができ、そのため、テキストの残りのものから容易に識別することができる。したがって、ユーザーは、触覚フィードバックによって支援されてテキストアドレスを選択し、例えば、別のアプリケーションにアドレスをペーストすることができる。
触覚効果を、テキストの意味的内容(semantic context)に基づいて生成することができる。例えば、テキストが、所与の知識領域内の概念、用語及び関係の形式的記述により、意味的に(semantically)処理されるか又は注釈付けされる場合、これらの注釈は触覚効果を生成することができる。
触覚イベントは、選択されたテキストに対して行われるべき動作の可用性を示すことができる。例えば、或る触覚フィードバック効果を、選択されたテキストに「ペースト」コマンドを適用可能な場合又はその逆の場合に、生成することができる。さらに、カット、コピー、ペースト、挿入等のような、他のテキスト選択/操作機能が各々、一意の触覚効果を有することができ、それらを選択に関連付けることができる。例えば、「ペースト」に関連する触覚効果は、ペーストされているテキストの量とともに変化する強さを有することができる。ペースト効果の強さは、選択される個々の文字各々によって生成される触覚強さの合計を反映したものとすることができる。
実施形態は「テキスト」を例示するが、他の実施形態では、ユーザーが画面でのジェスチャによって選択したいと望む可能性がある、アイコン、画像、又は画面上に表示される他の仮想オブジェクト/ユーザーインターフェース(「UI」)オブジェクトを含む、UI要素又は他のタイプの「オブジェクト」の選択の操作を検出することができる。例えば、前景セクション及び背景セクションを有する画像が表示される場合、ユーザーの指が前景から背景に移動する際に触覚イベントを生成することができる。さらに、複数のアイコンが表示される場合、ユーザーがアイコン間で移動する際に触覚効果を変更することができる。
開示するように、実施形態は、ユーザーがテキスト、他のタイプの文字、又は他の情報を操作する際に、さまざまな触覚イベントを生成する。さまざまな触覚イベントは、ユーザーが、テキストのコピー及びペースト、テキストの選択、テキスト内のカーソル挿入等のようなやりとりを実行するのを助ける。
本明細書では、いくつかの実施形態を具体的に説明及び/又は記載している。しかしながら、開示した実施形態の変更及び変形は、本発明の趣旨及び意図された範囲から逸脱することなく、上記教示により及び添付の特許請求の範囲の範囲内に包含されることが理解されよう。
例えば、振動に基づく触覚イベントの代りに、ディスプレイを多様な(polymorphic)表面(すなわち、変形可能なサーフェイスアクチュエータ(surface actuator))で形成することができ、それにより、触覚効果を、振動以外の画面の表面に対する静的な変化、又は摩擦の変化とすることができる。さらに、振動の代りに、力又は電気触覚刺激を用いることができる。

Claims (15)

  1. プロセッサによって実行されると、該プロセッサに対してタッチスクリーンを備えたデバイスで触覚フィードバックを提供させる、命令が格納されているコンピューター可読媒体であって、前記触覚フィードバックは、
    複数の文字を含む生成されたテキストを表示すること、
    物体による、前記生成されたテキスト内でのタッチを検知すること、
    行われ得る複数の異なるタイプの操作のうちから操作のタイプを特定することであって、前記生成されたテキストの操作は前記生成されたテキスト上で前記タッチを用いてタスクを実行することを含み、該タスクは前記生成されたテキストを横切って前記物体をスライドさせ、該スライドによって前記生成されたテキストのうちの少なくとも1つの前記文字を移動させることを含む、操作のタイプを特定すること、及び
    前記物体が前記生成されたテキストを横切ってスライドさせられ、前記タスクを実行している間に、少なくとも部分的に前記操作の前記タイプに基づいて、或るタイプの触覚イベントを生成することであって前記触覚イベントは前記スライドの間に前記物体に適用される前記触覚フィードバックを生成する、触覚イベントを生成すること、
    を含む、コンピューター可読媒体。
  2. 前記操作のタイプは、前記テキストの選択、前記テキスト内のカーソルの挿入若しくは位置決め、前記テキストのコピー、前記テキストの移動、又は前記テキストのペーストのうちの少なくとも1つを含む、請求項1に記載のコンピューター可読媒体。
  3. 前記テキストの前記選択は、文字を選択すること、単語を選択すること、文を選択すること、又は段落を選択することのうちの1つを含み、第1の触覚イベントが、前記文字、前記単語、前記文、又は前記段落の各々に対して生成される、請求項2に記載のコンピューター可読媒体。
  4. 複数のタイプの触覚イベントが、振動の振幅、持続時間、又は周波数のうちの1つ又は複数を変更することによって生成される、請求項1に記載のコンピューター可読媒体。
  5. 覚イベントの前記タイプは、少なくとも前記スライドの速度に基づく、請求項1に記載のコンピューター可読媒体。
  6. 前記速度が第1の大きさである場合、第1のタイプの触覚イベントが個々の文字の感覚を提供し、前記速度が、前記第1の大きさよりも大きい第2の大きさである場合、第2のタイプの触覚イベントが個々の単語の感覚を提供する、請求項5に記載のコンピューター可読媒体。
  7. 前記操作のタイプを特定することは、前記テキストの中の関心点がタッチされているか否か判断することを含み、該関心点は、連絡先の名前、電話番号、又はアドレスのうちの少なくとも1つを含む、請求項1に記載のコンピューター可読媒体。
  8. 前記或るタイプの触覚イベントは、少なくとも、前記選択されたテキストに対する動作の可用性に基づき、該動作の可用性は、カット、コピー、ペースト又は挿入のうちの少なくとも1つを含む、請求項2に記載のコンピューター可読媒体。
  9. 前記ペーストの可用性に応じて生成される前記触覚イベントは、選択されたテキストの量に基づく強さを有する、請求項8に記載のコンピューター可読媒体。
  10. 背景及び前景を有する画像内での第2のタッチを検知することであって、該第2のタッチが前記前景から前記背景に横断する、検知すること、
    前記第2のタッチが前記背景まで移動するときに触覚イベントを生成すること、
    を更に含む、請求項1に記載のコンピューター可読媒体。
  11. 複数のタイプの触覚イベントが、振動、表面の局所的変形、又は摩擦の変化のうちの少なくとも1つによって生成される、請求項1に記載のコンピューター可読媒体。
  12. タッチスクリーンを備えたデバイスで触覚フィードバックを提供するコンピューター実施方法であって、
    複数の文字を含む生成されたテキストを表示すること、
    物体による、前記生成されたテキスト内でのタッチを検知すること、
    行われ得る複数の異なるタイプの操作のうちから操作のタイプを特定することであって、前記生成されたテキストの操作は前記生成されたテキスト上で前記タッチを用いてタスクを実行することを含み、該タスクは前記生成されたテキストを横切って前記物体をスライドさせ、該スライドによって前記生成されたテキストのうちの少なくとも1つの前記文字を移動させることを含む、操作のタイプを特定すること、及び
    前記物体が前記生成されたテキストを横切ってスライドさせられ、前記タスクを実行している間に、少なくとも部分的に前記操作の前記タイプに基づいて、或るタイプの触覚イベントを生成することであって前記触覚イベントは前記スライドの間に前記物体に適用される前記触覚フィードバックを生成する、触覚イベントを生成すること、
    を含む、コンピューター実施方法。
  13. 前記操作のタイプは、前記テキストの選択、前記テキスト内のカーソルの挿入、又は前記テキストのコピー、前記テキストの移動、及び前記テキストのペーストのうちの少なくとも1つを含む、請求項12に記載の方法。
  14. 前記テキストの前記選択は、文字を選択すること、単語を選択すること、文を選択すること、又は段落を選択することのうちの1つを含み、異なるタイプの触覚イベントが、前記文字、前記単語、前記文、及び前記段落の各々に対して生成される、請求項13に記載の方法。
  15. 装置であって、
    プロセッサと、
    前記プロセッサに結合され、命令を格納するメモリと、
    前記プロセッサに結合されたタッチスクリーンと、
    前記プロセッサに結合されたアクチュエータと、
    を具備し、
    前記命令が、前記プロセッサによって実行されると、該装置に対し、
    複数の文字を含む生成されたテキストを表示させ、
    物体による、前記生成されたテキスト内でのタッチを検知させ、
    行われ得る複数の異なるタイプの操作のうちから操作のタイプを特定させ、前記生成されたテキストの操作は前記生成されたテキスト上で前記タッチを用いてタスクを実行することを含み、該タスクは前記生成されたテキストを横切って前記物体をスライドさせ、該スライドによって前記生成されたテキストのうちの少なくとも1つの前記文字を移動させることを含み、かつ
    前記物体が前記生成されたテキストを横切ってスライドさせられ、前記タスクを実行している間に、少なくとも部分的に前記操作の前記タイプに基づいて或るタイプの触覚イベントを生成させ、前記触覚イベントは前記スライドの間に前記物体に適用される前記触覚フィードバックを生成する、装置。
JP2011264400A 2010-12-02 2011-12-02 触覚フィードバック支援によるテキスト操作 Expired - Fee Related JP5991808B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/958,705 2010-12-02
US12/958,705 US10503255B2 (en) 2010-12-02 2010-12-02 Haptic feedback assisted text manipulation

Publications (2)

Publication Number Publication Date
JP2012118993A JP2012118993A (ja) 2012-06-21
JP5991808B2 true JP5991808B2 (ja) 2016-09-14

Family

ID=45421852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011264400A Expired - Fee Related JP5991808B2 (ja) 2010-12-02 2011-12-02 触覚フィードバック支援によるテキスト操作

Country Status (4)

Country Link
US (1) US10503255B2 (ja)
EP (1) EP2461228A3 (ja)
JP (1) JP5991808B2 (ja)
KR (2) KR101911088B1 (ja)

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8487759B2 (en) 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
US8621380B2 (en) 2010-01-06 2013-12-31 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US20120249797A1 (en) * 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
WO2011106798A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
JP5656511B2 (ja) * 2010-08-26 2015-01-21 京セラ株式会社 表示装置
US10013058B2 (en) 2010-09-21 2018-07-03 Apple Inc. Touch-based user interface with haptic feedback
US9146673B2 (en) 2010-11-05 2015-09-29 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US10120446B2 (en) 2010-11-19 2018-11-06 Apple Inc. Haptic input device
EP2466538A1 (en) * 2010-12-20 2012-06-20 Alcatel Lucent Media asset management system
US10002501B2 (en) * 2010-12-22 2018-06-19 Kyocera Corporation Electronic device
US9250798B2 (en) * 2011-01-24 2016-02-02 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US9436381B2 (en) 2011-01-24 2016-09-06 Apple Inc. Device, method, and graphical user interface for navigating and annotating an electronic document
KR20120102262A (ko) * 2011-03-08 2012-09-18 삼성전자주식회사 휴대용 단말기가 열람하는 텍스트에서 원하는 내용을 선택하는 방법 및 장치
US8656315B2 (en) 2011-05-27 2014-02-18 Google Inc. Moving a graphical selector
US8826190B2 (en) 2011-05-27 2014-09-02 Google Inc. Moving a graphical selector
DE112011105305T5 (de) * 2011-06-03 2014-03-13 Google, Inc. Gesten zur Textauswahl
US9612670B2 (en) 2011-09-12 2017-04-04 Microsoft Technology Licensing, Llc Explicit touch selection and cursor placement
JP5950275B2 (ja) * 2011-12-21 2016-07-13 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 表示装置上に表示可能な1又は複数の電子データ中に振動部分を設定する方法、並びに、その装置及びコンピュータ・プログラム
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
AU2013259637B2 (en) 2012-05-09 2016-07-07 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
CN107977084B (zh) 2012-05-09 2021-11-05 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
EP2847661A2 (en) 2012-05-09 2015-03-18 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
AU2013259606B2 (en) 2012-05-09 2016-06-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US8570296B2 (en) * 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US9891709B2 (en) * 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
US20140002377A1 (en) * 2012-07-02 2014-01-02 Microsoft Corporation Manipulating content on a canvas with touch gestures
KR20140037535A (ko) * 2012-09-19 2014-03-27 삼성전자주식회사 사용자 효과를 포함하는 전자책 생성 방법 및 그 장치
WO2014049392A1 (en) 2012-09-25 2014-04-03 Nokia Corporation Method and display device with tactile feedback
US8656296B1 (en) * 2012-09-27 2014-02-18 Google Inc. Selection of characters in a string of characters
US9178509B2 (en) 2012-09-28 2015-11-03 Apple Inc. Ultra low travel keyboard
US9804777B1 (en) 2012-10-23 2017-10-31 Google Inc. Gesture-based text selection
US9836150B2 (en) 2012-11-20 2017-12-05 Immersion Corporation System and method for feedforward and feedback with haptic effects
US20140139451A1 (en) * 2012-11-20 2014-05-22 Vincent Levesque Systems and Methods For Providing Mode or State Awareness With Programmable Surface Texture
JP6009584B2 (ja) * 2012-12-26 2016-10-19 グリー株式会社 表示処理方法及び情報装置
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
EP2939096B1 (en) 2012-12-29 2019-08-28 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select contents
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10578499B2 (en) 2013-02-17 2020-03-03 Microsoft Technology Licensing, Llc Piezo-actuated virtual buttons for touch surfaces
KR102104910B1 (ko) * 2013-02-28 2020-04-27 삼성전자주식회사 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법
US9785240B2 (en) * 2013-03-18 2017-10-10 Fuji Xerox Co., Ltd. Systems and methods for content-aware selection
US9939900B2 (en) * 2013-04-26 2018-04-10 Immersion Corporation System and method for a haptically-enabled deformable surface
US9652040B2 (en) 2013-08-08 2017-05-16 Apple Inc. Sculpted waveforms with no or reduced unforced response
US9779592B1 (en) 2013-09-26 2017-10-03 Apple Inc. Geared haptic feedback element
US9928950B2 (en) 2013-09-27 2018-03-27 Apple Inc. Polarized magnetic actuators for haptic response
US9886093B2 (en) * 2013-09-27 2018-02-06 Apple Inc. Band with haptic actuators
WO2015047364A1 (en) 2013-09-29 2015-04-02 Pearl Capital Developments Llc Devices and methods for creating haptic effects
WO2015047372A1 (en) 2013-09-30 2015-04-02 Pearl Capital Developments Llc Magnetic actuators for haptic response
US9317118B2 (en) 2013-10-22 2016-04-19 Apple Inc. Touch surface for simulating materials
US10276001B2 (en) 2013-12-10 2019-04-30 Apple Inc. Band attachment mechanism with haptic response
US9448631B2 (en) 2013-12-31 2016-09-20 Microsoft Technology Licensing, Llc Input device haptics and pressure sensing
US9244532B2 (en) * 2013-12-31 2016-01-26 Immersion Corporation Systems and methods for controlling multiple displays with single controller and haptic enabled user interface
US9501912B1 (en) 2014-01-27 2016-11-22 Apple Inc. Haptic feedback device with a rotating mass of variable eccentricity
US10545604B2 (en) 2014-04-21 2020-01-28 Apple Inc. Apportionment of forces for multi-touch input devices of electronic devices
JP6351353B2 (ja) * 2014-05-01 2018-07-04 オリンパス株式会社 操作端末、操作方法およびプログラム
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US20150346998A1 (en) * 2014-05-30 2015-12-03 Qualcomm Incorporated Rapid text cursor placement using finger orientation
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
DE102015209639A1 (de) 2014-06-03 2015-12-03 Apple Inc. Linearer Aktuator
US11023655B2 (en) * 2014-06-11 2021-06-01 Microsoft Technology Licensing, Llc Accessibility detection of content properties through tactile interactions
US9690381B2 (en) 2014-08-21 2017-06-27 Immersion Corporation Systems and methods for shape input and output for a haptically-enabled deformable surface
KR102019505B1 (ko) 2014-09-02 2019-09-06 애플 인크. 햅틱 통지
US9535550B2 (en) 2014-11-25 2017-01-03 Immersion Corporation Systems and methods for deformation-based haptic effects
US20160179765A1 (en) * 2014-12-18 2016-06-23 Kobo Incorporated Method and system for extraneous object notification via digital content repagination
US10353467B2 (en) 2015-03-06 2019-07-16 Apple Inc. Calibration of haptic devices
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) * 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
AU2016100399B4 (en) 2015-04-17 2017-02-02 Apple Inc. Contracting and elongating materials for providing input and output for an electronic device
US10416799B2 (en) 2015-06-03 2019-09-17 Microsoft Technology Licensing, Llc Force sensing and inadvertent input control of an input device
US10222889B2 (en) 2015-06-03 2019-03-05 Microsoft Technology Licensing, Llc Force inputs and cursor control
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
JP5906344B1 (ja) * 2015-07-06 2016-04-20 ヤフー株式会社 情報処理装置、情報表示プログラムおよび情報表示方法
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
WO2017044618A1 (en) 2015-09-08 2017-03-16 Apple Inc. Linear actuators for use in electronic devices
US10061385B2 (en) 2016-01-22 2018-08-28 Microsoft Technology Licensing, Llc Haptic feedback for a touch input device
US10039080B2 (en) 2016-03-04 2018-07-31 Apple Inc. Situationally-aware alerts
US10268272B2 (en) 2016-03-31 2019-04-23 Apple Inc. Dampening mechanical modes of a haptic actuator using a delay
US10620812B2 (en) 2016-06-10 2020-04-14 Apple Inc. Device, method, and graphical user interface for managing electronic communications
DK179034B1 (en) 2016-06-12 2017-09-04 Apple Inc Devices, methods, and graphical user interfaces for dynamically adjusting presentation of audio outputs
WO2018001456A1 (en) * 2016-06-28 2018-01-04 Telefonaktiebolaget Lm Ericsson (Publ) Device and method for haptic exploration of a rendered object
WO2018031009A1 (en) * 2016-08-10 2018-02-15 Alexander Wellen Method and device for tactilely reading time on a touch screen
US10622538B2 (en) 2017-07-18 2020-04-14 Apple Inc. Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body
KR102337869B1 (ko) * 2017-11-13 2021-12-10 주식회사 씨케이머티리얼즈랩 햅틱 제어 신호 제공 장치 및 방법
KR101899538B1 (ko) 2017-11-13 2018-09-19 주식회사 씨케이머티리얼즈랩 햅틱 제어 신호 제공 장치 및 방법
US10691211B2 (en) 2018-09-28 2020-06-23 Apple Inc. Button providing force sensing and/or haptic output
US10599223B1 (en) 2018-09-28 2020-03-24 Apple Inc. Button providing force sensing and/or haptic output
US11380470B2 (en) 2019-09-24 2022-07-05 Apple Inc. Methods to control force in reluctance actuators based on flux related parameters
US20230152894A1 (en) * 2020-03-11 2023-05-18 Google Llc Controlling haptic response to contact
US11977683B2 (en) 2021-03-12 2024-05-07 Apple Inc. Modular systems configured to provide localized haptic feedback using inertial actuators
TWI811789B (zh) * 2021-09-10 2023-08-11 宏碁股份有限公司 智能放大方法及應用其之電子裝置
US11809631B2 (en) 2021-09-21 2023-11-07 Apple Inc. Reluctance haptic engine for an electronic device

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3408332B2 (ja) * 1994-09-12 2003-05-19 富士通株式会社 ハイパーテキスト読上装置
US6078308A (en) * 1995-12-13 2000-06-20 Immersion Corporation Graphical click surfaces for force feedback applications to provide user selection using cursor interaction with a trigger position within a boundary of a graphical object
US6750877B2 (en) * 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
US5663748A (en) * 1995-12-14 1997-09-02 Motorola, Inc. Electronic book having highlighting feature
US6519584B1 (en) * 1996-06-26 2003-02-11 Sun Microsystem, Inc. Dynamic display advertising
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6943778B1 (en) * 2000-11-20 2005-09-13 Nokia Corporation Touch screen input technique
KR20090096559A (ko) 2001-11-01 2009-09-10 임머숀 코퍼레이션 촉각을 제공하기 위한 방법 및 장치
JP4860625B2 (ja) * 2004-10-08 2012-01-25 イマージョン コーポレーション タッチ式入力装置におけるボタンおよびスクロール動作シミュレーション用の触覚フィードバック
CN101506758A (zh) * 2006-09-27 2009-08-12 诺基亚公司 触觉型触摸屏
US20090102805A1 (en) * 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
US8294669B2 (en) * 2007-11-19 2012-10-23 Palo Alto Research Center Incorporated Link target accuracy in touch-screen mobile devices by layout adjustment
US8373549B2 (en) * 2007-12-31 2013-02-12 Apple Inc. Tactile feedback in an electronic device
KR101012379B1 (ko) 2008-03-25 2011-02-09 엘지전자 주식회사 단말기 및 이것의 정보 디스플레이 방법
KR101658261B1 (ko) 2009-03-12 2016-09-22 임머숀 코퍼레이션 그래픽 사용자 인터페이스 위젯에서 텍스처를 사용하는 시스템 및 방법
US20100289757A1 (en) * 2009-05-14 2010-11-18 Budelli Joey G Scanner with gesture-based text selection capability

Also Published As

Publication number Publication date
CN102591518A (zh) 2012-07-18
KR101911088B1 (ko) 2018-12-28
EP2461228A3 (en) 2012-10-03
JP2012118993A (ja) 2012-06-21
KR20120060763A (ko) 2012-06-12
US10503255B2 (en) 2019-12-10
KR20180117078A (ko) 2018-10-26
EP2461228A2 (en) 2012-06-06
US20120139844A1 (en) 2012-06-07

Similar Documents

Publication Publication Date Title
JP5991808B2 (ja) 触覚フィードバック支援によるテキスト操作
US11402970B2 (en) Systems, methods, and user interfaces for interacting with multiple application windows
US11675476B2 (en) User interfaces for widgets
US20220291793A1 (en) User interface for receiving user input
US11842044B2 (en) Keyboard management user interfaces
US20190018562A1 (en) Device, Method, and Graphical User Interface for Scrolling Nested Regions
US10102010B2 (en) Layer-based user interface
US11656758B2 (en) Interacting with handwritten content on an electronic device
JP2020038688A (ja) タッチ入力カーソル操作
US20130007606A1 (en) Text deletion
JP2017111797A (ja) キーボードインタフェース機能のためのデバイス、方法及びグラフィカルユーザインタフェース
KR20190142362A (ko) 터치 감응형 디스플레이를 갖는 전자 디바이스 상에 동시에 디스플레이되는 다수의 애플리케이션들과 상호작용하기 위한 시스템들 및 방법들
US20220391456A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with a Web-Browser
US12019863B2 (en) Techniques for selecting text
WO2022261008A2 (en) Devices, methods, and graphical user interfaces for interacting with a web-browser

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160816

R150 Certificate of patent or registration of utility model

Ref document number: 5991808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees