JP5661279B2 - テキスト編集およびメニュー選択のためのユーザーインターフェースのシステムおよび方法 - Google Patents
テキスト編集およびメニュー選択のためのユーザーインターフェースのシステムおよび方法 Download PDFInfo
- Publication number
- JP5661279B2 JP5661279B2 JP2009518347A JP2009518347A JP5661279B2 JP 5661279 B2 JP5661279 B2 JP 5661279B2 JP 2009518347 A JP2009518347 A JP 2009518347A JP 2009518347 A JP2009518347 A JP 2009518347A JP 5661279 B2 JP5661279 B2 JP 5661279B2
- Authority
- JP
- Japan
- Prior art keywords
- text
- user
- input
- objects
- text object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Document Processing Apparatus (AREA)
Description
本申請は、仮出願番号第60/718,984号の利益を主張する2006年9月20日に出願された出願番号第11/533,714号の継続出願である。また、本申請はまた、2006年7月3日に出願された仮出願番号第60/806,522号および2007年5月14日に出願された仮出願番号第60/917,849号の利益を主張し、参照により本文中に組み込まれる。
本発明はコンピュータシステムのグラフィカルおよびジェスチャ・ユーザーインターフェースに関連し、より詳しくは、1つ以上の入力装置を使用する入力動作をユーザーが行い、かつ当該入力動作により生成されたデータはコンピュータシステムに入力されるテキストデータに対応する1つ以上の当該ユーザー入力動作として認識するために解析されるところのさまざまなコンピュータシステムに関連したものである。また、本発明は、テキスト入力方法の一部として、またはコンピュータシステムの他の制御機能のために実行するメニュー選択肢について、実行が素早く簡単なシンプルなジェスチャにより選択できる当該の2つ以上のメニューをユーザーに提示するグラフィカルアプローチにも関連する。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
ユーザーの入力動作を検出してテキストを生成および編集する少なくとも1つの入力システム、および当該テキストを当該ユーザーに表示する少なくとも1つのテキスト表示システムから成るユーザーインターフェースを持つ電子機器上の入力および編集方法であって、
次に生成されるテキストオブジェクトが出力される当該テキスト表示システム内でのテキスト挿入位置の記録、
当該テキスト表示システムへの1つまたは複数の当該テキストオブジェクト出力を識別するための特徴的入力動作の検出、
検出された特徴的入力動作に基づく1つまたは複数の当該テキストオブジェクトの以前の出力の特定、
1つまたは複数の当該特定テキストオブジェクトが前に判定された、1つまたは複数の入力動作に対応する1つまたは複数の代替テキストオブジェクトの判定、
1つまたは複数の当該判定代替テキストオブジェクトと、1つまたは複数の以前に出力された当該特定テキストオブジェクトとの置換、
当該テキスト挿入位置の、当該入力動作の検出以前の記録場所への復元、を具備する方法。
[2]
[1]の方法において、さらに、テキスト表示システム上の1つまたは複数の当該判定代替テキストオブジェクトを、ユーザーに表示し、当該特定の以前に出力された1つまたは複数のテキストオブジェクト置換のため、表示されたテキストオブジェクトの1つを選択することを具備する方法。
[3]
[1]の方法において、さらに、当該の特徴的入力動作と関連する当該テキスト表示システム内の場所を判定し、当該判定場所に最も近いテキスト表示システムに対する以前に出力されたテキストオブジェクトを特定することを具備する方法。
[4]
[1]の方法において、さらに、1つまたは複数の出力テキストオブジェクト間に1つまたは複数のスペースを自動的に生成することを具備する方法。
[5]
[4]の方法において、さらに、2つ以上のクラスのテキストオブジェクトクラスに属する2つ以上のテキストオブジェクトを特定することを具備し、2つ以上の当該各テキストオブジェクトクラスは、当該クラスに属するテキストオブジェクトの出力の前または後の少なくとも1つで、1つまたは複数のスペースを自動的に生成する方法において他のクラスと異なる、方法。
[6]
[5]の方法において、さらに、当該テキストオブジェクトクラスの異なるクラスに属するテキストオブジェクトと差し替えられるテキストオブジェクトの前か後の少なくとも1つに位置するスペースを自動的に挿入または削除することの少なくとも1つを具備する方法。
[7]
[5]の方法において、さらに、当該テキスト挿入位置の変更を検出すること、また変更されたテキスト挿入場所における、次のテキストオブジェクト出力の前または後の少なくとも1つで、当該テキスト挿入場所に直接隣接するテキストオブジェクトに関連する当該テキストオブジェクトクラスに関して、また当該変更テキスト挿入場所に直接隣接するすべてのスペースに関して、1つまたは複数のスペースが自動的に生成される方法を変えること、を具備する方法。
[8]
[4]の方法において、さらに、特徴的なユーザー入力動作を検出して次に生成されたテキストオブジェクトの出力に関連した当該スペースの自動的な生成を不可能にし、かつ、次に生成された当該テキストオブジェクトの出力に続き、当該する自動的なスペース生成を自動的に再び可能にすること、を具備する方法。
[9]
[4]の方法において、さらに、特徴的なユーザー入力動作を検出して、当該する自動的に生成されたスペースの内、最も直近に発生成されたものを削除することを具備する方法。
[10]
[1]の方法において、さらに、テキスト表示システムに2つ以上の決定された代替テキストオブジェクトを表示し、意図されたテキストオブジェクトを置き換える代替テキストオブジェクトを特定するためにユーザーの選択を検出することを具備する方法。
[11]
[10]の方法において、さらに、指示されたテキストオブジェクトの代替として表示された代替テキストオブジェクトを選択する前に、当該ユーザーが1つ以上の別の入力動作を行い、テキスト挿入位置の復元が行われず、特定されたテキストオブジェクトがテキスト挿入位置として選択されていることで、1つ以上の別の入力動作の結果が意図されたテキストオブジェクトを修正または置換することを具備する方法。
[12]
[1]の方法において、さらに、特定されたテキストオブジェクトを置き換えるための決定された代替テキストオブジェクトの内、検出された入力動作に対して次に最も一致するテキストオブジェクトとして決定された1つ以上の代替テキストオブジェクトを自動的に特定することを具備する方法。
[13]
[1]の方法において、さらに、テキスト挿入位置が当該テキスト表示システムで可視である位置にはない場合、特徴的な入力動作が検出される以前に記録された位置にテキスト表示システム中のテキスト挿入位置を復元しないことを具備する方法。
[14]
テキストを入力および編集する装置であって、
テキストを生成および編集する1つ以上のユーザーの入力動作を検出する1つ以上の入力装置、
ユーザーに生成されたテキストを表示する出力装置、
入力装置および出力装置に接続されているプロセッサーを具備し、そのプロセッサーは、
次に生成されるテキストオブジェクトが出力されるテキスト挿入位置を記録する第1部分、
以前に当該出力装置に出力された1つ以上の当該テキストオブジェクトを特定する特徴的な入力動作を検出する第2部分、
検出された特徴的な入力動作に基づき1つ以上の以前に出力された当該テキストオブジェクトを特定する第3部分、
1つ以上の意図されたテキストオブジェクトを以前に決定した1つ以上の検出された入力動作に対応する1つ以上の代替テキストオブジェクトを決定する第4部分、
1つ以上の決定された当該代替テキストオブジェクトで以前に出力された1つ以上の当該テキストオブジェクトを置き換える第5部分、
特徴的な入力動作が検出される前に記録された場所にテキスト挿入位置を復元する第6部分を具備する、装置。
[15]
[14]の装置において、さらに、当該プロセッサーは、以前に出力されて特定された1つ以上のテキストオブジェクトを置き換えるために表示されたテキストオブジェクト1つをユーザーが選択するために、当該出力装置に1つ以上の決定された当該代替テキストオブジェクトを表示する第7部分を具備する、装置。
[16]
[14]の装置において、さらに、当該プロセッサーは、特徴的な当該入力動作に関連した当該出力装置内の場所を決定する第7部分、
および以前に当該出力装置に出力されたテキストオブジェクトの内、決定された場所に最も近いものを特定する第8部分を具備する、装置。
[17]
[14]の装置において、さらに、当該プロセッサーは、1つ以上の出力されたテキストオブジェクトの間に1つ以上のスペースを自動的に生成する第7部分を具備する、装置。
[18]
[17]の装置において、さらに、当該プロセッサーは、2つ以上のクラスのテキストオブジェクトに属する2つ以上のテキストオブジェクトを特定する第8部分を具備し、前記2つ以上のテキストオブジェクトのそれぞれは、当該クラスに属するテキストオブジェクトが出力される場合に、1つ以上のスペースが自動的に生成され、少なくとも1つは出力の前または後に生成されるという点において他のクラスと異なる、装置。
[19]
[18]の装置において、さらに、当該プロセッサーは、
当該テキストオブジェクトクラス内の別のクラスに属するテキストオブジェクトを置き換えるテキストオブジェクトの前か後の少なくとも1つに位置するスペースの自動的な挿入またはスペースの自動的な削除のための第8部分を具備する、装置。
[20]
[18]の装置において、さらに、当該プロセッサーは、
テキスト挿入位置の変更を検出でき、そして、変更されたテキスト挿入位置に近接であるテキストオブジェクトに関連したテキストオブジェクトのクラスに対して、または変更されたテキスト挿入位置に近接であるスペースに対して、少なくとも1つ以上のスペースが自動的に生成される方法、すなわち、少なくとも変更された当該テキスト挿入位置にある次のテキストオブジェクトが出力される前または後少なくとも1つで自動的に生成されたスペースを修正する第9部分を具備する、装置。
[21]
[17]の装置において、さらに、当該プロセッサーは、
特徴的なユーザー入力動作を検出して次に生成されたテキストオブジェクトに関連した自動的なスペースを生成することを不可能にし、かつ、次に生成されたテキストオブジェクトが出力された次第に、自動的にスペースを生成することを自動的に再び可能にする第8部分を具備する、装置。
[22]
[17]の装置において、さらに、当該プロセッサーは、
特徴的なユーザー入力動作を検出して、自動的に生成されたスペースの内、直近に生成されたものを削除する第8部分を具備する、装置。
[23]
[14]の装置において、さらに、当該プロセッサーは、
当該出力装置の中の2つ以上の決定された代替テキストオブジェクトを表示する第7部分、および
意図されたテキストオブジェクトを置き換える代替テキストオブジェクトを特定するためにユーザーにより行われる選択を検出する第8部分を具備する、装置。
[24]
[23]の装置において、さらに、当該プロセッサーは、
指示されたテキストオブジェクトの代替として表示された代替テキストオブジェクトを選択する前に、ユーザーの1つ以上の別の入力動作を検出する第9部分、および
以前の個所にテキスト挿入位置が復元されず、1つ以上の別な入力動作の結果としてテキストオブジェクトを修正または置換するように特定されたテキストオブジェクトを当該テキスト挿入位置として選択する第10部分を具備する、装置。
[25]
[14]の装置において、さらに、当該プロセッサーは、
指摘されたテキストオブジェクトを置き換えるために、決定された代替テキストオブジェクトの内、指摘されたテキストオブジェクトを生成した検出された当該入力動作に対して次に最も一致するテキストオブジェクトとして決定されている代替テキストオブジェクトを自動的に特定する第7部分を具備する、装置。
[26]
[14]の装置において、さらに、当該プロセッサーは、
特徴的な入力動作が記録された以前のテキスト挿入位置の場所が当事に出力装置の可視であるテキストにはないということを決定する第7部分、および
第7部分が記録された場所は当事に出力装置の可視であるテキストにはないということを決定する場合、第6部分が特徴的な入力動作が検出された以前に記録された個所にテキスト挿入位置を復元することを防ぐ第8部分を具備する、装置。
[27]
電子ディスプレーの上に指摘された限られた領域の中に、ユーザーが制御ポイントを位置決め、移動、有効、無効にできるディスプレーにおいて、2つ以上の映像的な選択肢を表示する方法において、
限られた領域の中に2つ以上の映像的な選択肢を提示すること、
限られた領域の境界に対して1つ以上のセグメントを定義すること、
映像的な選択肢の内、特定の1つには1つ以上の指定されたセグメント間を独立的に関連付けること、
限られた領域内の制御ポイントの有効化を検出すること、
有効化された制御ポイントが限られた領域内から出るなど有効化された制御ポイントの動作を検知すること、
有効化された制御ポイントが限られた領域内から出る際に通った独自の境界セグメントの1つを特定すること、
特定された境界セグメントの元に、映像的に表示された選択肢を決定することを具備する方法。
[28]
[27]の方法において、さらに、それぞれの当該選択肢が限られた領域内にある独自に定義されたサブ領域内に表示され、指定された特定の該境のセグメントが1つのサブ領域の境界セグメント間を兼ねる境界セグメントで定義され、さらにサブ領域内に表示された選択肢がその兼ねられた境界の領域に特定に関連する、方法。
[29]
[27]の方法において、1つ以上の色、映像的なパターン、または濃淡を使い1つ以上の選択肢が映像的に表示され、さらに、その独自関連付けられ定義された境界セグメントが同等またはそれ以上の色、映像的なパターン、または濃淡を使って表示される、方法。
[30]
[27]の方法において、さらに、限られた領域内で制御ポイントが有効化された場合、定義され限られた領域の映像的な表示を修正することを具備する方法。
[31]
[27]の方法において、2つ以上の限られた当該領域の長さに対して、関係はユーザーがその2つ以上の定義された境界セグメントには独自に関連されて映像的に表示される選択肢をそれぞれ選択することの決定された確率の関係に関連する、方法。
[32]
装置であって、
選択されるための2つ以上の選択肢を映像的に発表する出力装置、
当該ディスプレーの上に、ユーザーが制御ポイントを位置決め、移動、有効、無効に指定するための2つ以上の入力動作を検出する入力装置、
入力装置および出力装置にも接続されているプロセッサーを具備し、そのプロセッサーは、
ディスプレーの上に、定義されて限定された領域の中に2つ以上の選択肢を映像的に表示する第1部分、
該限定された領域の境界の2つ以上の特定のセグメントを指定する第2部分、
1つ以上の定義されたセグメントをそれぞれ映像的に表示された選択肢の内特定の1つに独立的に関連させる第3部分、
限定された領域内で制御ポイントが有効化された状態を検出する第4部分、
有効化された制御ポイントが限定された領域内から出るような次第の動作を検出する第5部分、
有効化された制御ポイントが限定された領域内から出る時に通った定義された境界セグメントを特定する第6部分、
特定された境界セグメントの元に、映像的に表示されている選択肢を決定する第6部分を具備する、装置。
[33]
[32]の装置において、当該プロセッサーは、さらに、
当該選択肢をそれぞれ独自に限定されたサブ領域内に表示する第7部分、
指定された特定の境界セグメントが1つのサブ領域の境界セグメントを兼ねる境界セグメントとして定義する第8部分、
サブ領域の中に表示された選択肢をその兼ねられた境界セグメントの領域と関連付ける第9部分を具備する、装置。
[34]
[32]の装置において、さらに、当該プロセッサーは、
1つ以上の色、映像的なパターン、または濃淡で1つ以上の選択肢を映像的に表示し、さらに、その独自に関連付けられ定義された境界セグメントを同等またはそれ以上の色、映像的なパターン、それに濃淡で表示する第7部分を具備する、装置。
[35]
[32]の装置において、さらに、当該プロセッサーは、
限定された領域内で制御ポイントが有効化された状態を検出した場合、定義され限定された領域の映像的な表示を修正する第7部分を具備する、装置。
[36]
[32]の装置において、さらに、2つ以上の限定された領域の長さに対して、関係はユーザーがその2つ以上の定義された境界セグメントと独自に関連付けられ映像的に表示された選択肢のそれぞれを選択することの決定された確率の関係に関連する、装置。
Claims (6)
- ユーザがテキストの入力および編集を行う最低1つの入力システムと、前記ユーザに前記テキストを表示する最低1つのテキスト表示システムとから構成されるユーザインターフェースを備えた電子デバイスにおいてテキストを入力および編集する方法であって、
前記電子デバイスの第1のコンポーネントによって、ユーザによって行われた1つまたは複数の入力行為を検出し、
前記電子デバイスの第2のコンポーネントによって、前記ユーザによって行われた1つまたは複数の入力行為に対応する1つまたは複数のテキストオブジェクトを判断するために、前記ユーザによって行われた1つまたは複数の入力行為を処理し、
前記電子デバイスの第3のコンポーネントによって、前記判断したテキストオブジェクトのうちの1つを識別し、
前記電子デバイスの第4のコンポーネントによって、前記識別したテキストオブジェクトを前記テキスト表示システム内の決まったテキスト挿入位置に出力し、
前記電子デバイスの第5のコンポーネントによって、次に識別されるテキストオブジェクトが出力される前記テキスト表示システム内の前記テキスト挿入位置の場所を記録し、
前記電子デバイスの第6のコンポーネントによって、ユーザによって行われた特定の入力行為を検出し、前記テキスト表示システムに先に出力された1つまたは複数の前記テキストオブジェクトを指し示し、
前記電子デバイスの第7のコンポーネントによって、ユーザがさらなる入力行為を行うこと無しに、1つまたは複数の代替のテキストオブジェクトを識別し、ここで、前記1つまたは複数の代替のテキストオブジェクトは、前記検出された1つまたは複数の入力行為に対応すると判断されるものでもあり、1つまたは複数の前記指し示されたテキストオブジェクトは、前記検出された1つまたは複数の入力行為のうちから判断されたものである、
前記電子デバイスの第8のコンポーネントによって、1つまたは複数の前記指し示されたテキストオブジェクトを置き換えるために、代替のテキストオブジェクトの選択用として1つまたは複数の前記識別した代替のテキストオブジェクトを前記ユーザに表示し、
前記指し示されたテキストオブジェクトを置き換えるために前記表示された代替のテキストオブジェクトのいずれかを選択する前に、前記ユーザが1つまたは複数の他の入力行為を行う場合に、
前記電子デバイスの第9のコンポーネントによって、前記1つまたは複数の他の入力行為によって前記指し示されたテキストオブジェクトが変更または置き換えられるように、前記指し示されたテキストオブジェクトを前記テキスト挿入位置として選択し、
さもなければ、
前記電子デバイスの第10のコンポーネントによって、前記テキスト表示システム内の1つまたは複数の前記指し示されたテキストオブジェクトを1つまたは複数の前記識別した代替のテキストオブジェクトに置き換えて、
前記電子デバイスの第11のコンポーネントによって、前記テキスト表示システム内の前記テキスト挿入位置を、前記特定の入力行為が検出される前に記録された場所に復元する、
ことを具備し、
前記ユーザによって行われた特定の入力行為は前記テキスト挿入位置の前記場所を変更するために使用される行為ではない、方法。 - 前記電子デバイスによって、前記ユーザによって行われた特定の入力行為に関連する前記テキスト表示システム内の場所を判断し、前記判断された場所に最も近い前記テキスト表示システムに先に出力されたテキストオブジェクトを1つまたは複数の前記指し示されたテキストオブジェクトとして識別することをさらに具備する請求項1記載の方法。
- 前記電子デバイスによって、1つまたは複数の出力されたテキストオブジェクトの間に1つまたは複数のスペースを自動的に生成することをさらに具備する請求項1記載の方法。
- 前記電子デバイスによって、テキストオブジェクトから成る2つかそれ以上のグループに属する2つかそれ以上のテキストオブジェクトを識別することと、ここで、前記グループのうちの1つかそれ以上のグループに属するテキストオブジェクトの出力の直前および/または直後に1つかそれ以上のスペースが自動的に生成されることで、前記テキストオブジェクトから成る2つかそれ以上のグループのうちの各グループは、前記グループのうちの他のグループと、スペースの設定が異なる、
前記テキストオブジェクトから成るグループのうちの異なるグループに属するテキストオブジェクトを置き換えるテキストオブジェクトの直前および/または直後にスペースを自動的に挿入または削除することと、
をさらに具備する請求項3記載の方法。 - 前記電子デバイスによって、前記指し示されたテキストオブジェクトを置き換える代替のテキストオブジェクトを自動的に識別することをさらに具備する請求項1記載の方法。
- テキスト入力装置であって、
ユーザによって行われた1つまたは複数の入力行為を検出する1つまたは複数の入力デバイスと、
生成したテキストをユーザに表示する出力デバイスと、
前記入力デバイスおよび前記出力デバイスに結合されたプロセッサであって、
ユーザによって行われた1つまたは複数の入力行為を検出するための第1のコンポーネントと、
前記ユーザによって行われた1つまたは複数の入力行為に対応する1つまたは複数のテキストオブジェクトを判断するために、前記ユーザによって行われた1つまたは複数の入力行為を処理するための第2のコンポーネントと、
前記判断したテキストオブジェクトのうちの1つを識別するための第3のコンポーネントと、
前記識別したテキストオブジェクトを前記出力デバイスの決まったテキスト挿入位置に出力するための第4のコンポーネントと、
次に識別されるテキストオブジェクトが出力される前記テキスト挿入位置の場所を記録するための第5のコンポーネントと、
ユーザによって行われた特定の入力行為を検出し、前記出力デバイスに先に出力された1つまたは複数の前記テキストオブジェクトを指し示すための第6のコンポーネントと、ここで、前記ユーザによって行われた特定の入力行為は前記テキスト挿入位置の前記場所を変更するために使用される行為ではない、
ユーザがさらなる入力行為を行うこと無しに、1つまたは複数の代替のテキストオブジェクトを識別するための第7の構成要素と、ここで、前記1つまたは複数の代替のテキストオブジェクトは、前記検出された1つまたは複数の入力行為に対応すると判断されるものでもあり、1つまたは複数の前記指し示されたテキストオブジェクトは、前記検出された1つまたは複数の入力行為のうちから判断されたものである、
1つまたは複数の前記指し示されたテキストオブジェクトを置き換えるために、代替のテキストオブジェクトの選択用として1つまたは複数の前記識別した代替のテキストオブジェクトを前記ユーザに表示するための第8のコンポーネントと、
前記指し示されたテキストオブジェクトを置き換えるために前記表示された代替のテキストオブジェクトのいずれかを選択する前に、前記ユーザが1つまたは複数の他の入力行為を行う場合に、
前記1つまたは複数の他の入力行為によって前記指し示されたテキストオブジェクトが変更または置き換えられるように、前記指し示されたテキストオブジェクトを前記テキスト挿入位置として選択するための第9のコンポーネントと、
さもなければ、
前記出力デバイスの1つまたは複数の前記指し示されたテキストオブジェクトを1つまたは複数の前記識別した代替のテキストオブジェクトに置き換えるための第10のコンポーネントと、
前記出力デバイスの前記テキスト挿入位置を、前記特定の入力行為が検出される前に記録された場所に復元するための第11のコンポーネントと、
を具備する、プロセッサと、
を具備するテキスト入力装置。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US80652206P | 2006-07-03 | 2006-07-03 | |
US60/806,522 | 2006-07-03 | ||
US11/533,714 | 2006-09-20 | ||
US11/533,714 US7382358B2 (en) | 2003-01-16 | 2006-09-20 | System and method for continuous stroke word-based text input |
US91784907P | 2007-05-14 | 2007-05-14 | |
US60/917,849 | 2007-05-14 | ||
PCT/US2007/015403 WO2008013658A2 (en) | 2006-07-03 | 2007-07-03 | System and method for a user interface for text editing and menu selection |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009543209A JP2009543209A (ja) | 2009-12-03 |
JP5661279B2 true JP5661279B2 (ja) | 2015-01-28 |
Family
ID=38981954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009518347A Expired - Fee Related JP5661279B2 (ja) | 2006-07-03 | 2007-07-03 | テキスト編集およびメニュー選択のためのユーザーインターフェースのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP2044587A4 (ja) |
JP (1) | JP5661279B2 (ja) |
KR (1) | KR101488537B1 (ja) |
CN (1) | CN101529494B (ja) |
WO (1) | WO2008013658A2 (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5438909B2 (ja) * | 2008-03-14 | 2014-03-12 | ソニーモバイルコミュニケーションズ株式会社 | 文字入力装置、文字入力支援方法及び文字入力支援プログラム |
KR101412586B1 (ko) * | 2008-07-01 | 2014-07-02 | 엘지전자 주식회사 | 이동단말기의 문자입력 방법 |
US8255830B2 (en) | 2009-03-16 | 2012-08-28 | Apple Inc. | Methods and graphical user interfaces for editing on a multifunction device with a touch screen display |
KR101633332B1 (ko) | 2009-09-30 | 2016-06-24 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
JP5486977B2 (ja) * | 2010-03-24 | 2014-05-07 | 株式会社日立ソリューションズ | 座標入力装置及びプログラム |
CN101957724A (zh) * | 2010-10-05 | 2011-01-26 | 孙强国 | 一种拼音文字联想输入的改进方法 |
TWI490705B (zh) * | 2010-10-07 | 2015-07-01 | 英業達股份有限公司 | 純文字內容的編輯操作系統及其方法 |
JP5609718B2 (ja) * | 2011-03-10 | 2014-10-22 | 富士通株式会社 | 入力支援プログラム,入力支援装置および入力支援方法 |
CN103502915B (zh) | 2011-04-09 | 2017-01-11 | 上海触乐信息科技有限公司 | 电子设备上基于屏幕软件键盘实现滑动输入文本的***及方法 |
KR20130034747A (ko) * | 2011-09-29 | 2013-04-08 | 삼성전자주식회사 | 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치 |
US8667414B2 (en) | 2012-03-23 | 2014-03-04 | Google Inc. | Gestural input at a virtual keyboard |
US9021380B2 (en) | 2012-10-05 | 2015-04-28 | Google Inc. | Incremental multi-touch gesture recognition |
US8782549B2 (en) | 2012-10-05 | 2014-07-15 | Google Inc. | Incremental feature-based gesture-keyboard decoding |
US8850350B2 (en) | 2012-10-16 | 2014-09-30 | Google Inc. | Partial gesture text entry |
US8701032B1 (en) | 2012-10-16 | 2014-04-15 | Google Inc. | Incremental multi-word recognition |
US8843845B2 (en) | 2012-10-16 | 2014-09-23 | Google Inc. | Multi-gesture text input prediction |
US8819574B2 (en) | 2012-10-22 | 2014-08-26 | Google Inc. | Space prediction for text input |
US8806384B2 (en) * | 2012-11-02 | 2014-08-12 | Google Inc. | Keyboard gestures for character string replacement |
CN103838458B (zh) * | 2012-11-26 | 2017-05-10 | 北京三星通信技术研究有限公司 | 移动终端及其输入法的控制方法 |
US8832589B2 (en) | 2013-01-15 | 2014-09-09 | Google Inc. | Touch keyboard using language and spatial models |
US8887103B1 (en) | 2013-04-22 | 2014-11-11 | Google Inc. | Dynamically-positioned character string suggestions for gesture typing |
US9081500B2 (en) | 2013-05-03 | 2015-07-14 | Google Inc. | Alternative hypothesis error correction for gesture typing |
CN103399793B (zh) * | 2013-07-30 | 2017-08-08 | 珠海金山办公软件有限公司 | 一种自动切换同类内容的方法及*** |
CN103533448B (zh) * | 2013-10-31 | 2017-12-08 | 乐视致新电子科技(天津)有限公司 | 智能电视的光标控制方法和光标控制装置 |
WO2015109507A1 (zh) * | 2014-01-24 | 2015-07-30 | 华为终端有限公司 | 一种输入字符的方法和电子设备 |
CN107506115A (zh) * | 2016-06-14 | 2017-12-22 | 阿里巴巴集团控股有限公司 | 一种菜单的显示处理方法、装置及*** |
CN108664201B (zh) * | 2017-03-29 | 2021-12-28 | 北京搜狗科技发展有限公司 | 一种文本编辑方法、装置及电子设备 |
CN107203505A (zh) * | 2017-05-26 | 2017-09-26 | 北京小米移动软件有限公司 | 文本信息编辑方法及装置 |
CN108984239B (zh) * | 2018-05-29 | 2021-07-20 | 北京五八信息技术有限公司 | 选择控件的处理方法、装置、设备和存储介质 |
CN110197136B (zh) * | 2019-05-13 | 2021-01-12 | 华中科技大学 | 一种基于动作边界概率的级联动作候选框生成方法与*** |
US11379113B2 (en) | 2019-06-01 | 2022-07-05 | Apple Inc. | Techniques for selecting text |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5378736A (en) | 1976-12-23 | 1978-07-12 | Toshiba Corp | Return mechanism to final input position |
JPS5840584A (ja) | 1981-09-02 | 1983-03-09 | 株式会社東芝 | 文字表示装置 |
JPH0754512B2 (ja) | 1986-12-10 | 1995-06-07 | キヤノン株式会社 | 文書処理装置 |
US5574482A (en) * | 1994-05-17 | 1996-11-12 | Niemeier; Charles J. | Method for data input on a touch-sensitive screen |
JPH09293328A (ja) | 1996-04-25 | 1997-11-11 | Olympus Optical Co Ltd | 音声再生装置 |
US5953541A (en) * | 1997-01-24 | 1999-09-14 | Tegic Communications, Inc. | Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use |
JPH1115914A (ja) * | 1997-06-09 | 1999-01-22 | Internatl Business Mach Corp <Ibm> | 文字データ入力装置およびその方法 |
JPH11102361A (ja) * | 1997-09-29 | 1999-04-13 | Nec Ic Microcomput Syst Ltd | 文字入力修正方法及び前記方法手順を記録した記録媒体 |
JP3082746B2 (ja) * | 1998-05-11 | 2000-08-28 | 日本電気株式会社 | 音声認識システム |
US7030863B2 (en) * | 2000-05-26 | 2006-04-18 | America Online, Incorporated | Virtual keyboard system with automatic correction |
JP2001060192A (ja) * | 1999-08-20 | 2001-03-06 | Nippon Hoso Kyokai <Nhk> | 文字データ修正装置および記憶媒体 |
US7098896B2 (en) * | 2003-01-16 | 2006-08-29 | Forword Input Inc. | System and method for continuous stroke word-based text input |
JP4260777B2 (ja) * | 2004-07-22 | 2009-04-30 | パナソニック株式会社 | 半導体装置及びその製造方法 |
US20060071915A1 (en) * | 2004-10-05 | 2006-04-06 | Rehm Peter H | Portable computer and method for taking notes with sketches and typed text |
JP2006031725A (ja) | 2005-08-10 | 2006-02-02 | Microsoft Corp | 文字処理装置 |
-
2007
- 2007-07-03 WO PCT/US2007/015403 patent/WO2008013658A2/en active Application Filing
- 2007-07-03 EP EP07835973A patent/EP2044587A4/en not_active Withdrawn
- 2007-07-03 CN CN2007800326907A patent/CN101529494B/zh active Active
- 2007-07-03 KR KR1020097002112A patent/KR101488537B1/ko not_active IP Right Cessation
- 2007-07-03 JP JP2009518347A patent/JP5661279B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP2044587A4 (en) | 2012-09-26 |
JP2009543209A (ja) | 2009-12-03 |
KR101488537B1 (ko) | 2015-02-02 |
CN101529494B (zh) | 2012-01-04 |
CN101529494A (zh) | 2009-09-09 |
WO2008013658A3 (en) | 2008-11-27 |
WO2008013658A2 (en) | 2008-01-31 |
EP2044587A2 (en) | 2009-04-08 |
KR20090035570A (ko) | 2009-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5661279B2 (ja) | テキスト編集およびメニュー選択のためのユーザーインターフェースのシステムおよび方法 | |
US7542029B2 (en) | System and method for a user interface for text editing and menu selection | |
US6928619B2 (en) | Method and apparatus for managing input focus and z-order | |
CA2501118C (en) | Method of combining data entry of handwritten symbols with displayed character data | |
US6094197A (en) | Graphical keyboard | |
US20180129897A1 (en) | Handwriting-based predictive population of partial virtual keyboards | |
KR102241618B1 (ko) | 터치 입력의 압력 상태에 따라 동작하는 전자 장치 및 그 방법 | |
JP5468665B2 (ja) | 多言語環境を有するデバイスのための入力方法 | |
US6903730B2 (en) | In-air gestures for electromagnetic coordinate digitizers | |
US7098896B2 (en) | System and method for continuous stroke word-based text input | |
US8643605B2 (en) | Gesture based document editor | |
RU2366006C2 (ru) | Динамическая обратная связь для жестов | |
US6160555A (en) | Method for providing a cue in a computer system | |
US7319454B2 (en) | Two-button mouse input using a stylus | |
US9360955B2 (en) | Text entry for electronic devices | |
US20160124926A1 (en) | Advanced methods and systems for text input error correction | |
US20110122081A1 (en) | Gesture-based repetition of key activations on a virtual keyboard | |
JP2013515295A (ja) | データ入力システムおよびその方法 | |
JP2019514097A (ja) | 文字列に文字を挿入するための方法および対応するデジタルデバイス | |
JP2019514096A (ja) | 文字列に文字を挿入するための方法およびシステム | |
WO2017186350A1 (en) | System and method for editing input management | |
JP3075882B2 (ja) | 文書作成編集装置 | |
JP5977764B2 (ja) | 拡張キーを利用した情報入力システム及び情報入力方法 | |
KR100379917B1 (ko) | 핫키입력부를 구비한 휴대용 단말기 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120626 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120926 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130312 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130712 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130722 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20130927 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140108 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140115 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140210 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140217 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5661279 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |