JP2009518727A - 電子デバイスの改善された文章入力 - Google Patents

電子デバイスの改善された文章入力 Download PDF

Info

Publication number
JP2009518727A
JP2009518727A JP2008543926A JP2008543926A JP2009518727A JP 2009518727 A JP2009518727 A JP 2009518727A JP 2008543926 A JP2008543926 A JP 2008543926A JP 2008543926 A JP2008543926 A JP 2008543926A JP 2009518727 A JP2009518727 A JP 2009518727A
Authority
JP
Japan
Prior art keywords
input
character
region
individual
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008543926A
Other languages
English (en)
Other versions
JP4908518B2 (ja
Inventor
ガオ ウィプ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of JP2009518727A publication Critical patent/JP2009518727A/ja
Application granted granted Critical
Publication of JP4908518B2 publication Critical patent/JP4908518B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)
  • Calculators And Similar Devices (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Document Processing Apparatus (AREA)

Abstract

ディスプレイ(11)を含む電子デバイス(1)に一連の文字を入力する方法であって、ディスプレイ(11)上で文字を入力するためのディスプレイ(11)の複数の個別領域(53)の第1の領域に関連している第1の入力を検出することと;複数の個別領域(53)の第1の領域における第1の入力を、第1の文字入力(59)として認識することとを含み、一方で、第2の文字入力(59)として認識される第2の入力を検出するよう複数の個別領域(53)の第2の領域が機能可能であり、第2の文字入力(59)の認識は第1の文字入力(59)の認識とは別に生じる、方法。
【選択図】図2

Description

本発明の実施形態は、電子デバイスの改善された文章入力に関する。特に、電子デバイスへの文章入力方法と、電子デバイスと、電子デバイスを制御するプログラム命令を含んだコンピュータ・プログラムと、グラフィカル・ユーザ・インターフェースとに関する。
発明の背景
手書き文字認識は、ユーザが電子デバイスに情報を入力できるようにするために頻繁に使われる。一連の文字を認識するプロセスは多くの場合遅く不正確になり得るため、例えば単語または電話番号などの一連の文字をこのようなデバイスに入力する際に問題が生じる。
発明の簡単な説明
本発明の一実施形態によれば、ディスプレイを具備する電子デバイスに一連の文字を入力する次のような方法が提供される。この方法は、前記ディスプレイ上に文字を入力するために、前記ディスプレイの複数の個別領域の第1の領域に関連している第1の入力を検出することと;前記複数の個別領域の第2の領域が第2の文字入力として認識される第2の入力を検出するように動作しうる間に、前記複数の個別領域の前記第1の領域における前記第1の入力を第1の文字入力として認識することと;を含む。前記第2の文字入力の前記認識は、前記第1の文字入力の前記認識とは別に生じる。
これは、各文字入力が複数の個別領域の異なるものに関連するという利点をもたらす。これにより、プロセッサが他の文字入力と関係なく各文字入力を認識できるようになり、その結果、プロセッサが前の文字入力を認識できる間、同時に、ユーザは新たな入力を行うことができる。これによって、一連の文字を入力するプロセスが迅速化され、通常の手書きのプロセスによく似たものとなる。
本発明の別の実施形態によれば、次のような電子デバイスが提供される。この電子デバイスは、一連の文字を入力するための複数の個別領域を有するディスプレイと;前記複数の個別領域を介して文字を入力するためのユーザ入力部と;前記複数の個別領域の第1の領域に関連している第1の入力を検出する検出手段と;前記複数の個別領域の前記第1の領域における前記第1の入力を、第1の文字入力として認識する一方、前記複数の領域の第2の領域において、第2の文字入力として認識される第2の入力を検出する処理手段と;を具備する。前記第2の文字入力の前記認識は、前記第1の文字入力の前記認識とは別に生じる。
本発明の別の実施形態によれば、プロセッサにロードされることにより、ディスプレイを具備する電子デバイスを制御するプログラム命令を含んだコンピュータ・プログラムが提供される。この電子デバイスは、文字を入力するためのディスプレイの複数の個別領域の第1の領域に関連している第1の入力を検出する手段と;前記複数の個別領域の第2の領域が第2の文字入力として認識される第2の入力を検出するように動作しうる間に、前記複数の個別領域の前記第1の領域における前記第1の入力を第1の文字入力として認識する手段と、を備える。前記第2の文字入力の前記認識は、前記第1の文字入力の前記認識とは別に生じる。
本発明の別の実施形態によれば、ディスプレイを備えるグラフィカル・ユーザ・インターフェースが提供される。これは、前記ディスプレイ上に文字を入力するために、前記ディスプレイの複数の個別領域の第1の領域に関連している第1の入力の検出を可能にし;前記複数の個別領域の第2の領域が第2の文字入力として認識される第2の入力を検出するように動作しうる間に、前記複数の個別領域の前記第1の領域における前記第1の入力を第1の文字入力として認識することを可能にする。前記第2の文字入力の前記認識は、前記第1の文字入力の前記認識とは別に生じる。
本発明のさらなる実施形態によれば、第1の文字、第2の文字および第3の文字を含む順序付けられた文字の列を含む一連の文字を入力する方法が提供され、この方法は、ディスプレイ上の第1の領域、第2の領域および第3の領域を含む順序付けられた領域の列を提供することを含み、第1の文字は第1の領域に関連し、第2の文字は第2の領域に関連し、第3の文字は第3の領域に関連するようにされていることで、各文字とディスプレイの各領域とが対応しており;第1の領域内における軌跡入力は第1の文字を定義し、第2の領域内における軌跡入力は第2の文字を定義し、第3の領域内における軌跡入力は第3の文字を定義し、各領域内における入力は他の領域内における入力とは別に処理される。
ここからは、本発明がよりよく理解されるよう、単なる一例として添付の図面を参照する。
発明の実施形態の詳細な説明
図は、ディスプレイ11を含む電子デバイス1に一連の文字を入力する方法を例示しており、この方法は、ディスプレイ11上で文字を入力するためのディスプレイ11の複数の個別領域53の第1の領域に関連している第1の入力を検出することと;複数の個別領域53の第1の領域における第1の入力を第1の文字入力59として認識することとを含み、第2の文字入力59として認識される第2の入力を検出するよう複数の個別領域53の第2の領域が機能可能であり、第2の文字入力59の認識は第1の文字入力59の認識とは別に生じる。
図1は、電子デバイス1を概略的に例示している。以下の説明で参照される機能のみが例示されている。なお、当然のことではあるが、デバイス1は例示されていない追加の機能を含んでもよい。電子デバイス1は、例えばパーソナル・コンピュータ、携帯情報端末、セル式移動電話、テレビ、テレビと併用されるビデオ・レコーダ、またはグラフィカル・ユーザ・インターフェースを使用する任意の他の電子デバイスなどであればよい。
例示されている電子デバイス1は、プロセッサ3、メモリ5およびユーザ・インターフェース9を含んでいる。ユーザ・インターフェース9は、ディスプレイ11およびユーザ入力手段13を含んでいる。ディスプレイ11は、タッチ・センシティブ・ディスプレイであるとよい。ユーザ入力手段13は、タッチ・センシティブ・ディスプレイ11上の1つ以上の領域を含むとよい。ユーザ入力手段13はさらに、例えばキーパッドまたはジョイスティックなど、他のタイプのユーザ入力を含んでもよい。プロセッサ3は、ユーザ・インターフェース9から入力コマンドを受信し、ディスプレイ11に出力コマンドを提供するよう接続されている。プロセッサ3はさらに、メモリ5への書き込みおよびそこからの読み取りを行うよう接続されている。
ディスプレイ11は、グラフィカル・ユーザ・インターフェース(GUI:Graphical User Interface)をユーザに示す。本発明の実施形態によるGUIの例が、図3および5に例示されている。
メモリ5はコンピュータ・プログラム命令7を格納しており、これはプロセッサ3にロードされると、プロセッサ3が下記のようにデバイス1の動作を制御できるようにする。コンピュータ・プログラム命令7は、電子デバイス1が図2および4に例示されている方法を実行できるようにする論理およびルーチンを提供する。
コンピュータ・プログラム命令7は、電磁搬送信号を介して電子デバイス1に到達してもよく、または、コンピュータ・プログラム製品、メモリ・デバイスまたはCD−ROMもしくはDVDなどの記憶媒体など、物理エンティティからコピーされてもよい。
本発明の第1の実施形態に従ってデバイス1を制御する方法が、図2に概略的に例示されている。
ステップ21で、プロセッサ3は、手書き文字認識を使用して一連の文字59を入力するための複数の個別領域53をユーザに示すよう、ディスプレイ11を制御する。文字59は、情報を伝えるのに使用される任意の筆記記号であればよい。例えば文字59は、任意のローマ字、句読点、アラビア数字、数字記号または漢字であってもよい。文字はさらに、文字または文字のグループを表すのに使用される速記記号または省略記号であってもよい。
複数の個別領域53は、ディスプレイ11上に一連の分画領域として表示されるとよい。分画領域は、領域内に一連の文字を入力するプロセスが通常の手書きのプロセスによく似たものとなるように、軸に沿って隣接して広がっているとよい。
ステップ23で、プロセッサ3は、文字入力の開始段階を検出する。開始段階は、スタイラスまたはユーザの指などのオブジェクトでユーザがタッチ・センシティブ・ディスプレイ11に触れることであればよい。プロセッサ3は、ステップ25で、複数の個別領域53のどれで開始段階が生じたかを判断する。開始段階に続くさらなる入力は、どれもこの個別領域に関連することになる。
続いてプロセッサ3は、ステップ27で、文字入力の形成段階を検出する。形成段階は、スタイラスまたはユーザの指でタッチ・センシティブ・ディスプレイ11をなぞることによって、ユーザがドラッグ動作または一連のドラッグ動作をすることを含むとよい。文字入力の形成段階は入力の開始段階が生じた個別領域に関連するが、ドラッグ動作がこの領域の境界内に限定される必要はない。ドラッグ動作は軌跡59を作り出し、これがプロセッサ3により記録されてステップ29でディスプレイ11上に表示される。
ステップ31で、プロセッサ3は、所定の時間内に任意のさらなる入力が生じるかどうか判断する。入力が生じれば、プロセッサ3は、ステップ25に戻って複数の個別領域のどれで入力が生じたかを判断する。所定の時間内にさらなる入力が生じなければ、プロセッサ3はステップ33で文字入力が終わったと検出し、プロセッサ3は認識プロセスを開始する。
入力が同じ個別領域で生じれば、プロセッサ3はこれを文字入力の続きとして検出することになる。例えば、それは「i」の点または「t」の横線(crossing)である可能性もある。入力が別の個別領域で生じれば、プロセッサ3はこれを別の文字入力の開始段階として検出することになり、ステップ33で、第1の文字入力が完了したと検出することになる。続いてプロセッサ3は、第1の文字入力の認識プロセスを始める。プロセッサ3が、第1の個別領域に関連している第1の文字入力を認識している間、ユーザは別の個別領域内に次の文字入力をすることができる。
認識プロセスは、プロセッサ3がステップ35で、文字入力を文字または文字のグループとして認識することを含む。これは、ルックアップ表を用いて実現されてもよい。プロセッサ3はステップ37で、手書き文字入力軌跡59を削除してそれを認識された活字文字61と置き換えるよう、ディスプレイ11を制御する。
ステップ25から31は、必要に応じて何度でも繰り返すことができる。これによって、一連の文字を入力することができるようになる。
図3Aから3Lは、本発明の第1の実施形態によるグラフィカル・ユーザ・インターフェース(GUI)51の実施形態、およびGUI(51)を使用しているユーザを例示している。図3Aは、ディスプレイ11によって示されるGUI(51)を例示している。GUI(51)は、文章を表示できる第1の部分52を含んでいる。この文章は、ユーザによって入力された文章であっても、デバイス1のメモリ5内に格納されている文章であってもよい。図3Aではまだ文章が入力されていないため、第1の領域52は空白である。GUIはさらに、手書き文字認識を使用して一連の文字を入力するためにユーザによって使用される第2の部分54を含んでいる。この第2の部分54は、複数の個別領域53A、53B、53C...53Tを含んでおり、これらはここから集合的に53と呼ばれる。この実施形態では、ディスプレイ11を横断して2つの水平な列の状態で広がっている複数の四角として、個別領域がディスプレイ11上に示されている。他の実施形態では、領域の他の形および構成が使用されてもよい。
図3Aはさらに、複数の個別領域53内で文字入力をするのに使用されてもよいスタイラス57を例示している。他の実施形態では、ユーザはその指を使用してディスプレイ11上に書き込むことができてもよい。
複数の個別領域の1つ、この特定の実施形態では右下の領域53Aは、スタイラス57で触れることによってこの領域53Aを作動させると、複数の領域53内にユーザによって入力された任意の文字を第1の部分52内の文章に入力させるように、入力ボタンとして機能可能である。他の実施形態では、ディスプレイ11の別の部分を作動させることによって、または別のユーザ入力手段を使用することによって、文字が入力されてもよい。
図3Bは、第1の文字入力59Bの後のGUI(51)を例示しており、複数の個別領域53Bの第1の領域において、英字の「H」がユーザによってつくられている。スタイラス57を用いてディスプレイ11上で一連のドラッグ動作をすることによって入力が行われている。これらのドラッグ動作を示す軌跡59がディスプレイ11上に表示されている。
図3Bでは、文字入力59Bの軌跡が領域53Bの外へ出ている。しかし、文字入力59Bのペンを下ろす動作はそれぞれ領域53B内で生じたため、その結果、ドラッグ動作はそれぞれ領域53Bに関連していると判断される。これは、ユーザが文字を入力するときに領域53のサイズに制約されず、文字の入力時に線を越えることを避けるようユーザが特に注意する必要がないとうことを意味する。
図3Cは、ユーザが第2の文字入力59C、この場合は英字の「e」を入力した後のユーザ・インターフェースを例示している。文字入力59Cの開始段階は個別領域53C内で生じたため、文字入力59Cは個別領域53Cに関連している。ユーザが文字入力59Cを始めると、プロセッサ3は文字入力59Bが完了したことを検出し、認識プロセスを始める。
図3Dでは、ユーザは、第3の文字入力59D、英字「l」の入力を第3の個別領域53D内で始めている。プロセッサ3は、第1の文字入力59Bの認識を完了しており、領域53B内の手書きの軌跡を、手書き入力59Bに対応する活字文字61Bと置き換えている。
図3Eでは、ユーザはさらに2つの文字入力をしている。領域53E内の「l」および領域53F内の「o」である。プロセッサ3は、最初の4つの文字入力の認識プロセスを完了しており、個別領域それぞれにおいて、手書きの軌跡それぞれを活字文字と置き換えている。ユーザは次に、新たな単語の入力を始めることを望む。2つの単語を分けるには、ユーザは単に、前の単語の最後の英字と関連した領域53Fに隣接している領域53Gを空のままにし、1つおいて隣の領域53H内に新たな入力を始める。プロセッサ3は、領域53Gに関連している文字入力はないが、2つの隣接領域53Fおよび53Hそれぞれには関連している文字入力があることを検出し、その結果、領域53Gはスペースとして認識される。これによって、ユーザは、一度に2つ以上の単語を入力できるようになり、文字入力のより滑らかな方法が可能になる。
図3Fでは、ユーザは文字「W」、「o」、「r」、「l」、「d」および「!」を個別領域53H、53I、53J、53K、53Lおよび53Mそれぞれに入力している。プロセッサ3は、各文字入力の認識プロセスを完了しており、ディスプレイ11上の手書きの軌跡59は、活字文字61によって置き換えられている。
プロセッサ3は、第5の個別領域53Fに関連している文字入力59Fを、「o」ではなく「D」として間違って認識している。ユーザは、間違って認識された文字に関連している領域53F内に新たな文字入力をすることによってこの誤りを修正できる。図3Gは、間違って認識された文字に関連している領域53Gにおいて、スタイラス57でディスプレイ11に触れるユーザを例示している。プロセッサ3は、この入力を検出すると、図3Hに例示されているように、認識された文字を消去して活字文字61Fをディスプレイ11から消し、領域53Fは空白のままにする。その結果、ユーザは、この領域内で新たな文字入力を始めることができる。一部の実施形態では、ユーザは、認識された文字が消されるまで、所定の期間、適所にスタイラス57をとどめる必要があってもよい。これによって、認識された文字が予想外に消去されることが避けられる。
図3Iでは、個別領域53F内にユーザが新たな文字入力59Nを行っている。図3Jに例示されているように、プロセッサ3は、前の文字入力と同じように、文字入力を認識して領域53F内の手書きの軌跡59Nを活字文字61Nと置き換える。
すべての文字が正確に認識されると、ユーザは一連の文字をディスプレイ52の第1の部分に入力できる。例示されている実施形態では、これは、図3Kに例示されているように、スタイラス57で入力領域53Aに触れることによって達成される。一部の実施形態では、無意識に文字を入力することを避けるために、ユーザがスタイラスを入力領域53Aに所定の時間とどめる必要があってもよい。文字が入力されると、図3Lに例示されているように、それらはディスプレイ52の第1の部分に表示され、活字文字61は個別領域53から消される。
図4は、本発明の第2の実施形態による方法を例示している。この実施形態において、プロセッサ3は、ユーザにより文字またはジェスチャとして行われた入力を認識できる。文字は、第1の実施形態のように、情報を伝えるのに使用される任意の筆記記号であればよい。ジェスチャは、デバイスに機能を実行させる入力であってもよい。
ステップ71で、タッチ・センシティブ・ディスプレイ11はユーザにGUI(91)を示す。この第2の実施形態と共に使用するのに適したGUI(91)の例が、図5に例示されている。ステップ73で、プロセッサ3は第1の入力を検出する。この入力は、例えば、ペンまたはスタイラスをGUI(91)上に所定の期間とどめることであってもよい。
この第1の入力の検出に応答して、プロセッサ3はステップ75で、手書き文字認識を使用した文字入力用の複数の個別領域97をユーザに示すよう、ディスプレイ11を制御する。これらの領域は、図5に例示されているように一連の四角形としてディスプレイ11上に表示されてもよい。
ステップ77で、プロセッサ3はさらなる入力を検出する。入力は、文字入力またはジェスチャ入力の開始段階であればよく、つまり、ユーザがペンまたはスタイラスでディスプレイ11に触れることであればよい。ステップ78で、プロセッサ3は、この入力が、複数の個別領域97のうちの1つの中で生じたかどうかを判断する。入力が、複数の個別領域97の任意のもので生じていれば、ユーザによって行われた入力は文字入力として認識される。プロセッサ3は、ステップ79で文字入力を検出する。この文字入力はタッチ・センシティブ・ディスプレイ11の一連の軌跡を含むとよい。これらの軌跡は、ディスプレイ11上に表示されるとよい。プロセッサ3はステップ81で、文字入力を文字として認識するが、これはルックアップ表を使用することによって行われてもよい。
入力が複数の個別領域97の外で生じた場合、プロセッサ3は、ユーザによって行われた入力をジェスチャ入力として認識する。ステップ83で、プロセッサ3は、タッチ・センシティブ・ディスプレイ11上の軌跡または一連の軌跡を含み得るジェスチャ入力を検出する。ステップ85で、プロセッサ3はこの入力を文字入力として認識する。これは、ルックアップ表を使用することによって行われてもよく、プロセッサ3は、文字入力用に有するルックアップ表とは別の、ジェスチャ入力用のものを有することが好ましい。ステップ87で、プロセッサ3は、ジェスチャに関連した機能を実行するようデバイス1を制御することができる。
図5Aは、本発明の第2の実施形態に従ってタッチ・センシティブ・ディスプレイ11によって示されるGUI(91)の実施形態を例示している。このGUI(91)では、いくつかの通り(Street)93と、これらの通り(Street)93にある店およびレストランなどの種々の施設とを例示する地図が表示されている。
図5Aで、ユーザはスタイラス57を使用して第1の入力を行っている。この入力は、スタイラス57を適所に所定の期間とどめることであってもよい。この第1の入力の検出に応答して、プロセッサ3は、図5Bに例示されているように、手書き文字認識を使用した文字入力用の複数の個別領域97をユーザに示すよう、ディスプレイ11を制御する。
図5Cから5Fは、複数の個別領域97内に手書き文字を入力しているユーザを例示している。この特定の実施形態では、1つだけの文字入力が領域97のそれぞれに関連している。他の実施形態では、2つ以上の文字入力が各領域97に関連していてもよい。プロセッサ3は、各領域97の入力を、他の領域97に関連した入力から切り離して認識できる。
図5Cで、ユーザは英字「s」に対応する第1の文字入力99Aを行っている。この入力は、スタイラス57でタッチ・センシティブ・ディスプレイ11を英字sの形になぞることによって行われてもよい。図5Dでは、ユーザは、領域97Bおよび97Cそれぞれにおいて、英字「h」99Bおよび英字「o」99Cに対応するさらに2つの文字入力を行っている。
図5Eでは、ユーザは領域99D内にさらなる入力を始める。この領域は最後の利用可能領域の隣であるため、プロセッサ3はユーザが文字入力に利用可能な領域を使い果たそうとしていることを検出し、そこで、最後の利用可能領域97Eに隣接した追加領域97Fを示すようディスプレイ11を制御する。図5Fで、ユーザは、領域97D内の英字「p」に対応する第4の文字入力99Dを行っている。
この実施形態では、文字入力は、ディスプレイ11上に手書きの軌跡を残す。他の実施形態では、これらの軌跡は、プロセッサ3が各文字入力を認識すると、活字文字に置き換えられてもよい。各文字入力を独立して認識することによって、プロセッサ3は、一連の文字入力を単語「shop」として認識できる。
図5Gでは、ユーザは、複数の個別領域97の外で入力を行う。この入力は、ジェスチャとして認識される。例示されている例では、ジェスチャ入力101は、複数の個別領域97内につくられた、文字入力99の周りの円である。プロセッサ3は、ジェスチャ入力101が完了したと検出するとジェスチャ入力101を認識し、続いて、ジェスチャに関連した機能を実行するようデバイス1を制御する。プロセッサ3は、所定の期間さらなる入力が生じなければ、ジェスチャ入力が完了したと検出するとよい。あるいは、プロセッサ3は、例えば複数の個別領域97のうちの1つの中など、他の場所で別の入力が生じると、ジェスチャ入力が完了したと検出するとよい。この特定の例では、プロセッサ3は、図5Hに例示されているように、ユーザによって描かれた円101内のすべての店を表示するようデバイス1を制御する。
先行する段落では、種々の例を参照して本発明の実施形態が説明されたが、当然のことながら、請求されているとおりの本発明の範囲から逸脱することなく、与えられた例に対して変更を加えることが可能である。
電子デバイスを概略的に例示している。 本発明の第1の実施形態の方法ステップを示す流れ図を例示している。 図3の一部であり、本発明の第1の実施形態に従ってグラフィカル・インターフェースを使用しているユーザを例示している。 同じく図3の一部である。 同じく図3の一部である。 同じく図3の一部である。 本発明の第2の実施形態の方法ステップを示す流れ図を例示している。 図5の一部であり、本発明の第2の実施形態に従ってグラフィカル・インターフェースを使用しているユーザを例示している。 同じく図5の一部である。 同じく図5の一部である。

Claims (40)

  1. ディスプレイを具備する電子デバイスに一連の文字を入力する方法であって、
    前記ディスプレイ上に文字を入力するために、前記ディスプレイの複数の個別領域の第1の領域に関連している第1の入力を検出することと;
    前記複数の個別領域の第2の領域が第2の文字入力として認識される第2の入力を検出するように動作しうる間に、前記複数の個別領域の前記第1の領域における前記第1の入力を第1の文字入力として認識することと;
    を含み、前記第2の文字入力の前記認識は、前記第1の文字入力の前記認識とは別に生じる、
    方法。
  2. 各個別領域に関連している文字入力が他の個別領域内における文字入力とは別に処理されるようになっていることで、前記複数の個別領域はそれぞれ前記他の個別領域とは区別される、請求項1に記載の方法。
  3. 文字入力は単一の文字を含む、請求項1または2にに記載の方法。
  4. 文字入力は複数の文字を含む、請求項1または2に記載の方法。
  5. 文字は、情報を伝えるのに使用される任意の筆記記号である、請求項1から4のいずれかに記載の方法。
  6. 前記第1の入力は開始段階および形成段階を含む、請求項1から5のいずれかに記載の方法。
  7. 前記第1の入力の前記形成段階は、前記ディスプレイ上に表示される軌跡を作り出す、請求項6に記載の方法。
  8. 前記第1の入力の前記開始段階の位置が、前記第1の入力が前記複数の個別領域のどれと関連しているのかを決定する、請求項6または7に記載の方法。
  9. 前記第1の入力の前記形成段階は、前記開始段階が生じた前記個別領域の外に出てもよい、請求項6、7または8に記載の方法。
  10. 前記第1の個別領域に関連している前記入力は、前記第2の入力の開始段階が前記第2の個別領域内で生じたときに終わったと検出される、請求項1から9のいずれかに記載の方法。
  11. 前記第1の個別領域に関連している前記入力は、所定の時間が経ってもさらなる入力が生じなければ、終わったと決定される、請求項1から9のいずれかに記載の方法。
  12. 文字入力が認識されると、ユーザ入力の軌跡が消され、前記ディスプレイは前記認識された文字が関連している前記個別領域内に前記認識された文字を表示する、請求項1から11のいずれかに記載の方法。
  13. 認識された文字は、前記認識された文字に関連している前記個別領域内に別の文字を入力することによって消される、請求項12に記載の方法。
  14. 前記認識された文字は、一連の文字として文章の一部に入力される、請求項1から3のいずれかに記載の方法。
  15. 入力動作の開始段階が長いことが、前記ディスプレイに前記複数の個別領域を表示させる、請求項から1の14いずれかに記載の方法。
  16. 前記複数の個別領域からはみ出た開始段階はジェスチャとして認識される、請求項1から15のいずれかに記載の方法。
  17. ジェスチャのリストは円を含む、請求項16に記載の方法。
  18. 一連の文字を入力するための複数の個別領域を有するディスプレイと;
    前記複数の個別領域を介して文字を入力するためのユーザ入力部と;
    前記複数の個別領域の第1の領域に関連している第1の入力を検出する検出手段と;
    前記複数の個別領域の前記第1の領域における前記第1の入力を、第1の文字入力として認識する一方、前記複数の領域の第2の領域において、第2の文字入力として認識される第2の入力を検出する処理手段と;
    を具備し、前記第2の文字入力の前記認識は、前記第1の文字入力の前記認識とは別に生じる、
    電子デバイス。
  19. 各個別領域に関連している文字入力が他の個別領域内における文字入力とは別に処理されるようになっていることで、前記複数の個別領域はそれぞれ前記他の個別領域とは区別される、請求項18に記載のデバイス。
  20. 文字入力は単一の文字を含む、請求項18または19のうちのいずれかに記載のデバイス。
  21. 文字入力は複数の文字を含む、請求項18または19のいずれかに記載のデバイス。
  22. 文字は、情報を伝えるのに使用される任意の筆記記号である、請求項18から21のいずれかに記載のデバイス。
  23. 前記第1の入力は開始段階および形成段階を含む、請求項18から22のいずれかに記載のデバイス。
  24. 前記形成段階は、前記ディスプレイ上に表示される軌跡を作り出す、請求項23に記載のデバイス。
  25. 前記第1の入力の前記開始段階の位置が、前記第1の入力が前記複数の個別領域のどれと関連しているのかを決定する、請求項23から24のいずれかに記載のデバイス。
  26. 第1の入力の前記形成段階は、前記開始段階が生じた前記個別領域の外に出てもよい、請求項23、24または25に記載のデバイス。
  27. 前記第1の個別領域に関連している前記第1の入力は、前記第2の入力の開始段階が前記第2の個別領域内で生じたときに終わったと検出される、請求項18から26のいずれかに記載のデバイス。
  28. 前記第1の個別領域に関連している前記入力は、所定の時間が経ってもさらなる入力が生じなければ、終わったと決定される、請求項18から27のいずれかに記載のデバイス。
  29. 文字入力が認識されると、ユーザ入力の軌跡が消され、前記ディスプレイは前記認識された文字が関連している前記個別領域内に前記認識された文字を表示する、請求項18から28のいずれかに記載のデバイス。
  30. 認識された文字は、前記認識された文字に関連している前記個別領域内に別の文字を入力することによって消される、請求項29に記載のデバイス。
  31. 前記認識された文字は、一連の文字として文章の一部に入力される、請求項18から30のいずれかに記載のデバイス。
  32. 入力動作の開始段階が長ければ、前記ディスプレイに前記複数の個別領域を表示させる、請求項18から31のいずれかに記載のデバイス。
  33. 前記複数の個別領域からはみ出た開始段階はジェスチャとして認識される、請求項18から32のいずれかに記載のデバイス。
  34. ジェスチャのリストは円を含む、請求項33に記載のデバイス。
  35. 文字を入力するためのディスプレイの複数の個別領域の第1の領域に関連している第1の入力を検出する手段と;
    前記複数の個別領域の第2の領域が第2の文字入力として認識される第2の入力を検出するように動作しうる間に、前記複数の個別領域の前記第1の領域における前記第1の入力を第1の文字入力として認識する手段であって、前記第2の文字入力の前記認識は、前記第1の文字入力の前記認識とは別に生じる、手段と;
    を備える、ディスプレイを具備する電子デバイスを、プロセッサにロードされることによって制御するプログラム命令を含む、コンピュータ・プログラム。
  36. 請求項35に記載のコンピュータ・プログラムを具現化する物理エンティティ。
  37. 請求項35に記載のコンピュータ・プログラムを送る電磁搬送信号。
  38. 請求項1から17のうちのいずれか1項の方法をコンピュータに実行させるプログラム命令を含んだコンピュータ・プログラム。
  39. ディスプレイを備えるグラフィカル・ユーザ・インターフェースであって、
    前記ディスプレイ上に文字を入力するために、前記ディスプレイの複数の個別領域の第1の領域に関連している第1の入力の検出を可能にし;
    前記複数の個別領域の第2の領域が第2の文字入力として認識される第2の入力を検出するように動作しうる間に、前記複数の個別領域の前記第1の領域における前記第1の入力を第1の文字入力として認識することを可能にし;
    前記第2の文字入力の前記認識は、前記第1の文字入力の前記認識とは別に生じる、
    グラフィカル・ユーザ・インターフェース。
  40. 第1の文字、第2の文字および第3の文字を含む順序付けられた文字の列を含んだ一連の文字を入力する方法であって、
    第1の領域、第2の領域および第3の領域を含む順序付けられた領域の列をディスプレイ上に表示することを含み、
    前記第1の文字は前記第1の領域と関連し、前記第2の文字は前記第2の領域と関連し、前記第3の文字は前記第3の領域と関連するようにされていることで、各文字と前記ディスプレイの各領域とが対応しており;
    前記第1の領域内における軌跡入力は前記第1の文字を定義し、前記第2の領域内における軌跡入力は前記第2の文字を定義し、前記第3の領域内における軌跡入力は前記第3の文字を定義し、各領域内における前記入力は他の領域内における前記入力とは別に処理される、
    方法。
JP2008543926A 2005-12-08 2005-12-08 電子デバイスの改善された文章入力 Expired - Fee Related JP4908518B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2005/004018 WO2007066168A1 (en) 2005-12-08 2005-12-08 Improved text entry for electronic devices

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011235586A Division JP5468592B2 (ja) 2011-10-27 2011-10-27 電子デバイスの改善された文章入力

Publications (2)

Publication Number Publication Date
JP2009518727A true JP2009518727A (ja) 2009-05-07
JP4908518B2 JP4908518B2 (ja) 2012-04-04

Family

ID=38122524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008543926A Expired - Fee Related JP4908518B2 (ja) 2005-12-08 2005-12-08 電子デバイスの改善された文章入力

Country Status (4)

Country Link
US (4) US8428359B2 (ja)
EP (3) EP2543971B8 (ja)
JP (1) JP4908518B2 (ja)
WO (1) WO2007066168A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US8274514B1 (en) * 2007-09-19 2012-09-25 Jacquelyn Annette Martino Method and apparatus for searching, replacing and modifying explicit and implicit shape in sketch-style drawings of various styles
KR101445196B1 (ko) * 2007-11-23 2014-09-29 삼성전자주식회사 터치 스크린을 가지는 휴대 단말기의 문자 입력 방법 및장치
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8610672B2 (en) * 2008-04-10 2013-12-17 Nokia Corporation Device and method for stroke based graphic input
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US20110291964A1 (en) * 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
US8552999B2 (en) 2010-06-14 2013-10-08 Apple Inc. Control selection approximation
US9298363B2 (en) * 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
US9099007B1 (en) * 2011-05-15 2015-08-04 Quaest, Inc. Computerized processing of pictorial responses in evaluations
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
JP6043334B2 (ja) * 2014-12-22 2016-12-14 京セラドキュメントソリューションズ株式会社 表示装置、画像形成装置、及び、表示方法
WO2016119146A1 (en) * 2015-01-28 2016-08-04 Motorola Solutions, Inc. Method and device for inputting handwriting character
CN106484133B (zh) * 2016-08-24 2019-06-11 苏娜香 使用手写速记符号进行中文输入的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01204195A (ja) * 1988-02-10 1989-08-16 Fujitsu Ltd オンライン文字入力方式
JPH06251198A (ja) * 1993-02-23 1994-09-09 Toshiba Corp 文字入力装置
JPH06289984A (ja) * 1993-03-31 1994-10-18 Toshiba Corp 文書作成編集装置
JPH06325211A (ja) * 1993-05-11 1994-11-25 Sanyo Electric Co Ltd 手書き文字記入枠の制御方法
JPH07152476A (ja) * 1993-11-30 1995-06-16 Sanyo Electric Co Ltd 手書き編集装置、ペン入力変換方法、及び編集方法
JPH08185479A (ja) * 1994-12-27 1996-07-16 Sharp Corp 手書き文字入力装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6249483A (ja) * 1985-08-28 1987-03-04 Hitachi Ltd 実時間手書き文字認識の文字入力方式
US5267327A (en) * 1990-03-30 1993-11-30 Sony Corporation Apparatus and method for registering the handwriting of a user so it can be translated into block characters
US5276794A (en) * 1990-09-25 1994-01-04 Grid Systems Corporation Pop-up keyboard system for entering handwritten data into computer generated forms
JP3190074B2 (ja) * 1991-09-11 2001-07-16 株式会社東芝 手書き入力装置
US5455901A (en) * 1991-11-12 1995-10-03 Compaq Computer Corporation Input device with deferred translation
JPH08138193A (ja) 1994-11-09 1996-05-31 Ekushingu:Kk サービス施設情報表示機能付カーナビゲーションシステム及びカーナビゲーション端末
JPH08212238A (ja) 1994-11-30 1996-08-20 Toshiba Corp 個人情報端末装置
US6295372B1 (en) * 1995-03-03 2001-09-25 Palm, Inc. Method and apparatus for handwriting input on a pen based palmtop computing device
US5889888A (en) * 1996-12-05 1999-03-30 3Com Corporation Method and apparatus for immediate response handwriting recognition system that handles multiple character sets
JP4119004B2 (ja) * 1998-05-19 2008-07-16 株式会社東芝 データ入力システム
US6389745B1 (en) * 1999-02-26 2002-05-21 G&B Tech Corp. Sheet for growing grass seeds and grass seed mat using same
US6333994B1 (en) * 1999-03-31 2001-12-25 International Business Machines Corporation Spatial sorting and formatting for handwriting recognition
JP2002228459A (ja) 2001-01-30 2002-08-14 Kenwood Corp ナビゲーション装置、施設表示方法、及び、プログラム
US20030007018A1 (en) * 2001-07-09 2003-01-09 Giovanni Seni Handwriting user interface for personal digital assistants and the like
US20030093419A1 (en) * 2001-08-17 2003-05-15 Srinivas Bangalore System and method for querying information using a flexible multi-modal interface
US6867711B1 (en) * 2002-02-28 2005-03-15 Garmin International, Inc. Cockpit instrument panel systems and methods with variable perspective flight display
US7490296B2 (en) * 2003-01-31 2009-02-10 Microsoft Corporation Utility object for specialized data entry
KR100537280B1 (ko) * 2003-10-29 2005-12-16 삼성전자주식회사 휴대용 단말기에서 터치스크린을 이용한 문자 입력 장치및 방법
JP2005140570A (ja) 2003-11-05 2005-06-02 Denso Corp 施設表示制御装置
US6989822B2 (en) * 2003-11-10 2006-01-24 Microsoft Corporation Ink correction pad
GB0405795D0 (en) 2004-03-15 2004-04-21 Tom Tom B V Navigation device displaying travel information
WO2005096217A1 (en) 2004-04-02 2005-10-13 Nokia Corporation Apparatus and method for handwriting recognition
US7646914B2 (en) * 2006-06-15 2010-01-12 David Anthony Clausi System and method for collecting and analyzing event data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01204195A (ja) * 1988-02-10 1989-08-16 Fujitsu Ltd オンライン文字入力方式
JPH06251198A (ja) * 1993-02-23 1994-09-09 Toshiba Corp 文字入力装置
JPH06289984A (ja) * 1993-03-31 1994-10-18 Toshiba Corp 文書作成編集装置
JPH06325211A (ja) * 1993-05-11 1994-11-25 Sanyo Electric Co Ltd 手書き文字記入枠の制御方法
JPH07152476A (ja) * 1993-11-30 1995-06-16 Sanyo Electric Co Ltd 手書き編集装置、ペン入力変換方法、及び編集方法
JPH08185479A (ja) * 1994-12-27 1996-07-16 Sharp Corp 手書き文字入力装置

Also Published As

Publication number Publication date
EP2975496B1 (en) 2020-01-22
JP4908518B2 (ja) 2012-04-04
EP1958044A4 (en) 2013-03-13
US8428359B2 (en) 2013-04-23
US20160320888A1 (en) 2016-11-03
WO2007066168A1 (en) 2007-06-14
EP2543971A3 (en) 2013-03-06
EP2543971B8 (en) 2019-02-27
US20090304281A1 (en) 2009-12-10
US9360955B2 (en) 2016-06-07
EP2543971A2 (en) 2013-01-09
US8913832B2 (en) 2014-12-16
US20120299959A1 (en) 2012-11-29
US20130162577A1 (en) 2013-06-27
US9811193B2 (en) 2017-11-07
EP1958044A1 (en) 2008-08-20
EP2543971B1 (en) 2018-09-05
EP2975496A1 (en) 2016-01-20

Similar Documents

Publication Publication Date Title
JP4908518B2 (ja) 電子デバイスの改善された文章入力
US20210406578A1 (en) Handwriting-based predictive population of partial virtual keyboards
JP7153810B2 (ja) 電子デバイス上の手書き入力
US10275152B2 (en) Advanced methods and systems for text input error correction
KR101488537B1 (ko) 텍스트 편집 및 메뉴 선택을 위한 사용자 인터페이스 시스템과 구현 방법
US8683390B2 (en) Manipulation of objects on multi-touch user interface
US20090066656A1 (en) Method and apparatus for inputting korean characters by using touch screen
US10402080B2 (en) Information processing apparatus recognizing instruction by touch input, control method thereof, and storage medium
US11112965B2 (en) Advanced methods and systems for text input error correction
US20200310639A1 (en) Interactive virtual keyboard configured to use gestures and having condensed characters on a plurality of keys arranged approximately radially about at least one center point
US9811238B2 (en) Methods and systems for interacting with a digital marking surface
JP5468592B2 (ja) 電子デバイスの改善された文章入力
JP2014089720A (ja) 電子デバイスの改善された文章入力
KR101033677B1 (ko) 전자 장치들에 관한 향상된 텍스트 기입
JP3864999B2 (ja) 情報処理装置および情報処理方法
US20130201161A1 (en) Methods, Systems and Apparatus for Digital-Marking-Surface Content-Unit Manipulation
JP5345609B2 (ja) タッチパネル式端末、語削除方法及びプログラム
US20200319788A1 (en) Interactive virtual keyboard configured for gesture based word selection and having a plurality of keys arranged approximately radially about at least one center point
US20150067592A1 (en) Methods and Systems for Interacting with a Digital Marking Surface

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111027

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20111104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120112

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees