JP4810146B2 - 入力テキストを生成する方法および装置 - Google Patents

入力テキストを生成する方法および装置 Download PDF

Info

Publication number
JP4810146B2
JP4810146B2 JP2005208783A JP2005208783A JP4810146B2 JP 4810146 B2 JP4810146 B2 JP 4810146B2 JP 2005208783 A JP2005208783 A JP 2005208783A JP 2005208783 A JP2005208783 A JP 2005208783A JP 4810146 B2 JP4810146 B2 JP 4810146B2
Authority
JP
Japan
Prior art keywords
input text
writing surface
pointing device
projector
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005208783A
Other languages
English (en)
Other versions
JP2006053909A (ja
Inventor
ポール・エイ・ベアズリィー
ジェロン・ヴァン・バール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2006053909A publication Critical patent/JP2006053909A/ja
Application granted granted Critical
Publication of JP4810146B2 publication Critical patent/JP4810146B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、ポインタに関し、特にテキスト入力に使用されるポインタに関する。
ポインタは、視覚的なフィードバックを与えるために使用することができる。ハンドヘルドポインタの非常に単純な例はレーザポインタである。この装置は、ユーザが表面上に移動可能なポイントを表示することを可能にする。しかし、レーザポインタがハンドヘルド型である場合、移動するポイントによって形成される軌跡、例えば正方形を表示面上に表示することは困難である。従来技術において、軌跡を表示することができる一方法は、レーザポインタを固定カメラで補い、このカメラにより表示面上で移動するポイントを観察してレーザポイントの軌跡を復元することである。次に、固定プロジェクタを使用して、復元された軌跡のビューを表示することができる。したがって、ハンドヘルドレーザポインタは、固定カメラおよび固定プロジェクタで補われなければならず、これにより、システムの可搬性が大きく低下する。
Beardsley他に対して2004年7月20日付で発行された米国特許第6,764,185号「Projector as an Input and Output Device」は、可動ハンドヘルドプロジェクタに固定された移動座標系と現実世界中の固定表示面に固定された安定座標系との間の関係を検知するセンサを備えるインタラクティブディスプレイシステムを記載する。移動座標系は、安定座標系内で使用されて、例えば従来のウィンドウズ形式の計算環境と対話するための視覚的なユーザインタフェースを表示面により提供することができる。ユーザの対話のいくつかの例としては、表示されたボタンを「押すこと」、表示されたスライダをドラッグすること、またはディスプレイ中の関心のある領域のマウス方式による選択がある。ハンドヘルドプロジェクタは、ユーザがプロジェクタを動かす際に安定した可視の軌跡を表示することもできる。
図1は、Beardsley他によって記載されるハンドヘルドポインティングプロジェクタの動作を示す。可搬式プロジェクタ100は、固定表示面120に対する可動プロジェクタの姿勢を求める動きセンサ110を備える。以下、「姿勢」はプロジェクタの3D位置および3D向きである。プロジェクタ100は軌跡101に沿って移動することができるため、出力画像102は不規則な四辺形として表示面上に現れる可能性がある。動きセンサ110は、カメラ、傾斜センサ、または加速度計であることができる。
プロジェクタ100は、動きセンサ110を使用して出力画像102を投影する。4つのタイプの画像、すなわち出力画像102、この出力画像102から分割される、ブラック画像部分103、安定画像部分104、および移動画像部分105(例えばカーソル)が画定される。ブラック部分のピクセルは安定部分と相互排他的であり、移動部分のピクセルは安定部分の境界内にある。
出力画像102は、プロジェクタの画像バッファまたはフレームバッファに格納されているすべてのソースデータのすべてのピクセルを含む。出力画像のピクセルは、従来通り、プロジェクタの移動座標系に従って表示面上で移動する。例えば、出力画像は、レーザドットのように見える小さな赤い「ドット」106を含むことができる。
図1には点描で示されるブラック画像部分103を作るために、出力ピクセルのいくつかを「ブラック」、すなわちゼロピクセル強度値に設定することができる。これらの「不可視」のピクセルもまた、プロジェクタの座標系に従って移動する。
安定画像部分104のピクセルは、現実世界の固定座標系に固定される。これらピクセルの、出力画像102内の場所は、動きセンサ110を使用して決定される。したがって、プロジェクタが別の姿勢に移動する101と、安定画像104は表示面120上の固定された場所に現れる。
移動画像部分105のピクセルは、プロジェクタの移動座標系に従って移動する107。例えば、これらピクセル105は矢印105、カーソル、「レーザ」ドット106、または他の何らかのアイコンとして現れることができる。したがって、プロジェクタが左から右に移動すると、矢印も安定画像部分内で同じように移動するように見える。プロジェクタの上下の動きも同様にして模倣されるため、プロジェクタはレーザ型またはマウス型ポインタとして事実上振る舞う。プロジェクタ上のボタン111を使用して、表示された項目を「クリック」することができる。
多くのユーザインタフェースの重要な部分は、メモリに格納されるか、あるいはユーザまたはコンピュータプログラムによって操作されることができるテキストを入力すること、例えばデータ入力および文書処理である。従来技術は、キーボード上のボタンを押すことから、個人情報端末(PDA)において使用されるような続け文字認識装置(cursive script recognizer)あるいは一筆書き認識装置(uni-stroke recognizer)まで、テキストを入力するための多くの方法を記載している。PDAでは、PDAの表示面の感圧表面上でスタイラスを動かすことによって文字が生成される。しかし、感圧表面またはキーボードのいずれかを有して構成されたハンドヘルドプロジェクタは、使用し難く高価である。
したがって、ユーザが操作しなければならない、スタイラスやキーボード等の追加ハードウェアを必要とせず、かつ表示面との直接接触を必要としないハンドヘルドポインタを使用して入力テキストを生成する方法およびシステムを提供することが望ましい。すなわち、ポインタは表示面から「ある距離離れた」ものである。
方法は、書き込み面からある距離離れたポインティングデバイスを用いて入力テキストを生成する。ポインティングデバイスの移動座標系の動き情報が書き込み面の固定座標系に対して、ポインティングデバイスの動きを追跡するように構成された動きセンサを使用して検知される。
次に、動き情報から入力テキストが判定される。書き込み面上へのポインティングデバイスの動きの軌跡の投影も動き情報から求められることができ、軌跡を書き込み面上に入力テキストとして表示することができる。
ポインタの構造
図2は、本発明によるポインタ200を示す。このポインタは、動きセンササブシステム210、ならびにバス240によって接続され、全体で処理装置として働くマイクロプロセッサ215、メモリ220、およびI/Oインタフェース230を含む他の構成部品を備える。処理装置の電子構造は従来通りであるが、本明細書中で説明する方法ステップを行う際の動作は従来と異なる。本ポインタはまた、出力画像251を表示するプロジェクタサブシステム250を含む。ネットワークサブシステム270は、プロジェクタがローカルであれ、リモートであれ、他の同様の装置、または他の演算装置およびメモリと通信することを可能にする。したがって、ネットワークサブシステムは、通信媒体に応じてアンテナまたは赤外線トランシーバ280に接続されることができる。
ユーザインタフェース290は、プロジェクタの操作に役立つ入力および出力データを供給することができる。ユーザインタフェースは外部ボタン111を含むことができる。Beardsley他に対して2004年7月20日付で発行された米国特許第6,764,185号「Projector as an Input and Output Device」(参照により本明細書中に援用される)を参照のこと。動きセンサ110は、プロジェクタの姿勢を求め、かつ、カメラ、傾斜センサ、または加速度計であることができる。さらなる詳細については、Beardsley他によって2003年3月19日付で出願された米国特許出願第10/396,314号「Geometrically Aware Projector」(参照により本明細書中に援用される)を参照のこと。
ポインタの動作
ユーザは、ハンドヘルドポインタ200を使用して、書き込み面、例えばプロジェクタスクリーン、壁、または天井の上のドットまたはカーソルを動かす。別法として、書き込み面は、ポインタに対してローカルまたはリモートのCRTまたはLCD表示画面であることもできる。
ポインタは、書き込み面からある距離離れた場所にあり、ほとんどの従来技術のテキスト入力および書き込みシステムにおけるような表面との接触を行わないことに留意すべきである。「ある距離離れた」との語句は、本発明では具体的に、ポインタと書き込み面の間の距離がゼロよりも大きいことを意味する。例えば、この距離は1メートル以上である。ドットの軌跡が記録され、書き込み面上に視覚的に提示される。投影される軌跡は、ハンドヘルドプロジェクタが動いているにもかかわらず、書き込み面上のその正確な位置に固定されているように見える。
本発明によるポインタ200を用いた場合、ユーザは、形成された文字の視覚的な指示を提示しながら、個々のまたは手書き文字を形成することができる。これは、表示目的のみに適している。本発明による方法は、軌跡を規定する動き情報から入力テキストも生成する。入力テキストとは、本発明では具体的に、あらゆる所定の言語の文字体系における文字、数字、および句読点のような文字またはグリフをデータ形式にしたものを意味する。例えば、入力テキストの各文字は8ビットからなる1バイトによって表される。
図3は、本発明によるポインタ200を使用して入力テキストを生成する方法300を示す。ポインタは、ポインタ200、すなわちプロジェクタまたはレーザポインタの移動座標系と、ポインタが動作する環境の固定座標系、すなわち書き込み面の現実世界の座標系との間の相対的な動きを検知する310。
投影される出力画像は、移動座標系に対して固定の関係を有するブラック画像部分、固定座標系に対して固定の関係を有するブラック画像部分内の安定画像部分、および移動座標系に対して固定の関係を有する安定画像部分内のカーソルに分割される320。カーソルは、任意のタイプの表示アイコン、例えば小さなドットであることができる。
ユーザは、安定画像部分内でポインタを動かすことによってカーソルを動かし、入力テキスト341を形成する。すなわち、ユーザは、投影されたドットを用いて書き込み面上に1つまたは複数の文字を「書く」。ユーザは、例えばハンドヘルドポインタ上のボタン111を押すことによって、文字または手書きテキスト入力の開始時および終了時を指示することができる。個々の文字に関してテキスト入力を説明するが、テキストは複数の文字、例えば完全な単語または文章として入力することもできることを理解すべきである。センサ210は、書き込み面に対してポインタを動かす間に、入力文字を表す動き情報を取得する330。動き情報を使用して、入力テキスト341を判定する340。
取得される動きは、ユーザが入力テキストを形成している間の、連続的な瞬間における書き込み面に対するプロジェクタの明示的な場所および向き、すなわち姿勢であることができる。
動き情報は投影表現とすることもできる。投影表現の例は、ポインタが動かされて入力テキストが形成される際の、ポインタと書き込み面の間の動きを求めるための、連続する各瞬間につき1つずつのホモグラフィからなるシーケンスである。
動き情報は、書き込み面上の2D軌跡として表現することができる。軌跡は、書き込み面上の2Dポイントのシーケンスであることができる。別の実施態様は、ユーザが入力テキストを形成する際の連続する時点における安定画像部分内のカーソルの位置および速度の両方を含むことができる。軌跡は、ローカルまたはリモートの書き込み面上に表示できることに留意すべきである。しかし、本発明の基本的な効果は、動き情報に基づいてテキスト入力を取得することであることに留意されたい。したがって、ユーザが続け文字で「書く」ことが可能であると同時に、表示される入力テキストは、任意のフォント、書体、サイズまたは色であることができる。入力テキストは、メモリに格納するか、あるいは何らかの他の装置に送信することができる。
軌跡は、任意数の既知の続け文字認識装置、あるいはPalm社(カリフォルニア州サンタクララ)製のGraffitiソフトウェアといったテキスト入力用の一筆書き認識装置に入力することができる。PDAのような通常のハンドヘルドデバイスにおいて、続け文字認識装置または一筆書き認識装置への入力は、デバイスの書き込み面と物理的に直接接触したスタイラスを動かすことによって得られる。文字認識は単純に、文字を形成する際のスタイラスの2D経路に基づいて行うことができるか、あるいは認識は、書き込み面上のペンの位置および加速度を考慮することができる。
本発明によれば、筆記具、すなわちプロジェクタは、物理的な書き込み面からある距離離れているため、文字は、スタイラスで平坦な書き込み面を直接押圧するという従来技術のやり方では形成されない。
これは、安定画像部分に対する可動プロジェクタの3D関係を利用してテキスト入力を変更することができるため、本発明の利点である。例えば、ピリオドのような特殊文字は、ハンドヘルドプロジェクタ上のクリックボタンを押さえて文字入力の開始を指示し、プロジェクタを前方の投影された安定画像部分に向かって動かしてから開始位置に戻し、その後ボタンを離すことによって入力することができる。したがって、3Dで文字を形成することができる。
本発明の第2の利点は、書き込み面に対するプロジェクタの3Dの場所を使用して、物理的な書き込み面の同一部分への投影を依然として行いながら、異なるテキスト入力モードを指示することができることである。これは、書き込み面の正面のエリアを複数の領域に分割することによって行うことができる。例えば、書き込み面の左側の領域に立ってテキストを入力する場合、投影は物理的な書き込み面の同一部分で行われるにも関わらず、物理的な書き込み面の右側の領域に立ってテキストを入力する場合とは異なる動作モードになる。従来技術のペンに基づくテキスト入力システムには、これに類似するものはない。
本発明の第3の利点は、物理的な書き込み面への直接投影によってテキスト入力が行われることである。これは、テキストがその場所に固有の注釈である場合に有用である。例えば、ユーザは、ドアの特定の場所にメッセージを形成することができる。このメッセージは、メッセージが形成された場所とともに格納される。その後、ハンドヘルドプロジェクタをドアに向けると、テキストが取り出され、テキストが最初に入力された場所と同じ場所に表示される。したがって、入力テキストが処理される方法は書き込み面の特性に基づく。例えば、動きセンサがカメラである場合、入力テキストはさらに、書き込み面の色に従って処理することができる。
第4の利点として、書き込み面は、従来技術のように平坦である必要がない。従来の較正技法を使用して、書き込み面とプロジェクタの間のホモグラフィを求めることができる。これらのホモグラフィを使用して、出力画像を適宜ワーピングすることができる。
第5の利点として、書き込み面は任意の場所に配置されることができる。したがって、「書き手」は、或る1つの場所にメッセージを書くことができ、入力テキストをリモートの書き込み面に伝送することによって、このメッセージが別の場所で読めるようになる。この「空中に書かれたもの」は、入力テキストの安全性が問題となるのであれば、「書き手」を観察しても識別することは難しいが、書き込み面の近くにいる別の人物には、書かれたものがはっきりと見える。入力テキストは、後に取り出すためにデータとしてメモリに格納することができることに留意すべきである。したがって、ユーザは、メッセージを注意書きとして書き、このメッセージをポインタのメモリに格納し、後にメモリから取り出すことができる。
本発明を好適な実施の形態の例として説明してきたが、本発明の精神および範囲内で様々な他の適応および変更を行うことができることが理解されるべきである。したがって、添付の特許請求の範囲の目的は、本発明の真の精神および範囲に入る、かかる変形および変更をすべて網羅することである。
従来技術のハンドヘルドプロジェクタのブロック図である。 本発明によるポインタのブロック図である。 図2のポインタの動作方法のフロー図である。

Claims (17)

  1. 書き込み面からある距離離れた、動きセンサとプロジェクタを含むポインティングデバイスを用いて入力テキストを生成する方法であって、
    ポインティングデバイスの移動座標系の動き情報を、該ポインティングデバイスからある距離離れた書き込み面の固定座標系に対して、前記ポインティングデバイスに固定され、かつ該ポインティングデバイスの動きを追跡するように構成された前記動きセンサを使用して検知すること、
    前記動き情報の動きの軌跡の形状を認識することにより入力テキストを判定すること、
    前記プロジェクタを使用してフォントを用いた前記入力テキストを前記書き込み面上に表示すること、
    を含む、入力テキストを生成する方法。
  2. 前記入力テキストをメモリに格納すること
    をさらに含む請求項1に記載の方法。
  3. 前記入力テキストを伝送すること
    をさらに含む請求項1に記載の方法。
  4. 前記ポインティングデバイスを向ける方向は、前記プロジェクタの画像平面上の特定のピクセルによって定義される請求項1に記載の方法。
  5. 前記ポインティングデバイスはオン−オフボタンを備え、前記判定は、該オン−オフボタンがオンである期間中にのみ行われる請求項1に記載の方法。
  6. 前記入力テキストの前記判定は、前記書き込み面に対する前記ポインティングデバイスの3D位置に応じて変更される請求項1に記載の方法。
  7. 前記書き込み面の正面のエリアを複数の領域に分割すること、および
    前記ポインティングデバイスが占める特定の領域に応じて前記入力テキストの前記判定を変更すること
    をさらに含む請求項6に記載の方法。
  8. 前記書き込み面に対する前記ポインティングデバイスの前方または後方への動きに応じて前記入力テキストの前記判定を変更すること
    をさらに含む請求項1に記載の方法。
  9. 前記入力テキストの処理は、前記書き込み面上の前記表示された入力テキストの位置に依存する請求項1に記載の方法。
  10. 前記動きセンサがカメラである請求項1に記載の方法。
  11. 前記入力テキストは、続け文字認識装置を使用して判定される請求項1に記載の方法。
  12. 前記入力テキストは、一筆書き文字認識装置を使用して判定される請求項1に記載の方法。
  13. 前記書き込み面に対する前記ポインティングデバイスの位置を格納すること、および
    前記位置を前記格納された入力テキストと関連付けること
    をさらに含む請求項2に記載の方法。
  14. 複数のポインティングデバイスの複数の移動座標系の前記動き情報を、該複数のポインティングデバイスからある距離離れた前記書き込み面の前記固定座標系に対して検知することであって、前記複数のポインティングデバイスはそれぞれ特定の動きセンサを含むこと、
    前記複数のポインティングデバイスのそれぞれの前記動き情報の動きの軌跡の形状を認識することにより入力テキストを判定すること、
    前記複数のポインティングデバイスのそれぞれのプロジェクタを使用してフォントを用いたそれぞれの前記入力テキストを前記書き込み面上に表示すること、
    をさらに含む請求項1に記載の方法。
  15. 前記入力テキストは、選択されたフォントに従って前記書き込み面上に表示される請求項1に記載の方法。
  16. 前記距離は1メートル以上である請求項1に記載の方法。
  17. 入力テキストを生成する装置であって、
    動きセンサとプロジェクタを含むポインティングデバイスと、
    前記ポインティングデバイスの移動座標系の動き情報を、該ポインティングデバイスからある距離離れた書き込み面の固定座標系に対して、前記動きセンサを使用して検知する手段と、
    前記動き情報の動きの軌跡の形状を認識することにより入力テキストを判定する手段と、
    前記プロジェクタを使用してフォントを用いた前記入力テキストを前記書き込み面上に表示する手段と、
    を備える、入力テキストを生成する装置。
JP2005208783A 2004-08-10 2005-07-19 入力テキストを生成する方法および装置 Expired - Fee Related JP4810146B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/915,223 2004-08-10
US10/915,223 US7355583B2 (en) 2004-08-10 2004-08-10 Motion-based text input

Publications (2)

Publication Number Publication Date
JP2006053909A JP2006053909A (ja) 2006-02-23
JP4810146B2 true JP4810146B2 (ja) 2011-11-09

Family

ID=35799515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005208783A Expired - Fee Related JP4810146B2 (ja) 2004-08-10 2005-07-19 入力テキストを生成する方法および装置

Country Status (2)

Country Link
US (1) US7355583B2 (ja)
JP (1) JP4810146B2 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100844129B1 (ko) * 2006-09-13 2008-07-04 한국전자통신연구원 카메라를 이용한 마우스 인터페이스 장치, 이 장치에 의한시스템 및 방법, 그리고 이를 실현하기 위한 컴퓨터로 읽을수 있는 기록매체
US8994757B2 (en) 2007-03-15 2015-03-31 Scalable Display Technologies, Inc. System and method for providing improved display quality by display adjustment and image processing using optical feedback
TW200846936A (en) * 2007-05-30 2008-12-01 Chung-Hung Shih Speech communication system for patients having difficulty in speaking or writing
US7874681B2 (en) * 2007-10-05 2011-01-25 Huebner Kenneth J Interactive projector system and method
US8384005B2 (en) * 2008-06-17 2013-02-26 The Invention Science Fund I, Llc Systems and methods for selectively projecting information in response to at least one specified motion associated with pressure applied to at least one projection surface
US20090310038A1 (en) 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Projection in response to position
US20090309826A1 (en) 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and devices
US8936367B2 (en) * 2008-06-17 2015-01-20 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US8608321B2 (en) * 2008-06-17 2013-12-17 The Invention Science Fund I, Llc Systems and methods for projecting in response to conformation
US8641203B2 (en) 2008-06-17 2014-02-04 The Invention Science Fund I, Llc Methods and systems for receiving and transmitting signals between server and projector apparatuses
US8267526B2 (en) * 2008-06-17 2012-09-18 The Invention Science Fund I, Llc Methods associated with receiving and transmitting information related to projection
US20100066983A1 (en) * 2008-06-17 2010-03-18 Jun Edward K Y Methods and systems related to a projection surface
US8733952B2 (en) * 2008-06-17 2014-05-27 The Invention Science Fund I, Llc Methods and systems for coordinated use of two or more user responsive projectors
US8944608B2 (en) 2008-06-17 2015-02-03 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US8955984B2 (en) 2008-06-17 2015-02-17 The Invention Science Fund I, Llc Projection associated methods and systems
US8376558B2 (en) * 2008-06-17 2013-02-19 The Invention Science Fund I, Llc Systems and methods for projecting in response to position change of a projection surface
US20090313151A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods associated with projection system billing
US20090310040A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for receiving instructions associated with user parameter responsive projection
US8262236B2 (en) * 2008-06-17 2012-09-11 The Invention Science Fund I, Llc Systems and methods for transmitting information associated with change of a projection surface
US8723787B2 (en) 2008-06-17 2014-05-13 The Invention Science Fund I, Llc Methods and systems related to an image capture projection surface
US8308304B2 (en) * 2008-06-17 2012-11-13 The Invention Science Fund I, Llc Systems associated with receiving and transmitting information related to projection
JP5415730B2 (ja) * 2008-09-04 2014-02-12 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理方法、および画像処理システム
US20100321382A1 (en) 2009-06-18 2010-12-23 Scalable Display Technologies, Inc. System and method for injection of mapping functions
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
US8672763B2 (en) * 2009-11-20 2014-03-18 Sony Computer Entertainment Inc. Controller for interfacing with a computing program using position, orientation, or motion
KR20110069946A (ko) * 2009-12-18 2011-06-24 삼성전자주식회사 외부 조사 장치를 가지는 휴대 단말기 및 이의 운용 방법
US8704783B2 (en) 2010-03-24 2014-04-22 Microsoft Corporation Easy word selection and selection ahead of finger
US9292161B2 (en) * 2010-03-24 2016-03-22 Microsoft Technology Licensing, Llc Pointer tool with touch-enabled precise placement
JP6198605B2 (ja) 2010-11-15 2017-09-20 スケーラブル ディスプレイ テクノロジーズ インコーポレイテッド 手動及び半自動技術を用いたディスプレイシステムを較正するためのシステム及び方法
US8612641B1 (en) * 2011-05-31 2013-12-17 Amazon Technologies, Inc. Portable computing device as control mechanism
US9497447B2 (en) 2011-06-15 2016-11-15 Scalable Display Technologies, Inc. System and method for color and intensity calibrating of a display system for practical usage
US9317196B2 (en) 2011-08-10 2016-04-19 Microsoft Technology Licensing, Llc Automatic zooming for text selection/cursor placement
US9134814B2 (en) * 2012-04-05 2015-09-15 Seiko Epson Corporation Input device, display system and input method
US8817111B2 (en) 2012-04-19 2014-08-26 Scalable Display Technologies, Inc. System and method of calibrating a display system free of variation in system input resolution
US9268364B2 (en) * 2012-08-31 2016-02-23 Trewgrip, Llc Ergonomic data entry device
CN105308503A (zh) 2013-03-15 2016-02-03 斯加勒宝展示技术有限公司 利用短程相机校准显示***的***和方法
EP3141991A4 (en) * 2014-05-09 2018-07-04 Sony Corporation Information processing device, information processing method, and program
JP6524661B2 (ja) * 2014-12-19 2019-06-05 富士通株式会社 入力支援方法、入力支援プログラムおよび入力支援装置
JP6481360B2 (ja) * 2014-12-24 2019-03-13 富士通株式会社 入力方法、入力プログラムおよび入力装置
JP6435964B2 (ja) * 2015-03-31 2018-12-12 富士通株式会社 表示装置、プログラム、及び表示方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5977935A (en) * 1993-08-12 1999-11-02 Seiko Epson Corporation Head-mounted image display device and data processing apparatus including the same
US6741267B1 (en) * 1998-10-30 2004-05-25 Smart Technologies, Inc. Keyboard for an electronic writeboard and method
JP2002318662A (ja) * 2001-04-23 2002-10-31 Sharp Corp プレゼンテーション用表示装置
US20030165048A1 (en) * 2001-12-07 2003-09-04 Cyrus Bamji Enhanced light-generated interface for use with electronic devices
US6977643B2 (en) * 2002-01-10 2005-12-20 International Business Machines Corporation System and method implementing non-physical pointers for computer devices
JP2004070688A (ja) * 2002-08-07 2004-03-04 Nippon Telegr & Teleph Corp <Ntt> 情報入力装置、方法、プログラム、及びそのプログラムを記録した記録媒体
JP2004220431A (ja) * 2003-01-16 2004-08-05 Canon Inc 情報入力システム
US6764185B1 (en) * 2003-08-07 2004-07-20 Mitsubishi Electric Research Laboratories, Inc. Projector as an input and output device

Also Published As

Publication number Publication date
US20060033702A1 (en) 2006-02-16
US7355583B2 (en) 2008-04-08
JP2006053909A (ja) 2006-02-23

Similar Documents

Publication Publication Date Title
JP4810146B2 (ja) 入力テキストを生成する方法および装置
EP2919104B1 (en) Information processing device, information processing method, and computer-readable recording medium
US7835999B2 (en) Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights
US6999061B2 (en) Electronic whiteboard system
US8959013B2 (en) Virtual keyboard for a non-tactile three dimensional user interface
EP2717120B1 (en) Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
EP2498237A2 (en) Providing position information in a collaborative environment
US20150241984A1 (en) Methods and Devices for Natural Human Interfaces and for Man Machine and Machine to Machine Activities
KR20020052217A (ko) 이미지 센서를 이용한 전자 기기
US20210405762A1 (en) Input method, apparatus based on visual recognition, and electronic device
JP2019508770A (ja) デジタルインクを美しくするためのシステム及び方法
KR100713407B1 (ko) 펜 컴퓨팅 시스템에서의 펜 입력 방법 및 장치
US11514696B2 (en) Display device, display method, and computer-readable recording medium
WO2018149318A1 (zh) 一种输入方法、装置、设备、***和计算机存储介质
EP0477910A2 (en) Image processing based computer input apparatus
JP7452155B2 (ja) 手書き入力装置、手書き入力方法、プログラム
US9442577B2 (en) System for inputting graphical elements
JP6699406B2 (ja) 情報処理装置、プログラム、位置情報作成方法、情報処理システム
JPWO2004095361A1 (ja) オンライン手書き文字入力装置及び方法
Bhatia Computer Graphics, 3/e
US20220122335A1 (en) Scaling and rendering virtual hand
KR101911676B1 (ko) 지시체의 움직임을 고려한 프리젠테이션 영상 처리장치 및 방법
US11726654B2 (en) Display apparatus capable of displaying icon corresponding to shape of hand-drafted input, display method, and non-transitory computer-executable medium storing program thereon
US20220319211A1 (en) Display apparatus, display system, display method, and recording medium
JPH0679323B2 (ja) 毛筆書体発生方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110822

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140826

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4810146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees