JP2005173807A - 音声入出力システムおよびその方法 - Google Patents
音声入出力システムおよびその方法 Download PDFInfo
- Publication number
- JP2005173807A JP2005173807A JP2003410418A JP2003410418A JP2005173807A JP 2005173807 A JP2005173807 A JP 2005173807A JP 2003410418 A JP2003410418 A JP 2003410418A JP 2003410418 A JP2003410418 A JP 2003410418A JP 2005173807 A JP2005173807 A JP 2005173807A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- detected
- output
- input
- stored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】 手書入力ペン26の周囲の音声を受け入れて音声データとし、メモ用紙上のメモの位置と対応付けて、ペン情報データとしてペン情報サーバ16に送る。PC18のそばで、ユーザが、メモ用紙上のメモの位置をポインティングし、音声を出力させる操作を行うと、PC18は、メモの位置に対応付けられた音声データを含むペン情報データを、ペン情報サーバ16に対して要求する。入力装置20は、この要求に応じたペン情報データを、PC18に送る。PC18は、このペン情報データに含まれる音声データを、音声として出力する。
【選択図】図11
Description
本発明は、このような背景からなされたものであり、画像入力機能と、音声入力機能とを有する筆記用具により得られた音声信号を、便利に利用することができるようにした音声入出力システムおよびその方法を提供することを目的とする。
を有する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力手段とを有する音声サーバ装置と、前記部材においてポインティングされた位置を検出する第2の検出手段と、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力手段とを有する音声出力装置とを有する。
図1は、本発明にかかる情報管理システム1の概要を示す図である。
まず、本発明が適応される情報管理システム1を説明する。
図1に示すように、情報管理システム1には、手書入力システム2−1,2−2、背景管理システム3、背景管理システム3により認定された認定プリンタ122、背景管理システム3により認定されていない非認定プリンタ124、情報サーバ16、パーソナルコンピュータ(PC)18、および、入力装置20(PC18と入力装置20とが共用されてもよい)などが、ネットワーク120を介して接続された構成を採る。
背景管理システム3は、背景管理装置32および課金装置30から構成される。
また、情報管理システム1の各構成部分を、総称してノードと記すことがある。
また、図1に示した情報管理システム1の各構成部分の数は例示であって、情報管理システム1は、任意の数の各構成部分を含みうる。
また、反対に、1つのノード内にまとめられている複数の機能を、複数のノードに分散させても、あるいは、ネットワーク120を介して複数のノードに分散させてもよい。
このように、複数の構成部分が、1つの装置内にまとめられているか、ネットワークなどを介して複数の装置に分散されているかは、本発明の技術的範囲に、何らの影響を及ぼすものではない。
図2に示すように、情報管理システム1のこれらの構成部分は、CPU102、メモリ104およびこれらの周辺回路などを含む本体100、キーボード、表示装置およびスピーカ(SP)などを含む入出力装置106、ネットワーク120を介した他のノードの通信を行う通信装置110、CD装置・HDD装置などの記録装置112、および、スキャナなど各装置に特有な機能の実現のために用いられる機能実現装置38から構成される。
つまり、背景管理装置32、課金装置30、情報サーバ16、情報管理システム18および入力装置20は、通信機能を有するコンピュータとしての構成部分を含んでいる。
なお、無線インターフェース(IF)116は、入力装置20およびPC18の構成・用途によっては、同様の機能を有する有線インターフェース(IF)に置換されうる。
また、認定プリンタ122および非認定プリンタ124には、図2に示した構成に、プリンタとしての機能を実現するためのプリンタエンジン(図示せず)が付加される。
用紙128は、普通紙であり、用紙130は、複数回にわたる印刷および消去(再利用)が可能な合成紙であって、印刷により、図3に示すような背景が付される。
つまり、無地の用紙128,130には、例えば、図3において点線で想定されるように、0.3mm程度の間隔で縦横に直交する多数の直線により構成される格子の格子点132上、あるいは、これらの格子点132に対して左右、上下、右上、右下、左上および左下に、例えば20μm程度ずれた位置に、ドット134が付された背景パターン136(印)が印刷され、背景付の用紙128,130となる。
なお、このように、用紙128,130(部材)には、背景パターン136が付されているか場合と、背景パターン136が付されていない場合とがある。
従って、この背景パターン136のいずれの部分に手書入力ペン26が当たっているかを検出することにより、手書入力ペン26が、用紙128,130上のいずれの位置をポインティングしているか、あるいは、筆記しているかを検出することもできる。
また、用紙128,130それぞれに、事実上、固有の背景パターン136を付すことができるので、1つの背景パターン136が、1枚の無地の用紙128,130に対してだけ印刷されるようにすると、背景パターン136を、この背景パターン136が付された用紙128,130の特定に利用することもできる。
また、ここには、2次元的な用紙128,130に背景パターン136が付される場合を例示したが、3次元的な部材に背景パターン136を付して、その部材上の位置が検出されうるようにしてもよい。
また、図3に示したような背景パターン136の代わりに、用紙128,130それぞれに特有の図形、模様あるいは点の配列を付して、この印として用いてもよい。
また、2次元的な無地の用紙128,130の表面または内側に、特殊なトナー(立体トナー)を用いて、3次元的な背景パターンが印刷されるようにしてもよい。
また、背景が付された用紙128,130の表面に、透光性の樹脂あるいはガラスが、コーティングされたり、張り合わされたりしてもよい。
この背景パターン136の管理および使用に対して、課金装置30により、その利用者に対する課金が行われ得る。
手書入力ペン26は、用紙128,130とともに用いられ、入力装置20あるいはPC18との間で通信を行い、手書き文字の入力、音声の入力およびその他の操作のために用いられる。
(1)背景パターン136(図3)の普通紙または合成紙に対する印刷および課金:
(2)合成紙に印刷された背景パターン136の再利用(合成紙に印刷された背景パターン136を消去したら、その背景パターン136を、他の普通紙または合成紙に印刷可能な状態になるように管理する):
(4)手書入力ペン26によるユーザの認証:
(5)用紙128,130および電子認証印24を利用したユーザの認証:
図4は、図1に示した第1の手書入力ペン26の構成を示す図である。
図4に示すように、手書入力ペン26は、シャープペンシル機構・ボールペン先などの筆記およびポインティングに使用可能な筆記部材260、レンズ系264、CCD(Charge Coupled Device)素子266(画像入力手段)、圧力センサ268、画像取込回路270、マイクロフォン(MIC)272(音声受け入れ手段;手書き入力ペン26に外付けされ、机上の置かれて音声入力に用いられるようにしてもよい)、音声処理回路274、電源278、送信回路280、バッファメモリ282、送信メモリ284、制御部286およびスイッチ288が、一般的な筆記用具の形態に形成された手書入力ペン本体262中に一体に収容されて構成される。
手書入力ペン26は、これらの構成部分により、背景が付された用紙128,130(図1)などに対して筆記した文字、あるいは、ポインティング操作を、筆跡データとして、入力装置20に対して出力する。
また、手書入力ペン26は、周囲の音声を受け、音声データとして、入力装置20に対して出力する。
なお、手書入力ペン26は、ユーザの所定の操作、例えば、手書入力ペン26のボタン(図示せず)に対する操作、あるいは、用紙128,130に対する所定のタイミングでのポインティングなどに応じて、これらの機能を実行する。
つまり、手書入力ペン26は、入力装置20に対して、手書き文字の入力、ポインティング操作および音声の入力を行うために用いられる。
なお、圧力センサ268が、手書き入力ペン本体262にかかるユーザの握力をさらに検出できるようにすると、ユーザの握力に基づくユーザ認証が可能となる。
手書入力ペン26において、レンズ系264および手書入力ペン266は、例えば、圧力センサ268が、筆記部材260にかかる圧力を検出したときに、筆記部材260が押し当てられた部分の用紙128,130の背景パターン136(図3)などの画像を受け入れ、画像取込回路270に対して出力する。
また、画像取込回路270は、圧力センサ268が検出した圧力を取り込み、ユーザの筆圧、あるいは、ポインティングの強さを示す筆圧データを生成し、バッファメモリ282を介して、送信回路280に対して出力する。
制御部286は、スイッチ288に対するユーザの操作に応じて、手書き入力ペン26の各構成部分の動作を制御する。
制御部286による動作制御の例として、バッファメモリ282あるいは送信メモリ284に、音声データを記憶しておき、スイッチ288に対するユーザの操作に応じて、送信回路280を制御し、記憶した音声データを送信させる制御を挙げることができる。
さらに、送信回路280は、制御部286の制御に従って、バッファメモリ282に記憶されたこれらのデータを、電波あるいは光により、入力された筆跡データ、筆圧データおよび音声データを、入力装置20(図1)の無線IF116(図2)に対して送信する。
なお、制御部286に、手書き入力ペン26それぞれに固有で、暗号化された識別符号・識別番号を記憶させておき、送信回路280が、上述のデータとともに、この識別符号・識別番号を送信するようにしてもよい。
ここで、情報管理システム1において、手書き入力ペン26の代わりに用いられうる手書き入力ペンの様々な態様を説明する。
図5,図6はそれぞれ、情報管理システム1(図1)において、図4などに示した第1の手書き入力ペン26の代わりに用いられる第2,第3の手書き入力ペン40,42の外観を示す図である。
なお、図5,図6においては、実質的に共通の構成部分には共通の符号が付されている(以下の各図について同様)。
なお、手書き入力ペン40の本体の一番太い部分の太さは、握りやすさが考慮されて、例えば、直径4cm以下(成人の親指とひとさし指とで作られた環より小さい直径)とされる。
さらに、第2の手書き入力ペン40は、図4に示した第1の手書き入力ペン26の機能の他、例えば、制御部288の制御に従って、図5を参照して以下に説明するような機能をサポートする構成部分を有する(第3の手書き入力ペン42(図6)も同様)。
接触部材400は、第1の手書き入力ペン26の筆記部材260に対応し、ボールペン、指し棒、針、鉛筆、マーカーペン、フェルトあるいは先が丸い樹脂などで構成され、用紙128,130などの部材に接触する。
なお、接触部材400は、文字入力およびポインティングの他に、筆圧に応じた機能の選択などにも用いられうる。
レンズ枠404は、本体に対して着脱可能であって、レンズ枠404を本体にフレキシブルに固定する継ぎ手412によって、本体に対して固定される。
CCDカメラ414は、第1の手書き入力ペン26(図4)におけるレンズ系264およびCCD素子266に対応し、手書き文字の入力のための他、一般的なディジタルカメラと同様な画像撮影のためにも用いられうる。
手書き入力ペン40の機能の例としては、音声入力/音声再生などの機能、音声のバッファリング時間設定および機能のロックなどが挙げられる。
この機能選択は、ユーザが、本体の継ぎ目を回転させ、ファンクションを示す目盛りを合わせることにより行われる。
ファンクション表示LED418は、それぞれ色が異なる発光ダイオードなどから構成され、選択された機能を表示する。
また、手書き入力ペン40の本体において、キャップ422が装着される部分には円筒状に形成されたディスプレイ420が設けられ、様々な表示のために用いられる。
手書き入力ペン42において、音声のバッファリング機能のオン/オフなどのために用いられるノック式ファンクション切り替え部426は、ファンクション切り替え部416およびファンクション表示LED418と併用されてもよく、ユーザが、ノック式ファンクション切り替え部426を押下するたびに、手書き入力ペン42の機能が変更され、変更された機能は、機能表示部428に、色などで表示される。
また、ユーザが、本体のつなぎ目に設けられた指向性調整部434を回すと、指向性マイク430の指向性が調整され、指向性マイク430の指向性が、指向性を示す印432により表示される。
図7は、図1に示した電子認証印24の構成を示す図である。
図7に示すように、電子認証印24は、レンズ系264、CCD素子266、圧力センサ268、画像取込回路270、MIC272、音声処理回路274、電源278、バッファメモリ282、送信メモリ284、制御部286、スイッチ288、印面240、印鑑データ記憶部244および送信回路246が、一般的な印鑑の形態に形成された電子認証印本体242に収容されて構成される。
電子認証印24は、手書入力ペン26と同様に、例えば、1チップマイクロプロセッサ応用装置としてのハードウェア構成を採り、電子認証印24の各構成部分は、適宜、専用のハードウェアあるいは1チップマイクロプロセッサ上で動作するソフトウェアとして実現される。
また、電子認証印24は、電子的な印鑑情報データを、入力装置20および情報サーバ16などに対して出力する。
なお、手書き入力ペン26においてと同様に、圧力センサ268が、電子認証印本体242にかかるユーザの握力を検出できるようにすると、電子認証印24を用いたユーザ認証が可能となる。
印鑑データ記憶部244は、電子認証印24から入力装置20などに対して出力されるべき印鑑データ(手書き入力ペン26と同様な識別符号・識別番号を含んでいてもよい)を保持し、送信回路246に対して出力する。
送信回路246は、手書き入力ペン26における送信回路280と同様に、制御部288の制御に従って、生成した印鑑情報データを、入力装置20あるいはPC18に対して出力する。
図8は、図1に示した入力装置20上で動作する入力装置用プログラム200を示す図である。
図8に示すように、入力装置用プログラム200は、受信処理部202、筆跡解析部204、文字識別部206、音声処理部208(音声入力手段)、対応付け部210、背景検出部212、位置検出部214(検出手段)、データベース(DB)管理部216、ペン情報DB220、通信処理部222および印鑑情報処理部224から構成される。
入力装置用プログラム200は、これらの構成部分により、手書入力ペン26から入力される筆跡データ、筆圧データおよび音声データを処理し、これらを対応付けて、情報サーバ16(図1)に対して送信する。
また、受信処理部202は、無線IF116が受信した音声データを、音声処理部208に対して出力する。
また、受信処理部202は、筆跡データを、背景検出部212に対して出力する。
また、受信処理部202は、必要に応じて、電子認証印24および手書き入力ペン26により得られた筆跡データ、音声データ、筆圧データ、画像・圧力データおよび印鑑データを、通信処理部222に対して出力する。
筆跡解析部204は、このようにして得られた解析結果を、文字識別部206に対して出力する。
また、文字識別部206は、筆跡解析部204による解析結果に基づいて、ユーザが、用紙128,130などに対して行ったポインティングなどの操作を識別し、操作データとして、対応付け部210に対して出力する。
なお、文字認識部206は、文字データおよび操作データとともに、筆跡の解析の対象となった筆跡データおよび筆圧データを、対応付け部210に対して出力してもよい。
また、文字認識部206は、ユーザ認証の結果、手書き文字の入力が許可されたときに、文字データを、通信処理部206に対して送信する。
背景検出部212は、受信処理部202から入力された筆跡データ(画像)から、用紙128,130に付された背景パターン136(図3)を検出し、位置検出部214に対して出力する。
対応付け部210は、文字識別部206から入力された文字データおよび操作データ(これらには、上述のように、筆跡データおよび筆圧データが付加されることがある)と、音声処理部208から入力された音声データと、位置検出部214から入力された位置データとを対応付け、ペン情報データとして、DB管理部216に対して出力する。
また、印鑑情報処理部224は、電子認証印24から受けた印鑑情報データを、DB管理部216に対して出力する。
また、印鑑情報処理部224は、電子認証印24を用いたユーザ認証が行われるときには、電子認証印24のユーザが認証されたときにのみ、電子認証印24から受けた印鑑情報データを、情報サーバ16あるいはDB管理部216に対して出力する。
DB管理部216は、対応付け部210から入力されたペン情報データ、および、印鑑情報処理部224から入力された印鑑情報データを、ペン情報DB220に記憶させ、管理する。
また、DB管理部216は、ユーザの操作に応じて、記憶したペン情報データおよび印鑑情報データを、文字データあるいは音声データとして、入出力装置106などから出力する。
また、DB管理部216は、情報サーバ16が、電子認証印24の認証を行うときには、情報サーバ16が認証した電子認証印24から入力された印鑑情報のみを、通信処理部222を介して他のノードに送信し、あるいは、ペン情報DB220に記憶させ、管理する。
図9は、図1に示した情報サーバ16上で動作する情報サーバプログラム160を示す図である。
図9に示すように、情報サーバプログラム160は、通信処理部222、操作解析部164、DB管理部166、ペン情報DB168、サービス提供部170(音声出力手段,第1の音声出力手段)および付加サービスDB172(情報記憶手段)から構成される。
また、情報サーバプログラム160は、PC18などに対して、付加サービスを提供する。
DB管理部166は、入力装置20などからペン情報データおよび印鑑情報データを受信し、ペン情報DB168に記憶させ、管理する。
また、DB管理部166は、PC18など他のノードおよびサービス提供部170からの要求を受けて、ペン情報DB168に記憶したペン情報データおよび印鑑情報データを提供する。
サービス提供部170は、操作解析部164による解析結果に応じて、ペン情報DB168に記憶されているペン情報データ、印鑑情報データおよび背景管理装置32から入力される背景パターンデータを適宜、用い、付加サービスDB172に記憶されている付加サービス(教育サービスなど)を、PC18および入力装置20などに提供する。
なお、サービス提供部170が提供する付加サービスは、実施例1以下を参照してさらに後述される。
図10は、図1に示したPC18上で動作する情報利用プログラム180を示す図である。
図10に示すように、情報利用プログラム180は、受信処理部202、背景・操作検出部184、位置検出部214、通信処理部222、情報出力処理部182(第2の音声出力手段)、背景・操作検出部184およびアプリケーション186から構成される。
情報利用プログラム180がさらに、印鑑情報データを扱うときには、図8に示した印鑑情報処理部224が付加される。
情報出力処理部182は、これらの構成部分により、ユーザが、手書入力ペン26を用いて、用紙128,130をポインティングする操作に応じて、様々なサービスを提供する。
なお、以下の説明においては、説明の具体化・明確化のために、情報利用プログラム180が、ユーザのポインティング操作に応じて、音声を出力するサービス(音声入出力サービス;図12,図13を参照して、さらに後述)を提供する場合を具体例とする。
受信処理部202は、手書入力ペン26から、無線IF116(図2)を介して、筆跡データおよび筆圧データを受けて、背景・操作検出部184に対して出力する。
また、背景・操作検出部184は、受信処理部202から入力される筆圧データから、ユーザの操作を検出し、操作データとする。
背景・操作検出部184は、背景パターンデータおよび操作データを、位置検出部214に対して出力する。
アプリケーション186は、例えば、ワードプロセッサなどの機能を含み、用紙128,130に印刷されるべき画像データ、および、用紙128,130上の各位置に対応付けられる付加データを作成する。
アプリケーション186による画像データの作成には、さらに、例えば、他のアプリケーション(図示せず)により作成されたドキュメント、および、ディジタルカメラにより撮影された画像などのデータコピー、切り抜きおよび挿入なども含まれうる。
さらに、アプリケーション186は、ユーザの操作に応じて、背景管理装置32(図1)に対して、無地の用紙128,130への背景パターン136(図3)の付加を要求し、これの要求に応じて背景管理装置32から背景パターン136を受け取る。
さらに、アプリケーション186は、情報サーバ16に、用紙128,138に付した背景パターン136を示す情報と、用紙128,13上の1つ以上の位置と、これらの位置それぞれに対応付けられた付加データとを登録する。
また、アプリケーション186は、背景パターン136の再利用のための機能を実現する。
つまり、例えば、アプリケーション186は、廃棄処分される用紙128、あるいは、背景パターン136が消去される用紙130から、スキャナ(機能実現装置38;図2)などを用いて背景パターン136を読み込んで、背景管理装置3の背景管理装置32(図1など)に対して送信する。
さらに、アプリケーション186は、背景パターン136の送信と併せて、その背景パターン136が再利用可能である旨を、背景管理装置32に通知する。
通信処理部222は、情報サーバ16から、要求に応じたペン情報データを受けて、情報出力処理部182に対して出力する。
情報出力処理部182は、通信処理部222から入力されたペン情報データに含まれる音声データを、入出力装置106(図9)から出力する。
図11は、図1に示した背景管理装置32上で動作する背景管理プログラム34を示す図である。
図11に示すように、背景管理プログラム34は、未使用背景パターンDB340、使用済背景パターンDB342、DB管理部344および通信処理部222から構成される。
背景管理プログラム34は、これらの構成部分により、用紙128,130それぞれにいずれの背景パターン136が付されているかを管理する。
また、背景管理プログラム34は、情報管理システム1の各ノードに対する背景パターン136の配信および再利用を行う。
未使用背景パターンDB340は、用紙128,130のいずれにも付されていない背景パターン136を示す背景パターンデータを記憶する。
使用済背景パターンDB342は、いずれかの用紙128,130に付されている背景パターン136を示す背景パターンデータを記憶する。
DB管理部344は、さらに、配信した背景パターン136の背景パターンデータを、未使用背景パターンDB340から削除し、使用済背景パターンDB342に記憶し、管理する。
また、DB管理部344は、他のノードから、背景パターン136を、それが使用されなくなった旨とともに受信したときには、使用済背景パターンDB342から受信された背景パターン136の背景パターンデータを削除し、未使用背景パターンDB340に、受信された背景パターン136の背景パターンデータを記憶させる。
図12は、情報管理システム1(図1)による音声入出力サービスを例示する図である。
情報管理システム1における音声入出力サービスは、図12に示すように、ユーザが、以下のような操作を行うことにより実現される。
(2)ユーザが、入力装置20のそばで、手書入力ペン26を用いて、背景が付された用紙128,130にメモ(図12に例示する「今朝の社長の話」)を取る。
(3)ユーザが、PC18のそばで、用紙128,130上のメモをポインティングし、音声を出力させる操作を行う。
PC18のそばで、ユーザが、背景が付された用紙128,130上のメモの位置をポインティングし、音声を出力させる操作を行うと、PC18は、メモの位置に対応付けられた音声データを含むペン情報データを、情報サーバ16に対して要求する。
入力装置20は、この要求に応じたペン情報データを、PC18に送る。
PC18は、このペン情報データに含まれる音声データを、音声として、入出力装置106(図2)から出力する。
図13は、情報管理システム1(図1)において、図12に示した音声入出力サービスを実現するための通信シーケンス(S10)を示す図である。
図13に示すように、ステップ100(S100)において、手書入力ペン26は、周囲の音声を受け入れ、入力装置20に対して、音声データを、順次、出力する。
手書入力ペン26は、これらの操作を、入力装置20に対して伝える。
情報サーバ16は、このペン情報データを受けて記憶し、管理する。
手書入力ペン26は、ポインティングおよび操作に応じた筆跡データおよび筆圧データを、PC18に対して送信する。
ステップ110(S110)において、情報サーバ16は、PC18から通知された位置データを含むペン情報データを、PC18に対して送信する。
PC18は、情報サーバ16からのペン情報データを受けて、このペン情報データに含まれる音声データを、音声として、入出力装置106(図2)から出力する。
図14は、情報管理システム1(図1)による教育サービスを例示する図である。
ここでは、情報管理システム1により、例えば、英語教育のサービスを提供する場合を具体例とする。
図14に示すように、背景が付された用紙128,130に、英単語(Patent)が印刷され、さらに、用紙128,130のそれぞれ予め決められた位置に、英単語の発音を聞くためのボタンと、英単語の意味を聞くためのボタンとが印刷されている。
また、背景が付された用紙128の「意味」のボタンをポインティングすると、用紙128,130の背景パターン136に対応する英単語の意味(特許)が音声出力される。
ユーザが、これらのボタン以外の用紙128,130上の位置をポインティングすると、その部分に対応する情報が存在しない旨が、音声あるいは画像により表示される。
図14に示した教育サービスの実現には、例えば、図15に示すようなデータが、付加サービスDB172に記憶される。
情報サーバ16のサービス提供部170(図9)は、PC18からの背景パターンデータと、背景パターン136の識別子(ID;背景パターンID)とを対応付ける。
サービス提供部170は、このようにして得た音声データIDに対応する音声データ(図15(B))を、PC18に返す。
PC18は、このようにして得られた音声データを、入出力装置106(図2)から出力し、あるいは、音声データの不存在を、音声あるいは画像により、入出力装置106に表示する。
図16に示すように、ステップ120(S120)において、ユーザが、PC18(図1,図2,図10)のそばで、手書入力ペン26を用いて、背景が付された用紙128,130上の任意の位置をポインティングする。
PC18は、用紙128,130の背景パターンデータと、用紙128,130上のポインティングされた位置とを検出する。
ステップ124(S124)において、情報サーバ16は、情報サーバ16からの背景パターンデータおよび位置データに対応する音声データ(あるいは音声データの不存在を示すデータ)を、PC18に対して送信する。
PC18は、情報サーバ16からの音声データ(あるいはその不存在)を、音声などにより出力する。
図17は、手書入力ペン26(図1,図4)を用いたユーザ認証を例示する図である。
図17に示すように、手書入力ペン26を用いたユーザ認証が行われるときには、例えば、まず、ユーザが、手書入力ペン26を用いて、背景が付された用紙128,130に対して、「認証要求」という文字を手書きし、続いて、ユーザに与えられた識別子(ユーザID)あるいはユーザの名前(以下、ユーザID・名前)を手書きする。
入力装置20は、最初に入力された「認証要求」の文字を認識すると、続いて手書きされたユーザID・ユーザの名前を認識し、認識したユーザID・名前と、手書きされたユーザID・名前の筆跡を示す筆跡データおよび筆圧データ(いずれかでもよい;以下、筆跡データ・筆圧データ)を、情報サーバ16に送信する。
情報サーバ16上で動作する情報サーバプログラム160の付加サービスDB172には、予め、図18に示すように、ユーザによるユーザID・名前の筆跡を示す筆跡データ・筆圧データと、ユーザID・名前と、その連絡先(例えばPC18)を示す情報(メールアドレスなど)が対応付けられて記憶されている。
情報サーバ16は、さらに、手書入力ペン26のユーザの連絡先として登録されている連絡先に、認証要求があったことと、その結果とを通知する。
図19に示すように、ステップ140(S140)において、ユーザが、手書入力ペン26を用いて、背景が付された用紙128,130に対して、「認証要求」の文字を手書きし、続いて、ユーザID・名前を手書きすると、手書入力ペン26は、これらの文字を示す筆跡データ・筆圧データを、入力装置20に対して出力する。
ステップ144(S144)において、情報サーバ16は、入力装置20から送られてきた筆跡データ・筆圧データと、付加サービスDB172(図9)内の認識されたユーザID・名前に対応する筆跡データ・筆圧データ(図18)とを比較する。
あるいは、これらが同一の範囲にないときには、手書入力ペン26を用いているユーザを認証せず、情報の入力を不許可とする旨を、入力装置20に伝える。
なお、このときに、入力装置20は、図17に例示したように、音声により、認証の結果を、手書入力ペン26のユーザに通知してもよい。
ステップ148(S148)において、情報サーバ16は、PC18に対して、認証要求があった旨と、その結果とを通知する。
あるいは、手書き入力ペン26のレンズ系264およびCCD素子266(図4)によりユーザの指紋の画像を得て、認証に用いたり、上述の手書き入力ペン26それぞれに固有の識別番号・識別符号を用いた認証を行ったり、あるいは、手書き入力ペン26のMIC272により得られるユーザの音声を用いた認証を行ったりすることも可能である。
図20は、電子認証印24(図1,図7)を用いたユーザ認証を例示する図である。
図20に示すように、情報管理システム1(図1)において、電子認証印24を用いたユーザ認証を利用するときには、例えば、まず、ユーザは、電子認証印24に、自分の指紋の画像あるいは自分の声など、ユーザ認証に使用可能な情報を入力する。
ユーザ認証に用いられ得る情報としては、これらの外に、電子認証印24を、用紙128,130に当接させる強さ、電子認証印24の電子認証印本体242(図7)の側面に圧力センサにより検出可能な握りの強さなどを例示することができる。
さらに、情報サーバ16は、電子認証印24が当接されている用紙128,130の画像から背景パターン136(図3)を得て、押印されようとしている用紙128,130を識別し、さらに、ユーザが押印しようとしている位置を検出する。
入力装置20は、上記判断結果をユーザに対して音声(認証されました。園位置に押印してください;図20)あるいは画像などにより示すとともに、情報サーバ16は、とともに、正当なユーザにより、正しい用紙128,130の正しい位置に当接された電子認証印24から、印鑑データを受け入れる。
なお、図20に示したように、電子認証印24を用いたユーザの認証と、図17に示した手書入力ペン26を用いたユーザの認証とは、組み合わせて用いられ得る。
図20に示すように、電子認証印24を用いたユーザの認証のためには、ユーザID・名前、ユーザの指紋、声紋、押印・握りの強さなど、ユーザの認証に用いられる認証用データ、正しい用紙128,130を識別するための背景パターンデータ、正しい押印の位置を識別するための位置データ、および、電子認証印24のユーザのメールアドレスなどの連絡先が、付加サービスDB172に記憶される。
さらに、電子認証印24から印鑑情報データが受け入れられたときには、受け入れられた印鑑情報データが、これらのデータに対応付けられて、付加サービスDB172に記憶される。
図22に示すように、ステップ160(S160)において、電子認証印24のユーザが、手書入力ペン26を用いたり、あるいは、電子認証印24に対して所定の操作(音声の入力あるいは背景付き用紙128,130に対するポインティングなど)を行い、さらに、電子認証印24に対して、指紋の画像など、認証に必要な情報を入力して、認証を要求する。
ステップ164(S164)において、情報サーバ16は、入力装置20からの認証用データと、予め記憶されている認証用データ(図21)とを比較し、これらが同一の範囲にあるときには、電子認証印24のユーザが正当であると認証し、これ以外のときには、電子認証印24のユーザが正当ではないとして認証しない。
入力装置20は、この認証結果を、音声などにより、ユーザに対して示す。
ステップ166(S166)において、情報サーバ16は、電子認証印24のユーザの連絡先(例えばPC18;図1)に、認証要求があったことと、その結果とを通知する。
ステップ170(S170)において、入力装置20は、背景パターンデータと位置データとを、情報サーバ16に送信する。
情報サーバ16は、入力装置20からの背景パターンデータおよび位置データと、予め記憶された背景パターンデータおよび位置データとを比較し、電子認証印24が、正しい用紙128、130の正しい位置に当接されているかを判断する。
入力装置20は、情報サーバ16からの判断結果が、電子認証印24が、正しい用紙128,130の正しい位置に当接されたことを示すときには、電子認証印24から受けた印鑑情報データを受け入れ、必要に応じて他のノードに対して送信する。
また、電子認証印24により、ユーザの指紋の画像を得ることができるので、指紋によるユーザの認証を行うようにしてもよい。
また、電子認証印24を握るユーザの握力が検出可能なので、握力によるユーザ認証を行うようにしてもよい。
図23は、背情報管理システム1(図1)における無地の用紙128,130に対する背景パターン136(図3)の選択的な付加、および、背景パターン136を用いた付加データの管理およびその出力を例示する図である。
以下に説明する背景パターン136の選択的付加およびこれを用いた付加データの管理・出力(以下、単に、「背景パターン136の選択的付加」などとも記す)は、情報管理システム1(図1)において、必要に応じて、無地の用紙128,130に背景パターン136を選択的に付し、この背景パターン136を付した用紙128を用いて、図14に示した教育サービスと同様なデータの管理および出力を行えるように工夫されている。
まず、情報管理システム1のPC18(図1)上で動作する情報利用プログラム180のアプリケーション186(図10)により、無地の用紙128,130に印刷するための画像データ(”Patent”,”[発音]”,”[意味]”)と、この画像データの用紙128,130上における位置を示す位置データと、用紙128上の画像に付加され、これらの画像をポインティングしたときに出力される付加データ(例えば、”[発音]”の画像およびその位置に対応付けられた「パテント」という音声データ、あるいは、”[意味]”の画像およびその位置に対応付けられた「特許」という文字データ)とが作成される。
次に、アプリケーション186は、作成された画像データ、および、背景管理装置32から受けた背景パターン136とを認定プリンタ122に対して出力し、画像データと背景パターン136とを、無地の用紙128,130に印刷させる。
次に、アプリケーション186は、情報サーバ16に対して、画像とともに用紙128,130に印刷した背景パターン136を示す背景パターンデータと、付加データが対応付けられた用紙128,130上の画像の位置を示す位置データと、用紙128,130上の画像に対応付けられた付加データを送信し、登録する。
さらに、付加サービスDB172には、図24(B)に示すように、図24(A)に示した付加データIDに対応する付加データが記憶される。
このポインティングに応じて、ポインティングされた画像に対応付けられた付加データが、情報サーバ16からPC18に送られ、PC18からユーザに対して表示・出力される。
図25に示すように、ステップ180(S180)において、PC18において、ユーザの操作に応じて、画像データ、位置データおよび付加データなどが作成される。
ステップ184(S184)において、背景管理装置32は、それまでにいずれの用紙128,130に対しても印刷されていない未使用の背景パターン136を選択し、PC18に対して送信する。
ステップ188(S188)において、認定プリンタ122は、PC18からの画像データと背景パターン136とを、無地の用紙128,130に対して印刷する。
ステップ192(S192)において、ユーザが、PC18のそばで、手書入力ペン26を用いて、用紙128,130に印刷された画像をポインティングすると、ポインティングされた用紙128,130に付された背景パターン136およびポインティングの位置を示す筆跡データが、PC18に対して送信される。
ステップ196(S196)において、情報サーバ16は、PC18からの背景パターンデータおよび位置データに対応する付加データを、PC18に返す。
PC18は、情報サーバ16からの付加データを受けて、音声あるいは画像としてユーザに対して表示・出力する。
図26は、情報管理システム1(図1)における背景パターン136の再利用を例示する図である。
背景パターン136(図3)には膨大な種類があり、事実上、用紙128,130それぞれに対してユニークに用いることができる。
つまり、図26に示すように、印刷された画像を消去できない用紙128、および、印刷された画像が消去可能な用紙130が廃棄されたとき、あるいは、用紙130から背景パターン136が消去されたときに、これらの用紙128,130に付されていた背景パターン136を、使用済みの状態から、未使用の状態に戻して管理し、新たに、無地の用紙128,130に対して印刷可能とすることが望ましい。
この背景パターン136の再利用には、機能実現装置38として、例えば、図27に示すように、PC18(図1,図2)の機能実現装置38として、用紙130に印刷された背景パターン136などの画像の消去を行う消去装置382、または、背景が付された用紙128,130を廃棄するシュレッダ384と、用紙128,130に付された背景パターン136を読み取るスキャナ380とを組み合わせた装置を用いることが望ましい。
あるいは、機能実現装置38において、背景が付された用紙128,130が廃棄されるときには、スキャナ380が、用紙128,130に印刷された背景パターン136を読み取ってから、シュレッダ384が、用紙128,130を剪断し、廃棄する。
機能実現装置38により読み出された背景パターン136は、PC18上で動作する情報利用プログラム180のアプリケーション186(図10)により、背景パターン136の再利用のために利用される。
図28に示すように、ステップ220(S220)において、ユーザが、PC18(図1)の機能実現装置38(シュレッダ384;図27)に、使用済みの用紙128,130を挿入すると、スキャナ380は、用紙128,130に付された背景パターン136を読み込み、情報利用プログラム180(図10)に対して出力する。
シュレッダ384は、機能実現装置38に挿入された用紙128,130を剪断し、廃棄する。
ステップ224(S224)において、背景管理装置32は、PC18から送られてきた背景パターン136を、未使用状態として、再利用可能に管理する。
ステップ240(S240)において、ステップ240(S240)において、ユーザが、PC18(図1)の機能実現装置38(消去装置382;図27)に、使用済みの用紙130を挿入すると、スキャナ380は、用紙130に付された背景パターン136を読み込み、情報利用プログラム180(図10)に対して出力する。
消去装置382は、機能実現装置38に挿入された用紙130に付された画像および背景パターン136を消去し、再使用可能な状態とする。
ステップ244(S244)において、背景管理装置32は、PC18から送られてきた背景パターン136を、未使用状態とし、さらに、再利用可能に管理する。
ステップ248(S248)において、背景管理装置32は、未使用状態の背景パターン136(S240の処理において消去された背景パターン136であるか否かは問われない)を、要求を出したPC18に対して送信する。
ステップ252(S252)において、PC18は、背景パターン136を、認定プリンタ122(図1)に対して送信させ、用紙130に対して印刷させる。
120・・・ネットワーク、
122・・・認定プリンタ、
124・・・非認定プリンタ、
128,130・・・用紙、
136・・・背景パターン、
132・・・格子点、
134・・・ドット、
3・・・背景管理装置、
32・・・背景管理装置、
100・・・本体、
102・・・CPU、
104・・・メモリ、
106・・・入出力装置、
110・・・通信装置、
112・・・記録装置、
114・・・記録媒体、
116・・・無線IF、
38・・・機能実現装置、
34・・・背景管理プログラム、
340・・・未使用背景パターンDB、
342・・・使用済背景パターンDB、
344・・・DB管理部、
30・・・課金装置、
16・・・情報サーバ、
160・・・情報サーバプログラム、
164・・・操作解析部、
166・・・DB管理部、
168・・・ペン情報DB、
170・・・サービス提供部、
172・・・付加サービスDB、
18・・・PC、
180・・・情報利用プログラム、
182・・・情報出力処理部、
184・・・背景・操作検出部、
186・・・アプリケーション、
2・・・手書入力システム、
20・・・入力装置、
200・・・入力装置用プログラム、
202・・・受信処理部、
204・・・筆跡解析部、
206・・・文字識別部、
208・・・音声処理部、
210・・・対応付け部、
212・・・背景検出部、
214・・・位置検出部、
216・・・DB管理部、
220・・・ペン情報DB、
222・・・通信処理部、
224・・・印鑑情報処理部、
24・・・電子認証印、
26・・・手書入力ペン、
260・・・筆記部材、
262・・・手書入力ペン本体、
264・・・レンズ系、
266・・・CCD素子、
268・・・圧力センサ、
270・・・画像取込回路、
272・・・MIC、
274・・・音声処理回路、
278・・・電源、
280・・・送信回路、
Claims (18)
- 音声信号の入力を受ける音声入力手段と、
所定の部材における任意の位置をポインティングするポインティング手段と、
前記部材においてポインティングされた位置を検出する検出手段と、
前記部材においてポインティングされた位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力手段と
を有する音声入出力システム。 - 前記情報記憶手段は、前記ポインティング手段によるポインティングが行われる以前に受け入れられた音声信号を、前記部材においてポインティングされた位置と対応付けて記憶する
請求項1に記載の音声入出力システム。 - 前記ポインティング手段は、音声を受け入れて音声信号として出力する音声受け入れ手段を有し、
前記音声入力手段は、前記出力された音声信号の入力を受ける
請求項1または2に記載の音声入出力システム。 - 前記部材には、前記部材における位置を識別するための印が付され、
前記ポインティング手段は、前記部材に付された印の画像を受けて画像信号として出力する画像入力手段を有し、
前記検出手段は、前記出力された画像信号に基づいて、前記ポインティングされた部材における位置を検出する
請求項3に記載の音声入出力システム。 - 前記部材それぞれに付される前記印は、前記部材それぞれに固有であって、
前記検出手段は、前記ポインティングされた部材における位置と、前記固有の印とを検出し、
前記情報記憶手段は、前記対応づけられた部材における位置および音声信号に、前記検出された固有の印を対応付けて記憶し、
前記音声出力手段は、前記固有の印と、前記記憶された部材における位置に対するポインティングとが検出されたときに、前記検出された固有の印と、前記検出された部材における位置とに対応付けられて記憶された音声信号を出力する
請求項4に記載の音声入出力システム。 - 前記ポインティング手段は、ポインティングした部分に対して筆記する筆記手段
をさらに有する
請求項1〜5のいずれかに記載の音声入出力システム。 - 音声信号の入力を受ける音声入力手段と、
所定の部材においてポインティングされた位置を検出する第1の検出手段と
を有する音声入力装置と、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力手段と
を有する音声サーバ装置と、
前記部材においてポインティングされた位置を検出する第2の検出手段と、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力手段と
を有する音声出力装置と
を有する音声入出力システム。 - 前記部材それぞれには固有の印が付され、
音声入力装置において、
前記第1の検出手段は、前記部材においてポインティングされた位置と、前記部材それぞれに固有の印とを検出し、
前記音声サーバ装置において、
前記情報記憶手段は、前記検出された部材における位置および前記受け入れられた音声に、前記検出された固有の印を対応付けて記憶し、
前記第1の音声出力手段は、前記記憶された部材における位置に対するポインティングと、この部材に付された固有の印とが検出されたときに、前記検出された固有の印と、前記検出された部材における位置とに対応付けられて記憶された音声信号を出力する
請求項7に記載の音声入出力システム。 - 検出された所定の部材における位置と、受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置と、前記部材におけるポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力装置とを有する音声入出力システムにおける音声入力装置であって、
音声信号の入力を受け入れる音声入力手段と、
前記部材におけるポインティングされた位置を検出する検出手段と
を有する音声入力装置。 - 音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記部材においてポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段とを有する音声入出力システムにおける音声サーバ装置であって、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する情報記憶手段と、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力手段と
を有する音声サーバ装置。 - 音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置とを有する音声入出力システムにおける音声出力装置であって、
前記部材においてポインティングされた位置を検出する検出手段と、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段と
を有する音声出力装置。 - 音声信号の入力を受け、
所定の部材における任意の位置をポインティングし、
前記部材においてポインティングされた位置を検出し、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材の位置と対応付けられて記憶された音声信号を出力する
音声入出力方法。 - 音声信号の入力を受け、
所定の部材においてポインティングされた位置を検出し、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力し、
前記部材のポインティングされた位置を検出し、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する
音声入出力方法。 - 音声信号の入力を受ける音声入力ステップと、
所定の部材における任意の位置をポインティングするポインティングステップと、
前記部材においてポインティングされた位置を検出する検出ステップと、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力ステップと
をコンピュータに実行させるプログラム。 - コンピュータを含む音声入力装置において、
音声信号の入力を受ける音声入力ステップと、
所定の部材におけるポインティングされた位置を検出する第1の検出ステップと
を前記コンピュータに実行させ、
コンピュータを含む音声サーバ装置において、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する第1の音声出力ステップと
を前記コンピュータに実行させ、
コンピュータを含む音声出力装置において、
前記部材においてポインティングされた位置を検出する第2の検出ステップと、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する第2の音声出力ステップと
を前記コンピュータに実行させる
プログラム。 - 検出された所定の部材における位置と、受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置と、前記部材においてポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力装置とを有する音声入出力システムのコンピュータを含む音声入力装置において、
音声信号の入力を受け入れる音声入力ステップと、
前記部材においてポインティングされた位置を検出する検出ステップと
を前記コンピュータに実行させるプログラム。 - 音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記部材におけるポインティングされた位置を検出し、前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力手段とを有する音声入出力システムのコンピュータを含む音声サーバ装置において、
前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶する位置・音声記憶ステップと、
前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声出力ステップと
を前記コンピュータに実行させるプログラム。 - 音声信号の入力を受け、所定の部材においてポインティングされた位置を検出する音声入力装置と、前記検出された部材における位置と、前記受け入れられた音声信号とを対応付けて記憶し、前記記憶された部材における位置に対するポインティングが検出されたときに、この部材における位置と対応付けられて記憶された音声信号を出力する音声サーバ装置とを有する音声入出力システムのコンピュータを含む音声出力装置において、
前記部材においてポインティングされた位置を検出する検出ステップと、
前記検出された部材における位置に応じて出力された音声信号を、音声として出力する音声出力ステップと
をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003410418A JP2005173807A (ja) | 2003-12-09 | 2003-12-09 | 音声入出力システムおよびその方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003410418A JP2005173807A (ja) | 2003-12-09 | 2003-12-09 | 音声入出力システムおよびその方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005173807A true JP2005173807A (ja) | 2005-06-30 |
Family
ID=34731519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003410418A Pending JP2005173807A (ja) | 2003-12-09 | 2003-12-09 | 音声入出力システムおよびその方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005173807A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12026327B2 (en) | 2022-03-25 | 2024-07-02 | BIC Violex Single Member S.A. | Writing instrument |
-
2003
- 2003-12-09 JP JP2003410418A patent/JP2005173807A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12026327B2 (en) | 2022-03-25 | 2024-07-02 | BIC Violex Single Member S.A. | Writing instrument |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4150923B2 (ja) | データ出力システムおよびその方法 | |
US6722574B2 (en) | Business card | |
RU2669717C2 (ru) | Система рукописного ввода/вывода, лист рукописного ввода, система ввода информации и лист, обеспечивающий ввод информации | |
KR101026630B1 (ko) | 범용 컴퓨팅 장치 | |
US6573887B1 (en) | Combined writing instrument and digital documentor | |
JP4982486B2 (ja) | 位置および情報の符号を組み合わせるための方法およびシステム | |
AU2008255165A1 (en) | A combined writing instrument and digital documentor apparatus and method of use | |
US20020011989A1 (en) | Method and system for information association | |
JP2005173810A (ja) | 電子印鑑システムおよびその方法 | |
US9648287B2 (en) | Note capture device | |
JP2003345945A (ja) | 電子ペンを利用した書類記入システムおよび電子ペンならびに電子処理用ペーパ | |
JP4920153B2 (ja) | 手書き情報の電子的記録のためのシステム及び装置 | |
CN102067153A (zh) | 多模态学习*** | |
JP2007506185A (ja) | リアルタイム可変デジタル・ペーパー | |
CA2400617A1 (en) | Method and system for information association | |
KR100905705B1 (ko) | 디지털 펜과 디지털 페이퍼를 이용한 전자노트 서비스를제공하는 방법, 시스템 및 프로그램을 기록한 컴퓨터로읽을 수 있는 기록매체 | |
US9250718B2 (en) | Self-addressing paper | |
JP2005173811A (ja) | データ管理システムおよびその方法 | |
JP5084087B2 (ja) | 手書きコマンド | |
JP2008263619A (ja) | データ入力システム | |
JP2005173807A (ja) | 音声入出力システムおよびその方法 | |
JP2005173808A (ja) | 情報表示システムおよびその方法 | |
JP2005173809A (ja) | 情報入力システムおよびその方法 | |
JP4246474B2 (ja) | 電子署名システム及び電子署名プログラム | |
EP1382006B1 (en) | Business card with a position-coding pattern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090501 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090616 |