JP4148029B2 - Document processing device - Google Patents

Document processing device Download PDF

Info

Publication number
JP4148029B2
JP4148029B2 JP2003151922A JP2003151922A JP4148029B2 JP 4148029 B2 JP4148029 B2 JP 4148029B2 JP 2003151922 A JP2003151922 A JP 2003151922A JP 2003151922 A JP2003151922 A JP 2003151922A JP 4148029 B2 JP4148029 B2 JP 4148029B2
Authority
JP
Japan
Prior art keywords
information
document
image
embedded
document data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003151922A
Other languages
Japanese (ja)
Other versions
JP2004248245A (en
Inventor
宏之 左右田
紀夫 山本
道弘 田宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2003151922A priority Critical patent/JP4148029B2/en
Publication of JP2004248245A publication Critical patent/JP2004248245A/en
Application granted granted Critical
Publication of JP4148029B2 publication Critical patent/JP4148029B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Document Processing Apparatus (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、文書データに所定の情報を埋込処理する文書処理装置、方法及びプログラムに関する。
【0002】
【従来の技術】
近年、コンピュータやネットワーク技術の発展に伴い、多くの文書が電子的に作成されている。電子文書の特質としては、インターネット等を通じて広範に頒布しうること、ハイパーリンク等の形態で他の情報を参照可能であること等を、掲げることができる。
【0003】
例えば、電子文書の一種であるハイパーテキストや、このハイパーテキストにリンクしている諸種のデータは、Webサーバによりインターネットを通じ利用者に頒布することが可能である。ハイパーテキストにおいては、そのハイパーテキスト中に含まれる各種の画像要素に対して、ハイパーリンクによって参照される他の情報を結びつけることが、可能である。具体的には、ハイパーテキストには、テキスト、イメージ、グラフィックス等の画像要素が含まれており、それら画像要素には記述者の意図により適宜ハイパーリンクが設定される。Webブラウザ等を利用してHTML文書を閲覧・利用する者は、ハイパーリンクが設定された画像要素をマウスクリック等することによって、リンク先の文書、画像、音声、映像等に係るデータを入手できる。以下、本願では、電子的に作成された文書データに他の情報を結びつけるためその文書データ内に設けられた記述のことを参照情報、この参照情報によって結びつけられた当該他の情報のことを関連情報、参照情報による関連情報の結びつけ例えばハイパーリンクのことを参照、と称する。通常、ハイパーテキストは、HTML(Hyper Text Markup Language)や各種のスクリプト言語によって記述され、参照情報はURL(Uniform Resource Locator)によるロケーション記述という形態をとるのが一般的である。
【0004】
また、インターネットを通じた世界的規模での文書流通を容易にし、より便利に利用できるようにするため、使用しているコンピュータの種類によらず文書を同じように見せるための技術が、開発されている。その種の技術として周知のものの一つに、PDF(Portable Document Format)と呼ばれる文書フォーマットがある。PDF文書は、いわゆるページ記述言語で記述されており、その内部においてその文書データ上の要素の配置位置を規定しているため、その文書を閲覧するコンピュータの機種が違っても、その文書の表示結果は略同等のものとなる。また、PDF等で作成された電子文書はインターネット等を通じて頒布可能であり、PDFを閲覧するためのソフトウエア(アクロバット(登録商標)リーダ等)を利用して参照することができる。従って、例えば英語で作成されたPDF文書を日本人が入手・利用することも容易であり、実際に広く行われている。更に、PDFにおいても、画像要素に参照情報を設定することができるように言語仕様が定められている。例えばPDFを生成するソフトウエアの一つであるアドビ社のアクロバット(登録商標)では、Webサーバにより配信されるHTML文書を取得してPDFに変換する、いわゆるWebキャプチャーと呼ばれる機能を備え、この際に、HTML文書内の参照情報をPDFに含めるようにしている。閲覧者は、この参照情報により、関連情報を取得できる。
【0005】
【特許文献1】
特開平10−228468号公報
【特許文献2】
特開平10−289239号公報
【特許文献3】
特開平11−203381号公報
【特許文献4】
特開2001−177712号公報
【特許文献5】
特開2002−135556号公報
【特許文献6】
特開平7−121673号公報
【0006】
【発明が解決しようとする課題】
しかしながら、上掲の各特質は電子化された文書であることによるものである。その文書を印刷して得られるプリントアウト文書には、通常、上掲の各特質はない。
【0007】
まず、プリントアウトには、通常、文書データのうち表示装置の画面上で視認できるようにしてある情報しか記録されない。即ち、参照情報のように、文書データ中に含まれるものの、その文書データによって提供すべき文書そのもの(コンテンツ)の一部ではない記述は、紙面に現れない。例えば、表示される文章中の「お知らせ」なる文字列をクリックすると、「お知らせ」の内容を示すテキストが配信されるように、リンク先たる参照情報を設定してあるとする。この場合、この文書を印刷したとき紙面に現れるのは、原則として「お知らせ」という文字列であって、「お知らせ」の内容を示すテキストやその在処を示すURL等ではない。従って、プリントアウト文書を受け取った者は、プリントアウト文書から「お知らせ」の内容を知ることもできないし、「お知らせ」の在処にアクセスしてその内容を知ることもできない。
【0008】
このような問題を解消すべく、ハイパーテキストを印刷出力する際にリンクについての情報をコンピュータ可読な態様で紙上に埋め込んで印刷し、その紙文書を光学的に読み取って関連する電子情報へのアクセスを可能にする技術が、従来から提案されている。その一例として、特許文献1には、リンクを有するテキストやグラフィックス等の記載情報とそのリンク先の関連情報とを結び付ける参照情報を、文書の所定の領域に2次元的なバーコードで埋め込み、これを印刷出力するシステムが開示されている。このシステムによれば、ユーザがリンク先の関連情報にアクセスする際には、所望の参照情報が埋込まれた位置をサインペン等でマーキングして、スキャナで読み取らせる。するとマーキングした位置が検出され、対応する読み取り画像が解析されて、所望の関連情報にアクセスするようになっている。また、例えば特許文献2には、上記システムに対し、マーキング個所が有効であるか否かを判断するための選択無効情報を付与する手段を追加したシステムが開示されている。さらに、特許文献3には、HTML文書中のURLを2次元コード化した画像に変換し、この画像を参照部分(該当URLの部分)の直後に挿入して印刷出力するシステムが開示されている。このシステムによれば、ユーザがリンク先の関連情報にアクセスする際には、2次元コード化した画像部分をカメラで読み取り、その2次元コードを解析してURLに変換することで、その関連情報へのアクセスを行うようになっている。
【0009】
しかしながら、例えば特許文献1に開示されたシステムでは、読み取りの対象となる位置を示すために、サインペンなどでマーキングをするので、文書を汚してしまう上、一度マーキングした紙文書は使用できなくなる。一方、特許文献2に開示されたシステムでは、一度マーキングした紙文書もさらに使用できるようにするため、選択無効情報を付与するように改善しているが、紙文書は徐々に汚れて読みにくくなり、人が見るという用途には使用しにくくなる。特許文献3に開示されたシステムでは、2次元コード化した画像の挿入によって元々の文書データの体裁(画像要素の描画位置)が崩れてしまう。このため、その体裁が重要となるような文書には適用できない。特に、クリッカブルマップと呼ばれるものなど、1つのイメージの異なる場所に複数のURLが埋め込まれている場合には、このシステムへの適用が困難となる。これは、文書の体裁が崩れると、参照したいURLに対応する2次元コードがどれなのかを、ユーザが推測することができなくなるからである。
【0010】
そこで、特許文献4に開示されているように、どのようなハイパーテキストであっても、その体裁を崩さずに、関連情報にアクセスするための情報を対応する画像要素に埋め込み、関連情報に即座にアクセスすることを可能とする、画像処理装置及び被画像形成媒体も提案されている。この画像処理装置によれば、関連情報を特定するための参照情報が、画像要素に少なくとも一部が重なって埋め込まれるので、その参照情報によって画像の体裁が崩れてしまうことはない。少なくとも、大きく体裁が崩れることは防止される。従って、この画像処理装置を用いれば、例えば出力された画像要素又はその近傍領域のみをスキャンして解析すれば、その画像要素に関連する関連情報へのアクセスを行い得るようになる。尤も、特許文献4に開示されている技術では、画像形成のために、特殊な装置を用いる必要があって、コストがかかる。また、出力が必ず紙文書として得られるので、当該文書を他者に配送するためには郵便など物的な配送を伴うこととなって、電子文書としての利点が失われてしまう。
【0011】
更に、世界的規模での頒布可能性という電子文書の特質も、印刷によって、一部、損なわれる。世界的規模での頒布に当たっては、異言語間の翻訳が必要となることがあり、その場合に電子辞書を利用できれば便利であって、実際、電子辞書を利用して外国語の単語からその訳語を取得し即座にモニタに表示する製品もある。しかし、プリントアウト文書について電子辞書による即時的且つ自動的に翻訳を行うことは、通常は不可能である。特許文献6には、この欠点を補うために、プリントアウト文書のスキャンによって逐語訳を提供可能な技術が記されている。具体的には、文字によって表現された情報と等価な情報をバーコード化したものを、文字情報に対応させて同一紙面上に予め印刷しておき、バーコードリーダーでスキャンすることで、書類上に文字で表現された情報を、音声で提供できるようにしている。これによって、紙等によるプリントアウト文書から電子情報を即座に利用できるようになるものの、その対象は予めバーコードを配置することを考慮したデザインの書籍類に限られる。即ち、インターネット等を通じて入手した任意の文書には、対応できない。
【0012】
本発明は上記実情に鑑みて為されたものであり、その目的の一つは、要素の配置位置が規定された文書データ、例えばPDF等をはじめとしてページ記述言語により記述された電子文書に関して、参照情報を保持しつつ且つ電子辞書による翻訳可能性を保持しつつ、またプリントアウトの外観上も違和感なく、印刷できる電子データが得られる文書処理装置を、提供することにある。本発明は、また、特殊な装置を用いることなく、一般のプリンターや印刷機で出力可能な文書データを提供できる文書処理装置を提供することを、目的の一つとする。
【0013】
【課題を解決するための手段】
本発明のある態様は、要素の配置位置が規定されたページ記述言語の文書データに対して、付加情報を埋込む文書処理装置であって、前記文書データのうち、少なくとも付加情報を埋込む対象となる部分をレンダリングして、レンダリング画像データを生成する手段と、前記レンダリング画像データに、付加情報を埋込む手段と、前記レンダリング画像データの前記埋込された部分の画像を、元の文書データの所定位置に合成する手段と、を含む。本発明の別の態様は、要素の配置位置が規定された文書データに対して、付加情報を埋込む文書処理方法であって、前記文書データのうち、少なくとも付加情報を埋込む対象となる部分をレンダリングして、レンダリング画像データを生成する工程と、前記レンダリング画像データに、付加情報を埋込む工程と、前記要素の配置位置を参照して、前記レンダリング画像データの前記埋込された部分の画像を、元のページ記述言語の文書データの所定位置に合成する工程と、を含む。本発明の更に他の態様は、要素の配置位置が規定されたページ記述言語の文書データに対して、付加情報を埋込む文書処理プログラムであって、コンピュータに、前記文書データのうち、少なくとも付加情報を埋込む対象となる部分をレンダリングして、レンダリング画像データを生成する手順と、前記レンダリング画像データに、付加情報を埋込む手順と、前記要素の配置位置を参照して、前記レンダリング画像データの前記埋込された部分の画像を、元のページ記述言語の文書データの所定位置に合成する手順と、を実行させることを特徴とする。
【0014】
なお、これらにおいて、前記要素の配置位置を規定する情報を生成する手段をさらに含み、要素の配置位置が規定されていない文書データを、要素の配置位置の規定された文書データに変換してから、付加情報の埋込を行うこととするのも好ましい。また、前記付加情報は、例えば、前記レンダリング画像データ上の対応する画像要素部分に埋め込まれ、画像としてかつ画像要素の配置位置との関係に基づき、元の文書データの当該埋込部分に対応する位置に合成される。更に、前記要素は、例えば、参照情報により関連情報が関連づけられた画像要素とする。その場合における付加情報は、例えば、前記参照情報又は関連情報に関係する情報とする。また、前記要素は、例えば、文書データに含まれる語句(1つの単語からなる語句又は複数の単語からなる語句も含む、例えば単語や慣用句)とする。その場合における付加情報は、例えば、前記語句を特定するため又は当該語句により辞書を検索するための語句特定情報とする。この語句特定情報が同時に参照情報であることも妨げられない。
【0015】
【発明の実施の形態】
本発明の実施の形態について図面を参照しながら説明する。まず、本発明の実施の形態に係る文書処理装置1は、図1に示すように、制御部11と、記憶部12と、ハードディスク13と、ネットワーク・インタフェース(I/F)14と、表示部15と、操作部16と、プリンタ部17とを含んで構成され、ネットワークを介してWebサーバS等に接続されている。文書処理装置1により作成された文書データは、適宜、WebサーバSに転送される。また、この図のネットワークには、パーソナルコンピュータPCが接続されている。このパーソナルコンピュータPCには、スキャナとプリンタとが接続されている。このパーソナルコンピュータPCには、また、WebサーバSにより提供される文書を閲覧するためのブラウザ等のソフトウエアや、PDF文書を閲覧するためのソフトウエアが、実装されている。即ち、パーソナルコンピュータPCのユーザは、インターネット等のネットワークを介してWebサーバS等から電子文書の配信を受け、それをブラウザ等により閲覧する。
【0016】
文書処理装置1の制御部11は、ハードディスク13にインストールされたプログラムとの結合において、本発明に係る文書処理装置の各手段を実現する部材である。制御部11は、そのワークメモリである記憶部12に格納されているプログラムに従って動作し、処理対象となった文書データのうち、少なくとも付加情報を埋込む対象となる部分をレンダリングして、レンダリング画像データを生成する処理と、レンダリング画像データに付加情報を埋込む処理と、レンダリング画像データのうち付加情報が埋込まれた部分の画像を元の文書データの対応する位置に合成する処理と、を主として実行する。埋め込みの対象となりうるのは、参照情報、単語特定情報等である。埋め込みに関連した処理の具体的内容及び対象については、後に詳しく述べる。また、ハードディスク13は、制御部11により実行されるプログラムを保持するコンピュータ可読な記録媒体である。図示しないが、コンピュータ可読な記録媒体例えばCD−ROMやDVD−ROMにアクセスするためのドライブを使用すれば、その種の媒体から、このハードディスク13に各種のプログラムをインストールできる。また、後に述べるように、本発明に係る機能は概ねこのハードディスク13にインストールされたプログラム類により実現できる。但し、これは一例にすぎず、本発明を実施するためのプログラム類は他の媒体に格納しておくこともできるし、通信回線を介し随時入手する形態を採ることもできる。
【0017】
そのほか、ネットワークI/F14は文書処理装置1をネットワークに接続するための手段であり、制御部11から与えられる指示に従いネットワークを介してWebサーバS等に要求を送信し、また、ネットワークを介してWebサーバS等から受信したデータを制御部11に供給する。表示部15は、ディスプレイ等であり、制御部11から入力される指示に従いかつ表示対象たる文書データに基づき文書(画像等も含む。以下同様)を表示する。操作部16は、キーボードやマウス等であり、ユーザによる操作の内容即ちユーザからの指示の内容を示す信号を、制御部11に供給する。プリンタ部17は、制御部11から与えられる指示に従い、一般的な電子写真処理やインクジェット等の形態によって、用紙に文書を印字するプリンタであり、図1においては、バスに直接接続されているように図示しているが、実際には、USB(Universal Serial Bus)等を介して接続されていてもよいし、ネットワークを介して接続されていても構わない。WebサーバSは、一般的なWebサーバであり、広く知られているものであるので、詳細な説明を省略する。
【0018】
本発明は、図1に示したネットワーク構成及び装置構成をその実施環境として、実施しうる発明である。本発明の好適な実施の形態の一つは参照情報に係る埋め込みであり、他の一つは単語特定情報に係る埋め込みである。ここでは、まず、参照情報に係る埋め込みの手順及びそのためのプログラムの機能構成について説明する。
【0019】
参照情報に係る埋め込みを実施するに当たっては、例えば、図2に示す如き機能構成を単独で又は共同して提供する単数又は複数のプログラムを、ハードディスク13にインストールしておき、制御部11により実行する。図2には、レンダリング部21、参照情報抽出部22、埋込処理部23、並びに埋込画像合成部24なる諸機能が示されており、本実施の形態においては、これらの機能の結合によって、入力された文書データに付加的な情報が埋め込まれる。入力される文書データは一般に複数の画像要素(グラフィックやテキスト等)を含む文書、例えばHTML文書やPDF文書である。以下の段落では、説明をできるだけ具体的なわかりやすいものにするため、ページ記述言語で記述された文書データ、例えばPDF形式の文書データを想定して説明を行う。但し、文書データ中の各画像要素の配置位置が規定されている限りにおいて、またいずれかの画像要素に対して参照情報を設定できる文書形式について、他の形式であっても本発明の実施の形態に係る参照情報埋め込み手法を適用できる。
【0020】
図2中の諸機能のうち、まずレンダリング部21は、文書データをレンダリングしてビットマップに展開し、レンダリング画像データを生成する。具体的にこのレンダリング部21は、文書データに含まれる各画像要素を、その規定された配置位置に配置して、ビットマップへの展開を行う。
【0021】
参照情報抽出部22は、文書データに含まれる参照情報を抽出する。この参照情報抽出部22は、参照情報を抽出する際、各参照情報がレンダリング画像データ上のどの領域に設定されたものであるかを表す情報を併せて取得し、各参照情報とその参照情報が設定された領域の情報とを関連づけて、設定情報として出力する。具体的に参照情報抽出部22が出力する情報は、図3に示すように、文書データに含まれる参照情報(P)ごとに、その画像要素がレンダリング部21によってどの領域にレンダリングされたかを表す領域情報(R;例えば座標により表現される情報)とを関連づけたものとなる。ここで領域情報は例えば画像要素がレンダリングされた領域を内包する矩形の左上頂点と、右下頂点との各座標の情報である。以下の説明では簡単のため、領域情報は、この矩形領域を画定するものとするが、必ずしも矩形でなければならないものではない。
【0022】
埋込処理部23は、レンダリング画像と、設定情報との入力を受けて、設定情報に含まれる各参照情報について、その参照情報に関連づけられた領域の情報を参照し、レンダリング画像上の当該領域部分に、参照情報を埋込んで、埋込処理後の画像を生成する。ここで埋込処理の方法としては、特許文献5に開示されている方法等がある。具体的にこれらの埋込方法によって参照情報を埋込んだ画像部分のサイズは、必ずしも領域情報により画定されるサイズとは一致しないので、例えば図4に示すように、領域情報によって画定される矩形領域L1,L2と左上頂点を一致させた矩形領域X1,X2内に参照情報を埋込む。また、この埋込処理部23は、当該埋込処理を行った画像部分を含む領域を抽出して、当該参照情報に関連づけて入力された設定情報とともに出力する。ここで抽出する領域のサイズは、埋込処理後の画像部分のサイズと同じサイズであってもよい。
【0023】
埋込画像合成部24は、埋込処理部23から入力される、各参照情報に対応する埋込処理後の各画像部分(以下「埋込画像」という)と、埋込画像を配置する領域を表す領域情報と、埋込処理の対象となった元の文書データとの入力を受けて、各埋込画像を、元の文書データ上で各領域情報に対応する位置にそれぞれ合成する。具体的にPDF等、画像要素の配置位置が規定された文書データでは、レンダリング後の画像上で、埋込処理のために画定される矩形領域に対応する領域が明確に定まるので、画定された矩形領域に対応する位置に上書きするようにして埋込画像を合成すればよい。これにより得られる画像を印刷すると、当該合成された部分は図5に示すように、PDFの記述に従って滑らかに描画されて印刷される部分Yと、一旦レンダリングされ、情報埋込処理が行われたビットマップ表現部分Xとの境界が、視覚的に一体のものとして融合するので、利用者から見て違和感のない印刷とすることができる。
【0024】
本発明のある態様では、図2に示したプログラムは、アクロバット(登録商標)等に対するプラグイン・ソフトウエア(機能拡張のための付加的プログラム)として実装される。つまり、制御部11は、PDFを作成・閲覧するソフトウエア上で、現在作成中又は閲覧中のPDFに対して上記プログラムによる処理を行うべき指示の入力を操作部16から受けて、上記処理を文書データの各ページごとに実行する。
【0025】
この態様により本発明を実施する場合、制御部11は、例えば、処理対象となった文書データについて、図2に示したプログラムの処理を行うべき指示の入力を受けて、図6に示す処理を開始し、処理対象ページカウンタを「1」に設定する(S1)。そして処理対象ページカウンタの値に対応するページがあるか否か(すべてのページに対する処理が終了したか否か)を判断し(S2)、当該ページがないならば(すべてのページに対する処理を終了したならば)、処理を終了する。一方、処理S2において、該当するページがあれば、当該ページをレンダリングして、当該ページのレンダリング画像を生成して(S3)記憶部12に格納する。制御部11は、さらに処理対象となった文書データから参照情報を抽出するとともに、各参照情報ごとに、当該参照情報が設定された領域が処理S3のレンダリング処理において、レンダリング画像上のどの座標領域に描画されたかを示す領域情報とを関連づけて設定情報として生成し(S4)、この設定情報を記憶部12に格納する。そして制御部11は、記憶部12に格納した設定情報を参照し、各参照情報ごとに、当該参照情報に関連づけられた領域情報を取り出して、処理S3で生成したレンダリング画像のうち、取り出した領域情報に該当する部分に参照情報を埋込んで記憶部12のレンダリング画像を上書きする(S5)。そしてレンダリング画像上の参照情報が埋込まれた画像部分を抽出し(S6)、当該画像部分を処理対象となった文書データの対応する位置に合成する(S7)。制御部11はさらに処理すべき参照情報が設定情報に含まれているか否かを判断して(S8)、含まれていれば(未処理の参照情報があれば)、処理S5に戻って未処理の参照情報を処理する(A)。また、処理S8において、未処理の参照情報がなければ、処理対象ページカウンタをインクリメントして(S9)、処理S2に戻って処理を続ける。
【0026】
なお、ここでは文書データ全体に対するレンダリング画像を生成してから埋込の処理を行っているが、レンダリング画像を生成する前に設定情報を生成しておき、設定情報に基づき、埋込画像を形成する部分のみをレンダリングして部分的なレンダリング画像を生成し、当該部分的なレンダリング画像に埋込処理を行って埋込画像を生成し、当該埋込画像を元の文書データに合成するようにしてもよい。
【0027】
本実施の形態によると、例えばPDFのように各画像要素の配置位置が規定された文書データについて、ビットマップ等、埋込処理可能な画像データに変換したレンダリング画像を得ておき、参照情報の設定された画像要素について、参照情報が設定された部分に対応するレンダリング画像上の領域に、設定されている参照情報を埋込んで埋込画像を生成する。そして、この埋込画像をPDFの記述に含める。このとき、当該埋込画像を合成したPDFをレンダリングしたとき、各埋込画像が埋込処理の際にレンダリング画像上で占める位置と同じ位置でレンダリングされるよう合成する。これによって文書データを閲覧・印刷したときに埋込画像と元の画像との境界が自然な状態となる。なお、PDFの場合、例えば内部で利用されるフォントが閲覧する側のコンピュータにインストールされていない場合に、テキストの画像要素の配置位置が若干ずれることがある。この場合は、埋込画像と元の画像との境界に若干の不自然さが残ってしまう。そこで、PDFの場合は、作成時にフォント埋込処理を行って利用するフォントデータをPDFの文書データ内に含めておき、閲覧側のコンピュータにフォントがインストールされていなくても、レンダリング結果が変らないようにしておくことが好ましい。更に、HTML文書のように画像要素の配置位置が規定されていない場合には、PDF文書へ変換するなど、各画像要素の配置位置が規定された文書データに変換してから、上記処理を行うこととすればよい。
【0028】
次に、本実施の形態によって生成された埋込処理後の文書データの利用の態様について、説明する。この文書データは、電子的なデータとしてネットワークを介して送信でき、ネットワークに接続されたパーソナルコンピュータPC等を用いて受信して、そのディスプレイ上に表示することができる。この状態では電子的な参照情報が含まれた状態であるので、利用者が参照情報に関連する関連情報を取得する操作を行えば、当該関連情報が取得されて表示等に供される。また、利用者がこの文書データを電子写真方式又はインクジェット方式等の一般的に利用されているプリンタで印刷すると、当該文書は、埋込画像を含んだ状態で印刷される。利用者は、この印刷結果に含まれる埋込画像のうち、所望の埋込画像を選択的にスキャナ等によって光学的に読み込ませる。すると、パーソナルコンピュータPCは、当該埋込画像に埋込まれた参照情報を抽出して、当該参照情報を所定の処理(例えば参照情報としてのURLを用いて関連情報を取得する処理等)に供する。
【0029】
本実施の形態の別の態様としては、識別子を用いる態様がある。即ち、上に説明した態様においては参照情報そのものを付加情報として文書データに埋め込んでいるが、参照情報そのものが長大な場合は、埋込画像のサイズが大きくなり、例えば近接した位置に多数の参照情報を埋込まなければならないときに困難が生じる。これを回避するためには、各参照情報ごとに固有の識別子を発行して、各参照情報と識別子とを関連づけたデータベースを保持し、識別子を付加情報として文書データに埋め込むようにすればよい。この態様においては、当該付加情報を利用する側で、利用者が指示した識別子を読み取り、当該識別子に対応する参照情報をデータベースに問い合わせることとなる。
【0030】
具体的に述べると、この態様による情報埋込のためのプログラムは、図2に示したプログラムに代えて、図7に示すように、レンダリング部21、参照情報抽出部22、埋込処理部23、埋込画像合成部24、識別子発行部25並びに識別子登録部26を含む諸機能を提供するものとなる。図7中、図2に示した機能部分と同一の符号が付されているものは、図2に示したそれと同様の動作によって同様の機能を提供するものであるので、ここでは説明を省略する。図7に示された機能部材のうち、識別子発行部25は、参照情報抽出部22にて抽出された参照情報毎に固有の識別子を発行し、参照情報とこの発行した識別子とを関連づけて登録情報として出力する。この識別子は、例えば4バイト程度の数値を連番で発行するようにすればよい。識別子登録部26は、識別子発行部25から登録情報の入力を受けて、当該登録情報をハードディスク13に格納してデータベースを生成する。また、埋込処理部23は、登録情報の入力を受けて、レンダリング画像に対して参照情報を埋込む代わりに、当該参照情報に関連づけられている識別子を埋込む。
【0031】
またこの場合の制御部11は、ネットワークを介してネットワークI/F14にて識別子と、当該識別子に関連する参照情報の要求とを受信すると、この要求に応えて、ハードディスク13に格納された登録情報を検索し、指定された識別子に関連する参照情報を要求元に送信する。この態様によると、識別子を固定長としておくことで、埋込画像のサイズを一定にでき、例えば予め埋込部分を抽出しておく(当該部分のみをレンダリングするなど)等の処理が容易になる。
【0032】
さらにこの場合、埋込処理後の文書データを利用するパーソナルコンピュータPCは、次のように動作する。すなわち、利用者がこの文書データを電子写真方式又はインクジェット方式等の一般的に利用されているプリンタで印刷すると、当該文書は、埋込画像を含んだ状態で印刷される。利用者は、この印刷結果に含まれる埋込画像のうち、所望の埋込画像を選択的にスキャナにて読み込ませる。するとパーソナルコンピュータPCは、当該埋込画像に埋込まれた識別子を抽出して、当該識別子に対応する参照情報を文書処理装置1に要求する。そして、文書処理装置の制御部11がこの要求に応答して、応答に係る識別子に対応する参照情報をパーソナルコンピュータPCに返信し、パーソナルコンピュータPCが、この参照情報を所定の処理(例えば参照情報としてのURLを用いて関連情報を取得する処理等)に供する。
【0033】
また、ここでは文書処理装置1側のハードディスク13にデータベースとして識別子と参照情報とを関連づけて格納することとしたが、識別子と参照情報とを関連づけたデータベースファイルを埋込処理後の文書データとともに頒布し、パーソナルコンピュータPC側で、当該データベースファイルを参照するようにしてもよいし、図示しないサーバにデータベースを格納させ、パーソナルコンピュータPC側では、当該サーバ側に識別子に対応する参照情報を要求するようにしてもよい。
【0034】
ところで、図2に示した処理と図7に示した処理と、のいずれの場合にも、埋込画像は一定のサイズを占めるので、元の文書データで参照情報が関連づけられていた領域を超えてしまい、例えば図8に示すように2つの埋込画像同士が重なりあってしまう場合もある。この場合、いずれか一方の埋込画像を合成しないように制御することも好ましい。どちらの埋込画像を合成しないようにするかの選択は処理順序に従って後から生成した埋込画像を合成しないようにする等とすればよい。更にこの場合、いずれか一方の埋込画像を別の場所に合成することとするのも好ましい。例えば、文書データを印刷したときの余白部分に合成してもよいし、合成する位置を設定情報に示された領域情報で画定される領域内等、本来合成すべき位置の近傍で移動して、他の埋込画像に重ならないよう合成可能な位置があれば、当該位置に合成することとしてもよい。また、これらの処理(合成しない、或いは別の場所や本来合成すべき位置近傍に合成する)は、図9に示すように埋込画像を合成したときに文書の端からはみ出てしまうような場合にも適用できる。
【0035】
また、ここまでの説明では、埋込画像をそのまま画像として合成することとして説明したが、 それ以外の文字や図形等の描画要素に変換して合成してもよい。また、元の文書データが複数のレイヤ(文書要素)から構成される場合、元の文書データ上の画像要素が記述されたレイヤとは異なるレイヤに埋込画像を配置することとするのも好ましい。
【0036】
本発明は、更に、単語特定情報の埋め込みに係る実施の形態としても、実施できる。そこで、次に、図1に示した実施環境を例として、単語特定情報の埋め込みひいては電子辞書の利用に関連した実施の形態を、主として図10に示した機能構成及び図11に示したフローに従って、また英文によるPDF文書を例として、説明する。なお、図10はハードディスク13にインストールされ制御部11により実行される単数又は複数のプログラムの機能構成を、図11は本実施の形態をプラグイン等として実現した場合の手順を、それぞれ示すものである。先に説明した実施の形態と同様、本実施の形態は、その本質的部分を違えない限りにおいて、図1,図10,図11に示したものとは異なる環境、プログラム構成、フローによっても実現できる。
【0037】
まず、図10中、処理対象となる元の文書データは、ページ記述言語で記述された文書データ例えばPDF文書であって、そのページ毎に、その見た目を形成する文字、図形、画像等の描画データ(画像要素)によって構成されている。レンダリング部21Aは、このように画像要素から構成される文書データから、レンダリング処理によって、その見た目を表現するページ画像を生成する。英単語情報抽出部22Aは、元の文書データに含まれる文字要素から、英単語やその位置を抽出し、以降の処理対象となる英単語を決定・特定する。情報埋込画像生成処理部23Aは、この英単語情報抽出部22Aにより特定された英単語即ち埋込対象と、レンダリング部21Aによって生成されたページ画像(レンダリング画像)特に当該英単語の位置における画像とに基づき、情報埋込画像及びID−英単語対応情報を、生成する。画像貼付処理部24Aは、情報埋込画像生成処理部23Aによって生成された情報埋込画像を、元の文書データにおける元々の英単語の位置に上書きで貼り付ける処理、言い換えれば合成処理を実行することによって、英単語を特定する情報即ち電子的な英単語辞書引きに利用できる情報が埋め込まれた文書データを、生成する。この文書データを印刷すること(より厳密には、印刷に当たって再度レンダリングすること)により、埋込箇所とその周囲とが視覚的に一体のものとして融合した形で電子的な英単語辞書引き情報を保持した紙ドキュメントを、得ることができる。即ち、利用者から見て違和感のない、単語特定情報を埋め込んだ印刷物が得られる。利用者は、プリントアウトされた文書上のある単語についてその意味等を知りたければ、その単語に係る単語特定情報が埋め込まれた部分の画像をハンディースキャナー等で読み出せばよい。読み出した単語特定情報をデコードし、電子辞書に伝えれば、その単語の意味等の情報を、即座に得ることができる。また、情報登録処理部26Aは、情報埋込画像生成処理部23Aによって生成されたID−英単語対応情報を、実際に紙ドキュメントから電子的な英単語辞書引きを行う際に参照可能とするために、図示しないデータベース等に登録する。このデータベースは、ネットワーク上に設けることもできるし、文書処理装置1内に設けることもできる。
【0038】
次に、処理の流れについて、図11を参照して説明する。まず、この図に示した手順においては、元の文書データにおけるページ毎に処理を行っている。即ち、初期的に元の文書データ中の1ページ目を処理対象ページに設定した上で(S10)、1ページ分の処理が終了する毎に次のページを処理対象ページに設定しつつ(S20)且つ全てのページについて処理を実行し終えるまで(S11)、S12〜S19の処理を繰り返し実行する。
【0039】
ページ毎に繰り返される処理のうちS12は、レンダリング部21Aにより実行される処理である。ここでは、処理対象ページに関し、そのページに属する文字、図形、画像等の画像要素について記憶部12(メモリ)に描画処理を行うことによって、ページ画像を生成する。続くS13は、英単語情報抽出部22Aによる処理であり、元の文書データから英単語を抽出し、あらかじめ設定されている条件に基づいて、以降の処理対象となる英単語を決定・特定し、特定した英単語それぞれに関する属性を、後に利用できるように保持する。英単語の抽出手法としては、例えば、図12に示す手法を使用できる。図12においては、元の文書データ中に“text book”なる英単語が含まれているものと仮定し、最小矩形の決定とそれらの連結可否判別により、英単語を抽出している。
【0040】
ここに、英単語等の文字情報は、通常、元の文書データ中の文字描画要素によって表現されている。元の文書データのフォーマットや表現方法によって、文字描画要素は文字ブロック、文字列といったあるまとまりでひとつの単位となっている場合もあれば、一文字が一要素として表されている場合もあるが、ここでは説明の都合上一文字が一要素として表されているものとする。図12に示した手法においては、まず、各文字要素を囲む最小矩形C1を求める(a)。次に、注目文字及びそれに連結する候補文字を見つける。図示した例では、最初の“t”が注目文字とされ、英文の書き方向に沿って次に位置する文字即ち“t”の右側にある“e”が候補文字とされる。英単語情報抽出部22Aは、注目文字と候補文字それぞれを囲む最小矩形間の距離を調べ、その距離が所定距離を下回っている場合にのみ「連結すべし」と判断する。この判断の基準となる当該所定距離は、単語間の距離よりも小さく設定しておく。例えば、“矩形間距離が連結候補の次の文字の幅よりも大きい”場合に、矩形同士を連結すべきでない即ち同一英単語を形成していないと判断されることとなるよう、上記判断の基準即ち上記所定距離を設定しておく。図示した“t”と“e”の例では、その最小矩形同士の間隔が小さいため、両者が同一英単語を形成する文字である即ち「連結すべし」と判断され、最小矩形同士が連結されて2個の文字を囲む矩形C2が形成される(b)。このような判断基準に基づく選別的連結処理を繰り返していくと、“text”全体を囲む矩形Cが形成された段階に至る(c)。この段階で候補文字となる“b”は注目文字列である“text”から大きく離れているため連結されない。即ち、単語と単語の切れ目であると判断され、“text”なる英単語が検出される。この後選別的連結処理が繰り返されると、“text”、“book”それぞれが別々の矩形で囲まれた状態になる(d)。即ち、“text”、“book”それぞれが別々の英単語として検出される。S13においては、例えばこのような処理を処理対象ページに関し実行することにより、そのページに含まれる英単語の位置やサイズが特定・抽出される。
【0041】
情報埋込画像生成処理部23Aにおける埋込の対象となる英単語は、このようにして得られた英単語から、英単語情報抽出部22AによりS13において選択的に決定される。即ち、抽出した英単語の中には、通常、情報埋め込みを行ったとすると他の情報埋め込み画像と重なることになるであろう英単語や、ページからはみ出してしまうであろう英単語が含まれている。この種の英単語、即ち物理的に情報埋め込みが行えない英単語は、この段階で処理対象から除外される。次に、英単語の中には、情報埋込を行うべき或いは行いたい英単語、即ち辞書引きの対象とすべき或いは当該対象になりうる英単語と、そうでない英単語とがある。そこで、後者を埋込対象から除く。実際は、辞書引きを行う人の能力・指向等に個別的ばらつきがあることから、両者の間の論理的区別が厳密にはつかないため、通念上妥当と認定しうる一般的な指標を代替的に用いて区別・除外処理を実行する。例えば、
(1)大抵の利用者がその意味を知っている簡単な英単語のリストを作成しておきそのリストに含まれる英単語は埋込対象から除外する
(2)大抵の利用者がその意味を知らないであろう難しい英単語のリストを作成しておきそのリストに含まれる英単語は埋込対象に含める
(3)文字数が所定数(例えば5文字)より多い英単語は処理対象に含める
(4)同一ページ上に複数回登場する英単語についてはそのうちの1カ所のみを埋込対象箇所とする
等の判断基準に従い、埋込対象英単語を絞り込む。より好ましい手法としては、複数の基準を組み合わせるという手法がある (例えば、(1)且つ(2)且つ(3)、という条件を使用する)。また、これらの手法(1)〜(4)による絞り込みは、利用者が利用する英和辞書が予めわかっていない場合にも有効である。仮に、使用される英和辞書が予めわかっているならば、その英和辞書に含まれない英単語を埋込対象から除外する、という手法も、単独で或いは上記各手法との併用で、使用できる。
【0042】
情報埋込画像生成処理部23Aは、更に、埋込対象として選択した各英単語に、ユニークなIDを割り当てる(S14)。これによって、各英単語を一意識別可能となる。また、文書データに埋め込まれるのは実際にはこのIDであり、実際の英単語情報はID−英単語対応情報により参照可能となる。情報埋込画像生成処理部23A及び画像貼付処理部24Aは、IDが割り当てられた各英単語について順に(S15,S18)かつ当該処理対象ページ中の埋込対象英単語全てについて(S16)、情報埋込英単語画像の作成ひいてはそれの元の文書データへの埋込と、ID−英単語対応情報の作成とを実行する(S17)。即ち、情報埋込画像生成処理部23Aでは、まず埋込対象英単語の属性 (位置, 大きさ, 英単語情報) を英単語情報抽出部22Aから取得する。ここでいう「位置」とは、例えば英単語の左上の座標値である。また、「大きさ」とは元の文書中における英単語の大きさではなく、情報を埋め込むのに必要な情報埋込画像の幅及び高さである。これら「位置」及び「大きさ」に基づき、情報埋込画像生成処理部23Aは、レンダリング部21Aから得られるページ画像から、埋込対象部分の画像を切り出す。情報埋込画像生成処理部23Aは、この切り出した画像と、埋め込むべき情報即ち埋込対象英単語に対応するIDとに基づき、情報埋込英単語画像を作成する。画像貼付処理部24Aは、情報埋込英単語画像を、元の文書データにおける元々の英単語の位置に、上書きで貼り付ける。貼り付ける箇所については、図13(a)〜(c)に示した各種の態様がある。例えば(a)の態様では、英単語を囲む矩形Lの左上を原点とする矩形領域Xに情報埋込英単語情報を貼り付けている。なお、元の文書データの構成要素たる文字、図形、画像等の描画要素(画像要素)に対して、情報埋込英単語画像をそのまま画像として貼り付けることも可能であるが、それ以外の形態の描画要素例えば文字、図形等の描画要素に変換して貼り付けることも可能である。また, オリジナル電子ドキュメントの描画要素とは別なレイヤーで表現されることが多い付加的な要素、いわゆるアノテーションとして貼り付けることも、可能である。
【0043】
他方、情報埋込画像生成処理部23Aにおいては、前述の通り、埋込対象英単語にIDを割り当てている。情報埋込画像生成処理部23Aは、埋込対象英単語を特定する単語特定情報例えば英単語文字列それ自体と、その英単語に対応するIDとを、相互に対応付け、ID−英単語対応情報として情報登録処理部26Aに供給する。情報登録処理部26Aは、このID−英単語対応情報を、事後的に参照できるようにデータベース等に登録する(S19)。このような形態で登録された英単語情報は、後で英単語辞書引きを行う際に利用できる。英単語情報として例えば英単語文字列そのものを登録しておいた場合は、埋込後の文書からハンディスキャナー等を利用してIDを検出し、そのIDをキーとしてデータベース等にあるID−英単語対応情報を自動参照することによって単語特定情報たる英単語文字列を取得し、更にこの取得した英単語文字列をキーとして電子辞書を自動参照して意味等を調べるという形態で、英単語辞書引きを行うことができる。
【0044】
また、英単語辞書引きプログラムを実行するコマンドライン文字列を、単語特定情報としてID−英単語対応情報に含めておくようにすれば、例えば、埋込後の文書から取得したIDによりデータベースを参照して当該コマンドライン文字列を取得し、取得した文字列をパーソナルコンピュータPCのシェルプログラムに引数として渡すだけで、従ってより容易かつ自動的に、英単語辞書引きを行うことができる。同様に、URL文字列を単語特定情報としてID−英単語対応情報に含め登録しておくこともできる。このURL文字列(より広義には参照情報)により特定されるリソースが、英単語辞書引き機能を有するリソースであれば、ハンディスキャナー等により取得したIDを利用しデータベースから取得したURL文字列を引数にしてWebブラウザを起動するだけで、英単語辞書引きを行うことができる。なお、このようにURL文字列を登録する例は、図7に示した機能の応用であるといえる。
【0045】
なお、ID−英単語対応情報が格納されているCD−ROM等の媒体を予め準備しておく、という形態での実施も可能である。その場合、情報埋込画像生成処理部23Aは、抽出された英単語に対応するIDをこの媒体から検索・取得し、埋込に係る処理に供する。即ち、IDを生成する形態だけでなくIDを媒体から取得する形態でも、実施できる。また、この場合に、図10に示した機能部材のうち情報登録処理部26Aは不要である(媒体へのアクセス手段は必要になる)。
【0046】
このように、本発明の好適な実施の形態によれば、レンダリング後の文書の体裁が予め明確に規定されたページ記述言語に着目し、ページ記述言語で記述された文書データを処理対象として、かつページ記述言語により記述された体裁情報に基づき、ページ毎のレンダリング、埋込対象及び領域の特定、埋込(並びに諸情報の登録)を実行しているため、参照情報或いは単語特定情報が埋め込まれページ記述言語で記述された文書データが得られる。この文書データは、一般のプリンターや印刷機で出力することが可能であり、印刷時に再度レンダリングすると、情報を埋め込んだ画像とその周辺の画像の境界が、視覚的に一体のものとして融合するので、利用者から見て違和感なく、参照情報或いは単語特定情報を埋め込んだ印刷物が得られる。また、ハンディースキャナー等で参照情報或いは単語特定情報を読み出し、Webブラウザ、アクロバットリーダ、電子辞書等と連携させることで、紙文書から即座にネットワーク上のリソースへのアクセスや電子辞書の検索を行うことができる。
【0047】
図10〜図13を用いて説明した実施の形態では、英単語を対象とする情報埋込を説明したが、当業者なら明らかなよう、慣用句や熟語などの句(フレーズ)に対しても、同様の仕組みで情報埋込を行うことが可能である。この場合、例えば自動翻訳システム等で用いられる形態素解析や構文解析のツール(更に意味解析ツールを用いることもできる)を用いて元の文書データを解析することで、慣用句や熟語などを切り出すことができる。句に対して埋め込むIDは、辞書内のその句についての説明に対応づけられる。なお、句に対してID等の情報を埋め込む場合、その句のうち、例えば先頭の単語など、予め定めた所定の規則に従って選ばれる単語に対して情報埋込を行う。
【0048】
また、図10〜図13により説明した実施の形態の装置は、「大抵の利用者が知っている簡単な英単語のリスト」や「大抵の利用者が知らない難しい英単語のリスト」などを用いて、情報埋込を行うべき単語を選別する機能を有していた。この機能を用いる場合、単語や句の選別に用いるリストを必要に応じて使い分けられると便利である。例えば教育現場では情報埋込の対象とする語句のレベルを生徒の学年や習熟度に応じて変更できると便利である。このような場合、例えば中学校で習う語句のリスト、高校1年生で習う語句のリスト、などと複数のリストを作成しておき、目的に応じてリストを使い分けることが考えられる。以下では、このようなリストの使い分けが可能な文書処理装置の例を、図14〜図17を参照して説明する。
【0049】
図14は、この変形例の機能ブロック図である。図14において、図10に示した装置の機能部材と同様の機能を備える機能部材には、同一の符号を付して説明を省略する。
【0050】
図14の装置構成には、図10の構成にない機能部材として、語句リスト管理部27と埋込対象語句抽出処理部28が含まれている。語句リスト管理部27は、埋込対象の語句を選別する際に用いる語句リストの登録や保守などの処理を行う機能部材である。また、語句リスト管理部27は、登録されている語句リスト群の中から、語句選別に用いるものを設定する機能を備える。埋込対象語句抽出処理部28は、語句リスト管理部27により設定された語句リストを用いて、与えられた文書データの中から、情報埋込の対象となる単語や句を選択する。すなわち、図10の実施の形態では、英単語情報抽出部22Aにより、情報埋込の対象となる単語を抽出していたが、図14の構成では、英単語情報抽出部22Bは、単に元の文書データの中から各単語やその位置などを求め、それら単語群の情報から、埋込対象語句抽出処理部28が、情報埋込対象の単語や句を抽出することになる。
【0051】
図15は、語句リスト管理部27の詳細構成の一例を示す機能ブロック図である。この例では、語句リスト管理部27は、リスト登録フォルダ272、リスト登録部274、リスト保守部276、及びリスト選択部278を有する。
【0052】
リスト登録フォルダ272は、本装置に登録さている語句リスト273群を記憶する記憶部である。
【0053】
リスト登録部274は、リスト登録フォルダ272への語句リスト273の登録処理を行う機能部材である。リスト登録部274は、例えば、外部入出力装置に装着された外部記録媒体(例えばコンパクトディスク規格やDVD規格の記録媒体など)に記憶された語句リスト群の名称などをディスプレイ画面に表示し、ユーザがその中から選択したものをリスト登録フォルダ272に登録する。なお、外部記憶媒体以外にも、例えばインターネットその他のネットワーク上に設けられたサーバに本装置からアクセスし、そのサーバが有する語句リストを本装置にダウンロードしてリスト登録フォルダ272に登録する構成も可能である。
【0054】
リスト保守部276は、リスト登録フォルダ272に登録されている語句リストの保守処理のための機能部材である。語句リストの保守には、例えば、語句リストの削除や名称変更、語句リストに対する語句単位の追加や削除や変更などが含まれる。図16は、リスト保守部276が提供するユーザインタフェース画面の一例を示す図である。この例では、リスト登録フォルダ272に登録されている語句リストの名称が、リスト一覧ウインドウ310に表示される。登録されている語句リストが多い場合でも、スクロールバーにより表示範囲をずらすことで、全ての語句リストの名称を表示できる。ユーザは、このリスト一覧ウインドウ310上で所望の語句リストを選択すると共に、選択された語句リストに対する操作をボタン312又は314をクリックすることで指示する。ここで、ボタン312は、選択された語句リストに対する変更のためのボタンである。このボタン312がクリックされると、詳細な変更の内容を指示するためのユーザインタフェース画面が表示され、ユーザはこの画面にて、語句リストの名称変更や語句リストに対する語句の追加、削除、変更などの操作を行うことができる。ボタン314は、選択された語句リストをリスト登録フォルダから削除することを指示するためのボタンである。ユーザは、このリスト保守部276を利用して、リスト登録フォルダ272に登録されている語句リスト群をカスタマイズすることができる。
【0055】
リスト選択部278は、リスト登録フォルダ272に登録された語句リスト群から、埋込対象語句抽出処理部28の処理に利用するものと、その利用方法を設定するための機能部材である。リスト選択部278は、リスト登録フォルダ272に登録された語句リスト群の一覧を提示し、ユーザから所望のものを選択させると共に、選択した語句リストの利用方法を指定させる。選択した語句リストの利用方法には、例えば、その語句リストに含まれる語句を文書データから抽出するという方法や、その語句リストに含まれない語句を文書データから抽出するという方法などがある。後者は、例えば易しいレベルの語句を抽出の対象、すなわち情報埋込の対象、から省くのに利用できる。
【0056】
以上は、選択された1つの語句リストにより、抽出対象すなわち情報埋込対象の語句の識別条件を指定するものであったが、選択された複数の語句リストの集合演算(例えば和集合や積集合など)によりその識別条件を指定する方式も可能である。
【0057】
リスト選択部278は、このようにユーザから指定された語句リスト(1つ又は複数)とその利用方法とを、情報埋込の対象となる語句の識別条件として、埋込対象語句抽出処理部28に設定する。埋込対象語句抽出処理部28は、設定された識別条件を満足する単語や句を、英単語情報抽出部22Bから出力された英単語情報の中から抽出し、その抽出結果を情報埋込画像生成処理部23Aや画像貼付処理部24Aに供給する。これにより、ユーザが指定した識別条件を満足する語句に対して情報埋込がなされた文書データが作成される。
【図面の簡単な説明】
【図1】 本発明の実施の形態に係る文書処理装置の構成と、そのネットワークへの接続状態とを表す構成ブロック図である。
【図2】 本発明の実施の形態に係る文書処理装置により実行されるプログラムの一例を表す機能ブロック図である。
【図3】 設定情報の一例を表す説明図である。
【図4】 埋込位置の一例を示す説明図である。
【図5】 埋込画像と、元の文書データの画像との関係を表す説明図である。
【図6】 本発明の実施の形態に係る文書処理装置の動作の一例を表すフローチャート図である。
【図7】 本発明の実施の形態に係る文書処理装置により実行されるプログラムの別の例を表す機能ブロック図である。
【図8】 埋込画像を合成したときに2つの埋込画像同士が重なりあってしまう場合を示す説明図である。
【図9】 埋込画像を合成したときに文書の端からはみ出てしまうような場合を示す説明図である。
【図10】 本発明の実施の形態に係る文書処理装置により実行されるプログラムの更に別の例を表す機能ブロック図である。
【図11】 図10に示した機能に係る動作の一例を表すフローチャート図である。
【図12】 英単語抽出方法の一例を示す説明図である。
【図13】 画像貼付処理の各種態様を示す説明図である。
【図14】 本発明の実施の形態に係る文書処理装置により実行されるプログラムの更に別の例を表す機能ブロック図である。
【図15】 図14の語句リスト管理部の機能構成の一例を示す機能ブロック図である。
【図16】 語句リストの保守のためのユーザインタフェース画面の一例を示す図である。
【符号の説明】
1 文書処理装置、11 制御部、12 記憶部、13 ハードディスク、14 ネットワークI/F、15 表示部、16 操作部、17 プリンタ部、21,21A レンダリング部、22 参照情報抽出部、22A 英単語情報抽出部、23 埋込処理部、23A 情報埋込画像生成処理部、24 埋込画像合成部、24A 画像貼付処理部、25 識別子発行部、26 識別子登録部、26A 情報登録処理部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a document processing apparatus, method, and program for embedding predetermined information in document data.
[0002]
[Prior art]
In recent years, with the development of computer and network technologies, many documents have been created electronically. The characteristics of an electronic document can be widely distributed through the Internet or the like, and can refer to other information in the form of hyperlinks.
[0003]
For example, hypertext, which is a kind of electronic document, and various types of data linked to the hypertext can be distributed to users via the Internet by a Web server. In hypertext, it is possible to link other information referred to by hyperlinks to various image elements included in the hypertext. Specifically, the hypertext includes image elements such as text, images, and graphics, and hyperlinks are appropriately set for these image elements according to the intention of the writer. A person who browses / uses an HTML document using a Web browser or the like can obtain data related to a linked document, image, sound, video, etc. by clicking a mouse on an image element on which a hyperlink is set. . Hereinafter, in the present application, in order to link other information to electronically created document data, the description provided in the document data is referred to as reference information, and the other information linked by the reference information is related. Linking of related information by information and reference information, for example, hyperlink is referred to as reference. Usually, the hypertext is described by HTML (Hyper Text Markup Language) or various script languages, and the reference information generally takes the form of a location description by URL (Uniform Resource Locator).
[0004]
In addition, in order to facilitate worldwide distribution of documents over the Internet and make it more convenient to use, technologies have been developed to make documents look the same regardless of the type of computer being used. Yes. One of such known techniques is a document format called PDF (Portable Document Format). A PDF document is described in a so-called page description language, and since the arrangement positions of elements on the document data are defined inside the PDF document, the display of the document can be performed even if the type of computer for viewing the document is different. The result is almost equivalent. An electronic document created by PDF or the like can be distributed through the Internet or the like, and can be referred to by using software (such as an Acrobat (registered trademark) reader) for viewing the PDF. Therefore, it is easy for Japanese people to obtain and use PDF documents created in English, for example, and it is widely practiced. Further, in PDF, language specifications are defined so that reference information can be set for image elements. For example, Adobe's Acrobat (registered trademark), one of the software that generates PDF, has a so-called Web capture function that acquires an HTML document distributed by a Web server and converts it to PDF. In addition, the reference information in the HTML document is included in the PDF. The viewer can acquire related information from this reference information.
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-228468
[Patent Document 2]
JP 10-289239 A
[Patent Document 3]
Japanese Patent Laid-Open No. 11-203381
[Patent Document 4]
JP 2001-177712 A
[Patent Document 5]
JP 2002-135556 A
[Patent Document 6]
JP-A-7-121673
[0006]
[Problems to be solved by the invention]
However, each of the attributes listed above is due to the fact that it is an electronic document. Printout documents obtained by printing the document usually do not have the characteristics listed above.
[0007]
First, only information that can be visually recognized on the screen of the display device is recorded in the printout. That is, descriptions that are included in the document data but are not part of the document itself (content) to be provided by the document data, such as the reference information, do not appear on the page. For example, it is assumed that reference information as a link destination is set so that a text indicating the content of “notice” is distributed when a character string “notice” in a displayed sentence is clicked. In this case, when this document is printed, what appears on the paper is, in principle, a character string “Notification”, not a text indicating the content of “Notification”, a URL indicating the location thereof, or the like. Therefore, the person who received the printout document cannot know the contents of “Notification” from the printout document, and cannot access the location of “Notification” to know the contents.
[0008]
To solve this problem, when printing out hypertext, information about links is embedded in a computer-readable form on paper and printed, and the paper document is optically read to access related electronic information. Techniques that enable this have been proposed. As an example, Patent Document 1 embeds reference information that links description information such as text or graphics having a link and related information of the link destination in a predetermined region of the document with a two-dimensional barcode, A system for printing this out is disclosed. According to this system, when a user accesses related information of a link destination, a position where desired reference information is embedded is marked with a sign pen or the like and read by a scanner. Then, the marked position is detected, the corresponding read image is analyzed, and desired related information is accessed. Further, for example, Patent Document 2 discloses a system in which means for adding selection invalidation information for determining whether or not a marking location is valid is added to the above system. Further, Patent Document 3 discloses a system that converts a URL in an HTML document into a two-dimensionally encoded image, inserts this image immediately after a reference portion (the portion of the corresponding URL), and prints it out. . According to this system, when a user accesses related information at a link destination, the image portion that has been converted into a two-dimensional code is read by a camera, the two-dimensional code is analyzed and converted into a URL, and the related information is obtained. To access.
[0009]
However, in the system disclosed in Patent Document 1, for example, marking is performed with a sign pen or the like to indicate a position to be read, so that the document is soiled and the paper document once marked cannot be used. On the other hand, the system disclosed in Patent Document 2 has been improved so that selection invalid information is given so that a paper document once marked can be used further. However, the paper document becomes gradually dirty and becomes difficult to read. , It becomes difficult to use for human viewing. In the system disclosed in Patent Document 3, the appearance of the original document data (the drawing position of the image element) is destroyed by inserting a two-dimensionally coded image. For this reason, it cannot be applied to a document whose appearance is important. In particular, when a plurality of URLs are embedded at different locations of one image, such as what is called a clickable map, application to this system becomes difficult. This is because if the appearance of the document is lost, the user cannot guess which two-dimensional code corresponds to the URL to be referred to.
[0010]
Therefore, as disclosed in Patent Document 4, information for accessing related information is embedded in the corresponding image element without destroying the appearance of any hypertext, and the related information is immediately displayed. An image processing apparatus and an image forming medium that can be accessed are also proposed. According to this image processing apparatus, the reference information for specifying the related information is embedded at least partially overlapping the image element, so that the appearance of the image is not destroyed by the reference information. At least, the appearance is largely prevented. Therefore, if this image processing apparatus is used, for example, if only the output image element or its vicinity region is scanned and analyzed, the related information related to the image element can be accessed. However, in the technique disclosed in Patent Document 4, it is necessary to use a special device for image formation, which is expensive. In addition, since the output is always obtained as a paper document, physical delivery such as mail is required to deliver the document to others, and the advantage as an electronic document is lost.
[0011]
Furthermore, the quality of electronic documents, such as the possibility of distribution on a global scale, is partly impaired by printing. When distributing on a global scale, it may be necessary to translate between different languages, and in that case it would be convenient if an electronic dictionary could be used. Some products acquire and immediately display them on the monitor. However, it is usually impossible to immediately and automatically translate a printout document using an electronic dictionary. Patent Document 6 describes a technique that can provide a word-by-word translation by scanning a printout document in order to compensate for this drawback. Specifically, information equivalent to the information expressed by characters is converted into a barcode, printed in advance on the same paper corresponding to the character information, and scanned with a barcode reader. The information expressed in characters can be provided by voice. As a result, electronic information can be immediately used from a printout document such as paper, but the object is limited to books designed in consideration of arranging barcodes in advance. That is, it cannot cope with any document obtained through the Internet or the like.
[0012]
The present invention has been made in view of the above circumstances, and one of its purposes is related to electronic data described in a page description language such as document data in which an element arrangement position is defined, such as PDF. An object of the present invention is to provide a document processing apparatus that can obtain electronic data that can be printed while retaining the reference information, retaining the translatability by an electronic dictionary, and not feeling uncomfortable with the appearance of the printout. Another object of the present invention is to provide a document processing apparatus that can provide document data that can be output by a general printer or printing machine without using a special apparatus.
[0013]
[Means for Solving the Problems]
In one aspect of the present invention, the arrangement positions of the elements are defined. Page description language A document processing apparatus that embeds additional information in document data, wherein at least a portion of the document data that is to be embedded with additional information is rendered to generate rendered image data, and the rendering Means for embedding additional information in the image data, and means for synthesizing the image of the embedded portion of the rendering image data at a predetermined position of the original document data. Another aspect of the present invention is a document processing method for embedding additional information in document data in which an element arrangement position is defined, and at least a portion of the document data to be embedded with additional information And rendering the additional image information into the rendered image data, referring to the arrangement position of the element, and the embedded portion of the rendered image data. The original image Page description language Synthesizing at a predetermined position of the document data. In still another aspect of the present invention, the arrangement position of the elements is defined. Page description language A document processing program for embedding additional information in document data, the computer generating a rendering image data by rendering at least a portion of the document data to be embedded with additional information; Referring to the procedure for embedding additional information in the rendered image data and the arrangement position of the element, the image of the embedded portion of the rendered image data Page description language And a procedure of combining the document data at a predetermined position of the document data.
[0014]
In these, after further converting means for generating information defining the element arrangement position, the document data where the element arrangement position is not defined into document data where the element arrangement position is defined It is also preferable to embed additional information. The additional information is embedded in, for example, a corresponding image element portion on the rendering image data, and corresponds to the embedded portion of the original document data as an image and based on the relationship with the arrangement position of the image element. Synthesized into position. Further, the element is, for example, an image element in which related information is associated with reference information. The additional information in that case is, for example, information related to the reference information or related information. The element is, for example, a phrase (for example, a word or a common phrase including a phrase consisting of one word or a phrase consisting of a plurality of words) included in the document data. The additional information in this case is, for example, word specifying information for specifying the word or searching the dictionary by the word. It is not impeded that the phrase specifying information is simultaneously reference information.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described with reference to the drawings. First, as shown in FIG. 1, a document processing apparatus 1 according to an embodiment of the present invention includes a control unit 11, a storage unit 12, a hard disk 13, a network interface (I / F) 14, and a display unit. 15, an operation unit 16, and a printer unit 17, and is connected to a Web server S or the like via a network. Document data created by the document processing apparatus 1 is appropriately transferred to the Web server S. Further, a personal computer PC is connected to the network shown in FIG. A scanner and a printer are connected to the personal computer PC. In addition, software such as a browser for browsing a document provided by the Web server S and software for browsing a PDF document are installed in the personal computer PC. That is, the user of the personal computer PC receives the electronic document from the Web server S or the like via a network such as the Internet, and browses it with a browser or the like.
[0016]
The control unit 11 of the document processing apparatus 1 is a member that realizes each unit of the document processing apparatus according to the present invention in combination with a program installed in the hard disk 13. The control unit 11 operates in accordance with a program stored in the storage unit 12 that is the work memory, and renders at least a portion of the document data to be processed that is to be embedded with additional information, thereby rendering a rendered image. A process of generating data, a process of embedding additional information in the rendered image data, and a process of synthesizing an image of a portion of the rendered image data in which the additional information is embedded at a corresponding position in the original document data. Perform mainly. What can be embedded is reference information, word specifying information, and the like. Specific contents and objects of processing related to embedding will be described in detail later. The hard disk 13 is a computer-readable recording medium that holds a program executed by the control unit 11. Although not shown, if a computer-readable recording medium such as a drive for accessing a CD-ROM or DVD-ROM is used, various programs can be installed on the hard disk 13 from such a medium. Further, as will be described later, the functions according to the present invention can be realized generally by programs installed in the hard disk 13. However, this is only an example, and the programs for carrying out the present invention can be stored in another medium, or can be obtained at any time via a communication line.
[0017]
In addition, the network I / F 14 is a means for connecting the document processing apparatus 1 to the network, and transmits a request to the Web server S or the like via the network in accordance with an instruction given from the control unit 11. Data received from the Web server S or the like is supplied to the control unit 11. The display unit 15 is a display or the like, and displays a document (including an image or the like; the same applies hereinafter) based on the instruction data input from the control unit 11 and based on document data to be displayed. The operation unit 16 is a keyboard, a mouse, or the like, and supplies a signal indicating the content of the operation by the user, that is, the content of the instruction from the user, to the control unit 11. The printer unit 17 is a printer that prints a document on paper according to an instruction given from the control unit 11 in a form such as general electrophotographic processing or ink jet. In FIG. 1, the printer unit 17 is directly connected to the bus. However, in practice, they may be connected via a USB (Universal Serial Bus) or the like, or may be connected via a network. Since the Web server S is a general Web server and is widely known, detailed description thereof is omitted.
[0018]
The present invention can be implemented using the network configuration and apparatus configuration shown in FIG. 1 as its implementation environment. One preferred embodiment of the present invention is embedding related to reference information, and the other is embedding related to word specifying information. Here, an embedding procedure relating to reference information and a functional configuration of a program for the embedding procedure will be described first.
[0019]
When embedding the reference information, for example, one or a plurality of programs that provide a functional configuration as shown in FIG. 2 alone or jointly are installed in the hard disk 13 and executed by the control unit 11. . FIG. 2 shows various functions of the rendering unit 21, the reference information extraction unit 22, the embedding processing unit 23, and the embedded image composition unit 24. In the present embodiment, these functions are combined. Additional information is embedded in the input document data. The input document data is generally a document including a plurality of image elements (graphics, text, etc.), for example, an HTML document or a PDF document. In the following paragraphs, the description will be made assuming document data described in a page description language, for example, document data in PDF format, in order to make the description as easy to understand as possible. However, as long as the arrangement position of each image element in the document data is defined, and the document format in which the reference information can be set for any one of the image elements, the present invention can be implemented even in other formats. The reference information embedding method according to the form can be applied.
[0020]
Of the various functions in FIG. 2, the rendering unit 21 first renders document data and develops it into a bitmap to generate rendered image data. Specifically, the rendering unit 21 arranges each image element included in the document data at the specified arrangement position and develops it into a bitmap.
[0021]
The reference information extraction unit 22 extracts reference information included in the document data. When the reference information extraction unit 22 extracts the reference information, the reference information extraction unit 22 also acquires information indicating which region on the rendering image data each reference information is set to. The reference information and the reference information Is output as setting information by associating it with the information of the area where is set. Specifically, the information output by the reference information extraction unit 22 indicates in which region the image element is rendered by the rendering unit 21 for each reference information (P) included in the document data, as shown in FIG. Area information (R; for example, information represented by coordinates) is associated. Here, the area information is, for example, information on coordinates of the upper left vertex and the lower right vertex of a rectangle that includes the area where the image element is rendered. In the following description, for the sake of simplicity, it is assumed that the area information defines the rectangular area, but the area information does not necessarily have to be a rectangle.
[0022]
The embedding processing unit 23 receives an input of a rendering image and setting information, refers to information on an area associated with the reference information for each reference information included in the setting information, and the area on the rendering image Reference information is embedded in the part, and an image after the embedding process is generated. Here, examples of the embedding process include a method disclosed in Patent Document 5. Specifically, since the size of the image portion in which the reference information is embedded by these embedding methods does not necessarily match the size defined by the region information, for example, as shown in FIG. 4, a rectangle defined by the region information Reference information is embedded in rectangular areas X1 and X2 in which the areas L1 and L2 coincide with the upper left vertex. In addition, the embedding processing unit 23 extracts a region including the image portion on which the embedding processing has been performed, and outputs the extracted region together with setting information input in association with the reference information. The size of the region extracted here may be the same size as the size of the image portion after the embedding process.
[0023]
The embedded image composition unit 24 is an area in which each embedded image portion corresponding to each reference information (hereinafter referred to as “embedded image”) input from the embedding processing unit 23 and an embedded image is placed. In response to the input of the area information representing the original and the original document data to be embedded, each embedded image is synthesized at a position corresponding to each area information on the original document data. Specifically, in document data in which the arrangement positions of image elements such as PDF are defined, an area corresponding to a rectangular area defined for embedding processing is clearly defined on the rendered image. What is necessary is just to synthesize an embedded image so as to overwrite a position corresponding to the rectangular area. When the image obtained in this way is printed, the synthesized portion is rendered once with the portion Y that is smoothly drawn and printed in accordance with the description of the PDF, as shown in FIG. 5, and information embedding processing is performed. Since the boundary with the bitmap expression portion X is visually integrated as one, it can be printed without a sense of incongruity from the user's perspective.
[0024]
In one aspect of the present invention, the program shown in FIG. 2 is implemented as plug-in software (an additional program for function expansion) for Acrobat (registered trademark) or the like. In other words, the control unit 11 receives an input from the operation unit 16 on the software for creating / browsing a PDF, and receives an instruction to perform processing by the program on the PDF currently being created or viewed, and performs the above processing. Execute for each page of document data.
[0025]
In the case of carrying out the present invention according to this aspect, for example, the control unit 11 receives an instruction to perform the program processing shown in FIG. 2 on the document data to be processed, and performs the processing shown in FIG. The process starts and the processing target page counter is set to “1” (S1). Then, it is determined whether or not there is a page corresponding to the value of the processing target page counter (whether or not processing for all pages has been completed) (S2), and if there is no such page (processing for all pages is terminated). If so, the process ends. On the other hand, if there is a corresponding page in the process S2, the page is rendered, a rendering image of the page is generated (S3), and stored in the storage unit 12. The control unit 11 further extracts reference information from the document data to be processed, and for each reference information, an area in which the reference information is set corresponds to which coordinate area on the rendered image in the rendering process of step S3. Is generated as setting information in association with the area information indicating whether the image is drawn (S4), and this setting information is stored in the storage unit 12. Then, the control unit 11 refers to the setting information stored in the storage unit 12, extracts the area information associated with the reference information for each reference information, and extracts the extracted area from the rendering image generated in the process S3. The reference information is embedded in the portion corresponding to the information, and the rendered image in the storage unit 12 is overwritten (S5). Then, the image portion in which the reference information is embedded in the rendered image is extracted (S6), and the image portion is combined with the corresponding position of the document data to be processed (S7). The control unit 11 determines whether or not reference information to be further processed is included in the setting information (S8). If it is included (if there is unprocessed reference information), the control unit 11 returns to step S5 and returns to the unprocessed information. Process reference information is processed (A). If there is no unprocessed reference information in process S8, the process target page counter is incremented (S9), and the process returns to process S2 to continue the process.
[0026]
In this case, the embedding process is performed after the rendering image is generated for the entire document data. However, the setting information is generated before the rendering image is generated, and the embedded image is formed based on the setting information. Only a portion to be rendered is generated, a partial rendering image is generated, an embedding process is performed on the partial rendering image to generate an embedded image, and the embedded image is synthesized with the original document data. May be.
[0027]
According to the present embodiment, for example, a rendering image obtained by converting document data in which an arrangement position of each image element is defined, such as a PDF, into image data that can be embedded, such as a bitmap, is obtained. For the set image element, an embedded image is generated by embedding the set reference information in an area on the rendered image corresponding to the portion for which the reference information is set. This embedded image is included in the description of the PDF. At this time, when the PDF obtained by synthesizing the embedded image is rendered, each embedded image is combined so that it is rendered at the same position as the position occupied on the rendered image during the embedding process. As a result, when the document data is browsed / printed, the boundary between the embedded image and the original image becomes a natural state. In the case of PDF, for example, when the font used internally is not installed on the viewing computer, the arrangement position of the text image element may be slightly shifted. In this case, some unnaturalness remains at the boundary between the embedded image and the original image. Therefore, in the case of PDF, font data used by performing font embedding processing at the time of creation is included in the PDF document data, and the rendering result does not change even if the font is not installed in the viewing computer. It is preferable to do so. Furthermore, when the arrangement position of the image element is not defined as in an HTML document, the above processing is performed after converting the document element to the document data in which the arrangement position of each image element is defined, such as conversion to a PDF document. You can do that.
[0028]
Next, an aspect of using document data after embedding processing generated according to the present embodiment will be described. This document data can be transmitted as electronic data via a network, received using a personal computer PC or the like connected to the network, and displayed on the display. In this state, since electronic reference information is included, if the user performs an operation for acquiring related information related to the reference information, the related information is acquired and displayed. When the user prints the document data with a printer that is generally used such as an electrophotographic system or an inkjet system, the document is printed in a state including an embedded image. The user selectively reads a desired embedded image optically by a scanner or the like from the embedded images included in the print result. Then, the personal computer PC extracts the reference information embedded in the embedded image and uses the reference information for a predetermined process (for example, a process of acquiring related information using a URL as reference information). .
[0029]
As another aspect of the present embodiment, there is an aspect using an identifier. That is, in the aspect described above, the reference information itself is embedded in the document data as additional information. However, if the reference information itself is long, the size of the embedded image becomes large, for example, a large number of references at close positions. Difficulties arise when information must be embedded. In order to avoid this, a unique identifier is issued for each reference information, a database that associates each reference information with the identifier is held, and the identifier is embedded in the document data as additional information. In this aspect, the side using the additional information reads the identifier designated by the user and inquires the database for reference information corresponding to the identifier.
[0030]
Specifically, the information embedding program according to this aspect is replaced with the rendering unit 21, the reference information extracting unit 22, and the embedding processing unit 23 as shown in FIG. 7 instead of the program shown in FIG. Various functions including the embedded image synthesis unit 24, the identifier issuing unit 25, and the identifier registration unit 26 are provided. 7 that have the same reference numerals as the functional parts shown in FIG. 2 provide similar functions by the same operations as those shown in FIG. . Among the functional members shown in FIG. 7, the identifier issuing unit 25 issues a unique identifier for each reference information extracted by the reference information extracting unit 22, and registers the reference information and the issued identifier in association with each other. Output as information. For this identifier, for example, a numerical value of about 4 bytes may be issued as a serial number. The identifier registration unit 26 receives input of registration information from the identifier issuing unit 25, stores the registration information in the hard disk 13, and generates a database. Further, the embedding processing unit 23 receives the registration information and embeds an identifier associated with the reference information instead of embedding the reference information in the rendered image.
[0031]
In addition, when the control unit 11 in this case receives an identifier and a request for reference information related to the identifier at the network I / F 14 via the network, the registration information stored in the hard disk 13 in response to the request. And the reference information related to the specified identifier is transmitted to the request source. According to this aspect, by setting the identifier to a fixed length, the size of the embedded image can be made constant, and for example, processing such as extracting an embedded portion in advance (rendering only that portion, etc.) becomes easy. .
[0032]
Furthermore, in this case, the personal computer PC that uses the document data after the embedding process operates as follows. That is, when the user prints the document data with a printer that is generally used such as an electrophotographic system or an inkjet system, the document is printed in a state including an embedded image. The user selectively causes the scanner to read a desired embedded image among the embedded images included in the print result. Then, the personal computer PC extracts an identifier embedded in the embedded image and requests the document processing apparatus 1 for reference information corresponding to the identifier. Then, in response to this request, the control unit 11 of the document processing apparatus returns reference information corresponding to the identifier related to the response to the personal computer PC, and the personal computer PC converts the reference information into a predetermined process (for example, reference information). And the like to obtain related information using the URL.
[0033]
Here, the identifier and the reference information are stored in association with each other as a database in the hard disk 13 on the document processing apparatus 1 side. However, the database file in which the identifier and the reference information are associated is distributed together with the document data after the embedding process. The database file may be referred to on the personal computer PC side, or the database may be stored in a server (not shown), and the personal computer PC side may request reference information corresponding to the identifier from the server side. It may be.
[0034]
By the way, in either case of the processing shown in FIG. 2 or the processing shown in FIG. 7, the embedded image occupies a certain size, so that it exceeds the area where the reference information is associated with the original document data. For example, as shown in FIG. 8, two embedded images may overlap each other. In this case, it is also preferable to control not to synthesize any one of the embedded images. The selection of which embedded image should not be combined may be such that the embedded image generated later is not combined according to the processing order. Further, in this case, it is also preferable to synthesize one of the embedded images in another place. For example, the document data may be combined with the margin portion when it is printed, or the position to be combined is moved in the vicinity of the position to be originally combined, such as within the area defined by the area information indicated in the setting information. If there is a position that can be combined so as not to overlap other embedded images, the position may be combined at that position. In addition, when these processes (not synthesized, or synthesized in another place or in the vicinity of the position that should be originally synthesized), when the embedded image is synthesized as shown in FIG. 9, it protrudes from the end of the document. It can also be applied to.
[0035]
In the description so far, the embedded image is described as being synthesized as an image as it is, but may be synthesized by being converted into other drawing elements such as characters and figures. When the original document data is composed of a plurality of layers (document elements), it is also preferable to place the embedded image in a layer different from the layer in which the image elements on the original document data are described. .
[0036]
The present invention can be further implemented as an embodiment related to embedding word specifying information. Therefore, taking the implementation environment shown in FIG. 1 as an example, an embodiment related to embedding of word identification information and use of an electronic dictionary is mainly performed according to the functional configuration shown in FIG. 10 and the flow shown in FIG. In addition, an English PDF document will be described as an example. 10 shows the functional configuration of one or more programs installed in the hard disk 13 and executed by the control unit 11, and FIG. 11 shows the procedure when the present embodiment is realized as a plug-in or the like. is there. Similar to the embodiment described above, this embodiment is realized by an environment, a program configuration, and a flow different from those shown in FIGS. 1, 10, and 11 as long as the essential part is not changed. it can.
[0037]
First, in FIG. 10, the original document data to be processed is document data described in a page description language, for example, a PDF document. For each page, rendering of characters, figures, images, and the like that form the appearance is performed. It is composed of data (image elements). The rendering unit 21A generates a page image that expresses its appearance from the document data composed of the image elements in this way by rendering processing. The English word information extraction unit 22A extracts English words and their positions from the character elements included in the original document data, and determines / specifies English words to be processed thereafter. The information embedding image generation processing unit 23A, the English word identified by the English word information extraction unit 22A, that is, the embedding target, and the page image (rendered image) generated by the rendering unit 21A, particularly the image at the position of the English word Based on the above, an information embedding image and ID-English word correspondence information are generated. The image pasting processing unit 24A executes a process of overwriting the information embedded image generated by the information embedded image generation processing unit 23A on the original English word position in the original document data, in other words, a synthesis process. Thus, document data in which information for specifying English words, that is, information that can be used for electronic English word dictionary lookup is embedded, is generated. By printing this document data (more precisely, re-rendering when printing), the electronic English dictionary lookup information is merged with the embedding location and its surroundings as a visually integrated one. A retained paper document can be obtained. That is, it is possible to obtain a printed matter in which the word identification information is embedded without any sense of incongruity from the viewpoint of the user. If the user wants to know the meaning or the like of a certain word on the printed document, the user can read the image of the part in which the word specifying information related to the word is embedded with a handy scanner or the like. If the read word specifying information is decoded and transmitted to the electronic dictionary, information such as the meaning of the word can be obtained immediately. In addition, the information registration processing unit 26A can refer to the ID-English word correspondence information generated by the information embedded image generation processing unit 23A when actually performing electronic English word dictionary lookup from a paper document. In addition, it is registered in a database or the like (not shown). This database can be provided on the network or in the document processing apparatus 1.
[0038]
Next, the flow of processing will be described with reference to FIG. First, in the procedure shown in this figure, processing is performed for each page in the original document data. That is, the first page in the original document data is initially set as the processing target page (S10), and the next page is set as the processing target page every time processing for one page is completed (S20). ) And the processing of S12 to S19 is repeatedly executed until the processing is completed for all pages (S11).
[0039]
Of the processes repeated for each page, S12 is a process executed by the rendering unit 21A. Here, regarding the processing target page, a page image is generated by performing drawing processing on the storage unit 12 (memory) for image elements such as characters, graphics, and images belonging to the page. Subsequent S13 is processing by the English word information extraction unit 22A, which extracts English words from the original document data, determines and specifies English words to be processed later based on preset conditions, Holds attributes for each identified English word for later use. As an English word extraction technique, for example, the technique shown in FIG. 12 can be used. In FIG. 12, it is assumed that an English word “text book” is included in the original document data, and English words are extracted by determining minimum rectangles and determining whether or not they can be connected.
[0040]
Here, character information such as English words is usually expressed by character drawing elements in the original document data. Depending on the format and expression method of the original document data, the character drawing element may be a single unit such as a character block or character string, or a single character may be represented as an element. Here, for convenience of explanation, it is assumed that one character is represented as one element. In the method shown in FIG. 12, first, a minimum rectangle C1 surrounding each character element is obtained (a). Next, an attention character and a candidate character connected to it are found. In the illustrated example, the first “t” is the target character, and the next character along the English writing direction, that is, “e” on the right side of “t” is the candidate character. The English word information extraction unit 22A examines the distance between the minimum rectangles enclosing the target character and the candidate character, and determines that “the connection is to be performed” only when the distance is less than the predetermined distance. The predetermined distance as a reference for this determination is set smaller than the distance between words. For example, if the distance between rectangles is larger than the width of the next character as a candidate for connection, it is determined that the rectangles should not be connected, that is, the same English word is not formed. A reference, that is, the predetermined distance is set. In the example of “t” and “e” shown in the figure, since the interval between the minimum rectangles is small, it is determined that they are characters that form the same English word, that is, “must be connected”, and the minimum rectangles are connected. A rectangle C2 surrounding two characters is formed (b). If the selective connection process based on such a judgment criterion is repeated, the process reaches the stage where a rectangle C surrounding the entire “text” is formed (c). At this stage, “b”, which is a candidate character, is not connected because it is far away from “text”, which is the target character string. That is, it is determined that the word is a break between words, and an English word “text” is detected. Thereafter, when the selective linking process is repeated, “text” and “book” are surrounded by separate rectangles (d). That is, “text” and “book” are detected as separate English words. In S13, for example, by executing such processing on the processing target page, the position and size of English words included in the page are specified and extracted.
[0041]
The English word to be embedded in the information embedding image generation processing unit 23A is selectively determined in S13 by the English word information extracting unit 22A from the English words thus obtained. In other words, the extracted English words usually include English words that would overlap with other information embedded images, and English words that would protrude from the page if information was embedded. Yes. This type of English word, that is, an English word that cannot physically embed information, is excluded from the processing target at this stage. Next, among English words, there are English words that should be or should be embedded, that is, English words that should be or can be the target of dictionary lookup, and English words that are not. Therefore, the latter is excluded from the embedding target. In fact, because there are individual variations in the ability and orientation of the person who performs dictionary lookup, the logical distinction between the two cannot be strictly applied. To perform distinction / exclusion processing. For example,
(1) Create a list of simple English words that most users know the meaning of, and exclude the English words included in the list from the target of embedding
(2) Create a list of difficult English words that most users will not know the meaning of, and include the English words included in the list in the embedding target
(3) English words with more than a predetermined number (for example, 5 characters) are included in the processing target
(4) For English words appearing multiple times on the same page, only one of them is the place to be embedded.
Narrow down the target English words according to the criteria such as As a more preferable method, there is a method of combining a plurality of criteria (for example, the conditions (1) and (2) and (3) are used). Further, narrowing down by these methods (1) to (4) is also effective when the English-Japanese dictionary used by the user is not known in advance. If the English-Japanese dictionary to be used is known in advance, the method of excluding English words not included in the English-Japanese dictionary from the embedding target can be used alone or in combination with each of the above methods.
[0042]
The information embedding image generation processing unit 23A further assigns a unique ID to each English word selected as an embedding target (S14). Thereby, each English word can be uniquely identified. Further, it is this ID that is actually embedded in the document data, and the actual English word information can be referred to by the ID-English word correspondence information. The information embedding image generation processing unit 23A and the image pasting processing unit 24A sequentially process each English word to which an ID is assigned (S15, S18) and all the embedding target English words in the processing target page (S16). The creation of the embedded English word image and the embedding of the embedded image in the original document data and the creation of ID-English word correspondence information are executed (S17). That is, the information embedding image generation processing unit 23A first acquires the attributes (position, size, English word information) of the embedding target English word from the English word information extracting unit 22A. The “position” here is, for example, the upper left coordinate value of an English word. The “size” is not the size of English words in the original document but the width and height of the information embedding image necessary for embedding information. Based on these “position” and “size”, the information embedding image generation processing unit 23A cuts out the image of the embedding target portion from the page image obtained from the rendering unit 21A. The information-embedded image generation processing unit 23A creates an information-embedded English word image based on the cut-out image and the information to be embedded, that is, the ID corresponding to the embedded English word. The image pasting processing unit 24A pastes the information-embedded English word image at the position of the original English word in the original document data by overwriting. There are various modes shown in FIGS. 13 (a) to 13 (c) for the location to be pasted. For example, in the mode (a), the information embedded English word information is pasted on the rectangular area X having the origin at the upper left of the rectangle L surrounding the English word. It is possible to paste the information-embedded English word image as it is to a drawing element (image element) such as a character, figure, or image as a component of the original document data, but other forms are possible. It is also possible to convert and paste the drawing element into a drawing element such as a character or graphic. It is also possible to paste as an additional element that is often expressed in a layer different from the drawing element of the original electronic document, so-called annotation.
[0043]
On the other hand, in the information embedding image generation processing unit 23A, as described above, an ID is assigned to the embedding target English word. The information embedding image generation processing unit 23A associates word specifying information for specifying an embedding target English word, for example, an English word character string itself, and an ID corresponding to the English word with each other. Information is supplied to the information registration processing unit 26A as information. The information registration processing unit 26A registers the ID-English word correspondence information in a database or the like so that it can be referred to later (S19). The English word information registered in such a form can be used later when performing English word dictionary lookup. For example, when an English word character string itself is registered as English word information, an ID is detected from the embedded document using a handy scanner or the like, and the ID-English word in the database or the like using the ID as a key. By referring to the correspondence information automatically, an English word character string as word specifying information is acquired, and further, the electronic dictionary is automatically referred to using the acquired English word character string as a key to check the meaning, etc. It can be performed.
[0044]
Further, if the command line character string for executing the English word dictionary lookup program is included in the ID-English word correspondence information as word specifying information, for example, the database is referred to by the ID acquired from the embedded document. Thus, the command line character string is acquired, and the acquired character string is simply passed as an argument to the shell program of the personal computer PC, so that English word dictionary lookup can be performed more easily and automatically. Similarly, a URL character string can be included in the ID-English word correspondence information as word specifying information and registered. If the resource specified by this URL character string (more broadly, reference information) is a resource having an English word dictionary lookup function, the URL character string acquired from the database using the ID acquired by the handy scanner or the like is an argument. Thus, English word dictionary lookup can be performed simply by activating the Web browser. An example of registering a URL character string in this way can be said to be an application of the function shown in FIG.
[0045]
It is also possible to implement a form in which a medium such as a CD-ROM storing ID-English word correspondence information is prepared in advance. In that case, the information embedding image generation processing unit 23A retrieves / acquires an ID corresponding to the extracted English word from this medium, and provides it to the process related to embedding. That is, the present invention can be implemented not only in the form of generating the ID but also in the form of acquiring the ID from the medium. In this case, the information registration processing unit 26A among the functional members shown in FIG. 10 is not required (medium access means is required).
[0046]
Thus, according to the preferred embodiment of the present invention, focusing on the page description language in which the appearance of the rendered document is clearly defined in advance, the document data described in the page description language is processed, In addition, since rendering for each page, identification of an embedding target and area, and embedding (and registration of various information) are executed based on appearance information described in a page description language, reference information or word identification information is embedded. Thus, document data described in a page description language is obtained. This document data can be output by a general printer or printing press, and when re-rendered at the time of printing, the boundary between the image in which the information is embedded and the surrounding image are visually merged as one. A printed material in which the reference information or the word specifying information is embedded is obtained without a sense of incongruity from the viewpoint of the user. Also, by reading reference information or word identification information with a handy scanner, etc., and linking with a web browser, acrobat reader, electronic dictionary, etc., you can immediately access resources on the network and search the electronic dictionary from paper documents. Can do.
[0047]
In the embodiment described with reference to FIGS. 10 to 13, information embedding for English words has been described. However, as will be apparent to those skilled in the art, phrases such as idiomatic phrases and idioms can also be used. It is possible to embed information by a similar mechanism. In this case, for example, idioms and idioms are extracted by analyzing the original document data using a morphological analysis or syntactic analysis tool used in an automatic translation system or the like (and a semantic analysis tool can also be used). Can do. The ID embedded in the phrase is associated with the description of the phrase in the dictionary. When information such as an ID is embedded in a phrase, information is embedded in a word selected according to a predetermined rule such as the first word in the phrase.
[0048]
In addition, the apparatus according to the embodiment described with reference to FIGS. 10 to 13 can display a “list of simple English words that most users know”, a “list of difficult English words that most users do not know”, and the like. And has a function of selecting words to be embedded. When using this function, it is convenient if the list used to select words and phrases can be used properly as necessary. For example, in an educational setting, it is convenient to be able to change the level of words to be embedded according to the grade and proficiency of students. In such a case, for example, it is possible to create a plurality of lists such as a list of phrases learned in junior high school, a list of phrases learned in first graders, and use different lists according to the purpose. In the following, an example of a document processing apparatus that can properly use such a list will be described with reference to FIGS.
[0049]
FIG. 14 is a functional block diagram of this modification. In FIG. 14, functional members having the same functions as the functional members of the apparatus shown in FIG.
[0050]
The apparatus configuration in FIG. 14 includes a phrase list management unit 27 and an embedding target word extraction processing unit 28 as functional members not included in the configuration in FIG. The phrase list management unit 27 is a functional member that performs processing such as registration and maintenance of a phrase list used when selecting words to be embedded. In addition, the phrase list management unit 27 has a function of setting what is used for phrase selection from the registered phrase list group. The embedding target word / phrase extraction processing unit 28 uses the word / phrase list set by the word / phrase list management unit 27 to select a word or phrase to be information-embedded from the given document data. That is, in the embodiment of FIG. 10, the word that is the target of information embedding is extracted by the English word information extracting unit 22A, but in the configuration of FIG. 14, the English word information extracting unit 22B is simply Each word and its position are obtained from the document data, and the embedding target word / phrase extraction processing unit 28 extracts the information embedding target word and phrase from the information of the word group.
[0051]
FIG. 15 is a functional block diagram illustrating an example of a detailed configuration of the phrase list management unit 27. In this example, the phrase list management unit 27 includes a list registration folder 272, a list registration unit 274, a list maintenance unit 276, and a list selection unit 278.
[0052]
The list registration folder 272 is a storage unit that stores a word list 273 group registered in the apparatus.
[0053]
The list registration unit 274 is a functional member that performs processing for registering the word / phrase list 273 in the list registration folder 272. The list registration unit 274 displays, for example, names of word list groups stored in an external recording medium (for example, a compact disc standard or DVD standard recording medium) mounted on the external input / output device on the display screen, Are registered in the list registration folder 272. In addition to the external storage medium, for example, a configuration is also possible in which a server provided on the Internet or other network is accessed from the apparatus, and a phrase list possessed by the server is downloaded to the apparatus and registered in the list registration folder 272. It is.
[0054]
The list maintenance unit 276 is a functional member for maintenance processing of the word list registered in the list registration folder 272. The maintenance of the phrase list includes, for example, deletion or name change of the phrase list, addition, deletion or change of the phrase unit to the phrase list. FIG. 16 is a diagram illustrating an example of a user interface screen provided by the list maintenance unit 276. In this example, the name of the word list registered in the list registration folder 272 is displayed in the list list window 310. Even if there are many registered word lists, the names of all the word lists can be displayed by shifting the display range using the scroll bar. The user selects a desired word / phrase list on the list list window 310 and instructs to operate the selected word / phrase list by clicking a button 312 or 314. Here, the button 312 is a button for changing the selected word list. When this button 312 is clicked, a user interface screen for instructing the details of the detailed change is displayed. On this screen, the user can change the name of the word list or add, delete, or change words to the word list. Can be operated. The button 314 is a button for instructing to delete the selected word list from the list registration folder. The user can customize the phrase list group registered in the list registration folder 272 using the list maintenance unit 276.
[0055]
The list selection unit 278 is a functional member for setting what is used in the processing of the embedding target word / phrase extraction processing unit 28 from the word / phrase list group registered in the list registration folder 272 and its usage method. The list selection unit 278 presents a list of word list groups registered in the list registration folder 272, allows the user to select a desired one, and specifies how to use the selected word list. Examples of the method of using the selected word list include a method of extracting words / phrases included in the word / phrase list from document data and a method of extracting words / phrases not included in the word / phrase list from document data. The latter can be used, for example, to omit easy-level words from an extraction target, that is, an information embedding target.
[0056]
In the above, the identification condition of the word to be extracted, that is, the information embedding target, is specified by one selected word list, but a set operation (for example, union or intersection) of a plurality of selected word lists Etc.) is also possible.
[0057]
The list selection unit 278 uses the phrase list (one or more) designated by the user and the method of using the list as an identification condition for the words to be embedded, and the embedding target phrase extraction processing unit 28. Set to. The embedding target word / phrase extraction processing unit 28 extracts words and phrases satisfying the set identification condition from the English word information output from the English word information extracting unit 22B, and the extraction result is an information embedded image. The data is supplied to the generation processing unit 23A and the image pasting processing unit 24A. As a result, document data in which information is embedded in a phrase that satisfies the identification condition specified by the user is created.
[Brief description of the drawings]
FIG. 1 is a configuration block diagram showing a configuration of a document processing apparatus according to an embodiment of the present invention and a connection state to the network.
FIG. 2 is a functional block diagram showing an example of a program executed by the document processing apparatus according to the embodiment of the present invention.
FIG. 3 is an explanatory diagram illustrating an example of setting information.
FIG. 4 is an explanatory diagram showing an example of an embedding position.
FIG. 5 is an explanatory diagram showing a relationship between an embedded image and an image of original document data.
FIG. 6 is a flowchart showing an example of the operation of the document processing apparatus according to the embodiment of the present invention.
FIG. 7 is a functional block diagram showing another example of a program executed by the document processing apparatus according to the embodiment of the present invention.
FIG. 8 is an explanatory diagram illustrating a case where two embedded images overlap each other when the embedded images are combined.
FIG. 9 is an explanatory diagram illustrating a case in which an embedded image protrudes from the end of a document when it is combined.
FIG. 10 is a functional block diagram showing still another example of a program executed by the document processing apparatus according to the embodiment of the present invention.
FIG. 11 is a flowchart showing an example of an operation related to the function shown in FIG.
FIG. 12 is an explanatory diagram showing an example of an English word extraction method.
FIG. 13 is an explanatory diagram showing various aspects of image pasting processing.
FIG. 14 is a functional block diagram showing still another example of a program executed by the document processing apparatus according to the embodiment of the present invention.
15 is a functional block diagram illustrating an example of a functional configuration of a phrase list management unit in FIG. 14;
FIG. 16 is a diagram showing an example of a user interface screen for maintaining a phrase list.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Document processing apparatus, 11 Control part, 12 Storage part, 13 Hard disk, 14 Network I / F, 15 Display part, 16 Operation part, 17 Printer part, 21,21A Rendering part, 22 Reference information extraction part, 22A English word information Extraction unit, 23 embedding processing unit, 23A information embedding image generation processing unit, 24 embedding image composition unit, 24A image pasting processing unit, 25 identifier issuing unit, 26 identifier registration unit, 26A information registration processing unit.

Claims (6)

要素の配置位置が規定されたページ記述言語の文書データに対して、付加情報を埋込む文書処理装置であって、
前記文書データのうち、少なくとも付加情報を埋込む対象となる部分をレンダリングして、レンダリング画像データを生成する手段と、
前記レンダリング画像データに、付加情報を埋込む手段と、
前記レンダリング画像データの前記埋込された部分の画像を、元の前記ページ記述言語の文書データの所定位置に合成する手段と、
を含むことを特徴とする文書処理装置。
A document processing device that embeds additional information for document data in a page description language in which the element arrangement position is defined,
Means for rendering rendered image data by rendering at least a portion of the document data to be embedded with additional information;
Means for embedding additional information in the rendered image data;
Means for synthesizing the image of the embedded portion of the rendered image data at a predetermined position of the original document data in the page description language ;
A document processing apparatus comprising:
請求項1に記載の文書処理装置において、
前記要素の配置位置を規定する情報を生成する手段をさらに含み、
要素の配置位置が規定されていない文書データを、要素の配置位置の規定された文書データに変換してから、付加情報の埋込を行うことを特徴とする文書処理装置。
The document processing apparatus according to claim 1,
Means for generating information defining the arrangement position of the element;
A document processing apparatus, wherein document data in which an element arrangement position is not specified is converted into document data in which an element arrangement position is specified, and then additional information is embedded.
請求項1又は2に記載の文書処理装置において、
前記要素が、参照情報により関連情報が関連づけられた画像要素であり、
前記付加情報が、前記参照情報又は関連情報に関係する情報であることを特徴とする文書処理装置。
The document processing apparatus according to claim 1 or 2,
The element is an image element in which related information is related by reference information;
The document processing apparatus, wherein the additional information is information related to the reference information or related information.
請求項1乃至3のいずれか一項に記載の文書処理装置において、
前記要素が、文書データに含まれる語句であり、
前記付加情報が、前記語句を特定するため又は当該語句により辞書を検索するための語句特定情報であることを特徴とする文書処理装置。
The document processing apparatus according to any one of claims 1 to 3,
The element is a phrase included in the document data;
The document processing apparatus, wherein the additional information is word specifying information for specifying the word or searching a dictionary by the word.
請求項4に記載の文書処理装置において、
前記文書データから抽出すべき語句の識別条件を記憶する記憶手段と、
前記文書データから、前記識別条件を満足する語句を抽出する抽出手段と、
を含み、前記レンダリング画像を生成する手段は、前記文書データのうち前記抽出手段により抽出された語句の所定の部分を、前記付加情報を埋め込む対象となる部分、とすることを特徴とする文書処理装置。
The document processing apparatus according to claim 4,
Storage means for storing identification conditions of words to be extracted from the document data;
Extraction means for extracting a phrase satisfying the identification condition from the document data;
And the means for generating the rendered image uses a predetermined part of the phrase extracted by the extraction means in the document data as a part to be embedded with the additional information. apparatus.
要素の配置位置が規定されたページ記述言語の文書データに対して、付加情報を埋込む文書処理プログラムであって、A document processing program that embeds additional information for document data in a page description language in which the arrangement positions of elements are defined,
コンピュータに、  On the computer,
前記文書データのうち、少なくとも付加情報を埋込む対象となる部分をレンダリングして、レンダリング画像データを生成する手順と、  Rendering at least a portion of the document data to be embedded with additional information to generate rendered image data;
前記レンダリング画像データに、付加情報を埋込む手順と、  A procedure for embedding additional information in the rendered image data;
前記要素の配置位置を参照して、前記レンダリング画像データの前記埋込された部分の画像を、元の前記ページ記述言語の文書データの所定位置に合成する手順と、  A step of referring to the arrangement position of the element and synthesizing the image of the embedded portion of the rendering image data into a predetermined position of the original document data of the page description language;
を実行させることを特徴とする文書処理プログラム。  A document processing program characterized in that
JP2003151922A 2002-06-20 2003-05-29 Document processing device Expired - Fee Related JP4148029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003151922A JP4148029B2 (en) 2002-06-20 2003-05-29 Document processing device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002180518 2002-06-20
JP2002366028 2002-12-18
JP2003151922A JP4148029B2 (en) 2002-06-20 2003-05-29 Document processing device

Publications (2)

Publication Number Publication Date
JP2004248245A JP2004248245A (en) 2004-09-02
JP4148029B2 true JP4148029B2 (en) 2008-09-10

Family

ID=33033013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003151922A Expired - Fee Related JP4148029B2 (en) 2002-06-20 2003-05-29 Document processing device

Country Status (1)

Country Link
JP (1) JP4148029B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4692265B2 (en) * 2005-12-20 2011-06-01 富士ゼロックス株式会社 Printing instruction apparatus, printing apparatus, printing system, and program
JP4738180B2 (en) * 2006-01-17 2011-08-03 株式会社リコー Image processing apparatus and electronic file generation method
JP5482223B2 (en) * 2010-01-22 2014-05-07 株式会社リコー Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP2004248245A (en) 2004-09-02

Similar Documents

Publication Publication Date Title
US7363580B2 (en) Intermediate address table for converting position information to an address of a link structure correlated information file on a hypertext document
US20030229857A1 (en) Apparatus, method, and computer program product for document manipulation which embeds information in document data
US6035308A (en) System and method of managing document data with linking data recorded on paper media
US5781914A (en) Converting documents, with links to other electronic information, between hardcopy and electronic formats
JP4290011B2 (en) Viewer device, control method therefor, and program
US8179556B2 (en) Masking of text in document reproduction
US7428701B1 (en) Method, system and computer program for redaction of material from documents
JP2004050722A (en) Printer
WO2004084091A2 (en) Markup language cut-and-paste
JPH0991301A (en) System and method for document information management
JP2007148486A (en) Method for supporting document browsing, system for the same, document processor, and program
JP4148029B2 (en) Document processing device
JP3265198B2 (en) Structured document creation device, structured document creation method, communication device, and communication method
JP2006309443A (en) Information processing system, information processor, information processing terminal, information processing method, program for executing the method in computer, and storage medium
JP2007325196A (en) Device and method for managing document
JP3122417B2 (en) Information display method and information processing device
Ockerbloom Archiving and preserving PDF files
JP2001092615A (en) Method and system for printing html document and recording medium
JP3448452B2 (en) Document information management system
JP2000137640A (en) Automatic hypertext generating device and computer readable recording medium recorded with automatic hypertext generating program
JP4086709B2 (en) Image processing apparatus, program, and storage medium
JP3480890B2 (en) Document information management system
JPH10283364A (en) Document information management system for supporting translation and the same system for managing patent information and the same system for supporting education
JP2006276906A (en) Image forming device
Whitley Instruction on the Web: Authoring Tutorials in HTML.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees