JP2005208872A - 画像処理システム - Google Patents
画像処理システム Download PDFInfo
- Publication number
- JP2005208872A JP2005208872A JP2004013833A JP2004013833A JP2005208872A JP 2005208872 A JP2005208872 A JP 2005208872A JP 2004013833 A JP2004013833 A JP 2004013833A JP 2004013833 A JP2004013833 A JP 2004013833A JP 2005208872 A JP2005208872 A JP 2005208872A
- Authority
- JP
- Japan
- Prior art keywords
- character
- image
- document
- vectorization
- font
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Character Discrimination (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】 MFPなどで読み取った画像データから、オリジナルの電子データを検索するシステムにおいて、電子データが存在しなかった場合に、再利用可能なデータ形式にスキャン画像を変換する。
【解決手段】 読み込んだ画像内の文字のビットマップ画像からフォントデータを作成するときに、あらかじめユーザの所有フォントからマッチング辞書と埋め込み用データを作成しておく。文字認識の結果を使いフォント認識を行い、マッチした場合は作成済みのフォントデータを埋め込むことで、フォントデータへの変換処理を減らし処理の効率を良くする。
【選択図】 図33
【解決手段】 読み込んだ画像内の文字のビットマップ画像からフォントデータを作成するときに、あらかじめユーザの所有フォントからマッチング辞書と埋め込み用データを作成しておく。文字認識の結果を使いフォント認識を行い、マッチした場合は作成済みのフォントデータを埋め込むことで、フォントデータへの変換処理を減らし処理の効率を良くする。
【選択図】 図33
Description
本願発明は、複写機などの画像処理装置で読み取った画像データを、Word等の文書作成アプリケーションソフトで再利用可能なベクトルデータに変換する画像処理システムに関する。
近年、環境問題が叫ばれる中、オフィスでのペーパーレス化が急速に進んでいる。即ち、従来からバインダー等で蓄積された紙文書をスキャナーで読み取りポータブルドキュメントフォーマット(以降PDFと記す)に変換して画像記憶装置にデータベースとして蓄積し、文書管理システムを構築出来る。一方機能が拡張されたMFPでは、予め画像を記録する際に、該画像ファイルが存在する画像記憶装置内のポインタ情報を該文書の表紙或いは記載情報中に付加情報として記録して置き、再度該文書を複写等再利用する際に、このポインタ情報からオリジナル電子ファイルの格納場所を検出し、該電子ファイルの元情報を直接用いる事で、紙文書全体の保存を削減する。このような技術は特許文献1、特許文献2等で開示されている。
しかしながら、前者は紙文書がコンパクトな情報量のPDFファイルとして文書の保存が可能であるが、ファイル自体がイメージ情報であるので、該文書の一部のオブジェクトを再利用する事は出来ない。従って再利用する場合は、図、表等は新たにアプリケーションソフトを用いて再度作成しなければ成らない。又後者は自部門で作成した電子ファイルは直接元ファイルをアクセスできる為、容易に再利用出来るが、外部から入手した文書、あるいはオリジナルファイルの所在が不明な古い紙文書には対応が出来ない。
従って、本発明は上記従来例の欠点を解決するためいかなる紙文書に対しても再利用可能な電子ファイルとして扱える画像処理システムを提供する事を目的とする。
特開平11−088659号公報
特開平11−205558号公報
本願出願人の過去の提案で、文字をベクトル化する場合、画像データとOCR結果の文字コードからベクトル化を行い、フォントデータを作成していた。しかし画像からフォントデータを作成する場合において、文字の大きさが小さい場合はOCRを正しく行えるが、ベクトル化すると誤差が大きくなり正しくフォントデータが生成できない場合があった問題は、図31に示すフローで処理することで解決できた。
『文字認識を行い、実ベクトルフォントへの置き換えを行う場合のベクトル化処理』
次に実ベクトルフォントから生成されたフォントデータを用いる場合を図31で説明する。
次に実ベクトルフォントから生成されたフォントデータを用いる場合を図31で説明する。
登録フォント辞書は処理中の文書内でのみ有効な辞書であり、最初は空である。また登録フォント辞書の各文字は図32のような形式で表現されている。
図3のステップ121で分割されたブロックからステップ1401により一つのブロックを取り出す処理を行う。ステップ1402はブロックが取り出せたかどうか判断し、取り出せた場合はステップ1403へ、取り出せなかった場合は全てのブロックの処理が終了したことになり終了する。ステップ1403は取り出されたブロックがテキストブロックであるかどうかを判断し、テキストブロックであればステップ1403へ、テキスト以外のブロックであればステップ1416へ処理を進める。ステップ1404は、1403で既に処理された当該ブロックのOCRデータをすべて読出す。ステップ1405はステップ1404で処理されたOCRデータから一つの文字矩形を取り出す処理を行う。ステップ1406は文字矩形が取り出されたかどうかの判断を行い、取り出せている場合はステップ1407へ、取り出せていない場合は、処理中のブロック内の文字が全て処理されたことになり、次のブロックへ処理を進めるためステップ1401へ処理を進める。ステップ1407は処理中の文字の文字コードを取り出す。ステップ1408はステップ1407で取り出された文字コードを用い、各実フォント辞書の同一文字コードのマッチング用特徴データを取り出し類似度を計算する。各文字種の類似度で一番良い値の類似度を、その文字のスコアとする。ここではスコアは大きいほどマッチング結果が良いことにする。ステップ1409はステップ1408で求められた文字のスコアとあらかじめ決めておいた定数Xを比較し、Xより大きければ、その文字が一番良い類似度を出した文字種であると決定しステップ1410へ、X以下であればステップ1411へ処理を進める。ステップ1410は、実フォント辞書からその文字コードのフォントデータを取り出しフォント変換結果とし、次の文字へ処理を進める。ステップ1411は、登録フォント辞書とのマッチングを行う。この辞書内には同じ文字コードのデータが複数現われるため、同一文字コードのマッチング用特徴データを取り出し類似度を計算し、一番良い値をその文字のスコアとして出す。ステップ1412はステップ1411で求められたスコアとあらかじめ決めておいた定数Yを比較し、Yより大きければ登録フォント辞書内の一番良い類似度の文字がとの文字と同一であるとしてステップ1413へ、Y以下であればステップ1414へ処理を進める。ステップ1413は登録フォント辞書から該当文字のフォントデータを取り出しフォント変換結果とし、次の文字へ処理を進める。ステップ1414は、処理中の文字が新しく現われたフォントの文字であるということになるため、フォント変換処理を行う。ステップ1415は、ステップ1407で取得されたOCRの文字コードと、ステップ1414で取得されたフォント変換結果と、1408内で取得されたフォントマッチング用の特徴データを使い、登録フォント辞書への文字の追加を行い、次の文字へ処理を進める。ステップ1416は文字以外のブロックのベクトル化処理であり、図30のステップ1302と同じである。以上の処理を繰り返すことで画像内の全てのブロックがベクトル化できる。
実フォント辞書はユーザの所有する実際のベクトルフォントを利用し、各文字コードのベクトルデータを一定のサイズにレンダリングして画像データを作成し、その画像データからフォントマッチング用の文字の縦横比や重心位置、輪郭データのヒストグラムデータなどを抽出し特徴データとすることと、画像データから下記の『文字のベクトル化処理』を行うことであらかじめ作成しておく。形式は登録フォント辞書と同様であるが、同一コードのデータが複数含まれることはない。
ところが、OCR結果の文字コードからベクトル化の処理を行うため、OCRの辞書にない文字は必ずベクトル化されることになっている。また誤認識している場合もベクトル化されることになる。
上記目的を達成するために、本発明は、原稿を読み取り走査する手段で得られたイメージ情報から、該原稿の電子ファイルを特定する特定手段を有し、該手段で上記イメージ情報に一致するオリジナルの電子ファイルが特定できれば、該電子ファイルを紙文書に記載された情報として扱い、前記特定手段で該原稿の電子ファイルが特定出来ない場合には、前記画像読み取り走査手段で得られるイメージ情報をベクトル化手段でベクトルデータに変換し、該変換されたベクトルデータを紙文書に記載された情報として変換するので、如何なる紙文書に対しても読み取ったイメージ情報を再利用可能な電子ファイルとして扱える。
また本発明は、原稿を読み取り走査する手段と、該手段で得られたイメージ情報から、該原稿の電子ファイルを特定する手段とを有し、前記特定手段で得られた該原稿の電子ファイルがイメージファイルやPDFの様にオブジェクト単位で既存の文書作成ソフトウェアで扱えない場合にも前記画像読み取り走査手段で得られるイメージ情報をベクトル化手段でベクトルデータに変換する事を特徴とする為、イメージファイルに対しても再利用可能なベクトルデータに変換出来る。
請求項1記載の発明によれば、原稿を読み取り走査する手段で得られたイメージ情報から、該原稿の電子ファイルを特定する特定手段を有し、該手段で上記イメージ情報に一致するオリジナルの電子ファイルが特定できれば、該電子ファイルを紙文書に記載された情報として扱い、前記特定手段で該原稿の電子ファイルが特定出来ない場合には、前記画像読み取り走査手段で得られるイメージ情報をベクトル化手段でベクトルデータに変換し、該変換されたベクトルデータを紙文書に記載された情報として変換するので、如何なる紙文書に対しても読み取ったイメージ情報を再利用可能な電子ファイルとして扱える。
請求項2記載の発明によれば、電子ファイルを特定する手段が原稿に付加的に記録された電子ファイルの格納場所を示す付加情報を認識する手段であるのでイメージ情報から簡単にオリジナルの電子ファイルを特定出来る。
請求項3記載の発明によれば、電子ファイル特定手段が原稿中に記載された特定の情報を記憶手段で格納されたファイルの中から検索する手段を有し、検索の結果、特定情報の一致によって電子ファイルを特定する事で、付加情報が記録されていない文書に対しても容易にオリジナルの電子ファイルを特定出来る。
請求項4記載の発明によれば、ベクトル化手段は原稿中の文字領域を光学的文字認識するOCR手段によって文字部分を文字フォントデータにベクトル化するので文字部は高品位な画質でありデータ量も少なくてすむ。
請求項5記載の発明によれば、ベクトル化手段は原稿を複数のオブジェクトに分割し、各オブジェクトに対して独立にベクトル化する事を特徴とする為、ベクトル化されたオブジェクトは独立に扱う事が出来る。
請求項6記載の発明によれば、ベクトル化手段はベクトル化されたオブジェクトを既存の文書作成ソフトウェアで扱える例えばrtfフォーマットに変換するので、ベクトル化したオブジェクトを既存の文書作成アプリソフト上で再利用出来る。
請求項7記載の発明によれば、ベクトル化手段でベクトル化されたベクトルデータを記憶する画像記憶手段と、該ベクトルデータに該データを格納する格納場所を付加情報として付加する情報付加手段を備えるので、該文書を再度原稿として画像読み取り手段で読み取った際には、この付加情報から電子ファイルを特定する事が可能になるのでより短時間にファイルを特定出来る。
請求項8記載の発明によれば、ファイル特定手段は、ポインタ情報から得られる該原稿の電子ファイルから、原稿中に記載された特定の情報が検索して得られる場合に限って該電子ファイルに特定する事を特徴とするので、単にポインタ情報から特定する場合に対してより確度の高い特定が可能に成る。
請求項9記載の発明によれば、原稿を読み取り走査する手段と、該手段で得られたイメージ情報から、該原稿の電子ファイルを特定する手段とを有し、前記特定手段で得られた該原稿の電子ファイルがイメージファイルやPDFの様にオブジェクト単位で既存の文書作成ソフトウェアで扱えない場合にも前記画像読み取り走査手段で得られるイメージ情報をベクトル化手段でベクトルデータに変換する事を特徴とする為、イメージファイルに対しても再利用可能なベクトルデータに変換出来る。
請求項10記載の発明によれば、ベクトル化手段は原稿を読み取り走査して得られるイメージ情報をオブジェクト毎に分割する手段と、該分割されたオブジェクト単位で記憶手段で格納されたファイルの中から一致するオブジェクトを検索する手段を有し、該検索手段で得られた情報を用いてベクトル化する事を特徴とする為、全てのオブジェクトに対するベクトル化が不要になり、処理の高速化、及び、高画質化が図られる。
請求項11記載の発明によれば、分割されたオブジェクト単位で、そのオブジェクト種別毎に使用者が設定したベクトル化処理が行えるため、その使用者にとって必要のないベクトル化の処理を省略することができ、処理の高速化が図られる。
請求項12記載の発明によれば、使用者が文字認識結果の文字コードを必要としていないが、文字はベクトル化を行いたい場合に無駄な文字認識処理を行わないで文字部を効率よくベクトル化することが可能となり、処理の高速化が図られる。
請求項13記載の発明によれば、第1項記載の画像処理システムにおいて、該OCR結果より文字矩形情報を出現順に呼び出す手段と、注目している文字矩形の文字コードを呼び出す手段と、文字コードを既に出現している文字コードと比較する手段と、比較手段の結果によりフォント変換、あるいは認識を行う手段と、フォント変換あるいは認識結果を文字コードと共に記憶する手段、とを有することを特徴とする為、負荷の大きいフォント変換、あるいは認識処理を1文字単位で行う必要は無くなり、大幅な処理速度の向上が期待される。
請求項14記載の発明によれば、第1項記載の画像処理システムにおいて、フォント種別の特徴辞書を有し、該OCR結果より文字矩形情報を出現順に呼び出す手段と、注目している文字矩形の文字コードを呼び出す手段と、文字矩形から文字画像を取り出し、フォント種別識別用の特徴抽出を行い各フォント種別辞書の同一文字コードの特徴と比較しフォント種別を決定する手段と、フォント種別決定手段によりあらかじめ作成しておいたフォントデータをフォント変換の結果とし、フォント変換あるいは認識結果を文字コードと共に記憶する手段とを有することを特徴とする。このため実ベクトルフォントから作成されたフォントデータが利用されるため大幅な画質の向上が見込まれる。また負荷の大きいフォント変換処理が減ることにもなり、大幅な処理速度の向上が期待される。
請求項15記載の発明は、請求項14記載の発明において、フォントの識別が出来なかった文字の前後のフォント種別より該文字のフォントを推定する手段と、推定されたフォントから作成したフォント識別用の辞書を使い再度の文字認識処理を行う手段と、文字認識結果の類似度により本来の文字認識結果を置き換える手段と有することを特徴とする。これにより原稿中に文字認識の候補とならない文字が含まれていた場合、従来は常にフォント変換処理が行われるだけではなく、間違った文字コードが文字認識結果となってしまっていたが、実フォントから作成された辞書を使い再度文字認識を行うことで文字コードを特定することができた場合は、正しい文字コードと実フォントから生成されたフォントデータが使用できるようになるため、さらなる画質の向上と文字コードの正しさが期待できる。
以下、本願を実施するのに好適な例を図面を用いて説明する。
本願発明の実施の形態について説明する。図1は本願発明にかかる画像処理システム構成例を示すブロック図である。この画像処理システムは、オフィス10とオフィス20とをインターネット104で接続された環境で実現する。オフィス10内に構築されたLAN107には、MFP100、MFP100を制御するマネージメントPC101、クライアントPC(外部記憶手段)102、文書管理サーバ106、そのデータベース105、およびプロキシサーバ103が接続されている。LAN107及びオフィス20内のLAN108はプロキシサーバ13を介してインターネット104に接続される。MFP100は本発明において紙文書の画像読み取り部と読み取った画像信号に対する画像処理の1部を担当し、画像信号はLAN109を用いてマネージメントPC101に入力する。マネージメントPCは通常のPCであり、内部に画像記憶手段、画像処理手段、表示手段、入力手段を有するが、その一部をMFP100に一体化して構成されている。
図2はMFP100の構成図である。図2においてオートドキュメントフィーダー(以降ADFと記す)を含む画像読み取り部110は束状の或いは1枚の原稿画像を図示しない光源で照射し、原稿反射像をレンズで固体撮像素子上に結像し、固体撮像素子からラスター状の画像読み取り信号を600DPIの密度のイメージ情報として得る。通常の複写機能はこの画像信号をデータ処理部115で記録信号へ画像処理し、複数毎複写の場合は記録装置111に一旦1ページ分の記録データを記憶保持した後、記録装置112に順次出力して紙上に画像を形成する。
一方クライアントPC102から出力されるプリントデータはLAN107からネットワークIF114を経てデータ処理装置115で記録可能なラスターデータに変換した後、前記記録装置で紙上に記録画像として形成される。
MFP100への操作者の指示はMFPに装備されたキー操作部とマネージメントPCに入力されるキーボード、及び、マウスからなる入力装置113から行われ、これら一連の動作はデータ処理装置115内の図示しない制御部で制御される。
一方、操作入力の状態表示及び処理中の画像データの表示は表示装置116で行われる。尚記憶装置111はマネージメントPCからも制御され、これらMFPとマネージメントPCとのデータの授受及び制御はネットワークIF117および直結したLAN109を用いて行われる。
(処理概要)
次に本発明による画像処理全体の概要を図3を用いて説明する。
次に本発明による画像処理全体の概要を図3を用いて説明する。
図3においてまず、MFP100の画像読み取り部110を動作させ1枚の原稿をラスター状に走査し、イメージ情報入力処理120で600DPI−8ビットの画像信号を得る。該画像信号をデータ処理部115で前処理を施し記憶装置111に1ページ分の画像データとして保存する。マネージメントPC101のCPUは該格納された画像信号から先ず、文字/線画部分とハーフトーンの画像部分とに領域を分離し、文字部は更に段落で塊として纏まっているブロック毎に、或いは線で構成された表、図形に分離し各々セグメント化する。一方ハーフトーンで表現される画像部分は、矩形に分離されたブロックの画像部分、背景部等、所謂ブロック毎に独立したオブジェクトに分割する(ステップ121)。
このとき原稿画像中に付加情報として記録された2次元バーコード、或いはURLに該当するオブジェクトを検出しURLはOCRで文字認識し、或いは2次元バーコードなら該マークを解読して(ステップ122)該原稿のオリジナル電子ファイルが格納されている記憶装置内のポインタ情報を検出する(ステップ123)。尚、ポインタ情報を付加する手段は他に文字と文字の間隔に情報を埋め込む方法、ハーフトーンの画像に埋め込む方法等直接可視化されない所謂電子透かしによる方法も有る。
ポインタ情報が検出された場合、ステップ125に分岐し、ポインタで示されたアドレスから元の電子ファイルを検索する。電子ファイルは図1においてクライアントPC内のハードディスク内、或いはオフィス10或いは20のLANに接続された文書管理サーバ105内のデータベース105内、或いはMFP100自体が有する記憶装置111のいずれかに格納されており、ステップ123で得られたアドレス情報に従ってこれらの記憶装置内を検索する。ステップ125で電子ファイルが見つからなかった場合、見つかったがPDFあるいはtiffに代表される所謂イメージファイルであった場合、或いはポインタ情報自体が存在しなかった場合はステップ126に分岐する。
ステップ126は所謂文書検索処理ルーチンである。まずステップ122で各文字ブロックに対して行ったOCRの結果から単語を抽出して全文検索、或いは各オブジェクトの配列と各オブジェクトの属性から所謂レイアウト検索を行う。検索の結果、類似度の高い電子ファイルが見つかった場合、サムネイル等を表示(ステップ127)し、複数の中から操作者の選択が必要なら操作者の入力操作よってファイルの特定を行う。尚、候補が1ファイルの場合、自動的にステップ128からステップ134に分岐し、格納アドレスを通知する。ステップ126の検索処理で電子ファイルが見つからなかった場合、或いは、見つかったがPDFあるいはtiffに代表される所謂イメージファイルであった場合、ステップ129に分岐する。
ステップ129は、ラスターイメージデータからベクトルデータへの変換処理部であり、オリジナル電子ファイルに近く、編集容易でかつ容量の小さい電子ファイルに変換する。詳細は下記(ベクトル化処理)で説明する。
以上説明したステップ129のベクトル化処理を各ブロックに対して行った後、更に文書のレイアウト情報を活用して例えば、rtfに変換(ステップ1210)して電子ファイルとして記憶装置111に格納(ステップ1211)する。
今ベクトル化した原稿画像は以降同様の処理を行う際に直接電子ファイルとして検索出来るように、先ずステップ132において検索の為のインデックス情報を生成して検索用インデックスファイルに追加する。更に、ステップ136で今、操作者が行いたい処理が記録であると判断されれば、ステップ133に分岐し、ポインタ情報をイメージデータとしてファイルに付加する。
検索処理で電子ファイルが特定できた場合も同様に以降からは直接電子ファイルを特定する為にステップ128からステップ134に分岐し、格納アドレスを操作者に通知すると共に、今紙に記録する場合は、同様にポインタ情報を電子ファイルに付加する。尚、ステップ125でポインタ情報から電子ファイルが特定できた場合、検索処理で電子ファイルが特定出来た場合、ベクトル化により電子ファイルに変換した場合、ステップ134において、該電子ファイルの格納アドレスを操作者に通知する。
尚、以上本発明によって得られた電子ファイル自体を用いて、例えば文書の加工、蓄積、伝送、記録をステップ135で行う事が可能になる。これらの処理はイメージデータを用いる場合に比べて、情報量が削減され、蓄積効率が高まり、伝送時間が短縮され、又記録表示する際には高品位なデータとして非常に優位となる。
以下各処理ブロックに対して詳細に説明する。
先ずステップ121で示すブロックセレクション処理について説明する。
(ブロックセレクション処理)
ブロックセレクション処理とは、図4の右に示すステップ120で読み取った一頁のイメージデータを左に示す様に、各オブジェクト毎の塊として認識し、該ブロック各々を文字/図画/写真/線/表等の属性に判定し、異なる属性を持つ領域に分割する処理である。
ブロックセレクション処理とは、図4の右に示すステップ120で読み取った一頁のイメージデータを左に示す様に、各オブジェクト毎の塊として認識し、該ブロック各々を文字/図画/写真/線/表等の属性に判定し、異なる属性を持つ領域に分割する処理である。
ブロックセレクション処理の実施例を以下に説明する。先ず、入力画像を白黒に二値化し、輪郭線追跡をおこなって黒画素輪郭で囲まれる画素の塊を抽出する。面積の大きい黒画素の塊については、内部にある白画素に対しても輪郭線追跡をおこない白画素の塊を抽出、さらに一定面積以上の白画素の塊の内部からは再帰的に黒画素の塊を抽出する。
このようにして得られた黒画素の塊を、大きさおよび形状で分類し、異なる属性を持つ領域へ分類していく。たとえば、縦横比が1に近く、大きさが一定の範囲のものを文字相当の画素塊とし、さらに近接する文字が整列良くグループ化可能な部分を文字領域、扁平な画素塊を線領域、一定大きさ以上でかつ四角系の白画素塊を整列よく内包する黒画素塊の占める範囲を表領域、不定形の画素塊が散在している領域を写真領域、それ以外の任意形状の画素塊を図画領域、などとする。
ブロックセレクション処理で得られた各ブロックに対するブロック情報を図5に示す。
これらのブロック毎の情報は以降に説明するベクトル化、或いは検索の為の情報として用いる。
(ポインタ情報の検出)
次に、ステップ122で示すファイルの格納位置をイメージ情報から抽出する為のOCR/OMR処理について説明する。
次に、ステップ122で示すファイルの格納位置をイメージ情報から抽出する為のOCR/OMR処理について説明する。
図6は原稿画像中に付加された2次元バーコード(QRコードシンボル)を復号して、データ文字列を出力する過程を示すフローチャートである。2次元バーコードの付加された原稿310の一例を図7に示す。
まず、データ処理装置115内のページメモリに格納された原稿310を表すイメージ画像をCPU(不図示)で走査して、先に説明したブロックセレクション処理の結果から所定の2次元バーコードシンボル311の位置を検出する。QRコードの位置検出パターンは、シンボルの4隅のうちの3済みに配置される同一の位置検出要素パターンから構成される(ステップ300)。
次に、位置検出パターンに隣接する形式情報を復元し、シンボルに適用されている誤り訂正レベルおよびマスクパターンを得る(ステップ301)。
シンボルの型番を決定した(ステップ302)後、形式情報で得られたマスクパターンを使って符号化領域ビットパターンをXOR演算することによってマスク処理を解除する(ステップ303)。
尚、モデルに対応する配置規則に従い、シンボルキャラクタを読取り、メッセージのデータ及び誤り訂正コード語を復元する(ステップ304)。
復元されたコード上に、誤りがあるかどうかの検出を行い(ステップ305)、誤りが検出された場合、ステップ306に分岐し、これを訂正する。
誤り訂正されたデータより、モード指示子および文字数指示子に基づいて、データコード語をセグメントに分割する(ステップ307)。
最後に、仕様モードに基づいてデータ文字を復号し、結果を出力する(ステップ308)。
尚、2次元バーコード内に組み込まれたデータは、対応するファイルのアドレス情報を表しており、例えばファイルサーバ名およびファイル名からなるパス情報で構成される。或いは、対応するファイルへのURLで構成される。
本実施例ではポインタ情報が2次元バーコードを用いて付与された原稿310について説明したが、直接文字列でポインタ情報が記録される場合は所定のルールに従った文字列のブロックを先のブロックセレクション処理で検出し、該、ポインタ情報を示す文字列の各文字を文字認識する事で、直接元ファイルのアドレス情報を得る事が可能である。
また或いは、図7の文書310の文字ブロック312、或いはテキスト領域313内の文字列に対して隣接する文字と文字の間隔等に視認し難い程度の変調を加え、該文字間隔に情報を埋め込むことでもポインタ情報を付与できる。該所謂透かし情報は、後述する文字認識処理を行う際に各文字の間隔を検出すれば、ポインタ情報が得られる。又画像領域314の画像中に電子透かしとしてポインタ情報を付加する事も可能である。
(ポインタ情報によるファイル検索)
次に、図3で先に説明したステップ125およびステップ128で示す、ポインタ情報からの電子ファイルの検索について図8のフローチャートを使用して説明する。まず、ポインタ情報に含まれるアドレスに基づいて,ファイルサーバを特定する(ステップ400)。
次に、図3で先に説明したステップ125およびステップ128で示す、ポインタ情報からの電子ファイルの検索について図8のフローチャートを使用して説明する。まず、ポインタ情報に含まれるアドレスに基づいて,ファイルサーバを特定する(ステップ400)。
ここでファイルサーバとは、クライアントPC102や、データベース105を内蔵する文書管理サーバ106や、記憶装置111を内蔵するMFP100自身を指す。
ここでアドレスとは、URLや、サーバ名とファイル名からなるパス情報である。
ファイルサーバが特定できたら、ファイルサーバに対してアドレスを転送する(ステップ401)。ファイルサーバは,アドレスを受信すると,該当するファイルを検索する(ステップ402)。 ファイルが存在しない場合(ステップ403−N)には、MFPに対してその旨通知する。
ファイルが存在した場合(ステップ403−Y)には、図3で説明した様に、ファイルのアドレスを通知(ステップ134)すると共に、ユーザの希望する処理が画像ファイルデータの取得であれば、MFPに対してファイルを転送する(ステップ408)。
(ファイル検索処理)
次に、図3のステップ126で示すファイル検索処理の詳細について図5、図10を使用して説明を行う。
次に、図3のステップ126で示すファイル検索処理の詳細について図5、図10を使用して説明を行う。
ステップ126の処理は、前述したように、ステップ124で入力原稿(入力ファイル)にポインタ情報が存在しなかった場合、または、ポインタ情報は在るが電子ファイルが見つからなかった場合、或いは電子ファイルがイメージファイルであった場合に行われる。
ここでは、ステップ122の結果、抽出された各ブロック及び入力ファイルが、図5に示す情報(ブロック情報、入力ファイル情報)を備えるものとする。情報内容として、属性、座標位置、幅と高さのサイズ、OCR情報有無を例としてあげる。属性は、文字、線、写真、絵、表その他に分類する。また簡単に説明を行うため、ブロックは座標Xの小さい順、即ち(例、X1<X2<X3<X4<X5<X6)にブロック1、ブロック2、ブロック3、ブロック4、ブロック5、ブロック6と名前をつけている。ブロック総数は、入力ファイル中の全ブロック数であり、図10の場合は、ブロック総数は6である。以下、これらの情報を使用して、データベース内から、入力ファイルに類似したファイルのレイアウト検索を行うフローチャートを図10に示す。ここで、データベースファイルは、図5と同様の情報を備えることを前提とする。
フローチャートの流れは、入力ファイルとデータベース中のファイルを順次比較するものである。まず、ステップ510にて、後述する類似率などの初期化を行う。次に、ステップ511にてブロック総数の比較を行い、ここで、真の場合、さらにファイル内のブロックの情報を順次比較する。ブロックの情報比較では、ステップ513,515,518にて、属性類似率、サイズ類似率、OCR類似率をそれぞれ算出し、ステップ522にてそれらをもとに総合類似率を算出する。各類似率の算出方法については、公知の技術が用いられるので説明を省略する。ステップ523にて総合類似率が、予め設定された閾値Thより高ければステップ524にてそのファイルを類似候補としてあげる。但し、図中のN、W、Hは、入力ファイルのブロック総数、各ブロック幅、各ブロック高さとし、ΔN、ΔW、ΔHは、入力ファイルのブロック情報を基準として誤差を考慮したものである。n、w、hは、データベースファイルのブロック総数、各ブロック幅、各ブロック高さとする。また、不図示ではあるが、ステップ514にてサイズ比較時に、位置情報XYの比較などを行ってもよい。
以上、検索の結果、類似度が閾値Thより高く、候補として保存されたデータベースファイル(ステップ524)をサムネイル等で表示(ステップ127)する。複数の中から操作者の選択が必要なら操作者の入力操作よってファイルの特定を行う。
(ベクトル化処理)
ファイルサーバに元ファイルが存在しない場合は、図4に示すイメージデータを各ブロック毎にベクトル化する。次に、ステップ129で示されるベクトル化について詳説する。
ファイルサーバに元ファイルが存在しない場合は、図4に示すイメージデータを各ブロック毎にベクトル化する。次に、ステップ129で示されるベクトル化について詳説する。
『ベクトル化処理設定のユーザーインターフェース』
オブジェクトの種別ごとに処理方法を設定するユーザーインターフェースを用い、ユーザの設定に応じたベクトル化処理を行う。
オブジェクトの種別ごとに処理方法を設定するユーザーインターフェースを用い、ユーザの設定に応じたベクトル化処理を行う。
例えば、文字領域のブロックは、図20のように「ベクトルデータ」、「二値画像」、「多値画像」の排他設定と「OCR情報付加」のOn/Off設定を行うことができる。また「ベクトルデータ」の場合は、実ベクトルフォントへを使用するかどうかの設定を行う。
文字以外のブロックで線画領域のブロックや線のブロックは図21、図22に示すように「ベクトルデータ」、「画像」、「背景オブジェクトに含める」の排他設定できる。
表領域のブロックは、図23に示すように「ベクトルデータ」、「二値画像」、「多値画像」、「背景オブジェクトに含める」の排他設定と「OCR情報付加」のOn/Off設定を行うことができる。ただし背景オブジェクトに含める場合は、「OCR情報付加」は常にOffとなる。
写真などの画像領域は、図24に示すように「ベクトルデータ」、「画像」、「背景オブジェクトに含める」の排他設定できるようにしておく。
これらの設定は、ハードディスクなどの電源を切っても保持される領域に書き込んでおき、システムの起動時にはハードディスクなどから読み出し、自動的に設定する。
文字領域は、文字領域をどのように処理するかの設定を読み出し、設定にしたがって処理する。例えば、設定が「二値画像」又は「多値画像」でかつ「OCR情報を付加する」がOffの場合、『文字認識』処理は行わず、画像データをベクトル化処理の結果とする。「二値画像」又は「多値画像」でかつ「OCR情報を付加する」がOnの場合、『文字認識』処理を行い、認識結果の文字コード、文字の大きさ、位置と画像データをベクトル化結果とする。設定が「ベクトルデータ」、「OCR情報を付加する」がOn、「実ベクトルフォントを使用する」がOffの設定の場合、『文字認識を行い、実ベクトルフォントへの置き換えを行わない場合のベクトル化処理』のフローでベクトル化の処理が行われる。設定が「ベクトルデータ」、「OCR情報を付加する」がOn、「実ベクトルフォントを使用する」がOnの設定の場合、『文字認識を行い、実ベクトルフォントへの置き換えを行う場合のベクトル化処理』のフローでベクトル化の処理が行われる。設定が「ベクトルデータ」でかつ「OCR情報を付加する」がOffの場合は、下記の『文字認識を行わない場合の文字のベクトル化』処理で文字をベクトルデータへ変換しベクトル化の結果とする。
『文字認識を行い、実ベクトルフォントへの置き換えを行わない場合のベクトル化処理』
図3のステップ121で分割されたブロックのうち、先頭(左上原点)に位置するブロックを入力し(ステップ1300)、当該ブロックがテキストブロックの場合は、ステップ1202で既に処理された当該ブロックのOCRデータをすべて読出し(ステップ1303)、先頭(左上原点)に位置する文字矩形に制御を移す(ステップ1304)。次に該当する文字矩形が存在することを確認し(ステップ1305)、文字矩形が存在する場合は、当該文字矩形に対応する文字コードを読出し(ステップ1306)、その結果、該当する文字矩形内の文字コードが既に変換済か否かを判別し(ステップ1307)、変換済であれば、次の文字矩形に制御を移行し(ステップ1308)、そうでなければ、すなわち過去に現れていない文字コードだった場合は、フォント認識/変換を行い、フォントデータの登録を行い(ステップ1309)、次の文字矩形に制御を移行する(ステップ1308)。ステップ1305では文字矩形がもはや存在しないと判定された場合、すなわち当該テキストブロック内の文字矩形全てに対して上記処理が終了した場合は、次のブロックに制御を移行させる(ステップ1310)。
図3のステップ121で分割されたブロックのうち、先頭(左上原点)に位置するブロックを入力し(ステップ1300)、当該ブロックがテキストブロックの場合は、ステップ1202で既に処理された当該ブロックのOCRデータをすべて読出し(ステップ1303)、先頭(左上原点)に位置する文字矩形に制御を移す(ステップ1304)。次に該当する文字矩形が存在することを確認し(ステップ1305)、文字矩形が存在する場合は、当該文字矩形に対応する文字コードを読出し(ステップ1306)、その結果、該当する文字矩形内の文字コードが既に変換済か否かを判別し(ステップ1307)、変換済であれば、次の文字矩形に制御を移行し(ステップ1308)、そうでなければ、すなわち過去に現れていない文字コードだった場合は、フォント認識/変換を行い、フォントデータの登録を行い(ステップ1309)、次の文字矩形に制御を移行する(ステップ1308)。ステップ1305では文字矩形がもはや存在しないと判定された場合、すなわち当該テキストブロック内の文字矩形全てに対して上記処理が終了した場合は、次のブロックに制御を移行させる(ステップ1310)。
一方ステップ1301で当該ブロックがテキストブロックでは無いと判断された場合は、所定のベクトル化処理を行い(ステップ1302)、次のブロックに制御を移行する(ステップ1310)。
ステップ1311では、該当するブロックの存在を確認し、まだ存在している場合は再び当該ブロックがテキストブロックか否かを判定する(ステップ1301)。そうでない場合はすべてのブロックの処理を終了したと判断し、処理を終了させる。
このような処理を行うことにより、文字矩形毎に必要であった処理の重いフォント認識/変換を最小限に抑え、効率よくベクトル化を行うことが出来る。
『文字認識を行い、実ベクトルフォントへの置き換えを行う場合のベクトル化処理』
次に実ベクトルフォントから生成されたフォントデータを用いる場合を図33で説明する。
次に実ベクトルフォントから生成されたフォントデータを用いる場合を図33で説明する。
登録フォント辞書は処理中の文書内でのみ有効な辞書であり、最初は空である。また登録フォント辞書の各文字は図32のような形式で表現されている。
図3のステップ121で分割されたブロックからステップ1601により一つのブロックを取り出す処理を行う。ステップ1602はブロックが取り出せたかどうか判断し、取り出せた場合はステップ1603へ、取り出せなかった場合は全てのブロックの処理が終了したことになり終了する。ステップ1603は取り出されたブロックがテキストブロックであるかどうかを判断し、テキストブロックであればステップ1604へ、テキスト以外のブロックであればステップ1622へ処理を進める。ステップ1604は、1603で既に処理された当該ブロックのOCRデータをすべて読出す。ステップ1605はステップ1604で処理されたOCRデータから一つの文字矩形を取り出す処理を行う。ステップ1606は文字矩形が取り出されたかどうかの判断を行い、取り出せている場合はステップ1607へ、取り出せていない場合は、処理中のブロック内の文字が全て処理されたことになり、保留した文字を処理するためにステップ1615へ処理を進める。ステップ1607は処理中の文字の文字コードを取り出す。ステップ1608はステップ1607で取り出された文字コードを用い、各実フォント辞書の同一文字コードのマッチング用特徴データを取り出し類似度を計算する。各文字種の類似度で一番良い値の類似度を、その文字のスコアとする。ここではスコアは大きいほどマッチング結果が良いことにする。ステップ1609はステップ1608で求められた文字のスコアとあらかじめ決めておいた定数Xを比較し、Xより大きければ、その文字が一番良い類似度を出した文字種であると決定しステップ1610へ、X以下であればステップ1611へ処理を進める。ステップ1610は、実フォント辞書からその文字コードのフォントデータを取り出しフォント変換結果とし、次の文字へ処理を進める。ステップ1611は、登録フォント辞書とのマッチングを行う。この辞書内には同じ文字コードのデータが複数現われるため、同一文字コードのマッチング用特徴データを取り出し類似度を計算し、一番良い値をその文字のスコアとして出す。ステップ1612はステップ1611で求められたスコアとあらかじめ決めておいた定数Yを比較し、Yより大きければ登録フォント辞書内の一番良い類似度の文字がとの文字と同一であるとしてステップ1613へ、Y以下であればステップ1614へ処理を進める。ステップ1613は登録フォント辞書から該当文字のフォントデータを取り出しフォント変換結果とし、次の文字へ処理を進める。ステップ1614は、処理中の文字が新しく現われたフォントの文字であったり、OCRで誤認識している文字であったり、OCR結果の候補として現われない文字である可能性があるため処理中の文字を保留文字リストに追加する。ステップ1615は、保留文字リストから一文字を取り出す処理を行う。ステップ1616は、文字が取り出せかどうかの判定を行い、取り出せた場合は、ステップ1617へ、取り出せない場合は、全ての文字の処理が終了したことになり、次のブロックを処理するためステップ1601へ処理を進める。ステップ1617は、再文字認識を行う。ここでは、処理中の文字の前後(一文字ではなく、例えば後ろの文字が保留中であった場合は、その後の文字、さらに保留であればその後の文字と調べる)の文字のフォント種別を調べる。前後とも同一フォントであれば、そのフォント種のフォント識別辞書と全ての文字コードのマッチングを行う。前後で異なる場合は、両方のフォントとマッチングを行いよい類似度の方を採用する。また前後が登録フォントであった場合は、マッチングは行わないで類似度は0とする。ステップ1618はステップ1607で求められた文字の類似度とあらかじめ決めておいた定数Zを比較し、Zより大きければ、その文字が使用した実フォント辞書の一番良い類似度を出した文字コードの文字であると決定しステップ1619へ、Z以下であればステップ1621へ処理を進める。ステップ1619は、ステップ1618の結果よりOCR結果を修正する。ステップ1620は、ステップ1610と同様の処理であり、終了後次の保留文字の処理を行う。ステップ1621は、処理中の文字が新しく現われたフォントの文字であるということになるため、フォント変換処理を行う。ステップ1622は、ステップ1607で取得されたOCRの文字コードと、ステップ1621で取得されたフォント変換結果と、1608内で取得されたフォントマッチング用の特徴データを使い、登録フォント辞書への文字の追加を行い、次の文字へ処理を進める。ステップ1623は文字以外のブロックのベクトル化処理であり、図30のステップ1302と同じである。以上の処理を繰り返すことで画像内の全てのブロックがベクトル化できる。
実フォント辞書はユーザの所有する実際のベクトルフォントを利用し、各文字コードのベクトルデータを一定のサイズにレンダリングして画像データを作成し、その画像データからフォントマッチング用の文字の縦横比や重心位置、輪郭データのヒストグラムデータなどを抽出し特徴データとすることと、画像データから下記の『文字のベクトル化処理』を行うことであらかじめ作成しておく。形式は登録フォント辞書と同様であるが、同一コードのデータが複数含まれることはない。
『文字認識を行わない場合の文字領域のベクトル化』
一つの原稿の処理開始時は空の辞書を用意する。ある文字ブロックのベクトル化を行う場合、文字ブロックから一文字取り出し文字の特徴抽出を行う。抽出された特徴と辞書とのマッチングを行い、マッチする文字が存在すれば辞書内の文字を参照する中間データを作成する。マッチしなかった場合は、文字の特徴抽出結果を辞書に登録し、登録した文字を参照する中間データを作成する。中間データは文字の画像内での位置と大きさと、辞書内の何番目の文字とマッチしているか表すもので構成され、例えば図28のような構成である。xは文字矩形の左上のx座標値、yは文字矩形の左上のy座標値、wは文字矩形の幅のピクセル値、hは文字矩形の高さのピクセル値、nは辞書のn番目の文字とマッチしていることを意味する。一つの文字ブロックの処理が終了すると新たに登録された文字のベクトルデータへの変換処理を行い、中間データと文字のベクトルデータを合成することでその文字ブロックのベクトル化結果とする。原稿内の文字の処理が全て終了したら、辞書は削除する。
一つの原稿の処理開始時は空の辞書を用意する。ある文字ブロックのベクトル化を行う場合、文字ブロックから一文字取り出し文字の特徴抽出を行う。抽出された特徴と辞書とのマッチングを行い、マッチする文字が存在すれば辞書内の文字を参照する中間データを作成する。マッチしなかった場合は、文字の特徴抽出結果を辞書に登録し、登録した文字を参照する中間データを作成する。中間データは文字の画像内での位置と大きさと、辞書内の何番目の文字とマッチしているか表すもので構成され、例えば図28のような構成である。xは文字矩形の左上のx座標値、yは文字矩形の左上のy座標値、wは文字矩形の幅のピクセル値、hは文字矩形の高さのピクセル値、nは辞書のn番目の文字とマッチしていることを意味する。一つの文字ブロックの処理が終了すると新たに登録された文字のベクトルデータへの変換処理を行い、中間データと文字のベクトルデータを合成することでその文字ブロックのベクトル化結果とする。原稿内の文字の処理が全て終了したら、辞書は削除する。
図27は一つの文字ブロックの処理を表す図である。
処理開始時の辞書の登録文字数をNv、処理中の辞書の登録文字数をNで表すことにすると、開始時はNv=Nである。
1201の一文字抽出部は、入力された文字ブロックの画像データから一文字の領域を切り出す、文字切り出しの処理を行う。
1202は、1201の結果文字が抽出できたかどうか判断し、抽出できていれば1203へ、出来ていなければ1208へ処理を進める。
1203は、文字の特徴抽出を行う。文字の特徴とは、縦横比、重心位置、OCRで使われる輪郭データのヒストグラムベクトルなどである。
1204は、1203で抽出された文字の特徴と辞書に登録された文字のマッチングを行う。まず辞書の先頭の文字から縦横比と重心位置を比較し大きく異なっている文字は明らかに異なる文字であるため他の情報を使って比較することなく次の辞書中の文字へ比較対象を変更する。縦横比がほぼ等しい場合は、輪郭データのヒストグラムベクトルの比較を行う。ここでは通常のベクトル間の距離を計算し近ければ近いほどマッチングしていることになる。ここで距離があらかじめ決めておいた一定の値以下のものを候補文字としてピックアップしておく。このように辞書内の全ての文字とのマッチングを行う。
1205は1204の結果マッチした文字があるかどうか判定し、文字があれば1207へ、なければ1206へ処理を進める。
1206は、処理中の文字の特徴データを辞書へ登録する。辞書は図29のような形式であり、辞書の最後に追加する。ここでN=N+1として辞書の文字数を増やす。
1207は、図28のような形式のベクトル化の中間データを生成する。
1208は、文字ブロック内の全ての文字が辞書とのマッチング処理が終了すると行われる。開始時はNv文字辞書にあり、終了時がNとなっているため、N−Nv文字分の文字のベクトル化処理を行う。中間データIDが10となっている場合、その文字は、中間データの10番目の文字から特徴を抽出されたことを意味する。画像からベクトル化を行う時は中間データの10番目の情報から画像中の文字の位置や大きさを取り出すことで、一文字の文字画像得る。
1209は、中間データと辞書に登録されている各文字のベクトルデータを合成する処理を行い、その結果を文字ブロックのベクトル化結果として出力する。
『文字認識』
文字認識部では、文字単位で切り出された画像に対し、パターンマッチの一手法を用いて認識を行い、対応する文字コードを得る。この認識処理は、文字画像から得られる特徴を数十次元の数値列に変換した観測特徴ベクトルと、あらかじめ字種毎に求められている辞書特徴ベクトルと比較し、最も距離の近い字種を認識結果とする処理である。特徴ベクトルの抽出には種々の公知手法があり、たとえば、文字をメッシュ状に分割し、各メッシュ内の文字線を方向別に線素としてカウントしたメッシュ数次元ベクトルを特徴とする方法がある。
文字認識部では、文字単位で切り出された画像に対し、パターンマッチの一手法を用いて認識を行い、対応する文字コードを得る。この認識処理は、文字画像から得られる特徴を数十次元の数値列に変換した観測特徴ベクトルと、あらかじめ字種毎に求められている辞書特徴ベクトルと比較し、最も距離の近い字種を認識結果とする処理である。特徴ベクトルの抽出には種々の公知手法があり、たとえば、文字をメッシュ状に分割し、各メッシュ内の文字線を方向別に線素としてカウントしたメッシュ数次元ベクトルを特徴とする方法がある。
ブロックセレクション(ステップ121)で抽出された文字領域に対して文字認識を行う場合は、まず該当領域に対し横書き、縦書きの判定をおこない、各々対応する方向に行を切り出し、その後文字を切り出して文字画像を得る。横書き、縦書きの判定は、該当領域内で画素値に対する水平/垂直の射影を取り、水平射影の分散が大きい場合は横書き領域、垂直射影の分散が大きい場合は縦書き領域と判断すればよい。文字列および文字への分解は、横書きならば水平方向の射影を利用して行を切り出し、さらに切り出された行に対する垂直方向の射影から、文字を切り出すことでおこなう。縦書きの文字領域に対しては、水平と垂直を逆にすればよい。尚、この時文字のサイズが検出出来る。
『文字のベクトル化』
前記文字認識によって得られた、文字コードを用いて、各々あらかじめ用意されたアウトラインデータを用いて、文字部分の情報をベクトルデータに変換する。なお、元原稿がカラーの場合は、カラー画像から各文字の色を抽出してベクトルデータとともに記録する。
前記文字認識によって得られた、文字コードを用いて、各々あらかじめ用意されたアウトラインデータを用いて、文字部分の情報をベクトルデータに変換する。なお、元原稿がカラーの場合は、カラー画像から各文字の色を抽出してベクトルデータとともに記録する。
以上の処理により、文字ブロックに属するイメージ情報をほぼ形状、大きさ、色が忠実なベクトルデータに変換出来る。
『文字以外の領域のベクトル化』
線画、線領域も同様に設定を読み出し、その設定にしたがって処理する。
線画、線領域も同様に設定を読み出し、その設定にしたがって処理する。
例えば、設定が「ベクトルデータ」の場合、そのブロックを下記『文字以外の部分のベクトル化』の処理を行い再利用可能なベクトルデータへ変換する。また、設定が「画像」の場合、その領域を一つの画像データとして取り出し、ベクトル化の結果とする。「背景オブジェクトに含める」の場合、ベクトル化の処理は行わず背景オブジェクトの一部と扱う。
表領域も同様に設定を読み出し、その設定にしたがって処理する。
例えば、設定が「ベクトルデータ」の場合、枠線などの文字以外の部分は『文字以外の部分のベクトル化』を行い、文字部分は文字のベクトル化と同様に処理を行う。
設定が「背景に含める」の場合は、ベクトル化の処理は行わず背景オブジェクトの一部として扱う。また、設定が「二値画像」又は「多値画像」でかつ「OCR情報を付加する」がOnの場合は、『文字認識』処理を行い、認識結果の文字コード、文字の大きさ、位置と画像データをベクトル化結果とする。
ブロックセレクション処理(ステップ121)で、図画あるいは線、表領域とされた領域を対象に、中で抽出された画素塊の輪郭をベクトルデータに変換する。具体的には、輪郭をなす画素の点列を角と看倣される点で区切って、各区間を部分的な直線あるいは曲線で近似する。角とは曲率が極大となる点であり、曲率が極大となる点は、図11に図示するように、任意点Piに対し左右k個の離れた点Pi−k,Pi+kの間に弦を引いたとき、この弦とPiの距離が極大となる点として求められる。さらに、Pi−k,Pi+k間の弦の長さ/弧の長さをRとし、Rの値が閾値以下である点を角とみなすことができる。角によって分割された後の各区間は、直線は点列に対する最小二乗法など、曲線は3次スプライン関数などを用いてベクトル化することができる。
また、対象が内輪郭を持つ場合、ブロックセレクションで抽出した白画素輪郭の点列を用いて、同様に部分的直線あるいは曲線で近似する。
以上のように、輪郭の区分線近似を用いれば、任意形状の図形のアウトラインをベクトル化することができる。元原稿がカラーの場合は、カラー画像から図形の色を抽出してベクトルデータとともに記録する。
さらに、図12に示す様に、ある区間で外輪郭と、内輪郭あるいは別の外輪郭が近接している場合、2つの輪郭線をひとまとめにし、太さを持った線として表現することができる。具体的には、ある輪郭の各点Piから別輪郭上で最短距離となる点Qiまで線を引き、各距離PQiが平均的に一定長以下の場合、注目区間はPQi中点を点列として直線あるいは曲線で近似し、その太さはPQiの平均値とする。線や線の集合体である表罫線は、前記のような太さを持つ線の集合として効率よくベクトル表現することができる。
尚、先に文字ブロックに対する文字認識処理を用いたベクトル化を説明したが、該文字認識処理の結果、辞書からの距離が最も近い文字を認識結果として用いるが、この距離が所定値以上の場合は、必ずしも本来の文字に一致せず、形状が類似する文字に誤認識している場合が多い。従って本発明では、この様な文字に対しては、上記した様に、一般的な線画と同じに扱い、該文字をアウトライン化する。 即ち、従来文字認識処理で誤認識を起こす文字に対しても誤った文字にベクトル化されず、可視的にイメージデータに忠実なアウトライン化によるベクトル化が行える。
又、写真と判定されたブロックに対しては本発明では、ベクトル化出来ない為、イメージデータのままとする。
(図形認識)
上述したように任意形状の図形のアウトラインをベクトル化した後、これらベクトル化された区分線を図形オブジェクト毎にグループ化する処理について説明する。
上述したように任意形状の図形のアウトラインをベクトル化した後、これらベクトル化された区分線を図形オブジェクト毎にグループ化する処理について説明する。
図13は、ベクトルデータを図形オブジェクト毎にグループ化するまでのフローチャートを示している。まず、各ベクトルデータの始点、終点を算出する(700)。次に各ベクトルの始点、終点情報を用いて、図形要素を検出する(701)。図形要素の検出とは、区分線が構成している閉図形を検出することである。検出に際しては、閉形状を構成する各ベクトルはその両端にそれぞれ連結するベクトルを有しているという原理を応用し、検出を行う。次に図形要素内に存在する他の図形要素、もしくは区分線をグループ化し、一つの図形オブジェクトとする(702)。また、図形要素内に他の図形要素、区分線が存在しない場合は図形要素を図形オブジェクトとする。
図14は,図形要素を検出するフローチャートを示している.先ず,ベクトルデータより両端に連結していない不要なベクトルを除去し、閉図形構成ベクトルを抽出する(710)。次に閉図形構成ベクトルの中から該ベクトルの始点を開始点とし、時計回りに順にベクトルを追っていく。開始点に戻るまで行い、通過したベクトルを全て一つの図形要素を構成する閉図形としてグループ化する(711)。また、閉図形内部にある閉図形構成ベクトルも全てグループ化する。さらにまだグループ化されていないベクトルの始点を開始点とし、同様の処理を繰り返す。最後に、710で除去された不要ベクトルのうち、711で閉図形としてグループ化されたベクトルに接合しているものを検出し一つの図形要素としてグループ化する(712)。
以上によって図形ブロックを個別に再利用可能な個別の図形オブジェクトとして扱う事が可能になる。
(アプリデータへの変換処理)
ところで、一頁分のイメージデータをブロックセレクション処理(121)し、ベクトル化処理(129)した結果は図15に示す様な中間データ形式のファイルとして変換されているが、このようなデータ形式はドキュメント・アナリシス・アウトプット・フォーマット(DAOF)と呼ばれる。
ところで、一頁分のイメージデータをブロックセレクション処理(121)し、ベクトル化処理(129)した結果は図15に示す様な中間データ形式のファイルとして変換されているが、このようなデータ形式はドキュメント・アナリシス・アウトプット・フォーマット(DAOF)と呼ばれる。
図15はDAOFのデータ構造を示す図である。図15において、791はHeaderであり、処理対象の文書画像データに関する情報が保持される。レイアウト記述データ部792では、文書画像データ中のTEXT(文字)、TITLE(タイトル)、 CAPTION(キャプション)、LINEART(線画)、EPICTURE(自然画)、FRAME(枠)、TABLE(表)等の属性毎に認識された各ブロックの属性情報とその矩形アドレス情報を保持する。文字認識記述データ部793では、TEXT、TITLE、CAPTION等のTEXTブロックを文字認識して得られる文字認識結果を保持する。表記述データ部794では、TABLEブロックの構造の詳細を格納する。画像記述データ部795は、PICTUREやLINEART等のブロックのイメージデータを文書画像データから切り出して保持する。
このようなDAOFは、中間データとしてのみならず、それ自体がファイル化されて保存される場合もあるが、このファイルの状態では、所謂一般の文書作成アプリケーションで個々のオブジェクトを再利用する事は出来ない。そこで次に、このDAOFからアプリデータに変換する処理130について詳説する。
図16は、全体の概略フローである。
8000は、DAOFデータの入力を行う。
8002は、アプリデータの元となる文書構造ツリー生成を行う。
8004は、文書構造ツリーを元に、DAOF内の実データを流し込み、実際のアプリデータを生成する。
図17は、8002文書構造ツリー生成部の詳細フロー、図18は、文書構造ツリーの説明図である。全体制御の基本ルールとして、処理の流れはミクロブロック(単一ブロック)からマクロブロック(ブロックの集合体)へ移行する。以後ブロックとは、ミクロブロック、及びマクロブロック全体を指す。
8100は、ブロック単位で縦方向の関連性を元に再グループ化する。スタート直後はミクロブロック単位での判定となる。ここで、関連性とは、距離が近い、ブロック幅(横方向の場合は高さ)がほぼ同一であることなどで定義することができる。また、距離、幅、高さなどの情報はGAOFを参照し、抽出する。
図18(a)は実際のページ構成、(b)はその文書構造ツリーである。8100の結果、T3,T4,T5が一つのグループV1,T6,T7が一つのグループV2が同じ階層のグループとしてまず生成される。
8102は、縦方向のセパレータの有無をチェックする。セパレータは、例えば物理的にはDAOF中でライン属性を持つオブジェクトである。また論理的な意味としては、アプリ中で明示的にブロックを分割する要素である。ここでセパレータを検出した場合は、同じ階層で再分割する。
8104は、分割がこれ以上存在し得ないか否かをグループ長を利用して判定する。ここで、縦方向のグループ長がページ高さとなっている場合は、文書構造ツリー生成は終了する。
図18の場合は、セパレータもなく、グループ高さはページ高さではないので、8106に進む。
8106は、ブロック単位で横方向の関連性を元に再グループ化する。ここもスタート直後の第一回目はミクロブロック単位で判定を行うことになる。関連性、及びその判定情報の定義は、縦方向の場合と同じである。
図18の場合は、T1,T2でH1、V1,V2でH2がV1,V2の1つ上の同じ階層のグループとして生成される。
8108は、横方向セパレータの有無をチェックする。
図18では、S1があるので、これをツリーに登録し、H1,S1,H2という階層が生成される。
8110は、分割がこれ以上存在し得ないか否かをグループ長を利用して判定する。ここで、横方向のグループ長がページ幅となっている場合は、文書構造ツリー生成は終了する。そうでない場合は、8102に戻り、再びもう一段上の階層で、縦方向の関連性チェックから繰り返す。
図18の場合は、分割幅がページ幅になっているので、ここで終了し、最後にページ全体を表す最上位階層のV0が文書構造ツリーに付加される。文書構造ツリーが完成した後、その情報を元に8006においてアプリデータの生成を行う。
図18の場合は、具体的には、以下のようになる。
すなわち、H1は横方向に2つのブロックT1とT2があるので、2カラムとし、T1の内部情報(DAOFを参照、文字認識結果の文章、画像など)を出力後、カラムを変え、T2の内部情報出力、その後S1を出力となる。
H2は横方向に2つのブロックV1とV2があるので、2カラムとして出力、V1はT3,T4,T5の順にその内部情報を出力、その後カラムを変え、V2のT6,T7の内部情報を出力する。以上によりアプリデータへの変換処理が行える。
(ポインタ情報の付加)
次に、ステップ133で示す、ポインタ情報付加処理について説明する。
次に、ステップ133で示す、ポインタ情報付加処理について説明する。
今、処理すべき文書が検索処理で特定された場合、あるいはベクトル化によって元ファイルが再生できた場合において、該文書を記録処理する場合においては、紙への記録の際にポインタ情報を付与する事で、この文書を用いて再度各種処理を行う場合に簡単に元ファイルデータを取得できる。
図19はポインタ情報としてのデータ文字列を2次元バーコード(QRコードシンボル:JIS X0510)311にて符号化して画像中に付加する過程を示すフローチャートである。2次元バーコード内に組み込むデータは、対応するファイルのアドレス情報を表しており、例えばファイルサーバ名およびファイル名からなるパス情報で構成される。或いは、対応するファイルへのURLや、対応するファイルの格納されているデータベース105内あるいはMFP100自体が有する記憶装置内で管理されるファイルID等で構成される。
まず、符号化する種種の異なる文字を識別するため、入力データ列を分析する。また、誤り検出及び誤り訂正レベルを選択し、入力データが収容できる最小型番を選択する(ステップ900)。
次に、入力データ列を所定のビット列に変換し、必要に応じてデータのモード(数字、英数字、8ビットバイト、漢字等)を表す指示子や、終端パターンを付加する。さらに所定のビットコード語に変換する。(ステップ901)。
この時、誤り訂正を行うため、コード語列を型番および誤り訂正レベルに応じて所定のブロック数に分割し、各ブロック毎に誤り訂正コード語を生成し、データコード語列の後に付加する(ステップ902)。
該ステップ902で得られた各ブロックのデータコード語を接続し、各ブロックの誤り訂正コード語、必要に応じて剰余コード語を後続する(ステップ903)。
次に、マトリクスに位置検出パターン、分離パターン、タイミングパターンおよび位置合わせパターン等とともにコード語モジュールを配置する(ステップ904)。
更に、シンボルの符号化領域に対して最適なマスクパターンを選択して、マスク処理パターンをステップ904で得られたモジュールにXOR演算により変換する。(ステップ905)。
最後に、ステップ905で得られたモジュールに形式情報および型番情報を生成して、2次元コードシンボルを完成する。(ステップ906)。
上記に説明した、アドレス情報の組み込まれた2次元バーコードは、例えば、クライアントPC102から電子ファイルをプリントデータとして記録装置112に紙上に記録画像として形成する場合に、データ処理装置115内で記録可能なラスターデータに変換された後にラスターデータ上の所定の個所に付加されて画像形成される。ここで画像形成された紙を配布されたユーザは、画像読取り部110で読み取ることにより、前述したステップ123にてポインタ情報からオリジナル電子ファイルの格納場所を検出することができる。
尚、同様の目的で付加情報を付与する手段は、本実施例で説明した2次元バーコードの他に、例えば、ポインタ情報を直接文字列で文書に付加する方法、文書内の文字列、特に文字と文字の間隔を変調して情報を埋め込む方法、文書中の中間調画像中に埋め込む方法等、一般に電子透かしと呼ばれる方法が適用出来る。
(ファイルアクセス権に関する別実施例)
我々が扱う文書ファイルの中には、第3者による再利用を制限すべき物がある。先の実施例ではファイルサーバに蓄積されたファイルは全て自由にアクセス出来、ファイル全体、或いはその一部のオブジェクトは全て再利用が可能な事を前提に説明した。そこで、先の実施例でポインタ情報からファイルを検索した際に、検索の結果、特定出来たファイルにアクセス権の制限が有る場合についての別実施例を図9を用いて説明する。ステップ403までは先の実施例と同様の為説明は省略する。ファイルが特定された場合ファイルサーバはそのファイルのアクセス権情報を調べ、アクセス制限がある場合(ステップ404)には、MFPに対してパスワードの送信を要求する。(ステップ405)MFPは操作者に対してパスワードの入力を促し、入力されたパスワードをファイルサーバに送信する。(ステップ406)
ファイルサーバは送信されたパスワードを照合し、一致した場合には(ステップ407)図3で説明した様に、ファイルのアドレスを通知(ステップ134)すると共に、ユーザの希望する処理が画像ファイルデータの取得であれば、MFPに対してファイルを転送する(ステップ408)。尚、アクセス権の制御を行う為の認証の方法は、ステップ405、406に示したパスワードによる方法に限定されず、例えば、指紋認証等の一般に広く用いられている生体認証、カードによる認証等、全ての認証手段を用いる事が出来る。
我々が扱う文書ファイルの中には、第3者による再利用を制限すべき物がある。先の実施例ではファイルサーバに蓄積されたファイルは全て自由にアクセス出来、ファイル全体、或いはその一部のオブジェクトは全て再利用が可能な事を前提に説明した。そこで、先の実施例でポインタ情報からファイルを検索した際に、検索の結果、特定出来たファイルにアクセス権の制限が有る場合についての別実施例を図9を用いて説明する。ステップ403までは先の実施例と同様の為説明は省略する。ファイルが特定された場合ファイルサーバはそのファイルのアクセス権情報を調べ、アクセス制限がある場合(ステップ404)には、MFPに対してパスワードの送信を要求する。(ステップ405)MFPは操作者に対してパスワードの入力を促し、入力されたパスワードをファイルサーバに送信する。(ステップ406)
ファイルサーバは送信されたパスワードを照合し、一致した場合には(ステップ407)図3で説明した様に、ファイルのアドレスを通知(ステップ134)すると共に、ユーザの希望する処理が画像ファイルデータの取得であれば、MFPに対してファイルを転送する(ステップ408)。尚、アクセス権の制御を行う為の認証の方法は、ステップ405、406に示したパスワードによる方法に限定されず、例えば、指紋認証等の一般に広く用いられている生体認証、カードによる認証等、全ての認証手段を用いる事が出来る。
又、本別実施例では紙文書に付加的に付与されたポインタ情報によりファイルを特定した場合の実施例を示したが、図3ステップ126−128で示す所謂検索処理でファイルを特定した場合においても同様の制御が可能である。
一方、ファイルサーバ内からファイルを特定出来なかった場合、即ち図3のステップ129−132で説明したベクトル化処理に対しても、制限を加える事が出来る。即ち紙文書を走査して得られたイメージ情報から該文書に対してのアクセス権の制限の存在を検出した場合には、認証確認が取れた場合のみベクトル化処理を行う事で、機密性の高い文書の使用に制限をかける事が出来る。
(ファイル特定に関する別実施例)
先の実施例では原稿走査して得られるイメージ情報から元ファイルデータを特定する手段は、図3に示す様に、文書中に付与されたポインタ情報に従う手段か、或いは文書中に記載された各オブジェクト情報に従う検索手段のいずれかに依るが、より正確に元ファイルを特定するには、該両手段を併用すれば良い。即ち、原稿中から得られるポインタ情報から元ファイルの存在が検出出来たとしても、更に該文書中のオブジェクト情報を使って、例えば、レイアウト情報に従うレイアウト検索、文字認識されたキーワードによる全文検索を検出されたファイルに対して行い、高い一致が得られた場合に該検出したファイルを、正式に元ファイルであると特定する。これは、例えば、ポインタ情報の下位の部分が曖昧で有ったり、誤り訂正でも訂正できなかった場合に対して、検索の範囲を絞り込んでファイルを特定出来る為、より高速で、確度の高いファイル特定が行える。
先の実施例では原稿走査して得られるイメージ情報から元ファイルデータを特定する手段は、図3に示す様に、文書中に付与されたポインタ情報に従う手段か、或いは文書中に記載された各オブジェクト情報に従う検索手段のいずれかに依るが、より正確に元ファイルを特定するには、該両手段を併用すれば良い。即ち、原稿中から得られるポインタ情報から元ファイルの存在が検出出来たとしても、更に該文書中のオブジェクト情報を使って、例えば、レイアウト情報に従うレイアウト検索、文字認識されたキーワードによる全文検索を検出されたファイルに対して行い、高い一致が得られた場合に該検出したファイルを、正式に元ファイルであると特定する。これは、例えば、ポインタ情報の下位の部分が曖昧で有ったり、誤り訂正でも訂正できなかった場合に対して、検索の範囲を絞り込んでファイルを特定出来る為、より高速で、確度の高いファイル特定が行える。
(ベクトル化の別実施例)
先の実施例では検索手段で、元ファイルの特定が出来ない場合、イメージ画像全体に対してベクトル化処理を行うが、例えば、一般の文書の場合、文書中のオブジェクト全て新規に作成された物でなく、一部のオブジェクトは他のファイルから流用して作成される場合がある。例えば、背景オブジェクト(壁紙)は文書作成アプリケーションで幾つかのパターンを予め用意してあり、その中から選択して用いるのが通常である。従って、このようなオブジェクトは文書ファイルデータベースの中の他の文書ファイル中に存在している可能性が高く、又再利用可能なベクトルデータとして存在する可能性が高い。
先の実施例では検索手段で、元ファイルの特定が出来ない場合、イメージ画像全体に対してベクトル化処理を行うが、例えば、一般の文書の場合、文書中のオブジェクト全て新規に作成された物でなく、一部のオブジェクトは他のファイルから流用して作成される場合がある。例えば、背景オブジェクト(壁紙)は文書作成アプリケーションで幾つかのパターンを予め用意してあり、その中から選択して用いるのが通常である。従って、このようなオブジェクトは文書ファイルデータベースの中の他の文書ファイル中に存在している可能性が高く、又再利用可能なベクトルデータとして存在する可能性が高い。
従って、このような背景から、図3のベクトル化処理129の別実施例として、ブロックセレクション処理で個別のオブジェクトに分割された各オブジェクトに対して、該オブジェクト単位でデータベース中から該一致するオブジェクトを一部に含むファイルを検索し、一致したオブジェクトに対して、個別に該ファイルからオブジェクト単位でベクトルデータを取得する。これに依って、文書全体をベクトル化する必要が無くなり、より高速にベクトル化出来、更にベクトル化による画質劣化を防止出来る。
一方、図3において検索処理126−128で元ファイルがPDFとして特定できた場合、該PDFがその文書の文字オブジェクトに対して既に文字認識された文字コードを付加ファイルとして有している場合がある。このようなPDFファイルをベクトル化する際には、該文字コードファイルを用いれば、129以降のベクトル化処理の中の文字認識処理を省く事が出来る。即ちベクトル化処理をより高速に処理する事が可能に成る。
(ベクトル化の別実施例)
ファイルサーバに元ファイルが存在しない場合は、ベクトル化の処理が必要になる。このとき図25のような現在の設定を確認するためのものを表示する。これば、図20から図24で設定されたもので、ハードディスクなどの記憶装置に保存してある設定である。ここで図25の「変換」を押す操作をすることでベクトル化の処理が起動する。ここで「変更」を押す操作をすると、図20から図24のような設定画面が表示され、現在の設定を変更することができる。ただしこの場合の設定の変更はその一回のベクトル化において有効であり、設定の情報はハードディスクには書き込まない。このようにすることにより、ユーザの目的や処理する文書によってベクトル化の処理内容を変更することが可能になる。
ファイルサーバに元ファイルが存在しない場合は、ベクトル化の処理が必要になる。このとき図25のような現在の設定を確認するためのものを表示する。これば、図20から図24で設定されたもので、ハードディスクなどの記憶装置に保存してある設定である。ここで図25の「変換」を押す操作をすることでベクトル化の処理が起動する。ここで「変更」を押す操作をすると、図20から図24のような設定画面が表示され、現在の設定を変更することができる。ただしこの場合の設定の変更はその一回のベクトル化において有効であり、設定の情報はハードディスクには書き込まない。このようにすることにより、ユーザの目的や処理する文書によってベクトル化の処理内容を変更することが可能になる。
また図26のように「デフォルトにする」というボタンを用意することで、変更した設定の内容をハードディスクなどの記憶装置に書き出すことで次回からのベクトル化時に最初に表示される設定を変更できるようになる。このようにすることにより、さらにユーザの目的に応じたベクトル化処理が可能となる。
Claims (15)
- 原稿を読み取り走査する手段と、該手段で得られたイメージ情報から、該原稿の電子ファイルを特定する特定手段と、前記特定手段で該原稿の電子ファイルが特定出来ない場合、前記画像読み取り走査手段で得られるイメージ情報をベクトル化手段でベクトルデータに変換する事を特徴とする画像処理システム。
- 前記特定手段は原稿に付加的に記録された電子ファイルの格納場所を認識する手段を含む事を特徴とする第1項記載の画像処理システム。
- 前記特定手段は原稿中に記載された特定の情報を記憶手段で格納されたファイルの中から検索する手段を有する事を特徴とする第1項記載の画像処理システム。
- 前記ベクトル化手段は原稿中の文字をOCRするOCR手段を含む事を特徴とする第1項記載の画像処理システム。
- 前記ベクトル化手段は原稿を複数のオブジェクトに分割し、各オブジェクトに対して独立にベクトル化する事を特徴とする第1項記載の画像処理システム。
- 前記ベクトル化手段はベクトル化されたオブジェクトを既存の文書作成ソフトウェアで扱える既定フォーマットに変換するフォーマット変換手段を含む事を特徴とする第1項記載の画像処理システム。
- 前記ベクトル化手段でベクトル化されたベクトルデータを記憶する画像記憶手段と、該ベクトルデータに該データを格納する格納場所を付加情報として付加する情報付加手段を更に備える事を特徴とする第1項記載の画像処理システム。
- 前記ファイル特定手段は、原稿読み取り走査手段によって得られる該原稿の電子ファイルから、原稿中に記載された特定の情報が検索して得られる場合に限って該電子ファイルに特定する事を特徴とする第2項記載の画像処理システム。
- 原稿を読み取り走査する手段と、該手段で得られたイメージ情報から、該原稿の電子ファイルを特定する手段とを有し、前記特定手段で得られた該原稿の電子ファイルがオブジェクト単位で既存の文書作成ソフトウェアで扱えない場合、
前記画像読み取り走査手段で得られるイメージ情報をベクトル化手段でベクトルデータに変換する事を特徴とする画像処理システム。 - 前記ベクトル化手段は原稿を読み取り走査して得られるイメージ情報をオブジェクト毎に分割する手段と、該分割されたオブジェクト単位で記憶手段で格納されたファイルの中から一致するオブジェクトを検索する手段を有し、該検索手段で得られた情報を用いてベクトル化する事を特徴とする第1項記載の画像処理システム。
- 前記ベクトル化手段は、オブジェクトの種類によってベクトル化の方法を設定する手段を有し、オブジェクトのベクトル化を行う際に、設定されたベクトル化手段を用いることを特徴とする第1項記載の画像処理システム。
- 前記ベクトル化手段は、前記11項のベクトル化方法の設定手段において文字認識結果を必要としないとなっている場合に、文字認識処理を行うことなく文字情報をベクトル化することを特徴とする第1項記載の画像処理システム。
- 前記ベクトル化手段は、該OCR結果より文字矩形情報を出現順に呼び出す手段と、注目している文字矩形の文字コードを呼び出す手段と、文字コードを既に出現している文字コードと比較する手段と、比較手段の結果によりフォント変換、あるいは認識を行う手段と、フォント変換あるいは認識結果を文字コードと共に記憶する手段、とを有することを特徴とする第1項記載の画像処理システム。
- 前記ベクトル化手段は、フォント種別の特徴辞書を有し、該OCR結果より文字矩形情報を出現順に呼び出す手段と、注目している文字矩形の文字コードを呼び出す手段と、文字矩形から文字画像を取り出し、フォント種別識別用の特徴抽出を行い各フォント種別辞書の同一文字コードの特徴と比較しフォント種別を決定する手段と、フォント種別決定手段によりあらかじめ作成しておいたフォントデータをフォント変換の結果とし、フォント変換あるいは認識結果を文字コードと共に記憶する手段、とを有することを特徴とする第1項記載の画像処理システム。
- 前記ベクトル化手段は、フォントの識別が出来なかった文字の前後のフォント種別より該文字のフォントを推定する手段と、推定されたフォントから作成したフォント識別用の辞書を使い再度の文字認識処理を行う手段と、文字認識結果の類似度により本来の文字認識結果を置き換える手段とを有することを特徴とする第14項記載の画像処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004013833A JP2005208872A (ja) | 2004-01-22 | 2004-01-22 | 画像処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004013833A JP2005208872A (ja) | 2004-01-22 | 2004-01-22 | 画像処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005208872A true JP2005208872A (ja) | 2005-08-04 |
Family
ID=34899786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004013833A Withdrawn JP2005208872A (ja) | 2004-01-22 | 2004-01-22 | 画像処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005208872A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009059050A (ja) * | 2007-08-30 | 2009-03-19 | Canon Inc | 画像処理装置および統合ドキュメント生成方法 |
JP2009069933A (ja) * | 2007-09-11 | 2009-04-02 | Konica Minolta Business Technologies Inc | 画像処理装置、画像処理方法および画像処理プログラム |
JP2010098744A (ja) * | 2008-10-20 | 2010-04-30 | Toshiba Corp | 画像処理装置及び画像処理方法 |
-
2004
- 2004-01-22 JP JP2004013833A patent/JP2005208872A/ja not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009059050A (ja) * | 2007-08-30 | 2009-03-19 | Canon Inc | 画像処理装置および統合ドキュメント生成方法 |
US8339622B2 (en) | 2007-08-30 | 2012-12-25 | Canon Kabushiki Kaisha | Image processing apparatus and integrated document generating method |
JP2009069933A (ja) * | 2007-09-11 | 2009-04-02 | Konica Minolta Business Technologies Inc | 画像処理装置、画像処理方法および画像処理プログラム |
JP2010098744A (ja) * | 2008-10-20 | 2010-04-30 | Toshiba Corp | 画像処理装置及び画像処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7681121B2 (en) | Image processing apparatus, control method therefor, and program | |
JP4181892B2 (ja) | 画像処理方法 | |
JP4251629B2 (ja) | 画像処理システム及び情報処理装置、並びに制御方法及びコンピュータプログラム及びコンピュータ可読記憶媒体 | |
US8339619B2 (en) | System and image processing method and apparatus for re-using and re-editing images | |
US7640269B2 (en) | Image processing system and image processing method | |
JP4393161B2 (ja) | 画像処理装置及び画像処理方法 | |
US8520006B2 (en) | Image processing apparatus and method, and program | |
JP4510535B2 (ja) | 画像処理装置及びその制御方法、プログラム | |
US20040213458A1 (en) | Image processing method and system | |
JP3862694B2 (ja) | 画像処理装置及びその制御方法、プログラム | |
JP2008146605A (ja) | 画像処理装置及びその制御方法 | |
JP4227432B2 (ja) | 画像処理方法 | |
JP4338189B2 (ja) | 画像処理システム及び画像処理方法 | |
JP2007129557A (ja) | 画像処理システム | |
JP2005149097A (ja) | 画像処理システム及び画像処理方法 | |
JP2006134042A (ja) | 画像処理システム | |
JP4185858B2 (ja) | 画像処理装置及びその制御方法、プログラム | |
JP4310176B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2005208872A (ja) | 画像処理システム | |
JP2006146486A (ja) | 画像処理装置 | |
JP2006195886A (ja) | 画像処理システム | |
JP2008084127A (ja) | 画像形成装置 | |
JP2005136729A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体 | |
JP2005149098A (ja) | 画像処理システム及び画像処理装置並びに画像処理方法 | |
JP2006148663A (ja) | 画像処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070403 |