JP2009193356A - 画像処理装置、画像処理方法、プログラム、及び記憶媒体 - Google Patents

画像処理装置、画像処理方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP2009193356A
JP2009193356A JP2008033574A JP2008033574A JP2009193356A JP 2009193356 A JP2009193356 A JP 2009193356A JP 2008033574 A JP2008033574 A JP 2008033574A JP 2008033574 A JP2008033574 A JP 2008033574A JP 2009193356 A JP2009193356 A JP 2009193356A
Authority
JP
Japan
Prior art keywords
metadata
accuracy
image processing
determined
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008033574A
Other languages
English (en)
Other versions
JP2009193356A5 (ja
Inventor
Shinji Sano
真治 佐野
Hiroshi Kaburagi
浩 蕪木
Tsutomu Sakagami
努 坂上
Takeshi Namigata
健 波潟
Manabu Takebayashi
学 竹林
Reiji Misawa
玲司 三沢
Osamu Iinuma
修 飯沼
Naoki Ito
直樹 伊藤
Yoichi Kashibuchi
洋一 橿渕
Junya Arakawa
純也 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008033574A priority Critical patent/JP2009193356A/ja
Priority to US12/369,995 priority patent/US20090274369A1/en
Publication of JP2009193356A publication Critical patent/JP2009193356A/ja
Publication of JP2009193356A5 publication Critical patent/JP2009193356A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/987Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns with the intervention of an operator

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Character Discrimination (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】本発明の課題は、入力画像をオブジェクト単位で蓄積、再利用することができる画像処理装置を提供することである。
【解決手段】上記課題を解決するために、本発明に係る画像処理装置は、入力画像を構成するオブジェクトを分割する分割手段と、OCR手段及び形態素解析手段を用いて前記分割されたオブジェクト毎にメタデータを付加するメタデータ付加手段と、前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示手段と、前記付加されたメタデータの確度を判定するメタデータ確度判定手段とを備え、前記表示手段は、前記メタデータ確度判定手段によって確度が低いと判定されたメタデータを、優先的に表示することを特徴とする。
【選択図】図26

Description

本発明は、入力画像を記録装置に蓄積し、必要な画像を編集する画像処理装置、画像処理方法、プログラム、及び記憶媒体に関する。
従来の画像処理装置では、原稿画像をスキャナで読み取り、その画像を再利用しやすいフォーマットに変換及び分解し、記録装置に保存する。
記録装置にこの画像を保存する際には、画像ごとにメタデータを付加し、後で再利用する際の検索性を高める。その結果、ユーザは、ユーザが求める画像を見つけやすくなる。
メタデータには、画像のエリアやサイズ、ユーザの情報、画像読み取り装置設置場所の情報、画像が入力された時刻などの他に、その画像自体や関連性の高い画像から抽出された文字コードなども含まれる。
図32(a)〜(d)は、画像処理装置に読み取られた画像から文字の抽出が行われる過程を示している。すなわち、図32(a)は、画像処理装置により読み取られる画像の一例を示し、図32(b)は、画像から抽出された文字領域を示している。また、図32(c)は、抽出された文字コードを並べたものを示し、図32(d)は、これらの文字コードに対して形態の解析を行って品詞毎に分解されたものを示している。
図32(a)に示されている画像が画像処理装置に入力されると、図32(b)に示されているように、画像内の色の微分エッジ量の特徴量を基に、文字領域の抽出が行われる。そして、図32(c)に示されているように、光学的文字認識(OCR)処理が行われ、文字領域に含まれる文字が文字コードに変換される。さらに、得られた文字コードは、形態素解析が行われる。この形態素解析とは、自然言語文字列を形態素と呼ばれる文法上意味を持つ最小単位の語句に分解する。そして、図32(d)に示されているように、文字コードが品詞毎に分解される。
そして、この結果が、メタデータとして入力画像に付加される。
しかし、OCRや形態素解析の精度が充分でない場合、画像に誤ったメタデータが付加されることがある。このため、ユーザがマニュアル操作で、誤ったメタデータを検索し、これらの正誤を確認した上で、誤っていればこれらのメタデータを修正できる手段を提供する必要がある。このような手段として、例えば、特許文献1に記載されたものがある。
特開2000−268124号公報
しかし、画像処理装置が管理する画像の蓄積枚数が増えると、これに応じて必要となるマニュアル操作の回数やその操作に要する時間が増加する。この結果、ユーザビリティを損なうという問題があった。
また、現在、入力された画像をページ単位ではなく、文字、図面、線画、表、写真のオブジェクトと呼ばれる画像単位に分割して、ベクター画像で蓄積する方法が考えられている。この方法を実施する場合、ページ単位で画像を蓄積する画像処理装置に比べて、扱う画像の蓄積枚数やメタデータの数が増加するため、ユーザに求められる検索、正誤確認、および修正操作の回数と所要時間がさらに増加するという問題がある。
そこで本発明は、上述したような画像処理装置において、ユーザが行うマニュアル操作の回数と所要時間を低減させ、高いユーザビリティを有する画像処理装置及び画像処理方法を提供することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、入力画像を構成するオブジェクトを分割する分割手段と、OCR手段及び形態素解析手段を用いて前記分割されたオブジェクト毎にメタデータを付加するメタデータ付加手段と、前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示手段と、前記付加されたメタデータの確度を判定するメタデータ確度判定手段とを備え、前記表示手段は、前記メタデータ確度判定手段によって確度が低いと判定されたメタデータを、優先的に表示することを特徴とする。
本発明によれば、誤ったメタデータである可能性が高いメタデータやオブジェクトが優先的に表示されるので、誤って付加されたメタデータをユーザが検索、修正する場合に、検索が容易になる。また、ユーザのマニュアル操作による修正内容は、同じ誤りによって生じた他のメタデータにも反映され、各々の同種の誤りを持つメタデータを一括で修正することができる。また、ユーザの修正した内容は、その後の画像入力に伴うメタデータ生成の際に反映される。
[第1実施形態]
次に本発明に係る画像処理方法の第1実施形態を図面に基づいて説明する。
図1は、本実施形態に係る画像処理装置の一例を示すブロック図を示している。そして、図2は、図1におけるMFPの一例を示すブロック図を示している。また、図3は、第1実施形態で説明する第1のデータ処理フローを示している。
図25は、第1実施形態で画像処理装置において行われる処理を示している。すなわち、第1実施形態は、符号2501〜2508で指し示される手段により実行される。符合2501は、オブジェクトの分割手段を指し示す。符号2502は、変換手段を指し示す。符号2503は、OCR手段を指し示す。符号2504は、形態素解析手段を指し示す。符号2505は、メタデータ付加手段を指し示す。符号2506は、オブジェクト及びメタデータの表示手段を指し示す。符号2507は、メタデータ修正手段を指し示す。符号2508は、メタデータ確度判定手段を指し示す。
そして、OCR手段2503は、メタデータ確度判定手段2508に接続されており、形態素解析手段2504は、メタデータ確度判定手段2508に接続されている。また、メタデータ確度判定手段2508は、オブジェクト及びメタデータの表示手段2506に接続されている。
図7は、ベクトル化処理の中で実施されるオブジェクト分割処理で領域分割された結果の一例を示している。そして、図8は、オブジェクト分割されたときの各属性のブロック情報および入力ファイル情報を示している。また、図9は、再利用可能なデータへの変換で重要なベクトル化処理のフロー図を示している。図10は、ベクトル化の処理における角抽出の処理を示している。図11は、ベクトル化の処理における輪郭線まとめの処理を示している。図12は、図9に示されている処理で生成されたベクトルデータのグループ化の処理を示すフローチャートを示している。図13は、図12に示されている処理でグループ化されたベクトルデータに対する図形要素検出の処理のフローチャートを示している。図14は、本実施形態に係るベクトル化処理結果のデータ構造を示している。図15は、図11に示されているアプリデータ変換の処理を示すフローチャートを示している。図16は、図15に示されている文書構造ツリー生成の処理を示すフローチャートを示している。図17は、文書構造ツリー生成処理の対象となる文書を示している。図18は、図16の処理によって生成される文書構造ツリーを示している。図19は、本実施形態で説明するScalable Vector Graphics(SVG)形式の一例を示している。
[画像処理システム]
図1において、本実施形態に係る画像処理装置は、オフィス10とオフィス20とをインターネット104で接続した環境において使用される。
オフィス10内に構築されたLAN107には、記録装置としての複合機(MFP)100、MFP100を制御するマネージメントPC101、ローカルPC102、文書管理サーバ106、文書管理サーバ106のためのデータベース105が接続されている。
オフィス20内にはLAN108が構築され、LAN108には文書管理サーバ106、および文書管理サーバ106のためのデータベース105が接続されている。
LAN107、108にはプロキシサーバ103が接続され、LAN107、108はプロキシ(proxy)サーバ103を介してインターネットに接続される。
MFP100は、原稿から読み取った入力画像に対する画像処理の一部を担当する。そして、MFP100によって処理された画像は、LAN109を通じてマネージメントPC101に入力される。また、MFP100は、ローカルPC102、もしくは不図示の汎用PCから送信されるページ記述言語(Page Description Language以下、PDL)を解釈して、プリンタとしても機能する。さらに、MFP100は、原稿から読み取った画像をローカルPC102もしくは、不図示の汎用PCに送信する機能をもつ。
ここで、マネージメントPC101は、画像記憶手段、画像処理手段、表示手段、入力手段を含む通常のコンピュータであり、機能的にはこれらの一部が、MFP100と一体化して、画像処理装置の要素となっている。なお、本実施形態では、マネージメントPCを介してデータベース105において、下記に記載する登録処理などが実行されるが、マネージメントPCで行われる処理をMFPで実行するようにしても良い。
さらにMFP100は、LAN109によってマネージメントPC101に直接接続されている。
[MFP]
図2において、MFP100は、不図示の自動原稿送り装置(Auto Document Feeder以下、ADF)を有する画像読み取り部110を有する。この画像読み取り部110は束状の或いは1枚の原稿の画像を光源で照射し、反射画像をレンズで固体撮像素子上に結像する。固体撮像素子は、所定の解像度(例えば600dpi)および所定輝度レベル(例えば8ビット)の画像読み取り信号を生成し、画像読み取り信号からラスターデータよりなる画像が生成される。
MFP100は、記憶装置(以下、BOX)111および記録装置112を有し、通常の複写機能を実行する際には、イメージデータをデータ処理装置115によって、複写用の画像処理を行い記録信号に変換する。複数枚複写の場合には、1頁分の記録信号が一旦BOX111に記憶保持された後、記録装置112に順次出力されて、記録紙上に記録画像が形成される。
MFP100は、LAN107との接続のためのネットワークI/F114を有する。また、MFP100は、ローカルPC102、もしくは他の不図示の汎用PCからドライバーを利用して出力するPDLを、記録装置112によって記録する。ローカルPC102からドライバーを経由して出力されるPDLデータは、LAN107からネットワークI/F114を経てデータ処理装置115で解釈および処理され、記録可能な記録信号に変換される。その後、MFP100において、記録信号は、記録紙上に記録画像として記録される。
BOX111は、画像読み取り部110からのデータやローカルPC102からドライバーを経由して出力されるPDLデータをレンダリングしたデータを保存できる機能を有している。
MFP100は、MFP100に設けられたキー操作部(入力装置113)、あるいはマネージメントPC101の入力装置(キーボード、ポインティングデバイス)を通じて操作される。これらの操作のために、データ処理装置115 は、内部の不図示の制御部によって所定の制御を実行する。
MFP100は表示装置116を有し、操作入力の状態と、処理すべきイメージデータとを、表示装置116によって表示する。
BOX111は、ネットワークI/F117を介して、マネージメントPC101から直接制御する。LAN109は、MFP100とマネージメントPC101との間のデータの授受、制御信号授受に用いられる。
次に、図2のデータ処理装置115の詳細について、図36を用いて説明する。尚、図36の110〜116については、図2の説明において前述しているため説明を一部省略する。
データ処理装置115は、CPU、メモリ等で構成される制御ユニットであり、画像情報やデバイス情報の入出力を行うコントローラである。ここで、CPU120は装置全体を制御するコントローラである。RAM123はCPU120が動作するためのシステムワークメモリであり、画像データを一時記憶するための画像メモリでもある。ROM122はブートROMであり、システムのブートプログラムが格納されている。操作部I/F121は操作部133とのインターフェース部で、操作部133に表示するための画像データを操作部133に対して出力する。また、操作部133から本画像処理装置の使用者が入力した情報を、CPU120に伝える役割をする。以上のデバイスがシステムバス124上に配置される。
イメージバスインターフェース(Image Bus I/F)125はシステムバス124と画像データを高速で転送する画像バス126とを接続し、データ構造を変換するバスブリッジである。画像バス126は、例えば、PCIバスやIEEE1394で構成される。画像バス126上には以下のデバイスが配置される。PDL処理部127はPDLコードを解析し、ビットマップイメージに展開する。デバイスI/F部128は、信号線131を介して画像入出力デバイスである画像読み取り部110、信号線132を介して記録装置112、をそれぞれデータ処理装置115に接続し、画像データの同期系/非同期系の変換を行う。スキャナ画像処理部129は、入力画像データに対し補正、加工、編集を行う。プリンタ画像処理部130は、記録装置112に出力すべきプリント出力画像データに対して、記録装置112に応じた補正、解像度変換等を行う。
オブジェクト認識部140は、後述するオブジェクト分割部143で分割したオブジェクトに対し、後述するオブジェクト認識処理を行う。ベクトル化処理部141は、後述するオブジェクト分割部143で分割したオブジェクトに対し、後述するベクトル化処理を行う。OCR処理(文字認識処理)部142は、後述するオブジェクト分割部143で分割したオブジェクトに対し、後述するOCR処理(文字認識処理)を行う。オブジェクト分割部143は、後述するオブジェクト分割を行う。オブジェクト価値判定部144は、前記オブジェクト分割部143で分割したオブジェクトに対し、後述するオブジェクト価値判定を行う。メタデータ付与部145は、前記オブジェクト分割部143で分割したオブジェクトに対し、後述するメタデータの付与を行う。圧縮解凍部146は、画像バス126および記録装置112を効率的に利用するために画像データの圧縮解凍処理を行う。
〔オブジェクト毎の保存〕
図3は、ビットマップ画像がオブジェクト毎に保存されるフローチャートを示している。ここで、ビットマップ画像データは、MFP100の画像読み取り部110により取得されても良い。また、ビットマップ画像データは、ローカルPC102上において、ドキュメントがMFP100内部でレンダリングされて生成されても良い。また、ドキュメントは、アプリケーションソフトで作成されたものでも良い。
図3に示されている処理は、図36のCPU120によって実行される。
まず、ステップS301において、オブジェクト分割が行われる。オブジェクト分割後のオブジェクトの種類は、文字、写真、グラフィック(図面、線画、表)、背景、を指す。分割された各々のオブジェクトは、ビットマップデータのままで、ステップS302において、オブジェクトの種類(文字、写真、グラフィック、背景)が判定される。
オブジェクトが写真と判定された場合、ステップS303において、ビットマップのままJPEG圧縮される。また、オブジェクトが背景と判定された場合も同様に、ステップS303において、ビットマップのままJPEG圧縮される。
次に、オブジェクト判定の結果が、グラフィックの場合、ステップS304において、ベクトル化処理され、パス化されたデータに変換される。最後に、オブジェクト判定の結果が、文字の場合も、ステップS304において、グラフィックと同様にベクトル化処理され、パス化されたデータに変換される。更に、文字の場合には、ステップS308において、OCR処理が施され、文字コード化されたデータに変換される。そして、全てのオブジェクトデータと、文字コード化されたデータが一つのファイルとしてまとめられる。
次に、ステップS305において、各オブジェクトに対して、最適なメタデータが付与される。メタデータが付与された各々のオブジェクトは、ステップS306において、MFP100に内蔵されているBOX111に保存される。保存されたデータは、ステップS307において、表示装置116によってUI(ユーザインターフェース)画面に表示される。
〔ビットマップ画像データの作成〕
<MFP100の画像読み取り部入力の場合>
MFP100の画像読み取り部110を使用した場合には、図5に示されているステップS501において、画像読み取り部110により画像がMFP100に読み込まれる。MFP100に読み込まれた画像は、既にビットマップ画像データである。そのビットマップ画像データには、ステップS502において、データ処理装置115によりスキャナに依存する画像処理が行われる。スキャナに依存する画像処理とは、例えば、色処理やフィルタ処理を指す。
<ローカルPC102上のアプリケーションソフトを使用した場合>
ローカルPC102上のアプリケーションソフトを使用して作成したアプリデータは、図6に示されているステップ601において、ローカルPC102上にあるプリントドライバを介して、プリントデータに変換され、MFP100に送信される。ここで、プリントデータとは、PDLを意味し、例えば、LIPS(登録商標)、Postscript(登録商標)を指す。次に、ステップ602において、MFP100内部に存在するインタープリタを介して、ディスプレイリストが生成される。次に、ステップS603において、ディスプレイリストがレンダリングされることにより、ビットマップ画像データが生成される。
上記2つの例により生成されたビットマップ画像データは、ステップ301において、オブジェクト分割される。
〔メタデータ付け(ステップS307)〕
図4は、ステップS305のメタデータ付けに関するフローチャートを示している。
図4に示されている処理は、図36のCPU120CPUによって実行される。
図4に示されている処理では、まず、ステップS401において、そのオブジェクトの周囲で距離が一番近くに存在する文字オブジェクトが選択される。次に、ステップS402において、選択された文字オブジェクトに対して、ステップ402において、形態素解析が行われる。その形態素解析結果により抽出された単語の一部、または、全部がメタデータとして、ステップ403では、各オブジェクトに付加される。
また、メタデータの作成には、形態素解析だけではなく、画像特徴量抽出、構文解析を用いても良い。
[登録の詳細設定]
図19は、図3のベクトル化処理ステップS304でベクトル化されたデータのフォーマットの一例を示している。本実施形態では、SVG形式で表記しているが、これに限定されるものではない。
図19では説明のため、オブジェクトの表記が枠で囲われている。枠1901は、イメージ属性を示し、そこには、イメージオブジェクトの領域の示す領域情報とビットマップ情報が示されている。枠1902は、文字オブジェクトの情報が、枠1903では、枠1902で示された内容をベクターオブジェクトとして表現される。また、枠1904は、表オブジェクトなどのラインアートを表している。
[オブジェクト分割ステップ]
公知の領域分割技術を用いてオブジェクト分割を行う。以下で、その一例を説明する。
ステップS301(オブジェクト分割ステップ)においては、図7の右半部に示されている画像702のように、入力画像が属性ごとに矩形ブロックに分割される。前述のように、矩形ブロックの属性としては、文字、写真、グラフィック(図面、線画、表)がある。
オブジェクト分割ステップにおいては、まず、不図示のRAMに格納されたイメージデータが白黒に2値化され、黒画素輪郭で囲まれる画素塊が抽出される。
さらに、このように抽出された黒画素塊の大きさが評価され、大きさが所定値以上の黒画素塊の内部にある白画素塊に対する輪郭追跡が行われる。白画素塊に対する大きさ評価、内部黒画素塊の追跡というように、内部の画素塊が所定値以上である限り、再帰的に内部画素塊の抽出、輪郭追跡が行われる。
画素塊の大きさは、例えば画素塊の面積によって評価される。
このようにして得られた画素塊に外接する矩形ブロックが生成され、矩形ブロックの大きさ、形状に基づき属性が判定される。
例えば、縦横比が1に近く、大きさが一定の範囲の矩形ブロックは文字領域矩形ブロックの可能性がある文字相当ブロックとし、近接する文字相当ブロックが規則正しく整列しているときには、以下のような処理が行なわれる。すなわち、これら文字相当ブロックを纏めた新たな矩形ブロックが生成され、新たな矩形ブロックが文字領域矩形ブロックとされる。
また扁平な画素塊、もしくは、一定大きさ以上でかつ四角形の白画素塊の外接矩形が重ならないで並んでいる黒画素塊を表グラフィック領域矩形ブロック、それ以外の不定形の画素塊を写真領域矩形ブロックとされる。
オブジェクト分割ステップでは、このようにして生成された矩形ブロックのそれぞれについて、図8に示されている、属性のブロック情報および入力ファイル情報が生成される。
図8において、ブロック情報には各ブロックの属性、位置の座標X、座標Y、幅W、高さH、OCR情報が含まれる。属性は1〜3の数値で与えられ、1は文字領域矩形ブロック、2は写真領域矩形ブロック、3は表グラフィック領域矩形ブロックを示す。座標X、座標Yは入力画像における各矩形ブロックの始点のX、Y座標(左上角の座標)である。幅W、高さHは矩形ブロックのX座標方向の幅、Y座標方向の高さである。OCR情報は、入力画像におけるポインタ情報の有無を示す。
さらに入力ファイル情報として矩形ブロックの個数を示すブロック総数Nが含まれる。
これらの矩形ブロックごとのブロック情報は、特定領域でのベクトル化に利用される。またブロック情報によって、特定領域とその他の領域を合成する際の相対位置関係を特定でき、入力画像のレイアウトを損なわずにベクトル化領域とラスターデータ領域を合成することが可能となる。
[ベクトル化ステップ]
公知のベクトル化技術を用いてベクトル化を行う。以下で、その一例を説明する。
ステップS304(ベクトル化ステップ)は、図9に示されている各ステップによって実行される。
図9に示されている各ステップによって実行される処理により、オブジェクト分割ステップにより分割されたオブジェクトが、オブジェクトの属性に応じて解像度に依存しない形態へ変換される。
図9に示されている処理は、図36のCPU120によって実行される。
図9に示されている処理では、まず、ステップS901において、特定領域が文字領域矩形ブロックであるか否かが判定される。そして、特定領域が文字領域矩形ブロックであると判定される場合には、ステップS902以下のステップに進み、パターンマッチングの一手法を用いて、特定領域の認識が行われ、特定領域に対応する文字コードが得られる。ステップS901において、特定領域が文字領域矩形ブロックでないと判定される場合には、ステップS912に、処理が移行する。
次に、ステップS902で、特定領域に対し横書き、縦書きの判定(組み方向判定)を行うために、特定領域内で画素値に対する水平および垂直の射影が取られる。
次に、ステップS903で、ステップS902の射影の分散が評価される。水平射影の分散が大きい場合は横書き、垂直射影の分散が大きい場合は縦書きと判定される。
次に、ステップS904で、ステップS903の評価結果に基づき、組み方向が判定され、行の切り出しが行われ、その後、文字を切り出して文字画像が得られる。
文字列および文字への分解は、以下のように行われる。すなわち、文字列が、横書きの場合には、水平方向の射影を利用して、文字列の行が切り出され、切り出された行に対する垂直方向の射影から、文字が切り出される。文字列が、縦書きの場合には、水平と垂直について逆の処理が行われる。このとき、行および文字の切り出しに際して、文字のサイズも検出される。
次に、ステップS905で、ステップS904で切り出された各文字について、文字画像から得られる特徴を数十次元の数値列に変換した観測特徴ベクトルが生成される。特徴ベクトルの抽出には種々の公知手法がある。例えば、文字をメッシュ状に分割し、各メッシュ内の文字線を方向別に線素としてカウントしたメッシュ数次元ベクトルを特徴ベクトルとする方法を用いても良い。
次に、ステップS906で、ステップS905で得られた観測特徴ベクトルと、あらかじめフォントの種類ごとに求められている辞書特徴ベクトルとが比較され、観測特徴ベクトルと辞書特徴ベクトルとの距離が算出される。
次に、ステップS907で、ステップS906で算出された距離が評価され、最も距離の近いフォントの種類が認識結果とされる。
次に、ステップS908で、ステップS907における距離評価において、最短距離が所定値よりも大きいか否か、類似度が判定される。類似度が、所定値以上の場合は、辞書特徴ベクトルにおいて、形状が類似する他の文字に誤認識している可能性が高い。そこで、類似度が所定値以上の場合は、ステップS907の認識結果を採用されず、ステップS911の処理に進む。類似度が、所定値より低い(小さい)ときは、ステップS907の認識結果が採用され、ステップS909に処理が進む。
ステップS909(フォント認識ステップ)では、文字認識の際に用いられる、フォントの種類に対応する辞書特徴ベクトルが、文字形状種すなわちフォント種に対して複数用意される。そして、パターンマッチングの際に、文字コードとともにフォント種が出力されることで、文字フォントが認識される。
次に、ステップS910で、文字認識およびフォント認識よって得られた文字コードおよびフォント情報を用いて、各々あらかじめ用意されたアウトラインデータを用いて、各文字がベクトルデータに変換される。なお、入力画像が、カラーの場合は、カラー画像から各文字の色を抽出してベクトルデータとともに記録され、処理が終了する。
ステップS911では、文字が一般的なグラフィックと同様に扱われ、該文字がアウトライン化される。すなわち、誤認識を起こす可能性の高い文字については、可視的にイメージデータに忠実なアウトラインのベクトルデータが生成される。
ステップS912では、特定領域が文字領域矩形ブロックでないときは、画像の輪郭に基づいてベクトル化の処理が実行される。
以上の処理により、文字領域矩形ブロックに属するイメージ情報が、ほぼ形状、大きさ、色が忠実なベクトルデータに変換される。
[グラフィック領域のベクトル化]
ステップS301の文字領域矩形ブロック以外の領域、すなわちグラフィック領域矩形ブロックと判定されたときは、特定領域内で抽出された黒画素塊の輪郭がベクトルデータに変換される。
文字領域以外の領域のベクトル化においては、まず線画を直線および/または曲線の組み合わせとして表現するために、曲線を複数の区間(画素列)に区切る「角」が検出される。角とは曲率が極大となる点であり、図10に示されている曲線上の画素Piが角か否かの判定は、以下のように行われる。
すなわち、Piを起点とし、曲線に沿ってPiから両方向に所定画素(k個とする。)ずつ離れた画素Pi−k、Pi+kが線分Lで結ばれる。画素Pi−k、P i+k間の距離をd1、線分Lと画素Piとの距離をd2、曲線の画素Pi−k 、Pi+k間の弧の長さをAとするとき、d2が極大となるとき、あるいは比( d1/A)が閾値以下となるときに画素Piが角と判定される。
角によって分割された画素列が、直線あるいは曲線で近似される。直線への近似は最小二乗法により実行され、曲線への近似は3次スプライン関数などが用いられる。画素列を分割する角の画素は近似直線あるいは近似直線における、始端または終端となる。
さらに、ベクトル化された輪郭内に白画素塊の内輪郭が存在するか否かが判定され、内輪郭が存在するときはその輪郭がベクトル化され、内輪郭の内輪郭というように、再帰的に反転画素の内輪郭がベクトル化される。
以上のように、輪郭の区分線近似により、任意形状の図形のアウトラインがベクトル化される。元原稿がカラーの場合は、カラー画像から図形の色を抽出してベクトルデータとともに記録される。
図11に示されているように、ある注目区間で外輪郭PRjと、内輪郭PRj+1あるいは別の外輪郭が近接している場合、2個あるいは複数の輪郭線をひとまとめにし、太さを持った線として表現される。例えば、輪郭Pj+1の各画素Piから輪郭PRj上で最短距離となる画素Qiまでの距離PiQiが算出され、PQiのばらつきがわずかである場合には、注目区間を画素Pi、Qiの中点Miの点列に沿った直線または曲線で近似される。例えば、近似直線、近似曲線の太さは、距離PiQiの平均値で近似される。
線や線の集合体である表罫線は、太さを持つ線の集合とすることにより、効率よくベクトル表現される。
輪郭まとめの処理の後、全体の処理が終了する。
なお、写真領域矩形ブロックについては、ベクトル化されず、イメージデータのままとされる。
[図形認識]
以上のようにして、線図形のアウトラインがベクトル化された後、ベクトル化された区分線が図形オブジェクトごとにグループ化される。
図12に示されている各ステップにおいて、ベクトルデータを図形オブジェクトごとにグループ化する処理が実行される。
図12に示されている処理は、図36のCPU120によって実行される。
図12に示されている処理では、まず、ステップS1201で、各ベクトルデータの始点及び終点が算出される。
次に、ステップS1202(図形要素検出)で、ステップS1201で求められた始点及び終点の情報を用いて、図形要素が検出される。ここで、図形要素とは、区分線により作られている閉図形であり、検出に際しては、始点、終端となっている共通の角の画素においてベクトルが連結される。ここでは、閉図形の各ベクトルは、その両端にそれぞれ連結するベクトルを有しているという原理が応用される。
次に、ステップS1203で、図形要素内に存在する他の図形要素、もしくは区分線がグループ化され、一つの図形オブジェクトとされる。また、図形要素内に他の図形要素、区分線が存在しない場合には、図形要素が図形オブジェクトとされる。
[図形要素の検出]
ステップS1202(図形要素検出)の処理は、図13に示されている各ステップによって実行される。
図13に示されている処理は、図36のCPU120によって実行される。
図13に示されている処理では、まず、ステップS1301で、ベクトルデータより両端に連結していない不要なベクトルが除去され、閉図形のベクトルが抽出される。
次に、ステップS1302で、閉図形のベクトルについて、いずれかのベクトルの端点(始点または終点)を開始点とし、一定方向、例えば時計回りに、順にベクトルが検索される。すなわち、他端点において他のベクトルの端点を検索し、所定距離内の最近接端点を連結ベクトルの端点とされる。閉図形のベクトルを1まわりして開始点に戻ったとき、通過したベクトルを全て一つの図形要素の閉図形としてグループ化される。また、閉図形内部にある閉図形のベクトルも全てグループ化される。さらに、まだグループ化されていないベクトルの始点を開始点とし、同様の処理が繰り返される。
最後に、ステップS1303で、ステップS1301で除去された不要ベクトルのうち、ステップS1302で閉図形としてグループ化されたベクトルに端点が近接しているベクトルが検出され、一つの図形要素としてグループ化される。
以上の処理によって図形ブロックを、再利用可能な個別の図形オブジェクトとして扱う事が可能になる。
[BOX保存処理]
図3に示されているオブジェクト分割ステップ(ステップS301)の後、ベクトル化(ステップS304)された結果のデータを用いて、BOX保存データへの変換処理が実行される。ステップS304のベクトル化処理結果は、図14に示されている中間データの形式、いわゆるDocument Analysis Output Format(DAOF)と呼ばれる形式で保存されている。
図14に示されているように、DAOFは、ヘッダ(header)1401、レイアウト記述データ部1402、文字認識記述データ部1403、表記述データ部1404、画像記述データ部1405よりなるデータ構造を有する。
ヘッダ1401には、処理対象の入力画像に関する情報が保持される。
レイアウト記述データ部1402には、入力画像中の矩形ブロックの属性である文字、線画、図面、表、写真の情報と、これら属性が認識された各矩形ブロックの位置情報が保持される。
文字認識記述データ部1403には、文字領域矩形ブロックのうち、文字認識して得られる文字認識結果が保持される。
表記述データ部1404には、表の属性を持つグラフィック領域矩形ブロックの表構造の詳細が格納される。
画像記述データ部1405には、グラフィック領域矩形ブロックにおけるイメージデータが、入力画像データから切り出して保持される。
ベクトル化処理を指示された特定領域においては、ブロックに対しては、画像記述データ部1405には、ベクトル化処理により得られたブロックの内部構造や、画像の形状や文字コードあらわすデータの集合が保持される。
一方、ベクトル化処理の対象ではない、特定領域以外の矩形ブロックでは、入力画像データそのものが保持される。
BOX保存データへの変換処理は、図15に示されている各ステップにより実行される。
図15に示されている処理は、図36のCPU120によって実行される。
図15に示されている処理では、まず、ステップS1501で、DAOF形式のデータが入力される。
次に、ステップS1502で、アプリデータの元となる文書構造ツリー生成が行われる。
次に、ステップS1503で、文書構造ツリーを元に、DAOF内の実データを取得され、実際のアプリデータが生成される。
ステップS1502の文書構造ツリー生成処理は、図16に示されている各ステップにより実行される。図16に示されている処理における全体制御の基本ルールとして、処理の流れはミクロブロック(単一矩形ブロック)からマクロブロック(矩形ブロックの集合体)へ移行する。以後「矩形ブロック」は、ミクロブロックおよびマクロブロック両者を意味する。
図16に示されている処理は、図36のCPU120によって実行される。
図16に示されている処理では、まず、ステップS1601で、矩形ブロック単位で、縦方向の関連性に基づいて、矩形ブロックが再グループ化(グルーピング)される。図16に示されている処理は繰り返し実行されることがあるが、処理開始直後はミクロブロック単位での判定となる。ここで、関連性に基づいてグループ化されたグループを「関連グループ」と呼んでも良い。
ここで、関連性とは、距離が近い、ブロック幅(横方向の場合は高さ)がほぼ同一であることなどの特徴によって定義される。また、距離、幅、高さなどの情報はDAOFを参照して、抽出される。
図17に示されているイメージデータでは、最上部の領域の画像V0で、矩形ブロックT1、T2が横方向に並列されている。矩形ブロックT1、T2の下には横方向セパレータS1が存在し、横方向セパレータS1の下に矩形ブロックT3、T4、T5、T6、T7が存在する。
矩形ブロックT3、T4、T5は、横方向セパレータS1下側の領域のグループV1における左半部において上から下に、縦方向に配列されている。そして、矩形ブロックT6、T7は、横方向セパレータS1下側の領域のグループV2における右半部において上下に配列されている。
そして、ステップS1601の縦方向の関連性に基づくグルーピングの処理が実行される。これによって、矩形ブロックT3、T4、T5が1個のグループ(矩形ブロック)V1にまとめられ、矩形ブロックT6、T7が1個のグループ(矩形ブロック)V2にまとめられる。グループV1、V2は同一階層となる。
次に、ステップS1602で、縦方向のセパレータの有無がチェックされる。セパレータは、DAOF中でライン属性を持つオブジェクトであり、アプリケーションソフトウエア中で明示的にブロックを分割する機能をもつ。セパレータが検出されると、処理対象の階層において、入力画像の領域を、セパレータを境界として左右に分割される。図17に示されているイメージデータでは縦方向のセパレータは存在しない。
次に、ステップS1603で、縦方向のグループ高さの合計が入力画像の高さに等しくなったか否かが判定される。すなわち縦方向(例えば上から下へ。)に処理対象の領域を移動しながら、横方向のグルーピングを行うとき、入力画像全体の処理が終了したときには、グループ高さ合計が入力画像高さになることを利用し、処理の終了の判定が行われる。グルーピングが終了したときはそのまま処理終了し、グルーピングが終了していなかったときはステップS1604に処理が進む。
次に、ステップS1604で、横方向の関連位に基づくグルーピングの処理が実行される。これによって、矩形ブロックT1、T2が1個のグループ(矩形ブロック)H 1にまとめられ、矩形ブロックV1、V2が1個のグループ(矩形ブロック)H 2にまとめられる。グループH1、H2は同一階層となる。ここでも、処理開始直後はミクロブロック単位での判定となる。
次に、ステップS1605で、横方向のセパレータの有無がチェックされる。セパレータを検出すると、処理対象の階層において、入力画像の領域を、セパレータを境界として上下に分割される。図17に示されているイメージデータでは横方向のセパレータS1が存在する。
以上の処理結果は、図18に示されているツリーとして登録される。
図18において、入力画像V0は、最上位階層にグループH1、H2、セパレータS1を有し、グループH1には第2階層の矩形ブロックT1、T2が属する。
グループH2には、第2階層のグループV1、V2が属し、グループV1には、第3階層の矩形ブロックT3、T4、T5が属し、グループV2には、第3階層の矩形ブロックT6、T7が属する。
次に、ステップS1606で、横方向のグループ長合計が入力画像の幅に等しくなったか否かが判定される。これによって横方向のグルーピングに関する終了の判定が行われる。横方向のグループ長がページ幅となっている場合は、文書構造ツリー生成の処理が終了する。横方向のグループ長がページ幅となっていないときは、ステップS1601に戻り、再びもう一段上の階層で、縦方向の関連性チェックから処理が繰り返される。
[メタデータのデータ形式]
図33は、入力された画像の一例を示している。図33において、オブジェクト3301〜3306は、オブジェクト分割された各オブジェクトを示している。また、図34は、オブジェクト3301〜3306が付加されたメタデータのデータ形式を示している。図34において、データ形式3401〜3406までがオブジェクト3301〜3306それぞれに対応している。これらのメタデータのデータ形式は、後述する表示方法によって、表示用のデータ形式に変換して、画面で表示することが可能である。
以下、メタデータのデータ形式に関する説明を、オブジェクト3301を用いて行う。
図34の3401の<id>1</id>は、オブジェクト3301のエリアIDを示すデータであり、<attribute>写真</attribute>は、オブジェクト3301の属性を示すデータである。前述のように、オブジェクトには、文字や写真やグラフィックの属性があり、これらは、前述したステップS301にて決定される。<width>W1</width>は、オブジェクト3301の幅を示すデータであり、<height>H1</height> は、オブジェクト3301の高さを示すデータである。<job>PDL</job>は、オブジェクト3301のジョブ種であり、前述したようにビットマップデータの生成において、MFP100の画像読み取り部入力の場合は、ジョブ種はSCANとなる。また、ローカルPC102上のアプリケーションソフトを使用した場合は、ジョブ種はPDLとなる。<user>USER1</user>は、オブジェクト3301のユーザ情報を示すデータである。<place>F社G階</place>は、MFPの設置場所の情報を示すデータである。<time>2007/03/19 17:09</time>は、入力した時間を示すデータである。<caption>一眼レフカメラ</caption>は、オブジェクト2601のキャプションを示すデータである。
[表示方法]
次に、図3に示されているステップS307で表示されるUIに関して詳細な説明を行う。
図20は、ユーザインターフェースの例を示している。図20において、領域2001には、BOX内に保存されているデータが表示されている。また、図20に示されているユーザインターフェースにおいて、領域2002には、一つ一つの文章に名前がついており、入力された時間などの情報も表示される。オブジェクト分割表示を行う場合には、領域2001で原稿を選択して、オブジェクト表示ボタン2003を押すことで表示が変わる。オブジェクト分割表示に関しては、後述する。また、領域2001で原稿を選択して、ページ表示ボタン2004を押すことで表示が変わる。これに関しては後述する。
図21は、ユーザインターフェースの例を示している。図21の領域2101には、ステップS306で保存されたデータが表示される。領域2101には、ラスタ画像を縮小した画像も表示され、前述したSVGを使った表示も行われる。つまり、領域2101には、前述してきたデータを基にページ全体が表示される。機能のタブ2102は、で、コピーや送信、リモート操作、ブラウザー、BOXといったMFPが持っている機能を選択するのに用いられる。これ以外の機能の選択に、機能のタブ2102が用いられても良い。原稿モード2103は、原稿が読み取られる場合の原稿モードを選択するために用いられる。これは原稿タイプによって、画像処理を切り替えるために選択をするものでここに示した以外のモードも同様に表示選択をする事が出来る。ボタン2104は、原稿の読み取りを開始するときに押下げられるボタンである。これにより、スキャナが動作して、画像を読み込むことになる。図21に示されている例では、ボタン2104が画面内に設けられているが、他の画面にボタン2104が設けられていても良い。
図22に示されているユーザインターフェースは、オブジェクト分割した結果を分かるように各オブジェクトに枠を表示させるようにしたものである。ここで、ボタン2201を押すことにより、ページ表示画面2202に対してそれぞれオブジェクトの枠が表示される。枠には色付けをすることにより、オブジェクトの違いを分かるように表示することや、線の太さ、あるいは、点線、破線の違いなどにより、オブジェクトの違いを分かるように表示が行われる。ここで、オブジェクトの種類は、前述したように文字、図面、線画、表、写真である。表示2203は、検索を行うための文字を入力するためのものである。表示2203に、文字列を入力して、検索を行うことで、オブジェクトあるいはオブジェクトが含まれるページが検索される。検索方法に関しては、前述したメタデータにより、周知の検索手法を用いることで、オブジェクトあるいはページの検索が行われる。また、検索されたオブジェクトあるいは、そのオブジェクトを含むページが表示される。
図23は、オブジェクト表示2302を押すことによりページ内のオブジェクトが表示されるユーザインターフェースを示す。領域2301には、ページという概念ではなく、一つ一つのオブジェクトを部品として表示する。また、ページ表示2304を押すことで1ページの画像として見えるように切り替え表示が行われる。さらに、表示2303は、検索を行うための文字を入力するものである。表示2303に、文字列を入力して、検索が行われることで、オブジェクトあるいはオブジェクトが含まれるページが検索される。検索方法に関しては、前述したメタデータにより、周知の検索手法が用いられることで、オブジェクトあるいはそのオブジェクトを含むページの検索が行われる。また、検索されたオブジェクトあるいはそのオブジェクトを含むページが表示される。
図24は、オブジェクトのメタデータを表示するユーザインターフェースの例である。ある一つのオブジェクトを選択すると、領域2401に、そのオブジェクトの画像2403と、前述の付加されたメタデータのデータ形式が表示用のデータ形式に前述したメタデータ2402が表示される。メタデータは、エリアの情報、幅、高さ、ユーザ情報、MFPの設置場所の情報、画像が入力された時間などの情報が表示される。ここで、この例では、写真属性のオブジェクトであり、オブジェクトの近くにあった文字オブジェクトのOCR情報から形態素解析を用いて、名詞や動詞などの品詞の種類を識別、分解して取り出して表示が行われる。それが、領域2401に示されたTEXTという文字列である。また、メタデータに対しては、ボタン2404を押すことによって編集や追加、削除を行うことが可能となる。
次に、別の図を用いて、本発明の最も特徴的な部分に関して、更に説明する。
なお、以下では、断りの無い限り、「メタデータ」は、文字オブジェクトから抽出された文字列に対して形態素解析を行い品詞に分解した語句を意味する。
オブジェクトに付加されたメタデータは、OCR処理や、形態素解析におけるエラーに起因して、ユーザが期待するメタデータとは異なるメタデータが付加される場合があるため、これを修正する手段を設ける。
図25は、本実施形態にて画像処理装置において行われる処理を示している。。また、図26は、本実施形態における画像処理装置のユーザインターフェースの例である。
OCR手段2503、及び、形態素解析手段2504の結果を用いて、メタデータ確度判定手段2508において、確度の低いメタデータの判定が行われる。この判定結果に従い、オブジェクト及びメタデータの表示手段2506において、メタデータの表示が制御される。この誤ったメタデータの検索と修正のフローを、以下で詳細に説明する。
既に述べたとおり、図24に示されているように、ユーザがある一つのオブジェクトを指定すると、そのオブジェクトの画像2403とそのメタデータ2402が表示される。一つのオブジェクトには複数のメタデータが、メタデータ付加手段2505によって付加されているので、メタデータを表示する場合には、オブジェクト及びメタデータの表示手段2506によってこれらが一覧表示される。この際、図26に示されているように、修正すべき可能性の高いメタデータが、「確度の低いメタデータ一覧」として、優先的に表示される。
ここで、優先的に表示とは、既定の後述するメタデータ確度判定手段2508に応じて、全てのメタデータの中から特定のメタデータだけを抽出して表示することを意味する。すなわち、優先的に表示することは、表示色を他と変えたり、一覧で上位に目立つように並べたりして、強調して表示する場合を含む。また、これらの表示はデフォルトのものとして自動で行っても良いし、ユーザが表示方法の変更の要求を行った場合に行っても良い。
優先的に表示された確度の低いメタデータを確認したユーザからそのメタデータが誤っていると判定された場合、UIはユーザから該当のメタデータの指定を受ける。ユーザによって編集2404のボタンが押されると、その指定を受けたCPUはメタデータの編集、追加、および削除を行う。
前述のメタデータ確度判定手段2508は、付加されたメタデータが誤っているかどうかの確からしさを判定する。
このメタデータ確度判定手段2508にはOCR手段2503、及び、形態素解析手段2504の結果が入力され、これらの確からしさについて判定を行う。
判定の方法は、以下のように行う。
形態素解析によって得られた品詞の中には、品詞の種類が識別できず未知語として取り出されるものがある。これはOCRエラーまたは形態素解析のエラーによって生じるため、誤ったメタデータである可能性が高い。また、名詞として識別されている用語であっても、一文字の名詞として識別されている用語の場合、OCRエラーや形態素解析のエラーによって生じている可能性が高い。
このため、これらの用語を、確度の低いメタデータとして抽出し、オブジェクト及びメタデータの表示手段に出力する。
このように、本実施形態では、ユーザに修正すべきメタデータを優先的に表示することによって、誤ったメタデータを修正するのに必要とする時間と操作の回数を減らし、ユーザビリティの向上を図ることが可能となる。
[第2実施形態]
次に本発明に係る画像処理方法の第2実施形態を図面に基づいて説明する。
第1実施形態では、誤って付加されたメタデータの修正に関わるユーザビリティの向上を図った。この方法ではオブジェクトを一つずつ選択し、メタデータの正誤の確認を行い、誤っている場合にそれを修正するため、対象とするオブジェクトが大量になると、操作は非常に煩雑であり、ユーザビリティを損なう。
そこで、本実施形態では、大量のオブジェクトを保持する場合においても、正確かつ迅速に誤ったメタデータの検索と修正を行うことのできる画像処理装置について説明する。
本実施形態を適用した画像処理装置を示すブロック図は図25と同じである。また、図27は、本実施形態における画像処理装置のユーザインターフェースの例を示す。
本実施形態で、第1実施形態と異なるのは、オブジェクト及びメタデータの表示手段において、誤ったメタデータが含まれるオブジェクトの一覧を表示することを特徴とする点である。この際、図27に示されているように、修正すべきメタデータを含むオブジェクトが、「確度の低いメタデータ一覧」として、優先的に表示される。
ここで、優先的に表示とは、既定の後述するオブジェクト確度判定手段2508に応じて、全てのメタデータの中から特定のメタデータだけを抽出して表示することを意味する。すなわち、優先的に表示することは、表示色を他と変えたり、一覧で上位に目立つように並べたりして、強調して表示する場合を含む。この表示はデフォルトのものとして自動で行っても良いし、ユーザが表示方法の変更の要求を行った場合に行っても良い。また、ユーザが設定した一定の閾値を超えて誤っている可能性が高いメタデータを付加されたオブジェクトがある場合にのみ表示が実行される形態でも良い。
前述のオブジェクト確度判定手段2508は、オブジェクトに誤ったメタデータが付加されているかどうかの確からしさの判定を行う。このオブジェクト確度判定手段2508にはOCR手段2503、及び、形態素解析手段2504の結果が入力され、これらの確からしさについて判定を行う。この時、前述したような方法で確からしさについて判定を行う。
例えば、図27に示されているとおり、付加されるメタデータの中に、未知語や一文字名詞の出現回数や頻度が高いオブジェクトを、絞って表示、もしくは、一覧の中で、強調して、目立つように表示する。
このように、本実施形態では、ユーザに修正すべきメタデータを含むオブジェクトを優先的に表示することによって、修正すべきメタデータを検索するのに必要とする時間と操作の回数を減らし、ユーザビリティの向上を図ることが可能となる。
[第3実施形態]
次に、本発明に係る画像処理方法の第3実施形態を図面に基づいて説明する。
第1実施形態及び第2実施形態では、例えば、ユーザがある写真オブジェクトを指定して付加されているメタデータを確認する際、写真オブジェクトを見るだけではメタデータが正しいのかどうかを判定するのが困難な場合がある。また、メタデータが誤っている場合、それらを1つずつ修正せねばならず、同じOCRエラーまたは形態素解析のエラーに起因する誤りであっても、派生したメタデータの数だけ修正を行う必要があった。
そこで、本実施形態では、このような問題を解決し、ユーザが効率よくメタデータの修正を行うことの出来る画像処理装置について説明する。
図28は、本実施形態にて画像処理装置において行われる処理を示している。
すなわち、第3実施形態は、符号2801〜2808で指し示される手段により実行される。符合2801は、オブジェクトの分割手段を指し示す。符号2802は、変換手段を指し示す。符号2803は、OCR手段を指し示す。符号2804は、形態素解析手段を指し示す。符号2805は、メタデータ付加手段を指し示す。符号2806は、オブジェクト及びメタデータの表示手段を指し示す。符号2807は、メタデータ修正手段を指し示す。符号2808は、認識手段を指し示す。
そして、認識手段2808は、オブジェクト及びメタデータの表示手段2806とメタデータ修正手段2807に接続されており、メタデータ付加手段2805は、認識手段2808に接続されている。
また、図29は、文字オブジェクトとそれに関連する文字コードを持たないオブジェクトとのメタデータの関係を表す。また、図30は、本実施形態を適用した画像処理装置のユーザインターフェースの例を示す。図31は、本実施形態を適用した画像処理装置において、メタデータを修正する場合の様子を説明する図である。
図29に示されているように、読み取られた画像内の図面、線画、写真の関連先オブジェクト(2903、2904、2905)は、それ自体には文字コードを持たない。そして、関連先オブジェクトには、周囲の関連する文字オブジェクトの関連元オブジェクト(2901、2902)の文字コードがメタデータとして付加される。そこで、認識手段2808において、各オブジェクトには、どのオブジェクトに関連するのかを表す、リンク情報が付加される。
具体的には、オブジェクト各々に固有の互いに異なるIDを付与した上で、関連元、及び、関連先オブジェクトのIDを、オブジェクト毎にメタデータとして記録される。
図30を用いて、ユーザへのオブジェクトとメタデータ一覧の表示方法を説明する。オブジェクトを一覧する場合、関連先オブジェクトには関連元オブジェクトと同じメタが付加されている。このため、誤ったメタデータがある場合、そのメタデータの関連元オブジェクトが関連先オブジェクトに対して、優先的に表示される。ここで、優先的に表示とは、関連元オブジェクトをルートカテゴリとして、強調して目立たせて表示し、関連先オブジェクトは関連元オブジェクトのサブカテゴリとして目立たせないか、表示させるために操作が必要な状態で保持する場合を含む。
図31(a)(b)を用いて、本実施形態における、メタデータを修正する方法を説明する。図31(a)は、関連元オブジェクトを修正した場合の様子を模式的に表す図であり、図31(b)は、関連先オブジェクトを修正した場合の様子を模式的に表す図である。
すなわち、関連元オブジェクト、もしくは、関連先オブジェクトいずれのメタデータが修正された場合でも、そのオブジェクトにリンクするオブジェクトのメタデータにも自動的に修正が反映される。
例えば、図31(a)では、文字オブジェクト(関連元オブジェクト)3201のメタデータが修正されて、図面オブジェクト(関連先オブジェクト)3202に自動的に修正が反映される。また、文字オブジェクト(関連元オブジェクト)3201のメタデータが修正されて、線画オブジェクト(関連先オブジェクト)3203に自動的に修正が反映される。
また、例えば、図31(b)では、図面オブジェクト(関連先オブジェクト)3205のメタデータが修正されて、文字オブジェクト(関連元オブジェクト)3204に自動的に修正が反映される。また、文字オブジェクト(関連元オブジェクト)3204のメタデータが修正されて、線画オブジェクト(関連先オブジェクト)3206に自動的に修正が反映される。
このように、本実施形態では、ユーザは関連先オブジェクトのメタデータがどの関連元オブジェクトに由来して付加されているのかを簡単に知ることができ、かつ、関連元オブジェクトの文字の画像を確認しながらメタデータの正誤を容易に判定できる。これと同時に、同じ関連元オブジェクトに由来するメタデータであれば一つのメタデータを修正するだけで簡易に他のメタデータの修正も行われるので、メタデータの修正に要する時間と操作回数とを低減させ、ユーザビリティの向上を図ることが可能となる。
[第4実施形態]
次に本発明に係る画像処理方法の第4実施形態を図面に基づいて説明する。
第1実施形態、第2実施形態、及び、第3実施形態では、例えば、メタデータを修正した入力画像と同じ画像が再度入力されるような場合、再び同じ誤りを持ったメタデータが付加される可能性が高いという問題があった。そこで、本実施形態では斯様な問題を解決し、ユーザが同じ修正を繰り返す必要のない画像処理装置について説明する。
図35は、本実施形態にて画像処理装置において行われる処理を示している。
すなわち、第4実施形態は、符号3501〜3508で指し示される手段により実行される。符合3501は、オブジェクトの分割手段を指し示す。符号3502は、変換手段を指し示す。符号3503は、OCR手段を指し示す。符号3504は、形態素解析手段を指し示す。符号3505は、メタデータ付加手段を指し示す。符号3506は、オブジェクト及びメタデータの表示手段を指し示す。符号3507は、メタデータ修正手段を指し示す。符号3508は、フィードバック手段を指し示す。
そして、フィードバック手段3508は、変換手段3502及びOCR手段3503に接続されている。そして、メタデータ付加手段3507は、フィードバック手段3508に接続されている。
図35に示されている第4実施形態に係る画像処理装置において第1実施形態、第2実施形態、及び、第3実施形態と異なるのは、以下の点である。すなわち、第4実施形態には、メタデータ修正手段3507において修正された内容を用いて、OCR辞書と形態素解析辞書の内容に変更を行うフィードバック手段が含まれる。これにより、以降のOCR処理、及び、形態素解析においては、ユーザの修正内容が反映された辞書の参照が行われる。
この結果、以降のメタデータ付加にユーザのマニュアル操作による修正が反映されることによって、メタデータ生成の精度が向上し、ユーザが同じ修正を繰り返す必要がなくなる。
本発明の他の実施形態
前述した実施形態の機能を実現するように前述した実施形態の構成を動作させるプログラムを記憶媒体に記憶させ、該記憶媒体に記憶されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も上述の実施形態の範疇に含まれる。また、前述のプログラムが記憶された記憶媒体はもちろんそのプログラム自体も上述の実施形態に含まれる。
かかる記憶媒体としてはたとえばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD―ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。
また前述の記憶媒体に記憶されたプログラム単体で処理を実行しているものに限らず、他のソフトウエア、拡張ボードの機能と共同して、OS上で動作し前述の実施形態の動作を実行するものも前述した実施形態の範疇に含まれる。
本発明に係る画像処理装置を含んだシステムを示すブロック図である。 図1に示されているMFPを示すブロック図である。 第1実施形態に係る第1のデータ処理フローを示す図である。 第1実施形態に係るメタデータを付加する処理フローを示す図である。 第1実施形態に係るスキャナからの読み込みの処理フローを示す図である。 第1実施形態に係るPCからのデータをビットマップにする処理フローを示す図である。 オブジェクト分割された結果の一例を示す図である。 オブジェクト分割されたときの各属性のブロック情報および入力ファイル情報を示す図である。 第1実施形態に係るベクトル化処理のフロー図である。 ベクトル化の処理における角抽出の処理を示す図である。 ベクトル化の処理における輪郭線まとめの処理を示す図である。 図9に示されているベクトル化処理で生成されたベクトルデータのグループ化の処理のフローチャートである。 図12に示されているグループ化処理でグループ化されたベクトルデータに対する図形要素検出の処理を示すフローチャートである。 第1実施形態に係るベクトル化処理結果のデータ構造を示す図である。 アプリデータ変換の処理を示すフローチャートである。 文書構造ツリー生成の処理を示すフローチャートである。 文書構造ツリー生成処理の対象となる文書を示す図である。 文書構造ツリー生成処理によって生成される文書構造ツリーの一例を示す図である。 本実施形態に係るSVG形式の一例である。 本実施形態に係るUIの表示の例を示した図である。 本実施形態に係るUIの表示におけるページ表示の例を示した図である。 本実施形態に係るUIの表示におけるオブジェクト属性表示の一例を示した図である。 本実施形態に係るUI表示においてオブジェクト分割された一つのオブジェクトが表示される例を示した図である。 本実施形態に係るUI表示においてオブジェクトとメタデータが表示される例を示した図である。 第1実施形態及び第2実施形態に係る画像処理装置が行う処理のブロック図である。 第1実施形態の画像処理装置のユーザインターフェースの一例を示す図である。 第2実施形態の画像処理装置のユーザインターフェースの一例を示す図である。 第3実施形態に係る画像処理装置が行う処理のブロック図である。 互いに関連するオブジェクトとそれらのメタデータの関係を示す図である。 第3実施形態の画像処理装置のユーザインターフェースの一例を示す図である。 第3実施形態において、メタデータが修正される様子を示す図である。 入力画像に対して、文字領域認識、OCR、形態素解析の過程を示す図である。 入力画像に対して、文字領域認識、OCR、形態素解析の過程を示す図である。 図33に示されている各オブジェクトに対して付加されたメタデータのデータ形式を示す図である。 本発明に係る画像処理装置が行う処理のブロック図である。 図2におけるデータ処理装置の詳細を示す図である。
符号の説明
100 MFP
101 マネージメントPC
102 ローカルPC
103 プロキシサーバ
104 インターネット
105 データベース
106 文書管理サーバ
107 LAN
108 LAN
109 LAN

Claims (28)

  1. 入力画像を構成するオブジェクトを分割する分割手段と、
    OCR手段及び形態素解析手段を用いて前記分割されたオブジェクト毎にメタデータを付加するメタデータ付加手段と、
    前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示手段と、
    前記付加されたメタデータの確度を判定するメタデータ確度判定手段とを備え、
    前記表示手段は、前記メタデータ確度判定手段によって確度が低いと判定されたメタデータを、優先的に表示することを特徴とする画像処理装置。
  2. 前記メタデータ確度判定手段は、形態素解析手段によって未知語と判定された語句を確度の低いメタデータとして判定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記メタデータ確度判定手段は、形態素解析手段によって名詞と判定され、かつ、一文字である語句を確度の低いメタデータとして判定することを特徴とする請求項1に記載の画像処理装置。
  4. 前記表示手段は、前記メタデータ確度判定手段によって確度が低いと判定されたメタデータだけを表示することを特徴とする請求項1に記載の画像処理装置。
  5. 前記表示手段は、前記メタデータ確度判定手段によって確度が低いと判定されたメタデータを、強調して表示することを特徴とする請求項1に記載の画像処理装置。
  6. 前記メタデータ確度判定手段によって確度が低いと判定されたメタデータを多く含んでいると判定されたオブジェクト、もしくは、前記メタデータ確度判定手段によって確度が低いと判定されたメタデータを付加されたオブジェクトを判定するオブジェクト確度判定手段をさらに備え、
    前記表示手段は、前記オブジェクト確度判定手段によって確度が低いと判定されたオブジェクトを、優先的に表示することを特徴とする請求項1に記載の画像処理装置。
  7. 前記表示手段は、前記オブジェクト確度判定手段によって確度が低いと判定されたオブジェクトを、強調して表示することを特徴とする請求項6に記載の画像処理装置。
  8. 入力画像を構成するオブジェクトを分割する分割手段と、
    OCR手段及び形態素解析手段を用いて前記分割されたオブジェクト毎にメタデータを付加するメタデータ付加手段と、
    前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示手段と、
    前記付加されたメタデータの確度を判定するメタデータ確度判定手段と、
    文字を含むオブジェクトで、かつ、前記文字から語句がメタデータとして抽出されたオブジェクトである関連元オブジェクトと、前記メタデータを付加されたオブジェクトである関連先オブジェクトとを関連グループとして認識する認識手段とを備えたことを特徴とする画像処理装置。
  9. 前記表示手段は、前記認識手段によって関連グループと認識されたオブジェクトを、強調して表示することを特徴とする請求項8に記載の画像処理装置。
  10. 前記表示手段は、前記認識手段によって関連グループと認識されたオブジェクトのうち、関連元オブジェクトを、関連先オブジェクトよりも優先的に表示することを特徴とする請求項8に記載の画像処理装置。
  11. 前記確度判定手段によって確度が低いと判定されたメタデータを修正するメタデータ修正手段を更に有し、
    前記メタデータ修正手段は、メタデータの修正内容を、前記認識手段によって同じ関連グループと認識された他のオブジェクトに対しても、同じ修正を実施することを特徴とする請求項8に記載の画像処理装置。
  12. 入力画像を構成するオブジェクトを分割する分割手段と、
    OCR手段及び形態素解析手段を用いて前記オブジェクト毎にメタデータを付加するメタデータ付加手段と、
    前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示手段と、
    前記付加されたメタデータの確度を判定するメタデータ確度判定手段と、
    前記確度判定手段によってオブジェクトに確度の低いメタデータが付加されたと判定された場合に、該メタデータを修正するメタデータ修正手段とを備え、
    前記メタデータ修正手段によって修正されたメタデータをOCR辞書と形態素解析辞書に反映させることを特徴とする画像処理装置。
  13. 入力画像を構成するオブジェクトを分割する分割ステップと、
    OCR手段及び形態素解析手段を用いて前記分割されたオブジェクト毎にメタデータを付加するメタデータ付加ステップと、
    前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示ステップと、
    前記付加されたメタデータの確度を判定するメタデータ確度判定ステップとを備え、
    前記表示ステップは、前記メタデータ確度判定手段によって確度が低いと判定されたメタデータを、優先的に表示することを特徴とする画像処理方法。
  14. 前記メタデータ確度判定ステップは、形態素解析手段によって未知語と判定された語句を確度の低いメタデータとして判定することを特徴とする請求項13に記載の画像処理方法。
  15. 前記メタデータ確度判定ステップは、形態素解析手段によって名詞と判定され、かつ、一文字である語句を確度の低いメタデータとして判定することを特徴とする請求項13に記載の画像処理方法。
  16. 前記表示ステップは、前記メタデータ確度判定手段によって確度が低いと判定されたメタデータだけを表示することを特徴とする請求項13に記載の画像処理方法。
  17. 前記表示ステップは、前記メタデータ確度判定手段によって確度が低いと判定されたメタデータを、強調して表示することを特徴とする請求項13に記載の画像処理方法。
  18. 前記メタデータ確度判定ステップによって確度が低いと判定されたメタデータを多く含んでいると判定されたオブジェクト、もしくは、前記メタデータ確度判定手段によって確度が低いと判定されたメタデータを付加されたオブジェクトを判定するオブジェクト確度判定ステップをさらに備え、
    前記表示ステップは、前記オブジェクト確度判定手段によって確度が低いと判定されたオブジェクトを、優先的に表示することを特徴とする請求項13に記載の画像処理方法。
  19. 前記表示ステップは、前記オブジェクト確度判定手段によって確度が低いと判定されたオブジェクトを、強調して表示することを特徴とする請求項18に記載の画像処理方法。
  20. 入力画像を構成するオブジェクトを分割する分割ステップと、
    OCR手段及び形態素解析手段を用いて前記分割されたオブジェクト毎にメタデータを付加するメタデータ付加ステップと、
    前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示ステップ、
    前記付加されたメタデータの確度を判定するメタデータ確度判定ステップと、
    文字を含むオブジェクトで、かつ、前記文字から語句がメタデータとして抽出されたオブジェクトである関連元オブジェクトと、前記メタデータを付加されたオブジェクトである関連先オブジェクトとを関連グループとして認識する認識ステップとを備えたことを特徴とする画像処理方法。
  21. 前記表示ステップは、前記認識ステップによって関連グループと認識されたオブジェクトを、強調して表示することを特徴とする請求項20に記載の画像処理方法。
  22. 前記表示ステップは、前記認識ステップによって関連グループと認識されたオブジェクトのうち、関連元オブジェクトを、関連先オブジェクトよりも優先的に表示することを特徴とする請求項20に記載の画像処理方法。
  23. 前記確度判定ステップによって確度が低いと判定されたメタデータを修正するメタデータ修正ステップを更に有し、
    前記メタデータ修正ステップは、メタデータの修正内容を、前記認識ステップによって同じ関連グループと認識された他のオブジェクトに対しても、同じ修正を実施することを特徴とする請求項20に記載の画像処理方法。
  24. 入力画像を構成するオブジェクトを分割する分割ステップと、
    OCR手段及び形態素解析手段を用いて前記オブジェクト毎にメタデータを付加するメタデータ付加ステップと、
    前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示ステップと、
    前記付加されたメタデータの確度を判定するメタデータ確度判定ステップと、
    前記確度判定ステップによってオブジェクトに確度の低いメタデータが付加されたと判定された場合に、該メタデータを修正するメタデータ修正ステップとを備え、
    前記メタデータ修正ステップによって修正されたメタデータをOCR辞書と形態素解析辞書に反映させることを特徴とする画像処理方法。
  25. コンピュータに
    入力画像を構成するオブジェクトを分割する分割ステップと、
    OCR手段及び形態素解析手段を用いて前記分割されたオブジェクト毎にメタデータを付加するメタデータ付加ステップと、
    前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示ステップと、
    前記付加されたメタデータの確度を判定するメタデータ確度判定ステップとを備え、
    前記表示ステップは、前記メタデータ確度判定ステップによって確度が低いと判定されたメタデータを、優先的に表示することを実行させるためのプログラム。
  26. コンピュータに
    入力画像を構成するオブジェクトを分割する分割ステップと、
    OCR手段及び形態素解析手段を用いて前記分割されたオブジェクト毎にメタデータを付加するメタデータ付加ステップと、
    前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示ステップ、
    前記付加されたメタデータの確度を判定するメタデータ確度判定ステップと、
    文字を含むオブジェクトで、かつ、前記文字から語句がメタデータとして抽出されたオブジェクトである関連元オブジェクトと、前記メタデータを付加されたオブジェクトである関連先オブジェクトとを関連グループとして認識する認識ステップとを実行させるためのプログラム。
  27. コンピュータに
    入力画像を構成するオブジェクトを分割する分割ステップと、
    OCR手段及び形態素解析手段を用いて前記オブジェクト毎にメタデータを付加するメタデータ付加ステップと、
    前記オブジェクト及び該オブジェクトに付加されたメタデータを表示する表示ステップと、
    前記付加されたメタデータの確度を判定するメタデータ確度判定ステップと、
    前記確度判定ステップによってオブジェクトに確度の低いメタデータが付加されたと判定された場合に、該メタデータを修正するメタデータ修正ステップとを備え、
    前記メタデータ修正ステップによって修正されたメタデータをOCR辞書と形態素解析辞書に反映させることを実行させるためのプログラム。
  28. 請求項25乃至27のいずれかに記載のプログラムを格納したことを特徴とするコンピュータが読み取ることが可能な記憶媒体。
JP2008033574A 2008-02-14 2008-02-14 画像処理装置、画像処理方法、プログラム、及び記憶媒体 Pending JP2009193356A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008033574A JP2009193356A (ja) 2008-02-14 2008-02-14 画像処理装置、画像処理方法、プログラム、及び記憶媒体
US12/369,995 US20090274369A1 (en) 2008-02-14 2009-02-12 Image processing device, image processing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008033574A JP2009193356A (ja) 2008-02-14 2008-02-14 画像処理装置、画像処理方法、プログラム、及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2009193356A true JP2009193356A (ja) 2009-08-27
JP2009193356A5 JP2009193356A5 (ja) 2011-04-14

Family

ID=41075306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008033574A Pending JP2009193356A (ja) 2008-02-14 2008-02-14 画像処理装置、画像処理方法、プログラム、及び記憶媒体

Country Status (2)

Country Link
US (1) US20090274369A1 (ja)
JP (1) JP2009193356A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011198285A (ja) * 2010-03-23 2011-10-06 Hitachi Solutions Ltd 文書処理システム、及びプログラム
CN103251422A (zh) * 2012-01-30 2013-08-21 株式会社东芝 医用图像处理装置、程序以及医用装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5132416B2 (ja) * 2008-05-08 2013-01-30 キヤノン株式会社 画像処理装置およびその制御方法
JP5153676B2 (ja) * 2009-02-10 2013-02-27 キヤノン株式会社 画像処理装置、画像処理方法、プログラムおよび記憶媒体
KR101357262B1 (ko) * 2010-08-13 2014-01-29 주식회사 팬택 필터 정보를 이용한 객체 인식 장치 및 방법
CN103339921B (zh) 2011-01-31 2015-11-25 杜比实验室特许公司 恢复图像的颜色和非颜色相关的完整性的***和方法
US9785850B2 (en) 2015-07-08 2017-10-10 Sage Software, Inc. Real time object measurement
US9684984B2 (en) * 2015-07-08 2017-06-20 Sage Software, Inc. Nearsighted camera object detection
US10037459B2 (en) 2016-08-19 2018-07-31 Sage Software, Inc. Real-time font edge focus measurement for optical character recognition (OCR)
DE102016224967A1 (de) * 2016-12-14 2018-06-14 Siemens Aktiengesellschaft Technische Anlage, Verfahren zu deren Betrieb sowie Prozesszustandserkennungseinrichtung für eine technische Anlage
JP2022097138A (ja) * 2020-12-18 2022-06-30 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6441965A (en) * 1987-08-07 1989-02-14 Nippon Telegraph & Telephone Automatic detector for wrong character in japanese sentence
JPH04302070A (ja) * 1991-03-29 1992-10-26 Toshiba Corp 文字認識装置及び方法
JPH0757049A (ja) * 1993-08-17 1995-03-03 Ricoh Co Ltd 文字認識装置
JPH07182441A (ja) * 1993-11-09 1995-07-21 Matsushita Electric Ind Co Ltd 文字認識装置
JPH09218918A (ja) * 1996-02-14 1997-08-19 Canon Inc 文字認識装置及びその制御方法
JPH1021324A (ja) * 1996-07-02 1998-01-23 Fuji Photo Film Co Ltd 文字認識装置
JP2002279353A (ja) * 2001-03-15 2002-09-27 Ricoh Co Ltd 文字認識装置、その方法、および記録媒体
JP2007310501A (ja) * 2006-05-16 2007-11-29 Canon Inc 情報処理装置、その制御方法、及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5268840A (en) * 1992-04-30 1993-12-07 Industrial Technology Research Institute Method and system for morphologizing text
JPH06274680A (ja) * 1993-03-17 1994-09-30 Hitachi Ltd 文書認識方法およびシステム
US5729637A (en) * 1994-08-31 1998-03-17 Adobe Systems, Inc. Method and apparatus for producing a hybrid data structure for displaying a raster image
JPH0916598A (ja) * 1995-07-03 1997-01-17 Fujitsu Ltd エラー・パターンを用いた文字列修正システムおよび方法
JPH11102414A (ja) * 1997-07-25 1999-04-13 Kuraritec Corp ヒートマップを用いて光学式文字認識の訂正を行うための方法および装置、並びに、ocr出力の誤りを発見するための一連の命令を記録したコンピュータ読み取り可能な記録媒体
GB9727322D0 (en) * 1997-12-29 1998-02-25 Xerox Corp Multilingual information retrieval
US6269188B1 (en) * 1998-03-12 2001-07-31 Canon Kabushiki Kaisha Word grouping accuracy value generation
US7158930B2 (en) * 2002-08-15 2007-01-02 Microsoft Corporation Method and apparatus for expanding dictionaries during parsing
US7106905B2 (en) * 2002-08-23 2006-09-12 Hewlett-Packard Development Company, L.P. Systems and methods for processing text-based electronic documents
JP2005339039A (ja) * 2004-05-25 2005-12-08 Fuji Xerox Co Ltd 文書処理装置および文書処理方法
JP3998668B2 (ja) * 2004-07-14 2007-10-31 沖電気工業株式会社 形態素解析装置、方法及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6441965A (en) * 1987-08-07 1989-02-14 Nippon Telegraph & Telephone Automatic detector for wrong character in japanese sentence
JPH04302070A (ja) * 1991-03-29 1992-10-26 Toshiba Corp 文字認識装置及び方法
JPH0757049A (ja) * 1993-08-17 1995-03-03 Ricoh Co Ltd 文字認識装置
JPH07182441A (ja) * 1993-11-09 1995-07-21 Matsushita Electric Ind Co Ltd 文字認識装置
JPH09218918A (ja) * 1996-02-14 1997-08-19 Canon Inc 文字認識装置及びその制御方法
JPH1021324A (ja) * 1996-07-02 1998-01-23 Fuji Photo Film Co Ltd 文字認識装置
JP2002279353A (ja) * 2001-03-15 2002-09-27 Ricoh Co Ltd 文字認識装置、その方法、および記録媒体
JP2007310501A (ja) * 2006-05-16 2007-11-29 Canon Inc 情報処理装置、その制御方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011198285A (ja) * 2010-03-23 2011-10-06 Hitachi Solutions Ltd 文書処理システム、及びプログラム
CN103251422A (zh) * 2012-01-30 2013-08-21 株式会社东芝 医用图像处理装置、程序以及医用装置
US9053172B2 (en) 2012-01-30 2015-06-09 Kabushiki Kaisha Toshiba Medical image processing apparatus, program, and medical apparatus

Also Published As

Publication number Publication date
US20090274369A1 (en) 2009-11-05

Similar Documents

Publication Publication Date Title
JP5111268B2 (ja) 画像処理装置、画像処理方法、そのプログラムおよび記憶媒体
JP2009193356A (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP4251629B2 (ja) 画像処理システム及び情報処理装置、並びに制御方法及びコンピュータプログラム及びコンピュータ可読記憶媒体
JP4181892B2 (ja) 画像処理方法
US7681121B2 (en) Image processing apparatus, control method therefor, and program
JP3796500B2 (ja) 画像処理装置及びその制御方法、プログラム
JP4546291B2 (ja) 画像処理装置およびその制御方法
JP4533273B2 (ja) 画像処理装置及び画像処理方法、プログラム
JP4502385B2 (ja) 画像処理装置およびその制御方法
JP4510535B2 (ja) 画像処理装置及びその制御方法、プログラム
US20120250048A1 (en) Image processing apparatus and image processing method
JP2008022159A (ja) 文書処理装置及び文書処理方法
JP4338189B2 (ja) 画像処理システム及び画像処理方法
JP5188260B2 (ja) 画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体
JP2004363786A (ja) 画像処理装置
JP2009211554A (ja) 画像処理装置、画像処理方法、コンピュータプログラム、および記憶媒体
JP2007043662A (ja) 画像形成装置及び画像処理装置
JP4323856B2 (ja) 画像処理方法
JP2004334340A (ja) 画像処理方法及び装置
JP2005149210A (ja) 画像処理装置及びその制御方法、プログラム
JP2006134042A (ja) 画像処理システム
JP2007074140A (ja) 画像処理装置及びその制御方法、画像処理システム
JP2006146486A (ja) 画像処理装置
JP2009303149A (ja) 画像処理装置、画像処理方法及びコンピュータ制御プログラム
JP2024033328A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130625