JP6160168B2 - 画像処理装置、および、コンピュータプログラム - Google Patents

画像処理装置、および、コンピュータプログラム Download PDF

Info

Publication number
JP6160168B2
JP6160168B2 JP2013068397A JP2013068397A JP6160168B2 JP 6160168 B2 JP6160168 B2 JP 6160168B2 JP 2013068397 A JP2013068397 A JP 2013068397A JP 2013068397 A JP2013068397 A JP 2013068397A JP 6160168 B2 JP6160168 B2 JP 6160168B2
Authority
JP
Japan
Prior art keywords
area
region
candidate object
candidate
surrounding line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013068397A
Other languages
English (en)
Other versions
JP2014191719A (ja
Inventor
良平 小澤
良平 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013068397A priority Critical patent/JP6160168B2/ja
Priority to US14/225,523 priority patent/US9219841B2/en
Publication of JP2014191719A publication Critical patent/JP2014191719A/ja
Application granted granted Critical
Publication of JP6160168B2 publication Critical patent/JP6160168B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/23Reproducing arrangements
    • H04N1/2307Circuits or arrangements for the control thereof, e.g. using a programmed control device, according to a measured quantity
    • H04N1/2338Circuits or arrangements for the control thereof, e.g. using a programmed control device, according to a measured quantity according to user specified instructions, e.g. user selection of reproduction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/626Detection of non-electronic marks, e.g. fluorescent markers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0082Image hardcopy reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0091Digital copier; digital 'photocopier'

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像中のオブジェクトを特定するための囲み線を用いる画像処理に関するものである。
従来から、種々の画像処理が行われている。例えば、原稿中の特定の部分のみを複写する技術が提案されている(特許文献1)。提案されている技術によれば、複写機は、枠状のマークが記された原稿に対しては、枠状のマークで囲まれた部分のみを複写する。
特開平3−236069号公報
ところが、マークが、原稿中のオブジェクト(例えば、写真やイラスト等)に重なって記された場合に、オブジェクトを適切に処理することができない場合があった。このような課題は、枠状のマークに限らず、オブジェクトを特定するための種々の形状の囲み線を用いる場合に、共通する課題であった。
本発明の主な利点は、囲み線がオブジェクトに重なる場合に、オブジェクトを適切に処理することができる技術を提供することである。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の適用例として実現することが可能である。
[適用例1]
画像処理装置であって、
対象画像データによって表される対象画像から、前記対象画像中のオブジェクトを特定するために設けられるオブジェクトとしての囲み線を表す画素が示すべき特定の色の画素を抽出することによって、前記囲み線を表す領域である囲み線領域を特定する第1特定部と、
前記対象画像から、前記対象画像中の背景の色とは異なる色の画素を抽出することによって、オブジェクトを表す領域であるオブジェクト領域を特定する第2特定部と、
前記第1特定部で特定された囲み線領域と、前記第2特定部で特定されたオブジェクト領域と、に応じて、前記囲み線とは異なるオブジェクトを表す領域である候補オブジェクト領域を特定する第3特定部と、
前記特定された候補オブジェクト領域に応じて、前記囲み線と接触するオブジェクトを表す領域である接触オブジェクト領域を抽出する接触抽出部と、
を備え、
前記接触抽出部は、
前記特定された候補オブジェクト領域が、前記囲み線領域の内周側に配置される第1候補オブジェクト領域と、前記囲み線領域の外周側に配置される第2候補オブジェクト領域と、を含むことである第1条件と、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とが前記囲み線領域と接触し、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との位置関係が前記囲み線領域を挟む所定の対向位置関係であることである第2条件と、を含む抽出条件が満たされる場合に、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とを含む領域を、前記接触オブジェクト領域として抽出する、
画像処理装置。
この構成によれば、囲み線がオブジェクトと交差するように重なる場合に、そのオブジェクトを表す領域の少なくとも一部が、接触オブジェクト領域として抽出され得るので、囲み線がオブジェクトに重なる場合に、オブジェクトを適切に処理することができる。
[適用例2]
画像処理装置であって、
対象画像データによって表される対象画像から、前記対象画像中のオブジェクトを特定するために設けられるオブジェクトとしての囲み線を表す画素が示すべき特定の色の画素を抽出することによって、前記囲み線を表す領域である囲み線領域を特定する第1特定部と、
前記対象画像から、前記対象画像内の背景の色とは異なる色の画素を抽出することによって、オブジェクトを表す領域であるオブジェクト領域を特定する第2特定部と、
前記第1特定部で特定された囲み線領域と、前記第2特定部で特定されたオブジェクト領域と、に応じて、前記囲み線とは異なるオブジェクトを表す領域である候補オブジェクト領域を特定する第3特定部と、
前記特定された候補オブジェクト領域に応じて、前記囲み線と接触するオブジェクトを表す領域である接触オブジェクト領域を抽出する接触抽出部と、
を備え、
前記接触抽出部は、
前記特定された候補オブジェクト領域が、前記囲み線領域の内周側に配置される第1候補オブジェクト領域と、前記囲み線領域の外周側に配置される第2候補オブジェクト領域と、を含むことである第1条件と、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とが前記囲み線領域と接触し、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との位置関係が前記囲み線領域を挟む所定の対向位置関係であることである第2条件と、が満たされる場合であっても、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との全体に対する前記第1候補オブジェクト領域の割合が所定値以上であることである第3条件が満たされない場合には、前記第1候補オブジェクト領域を前記接触オブジェクト領域として抽出せずに、
前記第1条件と前記第2条件と前記第3条件とを含む抽出条件が満たされる場合に、前記第1候補オブジェクト領域を含む領域を前記接触オブジェクト領域として抽出する、
画像処理装置。
この構成によれば、意図せずに囲み線がオブジェクトと交差するように重なる場合のうちの少なくとも一部の場合に、そのオブジェクトを表す領域が接触オブジェクト領域として抽出されることを抑制できるので、囲み線がオブジェクトに重なる場合に、オブジェクトを適切に処理することができる。
[適用例3]
適用例1ないし2に記載の画像処理装置であって、さらに、
前記囲み線領域の内周側に配置される前記第1候補オブジェクト領域と前記囲み線領域の外周側に配置される前記第2候補オブジェクト領域とに、前記候補オブジェクト領域の範囲を膨張させる膨張処理と、前記膨張処理済の前記候補オブジェクト領域の範囲を収縮させる収縮処理と、を行うことによって、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とが前記膨張処理と前記収縮処理とによって連結した領域である連結オブジェクト領域を特定する、領域連結部を備える、画像処理装置。
この構成によれば、1つのオブジェクトを表す領域が囲み線によって第1候補オブジェクト領域と第2候補オブジェクト領域とに分離された場合に、第1候補オブジェクト領域と第2候補オブジェクト領域とが膨張処理と収縮処理とによって連結した連結オブジェクト領域を特定できるので、囲み線がオブジェクトに重なる場合に、オブジェクトを適切に処理することができる。
[適用例4]
適用例3に記載の画像処理装置であって、さらに、
前記連結オブジェクト領域と、前記連結オブジェクト領域に対応する前記第1候補オブジェクト領域および前記第2候補オブジェクト領域と、に応じて、前記連結オブジェクト領域内に含まれる隙間領域であって、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との間に位置する前記隙間領域を特定し、前記特定した隙間領域の色を、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とのそれぞれの色に応じて、変更する、色変更部を備える、画像処理装置。
この構成によれば、囲み線領域によって生じた隙間領域の色を、適切な色に変更できるので、囲み線がオブジェクトに重なる場合に、オブジェクトを適切に処理することができる。
[適用例5]
適用例1ないし4のいずれかに記載の画像処理装置であって、
前記接触抽出部は、
前記囲み線領域内から、前記囲み線領域の内周縁から外周縁まで延びる部分領域であって互いに分離した複数の分離部分領域を抽出し、
共通の前記分離部分領域と接触する前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とを、前記第2条件を満たす前記第1候補オブジェクト領域と前記第2候補オブジェクト領域として用いる、
画像処理装置。
この構成によれば、囲み線と交差するオブジェクトを表す領域を、適切に処理することができる。
[適用例6]
適用例5に記載の画像処理装置であって、
前記接触抽出部は、前記分離部分領域として用いるべき範囲を定める複数の有効部分範囲を表す所定のパターンに従って、前記囲み線領域内の前記有効部分範囲に含まれる部分領域を前記分離部分領域として用いる、画像処理装置。
この構成によれば、囲み線領域内から複数の分離部分領域を容易に抽出できるので、囲み線と交差するオブジェクトを、適切に処理することができる。
[適用例7]
適用例6に記載の画像処理装置であって、
前記接触抽出部は、前記所定のパターンとして、前記複数の有効部分範囲と、前記分離部分領域として用いるべきではない範囲を定める複数の無効部分範囲とが、格子状に交互に並ぶパターンを用いる、画像処理装置。
この構成によれば、種々の形状の囲み線領域内から、適切に、複数の分離部分領域を抽出することができるので、囲み線と交差するオブジェクトを表す領域を、適切に処理することができる。
なお、本発明は、種々の形態で実現することが可能であり、例えば、画像処理方法および画像処理装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体(例えば、一時的ではない記録媒体)、等の形態で実現することができる。
本発明の一実施例としての画像処理システム900を示す説明図である。 画像処理のフローチャートである。 画像処理のフローチャートである。 処理される画像の概略図である。 組合せ特定処理のフローチャートである。 組合せ特定処理の概略図である。 接触オブジェクト領域の抽出のフローチャートである。 隙間領域の色補正処理のフローチャートである。 隙間領域の色補正処理の概略図である。
A.実施例:
図1は、本発明の一実施例としての画像処理システム900を示す説明図である。この画像処理システム900は、ネットワーク500と、ネットワーク500に接続された複合機100と、ネットワーク500に接続されたサーバ300と、を備えている。複合機100は、ユーザの指示に従って、原稿をコピーする処理、具体的には、原稿を光学的に読み取り、読み取った画像を印刷する処理を、実行する。原稿は、複数のオブジェクト(例えば、文字や写真やイラスト等)を表し得る。本実施例では、ユーザは、所定の色(本実施例では、赤)のペンを用いて、原稿中のオブジェクトを囲む線(「囲み線」とも呼ぶ)を記入することができる。複合機100とサーバ300とは、読み取った画像から囲み線で囲まれたオブジェクトを消去することによって得られる画像を印刷するための画像処理を実行する(詳細は後述)。
複合機100は、複合機100の全体を制御するCPU110と、DRAM等の揮発性記憶装置120と、フラッシュメモリ等の不揮発性記憶装置130と、液晶パネル等の表示部140と、タッチパネル等の操作部150と、読取実行部160と、印刷実行部170と、他の装置(例えば、サーバ300)と通信するための通信インタフェース180(例えば、IEEE802.11a/b/g/nの規格に準拠した無線通信インタフェース)と、を備えている。不揮発性記憶装置130は、プログラム132を格納している。通信インタフェース180には、ネットワーク500が接続されている。
読取実行部160は、原稿を光学的に読み取ることによって、原稿を表す画像データを生成する装置である。具体的には、読取実行部160は、図示しない光学センサ(例えば、CIS(Contact Image Sensor)を備え、読取実行部160に載置された原稿を光学的に読み取ることによって、原稿を表す画像データを生成する。以下、読取実行部160によって生成される画像データを「スキャンデータ」または「読取データ」とも呼ぶ。
印刷実行部170は、画像を印刷する装置であり、いわゆるインクジェットプリンタである。ただし、他の種類のプリンタ(例えば、いわゆるレーザプリンタ)を採用してもよい。
CPU110は、揮発性記憶装置120と不揮発性記憶装置130とを用いてプログラム132を実行することによって、後述するデータ処理を実行する。このように、CPU110と揮発性記憶装置120と不揮発性記憶装置130との全体は、データ処理を実行するデータ処理部190に対応する。図示するように、CPU110は、読取制御部210と、読取データ出力部220と、処理済データ取得部230と、印刷制御部240と、として機能する。これらの処理部の機能については、後述する。
サーバ300は、サーバ300の全体を制御するCPU310と、DRAM等の揮発性記憶装置320と、フラッシュメモリ等の不揮発性記憶装置330と、他の装置(例えば、複合機100)と通信するための通信インタフェース380(例えば、IEEE802.3の規格に準拠した有線通信インタフェース)と、を備えている。不揮発性記憶装置330は、プログラム332を格納している。通信インタフェース380には、ネットワーク500が接続されている。
CPU310は、揮発性記憶装置320と不揮発性記憶装置330とを用いてプログラム332を実行することによって、後述する画像処理を実行する。このように、CPU310と揮発性記憶装置320と不揮発性記憶装置330との全体は、画像処理を実行する画像処理部390に対応する。図示するように、CPU310は、対象データ取得部410と、第1特定部411と、第2特定部412と、第3特定部413と、抽出部420と、領域連結部425と、色変更部430と、オブジェクト処理部440と、処理済データ出力部450と、として機能する。抽出部420は、接触抽出部422と、内包抽出部424と、を含んでいる。これらの処理部の機能については、後述する。
図2、図3は、画像処理のフローチャートである。図3は、図2の続きを示している。図中には、複合機100による処理と、サーバ300による処理とが、示されてる。この画像印刷処理は、例えば、ユーザが、複合機100に対して原稿のコピーを指示した場合に、複合機100のCPU110によって開始される。ユーザは、複合機100の操作部150を操作することによって、原稿のコピーの指示を含む種々の情報を、入力可能である。
最初のステップS100では、複合機100の読取制御部210(図1)が、読取実行部160を制御することによって、原稿を表す読取データを取得する。読取データは、例えば、赤(R)、緑(G)、青(B)のそれぞれの色成分値(本実施例では、256階調の階調値)で色を表すビットマップデータである。以下、赤(R)の色成分値を「R成分値」と呼び、緑(G)の色成分値を「G成分値」と呼び、青(B)の色成分値を「B成分値」と呼ぶ。また、色を表す値を「色値」とも呼ぶ(例えば、R成分値とG成分値とB成分値との全体)。
図4(A)は、読取データによって表される画像(「読取画像」と呼ぶ)の例を示す概略図である。図示された読取画像80は、4つのイラストのオブジェクト81〜84と、囲み線のオブジェクト85と、を表している。囲み線85は、予め指定された色(本実施例では、赤)のペンを用いて、ユーザによって原稿上に手書きされたオブジェクトである。図示するように、囲み線85は、第1オブジェクト81と、第2オブジェクト82と、のそれぞれと交差している。
図中には、第1方向Dxと第2方向Dyとが示されている。読取画像80を表す読取データは、第1方向Dxと第2方向Dyに沿って格子状に配置された複数の画素のそれぞれの色を表している。以下、第1方向Dxのことを「+Dx方向」とも呼ぶ。また、第1方向Dxとは反対の方向を「−Dx方向」とも呼ぶ。「+Dy方向」と「−Dy方向」とについても、同様である。また、+Dx方向側を、単に「+Dx側」とも呼ぶ。他の方向側についても、同様である。
図2の次のステップS110では、読取データ出力部220(図1)は、読取データを、ネットワーク500を介して、サーバ300に出力する。次のステップS200では、サーバ300の対象データ取得部410が、複合機100からの読取データを、処理対象の画像データ(「対象画像データ」とも呼ぶ)として、取得する。続くステップS205〜S220は、読取画像80内の囲み線を特定するための処理である。
次のステップS205では、第1特定部411(図1)は、読取データに対して、二値化処理を行うことによって、二値画像データを生成する。具体的には、読取データの複数の画素のそれぞれは、囲み線の色(本実施例では赤)を示す色値を有する画素(「候補画素」と呼ぶ)と、他の色を示す色値を有する画素(「非候補画素」と呼ぶ)と、のいずれかに分類される。この二値化処理は、囲み線を表す画素が示すべき色の範囲である所定の色範囲(「囲み線色範囲」と呼ぶ)に従って、行われる。本実施例では、囲み線の色が赤であることが想定されている。従って、囲み線色範囲としては、例えば、R成分値が赤基準値Rth以上、かつ、G成分値が緑基準値Gth以下、かつ、B成分値が青基準値Bth以下である色範囲を採用可能である。囲み線色範囲に含まれる色値を有する画素は、候補画素に分類され、囲み線色範囲に含まれない色値を有する画素は、非候補画素に分類される。なお、囲み線の色としては、赤とは異なる他の色が採用され得る。囲み線色範囲としては、囲み線の色として想定されている色を含む部分色範囲を採用可能である。
図4(B)は、二値画像データによって表される二値画像80aの例を示す概略図である。二値画像80aは、互いに分離した2つの候補領域84a、85aを表している。第1候補領域84aは、第4オブジェクト84(図4(A))の一部を表し、第2候補領域85aは、囲み線85(図4(A))を表している。各候補領域84a、85aは、それぞれ、連続する複数の候補画素によって構成されている。なお、2つの画素が連続する(すなわち、2つの画素が接する)ことの定義としては、一方の画素が、他方の画素を中心とする3行3列の範囲内に配置されていること、を採用している。この代わりに、一方の画素が、他方の画素から見て4つの方向(+Dx、−Dx、+Dy、−Dy)のいずれかの方向に隣接することを、採用してもよい。
図2の次のステップS210では、第1特定部411は、二値画像データに対して、候補領域を収縮させる収縮処理を実行することによって、収縮処理済の二値画像データを生成する。そして、第1特定部411は、収縮処理済の二値画像データに対して、収縮処理済の候補領域を膨張させる膨張処理を実行することによって、膨張処理済の二値画像データを生成する。
収縮処理は、例えば、非候補画素を基準とする所定の収縮範囲内の全ての候補画素を非候補画素に変更する処理を、二値画像データの全ての非候補画素に対して行うことによって、実現される。収縮範囲としては、例えば、処理対象の非候補画素を中心とする3行3列の範囲を採用可能である。このような収縮処理を行うことによって、非候補画素の近傍の候補画素、すなわち、候補領域の縁を形成する候補画素が、非候補画素に変更される。この結果、候補領域が収縮する。また、ノイズによって生じた小さい候補領域(図示省略。例えば、数個の候補画素で構成された候補領域)は、消去される。
膨張処理は、例えば、候補画素を基準とする所定の膨張範囲内の全ての非候補画素を候補画素に変更する処理を、二値画像データの全ての候補画素に対して行うことによって、実現される。膨張範囲としては、例えば、処理対象の候補画素を中心とする5行5列の範囲を採用可能である。このような膨張処理を行うことによって、候補画素の近傍の非候補画素、すなわち、候補領域の縁の近傍の非候補画素が、候補画素に変更される。この結果、候補領域が膨張する。また、ペンの掠れやノイズ等によって、囲み線85を表す第2候補領域85aに、断線した部分(「断線部分」と呼ぶ)が生じる場合がある(図示省略)。膨張処理は、そのような断線部分を、接続することが可能である。
図4(C)は、収縮処理済、かつ、膨張処理済の二値画像データによって表される二値画像80bの例を示す概略図である。この二値画像80bは、2つの候補領域84b、85bを示している。これらの候補領域84b、85bは、それぞれ、図4(B)の二値画像80aによって表される2つの候補領域84a、85aに、対応している。
以上のように、収縮処理と膨張処理とを行うことによって、ノイズの消去と断線部分の接続とを実現できるので、後述するオブジェクト特定処理において、囲み線の特定の精度を向上できる。
なお、上述の収縮範囲と膨張範囲、すなわち、収縮処理による収縮の程度と、膨張処理による膨張の程度とは、一例である。収縮処理を膨張処理よりも先に実行する場合には、膨張処理の程度(すなわち、膨張範囲の大きさ)が、収縮処理の程度(すなわち、収縮範囲の大きさ)よりも、大きいことが好ましい。こうすれば、断線部分の接続を適切に実現できる。また、膨張処理を収縮処理よりも先に実行してもよい。この場合、膨張処理の程度は、収縮処理の程度よりも小さいことが好ましい。こうすれば、ノイズによる候補領域を適切に消去できる。
図2の次のステップS215では、第1特定部411は、収縮処理済かつ膨張処理済の二値画像データに対して、互いに離れた候補領域に互いに異なる識別子を割り当てるラベリング処理を行う。具体的には、第1特定部411は、連続する1以上の候補画素で構成される連続な1つの領域(すなわち、候補領域)に、1つの識別子を割り当てる。そして、第1特定部411は、互いに離れた複数の候補領域に、互いに異なる識別子を割り当てる。このようなラベリング処理によって、各候補領域が特定される。図4(C)の例では、第1候補領域84bと第2候補領域85bとに、互いに異なる識別子が割り当てられる。第1特定部411は、このラベリング処理の結果を表す第1ラベルデータ(例えば、画素と識別子(「ラベル」とも呼ぶ)とを対応付けるデータ)を、生成する。
図2の次のステップS220では、第1特定部411は、特定された候補領域を用いて、オブジェクト特定処理を実行する。このオブジェクト特定処理では、特定された候補領域から、囲み線を表す領域が特定される。例えば、第1特定部411は、候補領域の形状がループ状である場合に、その候補領域が囲み線を表す領域であると判定する。図4(C)の例では、ループ状の第2候補領域85bが、囲み線を表す領域として、特定される。以下、囲み線を表す候補領域を「囲み線領域」とも呼ぶ。
なお、候補領域の形状がループ状であるか否かを判定する方法としては、種々の方法を採用可能である。例えば、以下の方法を採用可能である。ここで、図4(C)の二値画像80bを例として用いて、説明を行う。判定対象の候補領域を「対象領域」と呼び、対象領域に含まれる画素を「対象領域画素」と呼び、対象領域には含まれない画素を「非対象領域画素」と呼ぶ。例えば、第2候補領域85bが対象領域である場合、対象領域画素は、第2候補領域85bに含まれる画素である。非対象領域画素は、第2候補領域85bに含まれない画素である。具体的には、非対象領域画素は、第2候補領域85bの内周側の背景を表す画素と、第2候補領域85bの外周側の背景を表す画素と、対象領域85b以外の候補領域84bに含まれる画素と、を含んでいる。
まず、複数の非対象領域画素が連続する領域であって、二値画像80bの端を含む領域が、特定される。特定される領域は、対象領域の外周側を全周に亘って囲む領域である(「第1種外周領域」と呼ぶ)。第2候補領域85bが対象領域である場合、第1種外周領域は、第2候補領域85bの外周側の全体、すなわち、外周側の背景を表す領域と、外周側に配置された第1候補領域84bとの全体である。
二値画像80bから第1種外周領域を除いた残りの領域は、対象領域の最外輪郭に囲まれた領域である(「第1種判定領域」と呼ぶ)。第2候補領域85bが対象領域である場合、第1種判定領域は、第2候補領域85bの最外輪郭に囲まれた領域、すなわち、第2候補領域85bと、第2候補領域85bの内周側の背景を表す領域と、の全体である。
第1種判定領域から、複数の非対象領域画素が連続する領域が検出される場合、対象領域の形状がループ状である、と判定される。第2候補領域85bが対象領域である場合、第1種判定領域から(具体的には、第2候補領域85bの内周側から)、複数の非対象領域画素が連続する領域(すなわち、背景を表す領域)が検出される。従って、第2候補領域85bの形状はループ状であると判定される。第1種判定領域から、複数の非対象領域画素が連続する領域が検出されない場合、対象領域の形状はループ状ではない、と判定される。例えば、第1候補領域84bの形状はループ状ではない、と判定される。
図2に続く図3のステップS225〜S247は、囲み線によって囲まれたオブジェクトを表す領域を特定するための処理である。最初のステップS225では、第2特定部412は、ステップS220で特定された囲み線領域から、1つの囲み線領域を、処理対象の囲み線領域として選択する。以下、図4(C)の囲み線領域85bが選択されたこととして、説明を行う。
次のステップS230では、第2特定部412は、読取データから、処理対象の囲み線領域85bを包含する領域を表す部分画像データを取得する。本実施例では、第2特定部412は、読取画像80と同じ矩形領域を表す画像データ、すなわち、読取データを、そのまま、部分画像データとして採用する。ただし、第2特定部412は、読取データのうちの、囲み線領域85bを含む一部の領域を表す部分を、部分画像データとして取得してもよい。
図3の次のステップS235では、第2特定部412は、部分画像データに対して、二値化処理を行うことによって、部分二値画像データを生成する。具体的には、部分画像データの複数の画素のそれぞれは、背景の色を示す色値を有する画素(「背景画素」と呼ぶ)と、他の色を示す色値を有する画素(「オブジェクト画素」と呼ぶ)と、のいずれかに分類される。
この二値化処理は、背景を表す画素が示すべき色の範囲である背景色範囲に従って、行われる。本実施例では、まず、第2特定部412は、図4(A)の読取画像80の複数の画素のうちの、図4(C)の囲み線領域85bに隣接する複数の画素の色値の平均値を、背景色を表す色値(「背景色値」と呼ぶ)として算出する。算出される背景色値は、R成分値の平均値(「R平均値Rav」と呼ぶ)と、G成分値の平均値(「G平均値Gav」と呼ぶ)と、B成分値の平均値(「B平均値Bav」と呼ぶ)と、を含んでいる。
次に、第2特定部412は、背景色値を中心とする所定幅の色範囲を、背景色範囲として決定する。背景色範囲としては、例えば、(Rav−W)<R成分値<(Rav+W)、かつ、(Gav−W)<G成分値<(Gav+W)、かつ、(Bav−W)<B成分値<(Bav+W)である色範囲を採用可能である。ここで、幅に対応する値Wは、所定値である。なお、背景色範囲としては、上記の範囲に限らず、読取画像80の背景部分の色を含む種々の範囲を採用可能である。例えば、上記の背景色値からの距離(例えば、RGB色空間内でのユークリッド距離)が所定の閾値以下である色の範囲を、採用してもよい。また、背景色値の算出方法としては、上記方法に限らず、種々の方法を採用可能である。例えば、読取画像80の端部に配置された複数の画素の色値の平均値を、背景色値として採用してもよい。一般に、第2特定部412は、読取画像80の解析結果に応じて背景色範囲を決定すれば、読取画像80に適した二値化処理を実現できる。ただし、背景色範囲として、所定の範囲を採用してもよい。例えば、R成分値とG成分値とB成分値とから算出される輝度値が所定の閾値以上である色の範囲を、採用してもよい。
図4(D)は、部分二値画像データによって表される部分二値画像80cの例を示す概略図である。部分二値画像80cは、互いに分離した3つのオブジェクト領域83c、84c、89cを、表している。各オブジェクト領域83c、84c、89cは、それぞれ、連続する複数のオブジェクト画素によって構成されている。第1オブジェクト領域83cは、第3オブジェクト83を表し、第2オブジェクト領域84cは、第4オブジェクト84を表し、第3オブジェクト領域89cは、囲み線85と、囲み線85と交差する第1オブジェクト81および第2オブジェクト82と、の全体を表している。以下、第3オブジェクト領域89cのうちの、第1オブジェクト81を表す部分を第1部分領域81cとも呼び、第2オブジェクト82を表す部分を第2部分領域82cとも呼び、囲み線85を表す部分を囲み線部分領域85cとも呼ぶ。なお、第2特定部412は、互いに離れたオブジェクト領域を区別する処理(例えば、ラベリング処理)を行っていない。しかし、第2特定部412は、オブジェクトを表すオブジェクト領域(図4(D)の例では、3つのオブジェクト領域83c、84c、89c)を、ステップS235の二値化処理によって特定している、ということができる。
図3の次のステップS237では、第3特定部413は、二値画像によって表されるオブジェクト領域から、囲み線領域85b(囲み線部分領域85cとおおよそ同じ)を削除する。具体的には、第3特定部413は、ステップS235の二値化処理によって特定されたオブジェクト画素のうちの、処理対象の囲み線領域(ここでは、囲み線領域85b)に含まれる画素の種類を、背景画素に変更する。
図4(E)は、ステップS237の処理済の部分二値画像データによって表される部分二値画像80dの例を示す概略図である。図4(E)には、図4(C)で説明した囲み線領域85bが、破線で示されている。図4(D)の部分二値画像80cと比較すると、第3オブジェクト領域89cのうちの囲み線部分領域85cが削除されている。また、第1部分領域81cからは、囲み線領域85bと重なっていた部分が、削除されている。この結果、第1部分領域81cのうちの、囲み線領域85bの外周側の部分領域81coと、囲み線領域85bの内周側の部分領域81ciとが、互いに分離した領域として残っている。以下、部分領域81coを「第1外候補領域81co」とも呼び、部分領域81ciを「第1内候補領域81ci」とも呼ぶ。同様に、第2部分領域82cからは、囲み線領域85bと重なっていた部分が、削除されている。この結果、第2部分領域82cのうちの、囲み線領域85bの外周側の部分領域82coと、囲み線領域85bの内周側の部分領域82ciとが、互いに分離した領域として残っている。以下、部分領域82coを「第2外候補領域82co」とも呼び、部分領域82ciを「第2内候補領域82ci」とも呼ぶ。第1オブジェクト領域83cと、第2オブジェクト領域84cとは、そのまま残っている。
図3の次のステップS240では、第3特定部413は、部分二値画像データに対して、ラベリング処理を行う。ラベリング処理の手順は、ステップS215のラベリング処理の手順と同じである。図4(E)の例では、互いに分離した6つのオブジェクト領域81ci、81co、82ci、82co、83c、84cに、互いに異なる識別子が割り当てられる。第3特定部413は、このラベリング処理の結果を表す第2ラベルデータ(例えば、画素と識別子とを対応付けるデータ)を、生成する。
第3特定部413によって特定されたオブジェクト領域81ci、81co、82ci、82co、83c、84cは、囲み線85とは異なるオブジェクトを表す領域である。後述するように、抽出部420は、これらのオブジェクト領域から、囲み線85によって囲まれたオブジェクトを表す領域を抽出する。このように、第3特定部413によって特定されるオブジェクト領域は、抽出部420によって抽出されるオブジェクト領域の候補である。従って、第3特定部413によって特定されるオブジェクト領域を、「候補オブジェクト領域」とも呼ぶ。
図3の次のステップS242では、抽出部420の接触抽出部422は、囲み線領域の削除に起因して分離した複数の候補オブジェクト領域の組合せを特定する処理である組合せ特定処理を実行する。図5は、組合せ特定処理のフローチャートである。最初のステップS300では、接触抽出部422は、格子状の所定のパターンを用いることによって、処理対象の囲み線領域(ここでは、図4(C)の囲み線領域85b)から、複数の分離部分領域を抽出する。
図6は、組合せ特定処理の概略図である。図6(A)は、囲み線領域85bを示し、図6(B)は、格子状の所定のパターン80pの例を示している。このパターン80pは、矩形状の有効部分範囲Aaと、有効部分範囲Aaと同じ形状の無効部分範囲Auとが、格子状に交互に並ぶパターンである。図中では、有効部分範囲Aaにハッチングが付されている。図示するように、第1方向Dxに沿って、有効部分範囲Aaと無効部分範囲Auとが交互に並び、また、第2方向Dyに沿って、有効部分範囲Aaと無効部分範囲Auとが交互に並んでいる。
図6(B)には、囲み線領域85bが、パターン80p上に重ねて示されている。接触抽出部422は、囲み線領域85bにパターン80pを重ねることによって、囲み線領域85bから、有効部分範囲Aaに含まれる部分領域を抽出する。具体的には、例えば、有効部分範囲Aaと重なる囲み線領域85bは、二値画像内で抽出された画素として維持され、無効部分範囲Auと重なる囲み線領域85bは、二値画像内で抽出されない画素に変更される。なお、囲み線領域85bに対するパターン80pの相対位置の決定方法としては、任意の方法を採用可能である。例えば、読取画像80に対するパターン80pの相対位置が、予め決定されていてもよい。この場合、接触抽出部422は、この相対位置に従って、囲み線領域85bに対するパターン80pの相対位置を特定する。
図6(C)は、抽出された部分領域85sの例を示す概略図である。図示するように、複数の部分領域85sが、抽出される。図6(B)に示すように、1つの部分範囲Aa、Auの大きさは、囲み線領域85bが多数の部分範囲Aa、Auと重なり得るように、十分に小さい。従って、図6(C)に示すように、囲み線領域85bからは、互いに分離した複数の部分領域85sが、抽出される。図6(B)に示すように、有効部分範囲Aaと無効部分範囲Auとは、囲み線領域85bの全体に亘って均等に配置されている。従って、図6(C)に示すように、複数の部分領域85sは、囲み線領域85bの全体に亘って、おおよそ均等に、分布する。また、図6(B)に示すように、1つの部分範囲Aa、Auの大きさは、囲み線領域85bの線幅よりも大きい。従って、図6(C)に示すように、囲み線領域85bからは、囲み線領域85bの内周縁85biから外周縁85boまで延びる部分領域85sが、抽出される。なお、囲み線の線幅は、所定のペンによって記入された線の幅であり、読取画像の解像度(すなわち、画素密度)に応じて予め決められている。また、部分領域85sと、部分領域85sではない領域とが、囲み線に沿って交互に並ぶように、複数の部分領域85sが抽出されている。以下、部分領域85sのことを「分離部分領域85s」とも呼ぶ。
次に、接触抽出部422は、部分二値画像80d(図4(E))に、分離部分領域85s(図6(C))を重ねることによって得られる二値画像(「組合せ用二値画像」と呼ぶ)を表す二値画像データを生成する。図6(D)は、組合せ用二値画像80dsの一部を示す概略図である。組合せ用二値画像80dsは、部分二値画像80d(図4(E))によって表される候補オブジェクト領域と、新たに抽出された分離部分領域85sと、のいずれかに含まれる画素を、他の画素と区別する。図中では、候補オブジェクト領域81ci、81co、82ci、82co、83cと、複数の分離部分領域85sと、が示されている。
図示するように、第1外候補領域81coと第1内候補領域81ciとの間には、第1分離部分領域85s1が配置されている。これらの候補オブジェクト領域81co、81ciは、共通の第1分離部分領域85s1と接触している。また、第2外候補領域82coと第2内候補領域82ciとの間には、第2分離部分領域85s2が配置されている。これらの候補オブジェクト領域82ci、82coは、共通の第2分離部分領域85s2と接触している。このように、共通の分離部分領域85sに接触する内候補領域と外候補領域とを抽出することによって、囲み線領域85bを挟んで対向する内候補領域と外候補領域とを抽出することができる。第1オブジェクト領域83cには、分離部分領域85sは接触していない。図示を省略するが、第2オブジェクト領域84c(図4(E))にも、分離部分領域85sは接触していない。
図5の次のステップS320では、接触抽出部422は、組合せ用二値画像80dsを表す二値画像データに対して、ラベリング処理を行う。ラベリング処理の手順は、図2のステップS215のラベリング処理の手順と同じである。図6(D)の例では、第1内候補領域81ciと第1外候補領域81coと第1分離部分領域85s1とを含む連続な領域81dsに、共通の識別子が割り当てられる。同様に、第2内候補領域82ciと第2外候補領域82coと第2分離部分領域85s2とを含む連続な領域82dsに、共通の識別子が割り当てられる。なお、2つの領域81ds、82dsは、互いに分離しているので、2つの領域81ds、82dsには、互いに異なる識別子が割り当てられる。接触抽出部422は、このラベリング処理の結果を表す第3ラベルデータ(例えば、画素と識別子とを対応付けるデータ)を、生成する。
図5の次のステップS330では、接触抽出部422は、部分二値画像80d(図4(E))によって表される複数の候補オブジェクト領域のうち、ステップS320で同じ識別子に対応付けられた複数の候補オブジェクト領域を、1つのオブジェクト領域として特定する(以下「組合せオブジェクト領域」とも呼ぶ)。図6(E)は、組合せオブジェクト領域を示す概略図である。図中には、5つの候補オブジェクト領域81ci、81co、82ci、82co、83cが示されている。第1外候補領域81coと第1内候補領域81ciとは、1つの組合せオブジェクト領域81eとして特定されている(「第1組合せオブジェクト領域81e」とも呼ぶ)。また、第2外候補領域82coと第2内候補領域82ciとは、1つの組合せオブジェクト領域82eとして特定されている(「第2組合せオブジェクト領域82e」とも呼ぶ)。接触抽出部422は、特定した組合せオブジェクト領域を表す組合せオブジェクトデータを生成する。例えば、接触抽出部422は、組合せオブジェクト領域に、固有の識別子を割り当て、そして、候補オブジェクト領域の識別子と組合せオブジェクト領域の識別子との対応関係を表すデータを組合せオブジェクトデータとして生成する。
ステップS330の終了に応じて、図5の処理、すなわち、図3のステップS242が終了する。図3の次のステップS245では、抽出部420の内包抽出部424は、囲み線領域85b(図4(C))以外の候補オブジェクト領域(図4(E))のそれぞれについて、候補オブジェクト領域が囲み線領域85bに囲まれているか否かを判定する。内包抽出部424は、例えば、候補オブジェクト領域が、囲み線領域85bの内周側の領域(「内側領域85bi」と呼ぶ)と重なっている場合に、候補オブジェクト領域が囲み線領域85bに囲まれている、と判定する。図4(E)の例では、3つの候補オブジェクト領域81ci、82ci、83cのそれぞれが、内側領域85ciと重なっている。従って、3つの候補オブジェクト領域81ci、82ci、83cのそれぞれが、囲み線領域85bに囲まれていると判定される。他の3つの候補オブジェクト領域81co、82co、84cのそれぞれは、内側領域85ciとは重なっておらず、囲み線領域85bの外周側の領域(「外側領域85bo」と呼ぶ)と重なっている。従って、3つの候補オブジェクト領域81co、82co、84cのそれぞれは、囲み線領域85bに囲まれていないと判定される。また、内包抽出部424は、判定結果を表す包含関係データ(例えば、候補オブジェクト領域の識別子と、囲み線領域85bに囲まれているか否かを表すフラグと、の対応関係を表すデータ)を生成する。
なお、候補オブジェクト領域が、囲み線領域85bの内周側の領域(すなわち、内側領域85bi)と重なっているか否かを判定する方法としては、種々の方法を採用可能である。例えば、以下の方法を採用可能である。ここで、図4(C)の二値画像80bと図4(E)の部分二値画像80dを例として用いて、説明を行う。囲み線領域に含まれる画素を、「囲み線画素」とも呼び、囲み線画素とは異なる画素を「非囲み線画素」とも呼ぶ。図4(C)、図4(D)の例では、囲み線画素は、囲み線領域85bに含まれる画素である。非囲み線画素は、囲み線領域85bの画素とは異なる画素である。具体的には、非囲み線画素は、囲み線領域85bの内周側の背景を表す画素と、囲み線領域85bの外周側の背景を表す画素と、囲み線領域85b以外の候補オブジェクト領域81co、81ci、82co、82ci、83c、84cに含まれる画素と、を含んでいる。
まず、複数の非囲み線画素が連続する領域であって、部分二値画像80dの端を含む領域を、特定する。特定される領域は、囲み線領域85bの外周側を囲む領域(すなわち、外側領域85bo)である(「第2種外周領域」と呼ぶ)。具体的には、第2種外周領域は、囲み線領域85bの外周側の全体、すなわち、外周側の背景を表す領域と、外周側に配置された候補オブジェクト領域81co、82co、84cと、の全体である。
部分二値画像80dから第2種外周領域を除いた残りの領域は、囲み線領域85bの最外輪郭に囲まれた領域である(「第2種判定領域」と呼ぶ)。具体的には、第2種判定領域は、囲み線領域85bと、内側領域85biと、の全体である。内側領域85biは、囲み線領域85bの内周側の背景を表す領域と、内周側に配置された候補オブジェクト領域81ci、82ci、83cと、を含んでいる。
この第2種判定領域から、候補オブジェクト領域の画素が検出される場合、その候補オブジェクト領域は内側領域85biと重なっている、すなわち、その候補オブジェクト領域は囲み線に囲まれている、と判定される。例えば、第2種判定領域からは、3つの候補オブジェクト領域81ci、82ci、83cのそれぞれの画素が検出される。従って、3つの候補オブジェクト領域81ci、82ci、83cは、囲み線領域85b(すなわち、囲み線85)に囲まれている、と判定される。第2種判定領域から、候補オブジェクト領域の画素が検出されない場合、その候補オブジェクト領域は内側領域85biとは重なっていない、すなわち、その候補オブジェクト領域は、囲み線領域85bに囲まれていないと判定される。例えば、第2種判定領域からは、3つの候補オブジェクト領域81co、82co、84cの画素は検出されない。従って、3つの候補オブジェクト領域81co、82co、84cは、囲み線領域85bに囲まれていないと判定される。
図3の次のステップS246では、内包抽出部424は、内包オブジェクト領域を抽出する。内包オブジェクト領域は、囲み線85の内周側に全体が囲まれたオブジェクトを表す領域である。本実施例では、内包抽出部424は、候補オブジェクト領域のうちの、囲み線領域85bに囲まれていると判定され、かつ、組合せオブジェクト領域を構成しない候補オブジェクト領域を、内包オブジェクト領域として抽出する。図4(E)の例では、第1オブジェクト領域83cが、内包オブジェクト領域として抽出される。
以上のように、内包抽出部424は、囲み線85によって全体が囲まれたオブジェクトを表す内包オブジェクト領域を、特定する。
図3の次のステップS247では、接触オブジェクト領域を抽出する。接触オブジェクト領域は、囲み線と接触するオブジェクトのうちの、囲み線によって選択されたオブジェクトとして処理されるオブジェクトを表す領域である。図7は、接触オブジェクト領域の抽出のフローチャートである。最初のステップS400では、接触抽出部422は、図5のステップS330で特定された組合せオブジェクト領域の中から、未処理の1つの組合せオブジェクト領域(例えば、図6(E)の81e(81co、81ciを含む))を、処理対象の組合せオブジェクト領域として選択する。次のステップS410では、接触抽出部422は、処理対象の組合せオブジェクト領域全体(例えば、図6(E)の81co+81ci)のうちの内周側の候補オブジェクト領域の割合(例えば、図6(E)の81ci)が所定の割合閾値以上であるか否かを判定する。この割合は、面積の割合と正の相関を有していればよく、本実施例では、割合として画素数の割合が算出される。割合閾値としては、ゼロ%よりも大きく100%よりも小さい任意の値を採用可能である。本実施例では、閾値は50%である。
割合が閾値以上である場合(S410:Yes)、次のステップS420で、接触抽出部422は、処理対象の1つの組合せオブジェクト領域を、1つの接触オブジェクト領域として抽出し、そして、ステップS430に移行する。割合が閾値未満である場合(S410:No)、接触抽出部422は、ステップS420をスキップして、ステップS430に移行する。
ステップS430では、接触抽出部422は、全ての組合せオブジェクト領域の処理が終了したか否かを判定する。未処理の組合せオブジェクト領域が残っている場合(S430:No)、接触抽出部422は、ステップS400に戻って、未処理の組合せオブジェクト領域の処理を行う。全ての組合せオブジェクト領域の処理が終了した場合(S430:Yes)、接触抽出部422は、図7の処理を終了する。
図4(F)は、抽出された接触オブジェクト領域と内包オブジェクト領域とを示す概略図である。図示するように、第1組合せオブジェクト領域81eは、接触オブジェクト領域として抽出されているが、第2組合せオブジェクト領域82e(図6(E))は、接触オブジェクト領域として抽出されていない。また、第1オブジェクト領域83cが、内包オブジェクト領域として抽出されている。接触オブジェクト領域と内包オブジェクト領域とは、囲み線によって選択されたオブジェクトを表す領域として、処理される。後述するように、本実施例では、囲み線によって選択されたオブジェクトは、消去される。
図3の次のステップS248は、読取画像80中の隙間領域の色補正処理である。隙間領域は、組合せオブジェクト領域を構成する複数の候補オブジェクト領域の間の領域である。例えば、図6(E)の第2内候補領域82ciと第2外候補領域82coとの間の領域が、隙間領域である。本実施例では、色変更部430は、図5のステップS330で特定された組合せオブジェクト領域のうちの、消去されずに残る組合せオブジェクト領域の隙間領域の色を補正する。
図8は、隙間領域の色補正処理のフローチャートである。最初のステップS500では、色変更部430は、消去されずに残る組合せオブジェクト領域の中から、未処理の1つの組合せオブジェクト領域を、処理対象の組合せオブジェクト領域(「対象組合せ領域」と呼ぶ)として選択する。図9は、隙間領域の色補正処理の概略図である。図9(A)は、対象組合せ領域の例を示している。図中には、対象組合せ領域としての第2組合せオブジェクト領域82eが示されている。第2組合せオブジェクト領域82eを構成する第2内候補領域82ciと第2外候補領域82coとの間に、隙間領域82gが形成されている。以下、第2組合せオブジェクト領域82eが、対象組合せ領域として選択されたこととして、説明を行う。
図8の次のステップS510では、領域連結部425は、対象組合せ領域を構成する複数の候補オブジェクト領域に、候補オブジェクト領域の範囲を膨張させる膨張処理を実行する。この膨張処理の手順は、図2のステップS210で説明した膨張処理の手順と同じである。図9(B)は、膨張処理済の候補オブジェクト領域を示している。第2外候補領域82coは、膨張することによって、第2膨張済外候補領域82poを形成し、第2内候補領域82ciは、膨張することによって、第2膨張済内候補領域82piを形成している。第2膨張済外候補領域82poと第2膨張済内候補領域82piとは、互いに接触して、隙間領域82gを埋めている。以下、第2膨張済外候補領域82poと第2膨張済内候補領域82piとを含む連続な領域を「膨張済候補領域82p」とも呼ぶ。
なお、ステップS510の膨張処理による膨張の程度は、囲み線領域の削除によって生じる隙間領域が、膨張済の候補オブジェクト領域によって埋められるように、十分に大きな程度に、予め設定されている。
図8の次のステップS520では、領域連結部425は、膨張処理済の候補オブジェクト領域、すなわち、膨張済候補領域82pに、候補オブジェクト領域の範囲を収縮させる収縮処理を実行する。この収縮処理の手順は、図2のステップS210で説明した収縮処理の手順と同じである。ただし、ステップS520の収縮処理の程度は、ステップS510の膨張処理の程度と、同じに設定される。
図9(C)は、収縮処理済の候補オブジェクト領域を示している。膨張済候補領域82pは、収縮することによって、収縮済候補領域82qを形成している。収縮済候補領域82qの元の膨張済候補領域82pは、隙間領域82gを埋めているので、収縮済候補領域82qも、隙間領域82gを埋めている。上述したように、ステップS520の収縮処理の程度は、ステップS510の膨張処理の程度と、同じに設定されている。従って、収縮済候補領域82qの輪郭は、第2内候補領域82ciと第2外候補領域82coとのそれぞれの輪郭と、おおよそ一致する(隙間領域82gの近傍を除く)。
図8の次のステップS525では、領域連結部425は、ステップS510の膨張処理と、ステップS520の収縮処理と、によって連結した領域を連結オブジェクト領域として特定する。図9(C)の例では、収縮済候補領域82qが、連結オブジェクト領域として、特定される(以下、連結オブジェクト領域82qとも呼ぶ)。
具体的には、領域連結部425は、例えば、対象組合せ領域(例えば、図9(A)の組合せオブジェクト領域82e)を表す二値画像データに、膨張処理(S510)と収縮処理(S520)とを行う。そして、領域連結部425は、膨張処理と収縮処理とを行うことによって得られる二値画像データに、ラベリング処理を行う(S525)。以上により、領域連結部425は、連結オブジェクト領域を特定できる。領域連結部425は、このラベリング処理の結果を表す第4ラベルデータ(例えば、画素と、連結オブジェクト領域に含まれるか否かを表すフラグと、の対応関係を表すデータ)を生成する。
図8の次のステップS530では、色変更部430は、連結オブジェクト領域82qから、元の候補オブジェクト領域82ci、82coを削除することによって、隙間領域82gを特定する。具体的には、連結オブジェクト領域82qに含まれる画素から、元の候補オブジェクト領域82ci、82coに含まれる画素を除いた、残りの画素で構成される領域が、隙間領域82gとして採用される。図9(D)は、特定された隙間領域82gを示す概略図である。図示するように、第2内候補領域82ciと第2外候補領域82coとの間の領域が、隙間領域82gとして特定されている。
図8の次のステップS540では、色変更部430は、読取画像80(図4(A))における隙間領域82g内の画素の色値を補正する。図9(E)は、色値の補正の概略図である。図中には、隙間領域82gと、第2内候補領域82ciと、第2外候補領域82coの一部と、囲み線領域85bの一部と、が示されている。図示された第2外候補領域82coの一部は、囲み線領域85b、すなわち、隙間領域82gと接触する部分である。図示された囲み線領域85bの一部は、隙間領域82gを含む部分である。
色変更部430は、隙間領域82g内の画素Pxt(「対象画素Pxt」と呼ぶ)の色値を、第2内候補領域82ci内の画素Pxi(「内画素Pxi」と呼ぶ)の色値と、第2外候補領域82co内の画素Pxo(「外画素Pxo」と呼ぶ)の色値と、を用いることによって、決定する。
例えば、色変更部430は、内画素Pxiとして、第2内候補領域82ci内の画素のうちの対象画素Pxtに最も近い画素を採用する。次に、色変更部430は、対象画素Pxtと内画素Pxiとを通る直線Lxtを特定する。このような直線Lxtは、囲み線領域85bの延びる方向(すなわち、囲み線85の延びる方向)と、おおよそ直交する。色変更部430は、外画素Pxoとして、第2外候補領域82co内の画素であって直線Lxtと重なる画素のうちの、対象画素Pxtに最も近い画素を採用する。そして、色変更部430は、対象画素Pxtの色値を、内画素Pxiの色値と外画素Pxoの色値との線形補間によって、算出する。従って、色変更部430は、対象画素Pxtの色値として、第2内候補領域82ciの色と第2外候補領域82coの色とに適した色値を、算出できる。
ここで、1つの画素の形状が、第1方向Dxと平行な2辺と、第2方向Dyと平行な2辺とで構成される矩形であることとしている。画素が直線Lxtと重なることは、画素を表す矩形が直線Lxtと重なることを意味している。1つの画素の第1方向Dxの大きさは、第1方向Dxに沿って隣り合う画素間の距離と同じであり、1つの画素の第2方向Dyの大きさは、第2方向Dyに沿って隣り合う画素間の距離と同じであることとする。直線Lxtは、対象画素Pxtの中心位置と内画素Pxiの中心位置とを通る直線である。また、距離、具体的には、2つの画素間の距離としては、各画素の中心位置の間のユークリッド距離を採用可能である。
色変更部430は、隙間領域82g内の全ての画素のそれぞれについて、上記方法に従って、補正後の色値を算出する。色値の算出が完了したことに応じて、色変更部430は、図8の次のステップS550に移行する。ステップS550では、色変更部430は、消去されずに残る全ての組合せオブジェクト領域の処理が終了したか否かを判定する。未処理の組合せオブジェクト領域が残っている場合(S550:No)、色変更部430は、ステップS500に戻って、未処理の組合せオブジェクト領域の処理を進行する。消去されずに残る全ての組合せオブジェクト領域の処理が終了した場合(S550:Yes)、色変更部430は、図8の処理、すなわち、図3のステップS248を終了する。
図3の次のステップS250は、読取画像80から、囲み線を消去するために、囲み線領域の色を補正する処理である。次のステップS255は、読取画像80から、囲み線によって囲まれた(換言すれば、選択された)オブジェクトを消去する処理である。図4(G)は、処理済画像90の例を示す概略図である。この処理済画像90は、ステップS248、S250、S255の処理を読取データに対して実行することによって生成される処理済データによって表される画像である。図示するように、処理済画像90は、読取画像80から、囲み線85と、囲み線85によって囲まれた(換言すれば、選択された)第1オブジェクト81および第3オブジェクト83を、消去することによって得られる画像である。第2オブジェクト82は、囲み線85と交差しているが、図7のステップS410の判定結果が「No」であるので、消去されずに残っている。そして、第2オブジェクト82のうちの囲み線85と重なっていた部分の色は、図3のステップ248によって、修正されている。
図3のステップS250では、オブジェクト処理部440は、読取画像80の複数の画素のうち、二値画像80bによって表される囲み線領域85bに含まれる画素の色値を、背景色値に変更する。背景色値は、上述のステップS235で算出された背景色値である。この処理の結果、読取画像80中の囲み線85を表していた領域は、背景を表す。なお、ステップS248で処理された隙間領域の画素は、処理対象から外される。
次のステップS255では、オブジェクト処理部440は、読取画像80の複数の画素のうち、囲み線によって選択されたオブジェクト領域(すなわち、内包オブジェクト領域と接触オブジェクト領域)に含まれる画素の色値を、背景色値に変更する。背景色値は、上述のステップS235で算出された背景色値である。この処理の結果、読取画像80中の第1オブジェクト81と第3オブジェクト83とを表していた領域は、背景を表す。
図3の次のステップS260では、第2特定部412は、全ての囲み線領域の処理が終了したか否かを判定する。未処理の囲み線領域が残っている場合には(S260:No)、第2特定部412は、ステップS225に戻って、未処理の囲み線領域の処理を行う。
なお、ステップS248、S250、S255のそれぞれの処理は、読取画像80を表す読取データに対して、累積的に行われる。そして、全ての囲み線領域の処理が終了することによって得られる処理済の画像データが、最終的な処理済データとして利用される。
全ての囲み線領域の処理が終了した場合(S260:Yes)、次のステップS265で、処理済データ出力部450は、処理済データを、ネットワーク500を介して、複合機100に出力する。次のステップS120では、複合機100の処理済データ取得部230が、サーバ300からの処理済データを取得する。次のステップS130では、印刷制御部240が、処理済データを用いて印刷データを生成し、生成した印刷データを印刷実行部170に供給する。印刷実行部170は、受信した印刷データに従って、画像を印刷する。例えば、図4(G)に示す画像が印刷される。
以上のように、本実施例では、接触抽出部422は、以下の3つの条件が満たされる場合に、内候補オブジェクト領域と外候補オブジェクト領域とを含む領域(例えば、図6(E)の第1内候補領域81ciと第1外候補領域81coとを含む領域81e)を、囲み線に接触するオブジェクトを表す接触オブジェクト領域として抽出する(図3:S242、S245、S247)。
3つの条件は、以下の通りである。
(第1条件)第3特定部413によって特定された候補オブジェクト領域が、囲み線領域の内周側に配置される内候補オブジェクト領域と、囲み線領域の外周側に配置される外候補オブジェクト領域と、を含む(図3:S242、図5:S330)。
(第2条件)内候補オブジェクト領域と外候補オブジェクト領域とが囲み線領域と接触し、内候補オブジェクト領域と外候補オブジェクト領域との位置関係が、囲み線領域を挟む所定の対向位置関係である(図3:S242、図5:S330)。
(第3条件)内候補オブジェクト領域と外候補オブジェクト領域との全体に対する内候補オブジェクト領域の割合が所定の割合閾値以上である(図3:S247、図7:S410)。
第1条件は、候補オブジェクト領域として、内候補オブジェクト領域と外候補オブジェクト領域との両方が特定される場合に満たされる条件である。囲み線領域が、1つのオブジェクトを表す領域と交差する場合には、囲み線領域の内周側に配置される内候補オブジェクト領域と、囲み線領域の外周側に配置される外候補オブジェクト領域とが、特定される。本実施例では、接触オブジェクト領域の候補である組合せオブジェクト領域は、共通の分離部分領域に接触する複数の候補オブジェクト領域で構成されている(図6(D)、図6(E))。そのような複数の候補オブジェクト領域は、通常は、囲み線領域の内周側に配置される内候補オブジェクト領域と、囲み線領域の外周側に配置される外候補オブジェクト領域と、を含んでいる。従って、本実施例では、接触オブジェクト領域を抽出するための条件は、第1条件を含んでいる、ということができる。
第2条件は、内候補オブジェクト領域と外候補オブジェクト領域とが、囲み線領域と接触し、そして、囲み線領域を挟んで対向する場合に満たされる条件である。囲み線領域が、1つのオブジェクトを表す領域と交差する場合には、1つのオブジェクトを表す領域から形成される内候補オブジェクト領域と外候補オブジェクト領域とは、囲み線領域を挟んで対向するので、この第2条件が満たされる。この第2条件は、互いに遠くに離れた内候補オブジェクト領域と外候補オブジェクト領域、すなわち、互いに異なるオブジェクトを表す内候補オブジェクト領域と外候補オブジェクト領域が、接触オブジェクト領域として抽出されることを、抑制する。なお、本実施例では、第2条件の「所定の対向位置関係」は、図6で説明したように、内候補オブジェクト領域と外候補オブジェクト領域とが共通の分離部分領域に接触するような位置関係である。
第3条件は、囲み線によって囲むことが意図されたオブジェクトを特定するための条件である。意図せずに囲み線がオブジェクトと交差する場合には、内候補オブジェクト領域の割合が所定の割合閾値未満である可能性が高い。従って、第3条件は、意図せずに囲み線と交差するオブジェクトを表す内候補オブジェクト領域と外候補オブジェクト領域とが、接触オブジェクト領域として抽出されることを、抑制する。従って、第3条件を抽出条件として用いることによって、意図せずに囲み線がオブジェクトと交差するように重なる場合のうちの少なくとも一部の場合に、そのオブジェクトを表す領域が接触オブジェクト領域として抽出されることを抑制できる。この結果、囲み線がオブジェクトに重なる場合に、オブジェクトを適切に処理することができる。
また、図8、図9で説明したように、領域連結部425は、候補オブジェクト領域に膨張処理と収縮処理と行うことによって、内候補オブジェクト領域と外候補オブジェクト領域とが膨張処理と収縮処理とによって連結した領域である連結オブジェクト領域を特定する。例えば、図9の例では、第2内候補領域82ciと第2外候補領域82coとから得られる連結オブジェクト領域82qが特定されている。このように、1つのオブジェクト領域を表す領域が囲み線によって内候補オブジェクト領域と外候補オブジェクト領域とに分離された場合に、それらの領域が連結された連結オブジェクト領域を特定できるので、囲み線がオブジェクトに重なる場合に、オブジェクトを適切に処理することができる。例えば、本実施例では、図8、図9で説明したように、色変更部430は、連結オブジェクト領域と、内候補オブジェクト領域と、外候補オブジェクト領域と、を用いることによって、隙間領域を特定している(図9の例では、隙間領域82gが特定される)。そして、色変更部430は、内候補オブジェクト領域の色と、外候補オブジェクト領域の色と、に応じて、隙間領域82gの色を変更する。この結果、隙間領域82gの色を、オブジェクトに適した色に、変更できる。
また、図5、図6で説明したように、接触抽出部422は、囲み線領域内から複数の分離部分領域を抽出し、共通の分離部分領域に接触する内候補オブジェクト領域と外候補オブジェクト領域とを、第2条件を満たす候補オブジェクト領域として用いている。例えば、図6(D)の例では、共通の第2分離部分領域85s2と接触する第2内候補領域82ciと第2外候補領域82coとが、組合せオブジェクト領域82eとして特定されている。そして、図7の処理では、特定された組合せオブジェクト領域から、接触オブジェクト領域が選択されている。従って、囲み線と交差する1つのオブジェクトを表す内候補オブジェクト領域と外候補オブジェクト領域とを、適切に処理することができる。
また、図6で説明したように、接触抽出部422は、複数の有効部分範囲Aaを表す所定のパターン80pに従って、囲み線領域85b内の有効部分範囲Aaに含まれる部分領域を、分離部分領域85sとして用いている。従って、囲み線領域内から複数の分離部分領域を容易に抽出できる。また、図6で説明したように、このパターン80pは、複数の有効部分範囲Aaと複数の無効部分範囲Auとが、格子状に交互に並ぶパターンである。従って、接触抽出部422は、種々の形状の囲み線領域内から、適切に、複数の分離部分領域を抽出することができる。
なお、複合機100の各処理部210、220、230、240(具体的には、CPU110)は、生成または取得したデータ(例えば、読取データと処理済データと印刷データ)を、記憶装置(例えば、揮発性記憶装置120)に格納する。そして、各処理部210、220、230、240(具体的には、CPU110)は、記憶装置に格納されたデータを参照することによって、処理に用いる情報を取得する。
同様に、サーバ300の各処理部410、411、412、413、420(422、424)、425、430、440、450(具体的には、CPU310)は、生成または取得したデータ(例えば、読取データと二値画像データとラベルデータと組合せオブジェクトデータと包含関係データと処理済データ)を、記憶装置(例えば、揮発性記憶装置320)に格納する。そして、各処理部410、411、412、413、420(422、424)、425、430、440、450(具体的には、CPU310)は、記憶装置に格納されたデータを参照することによって、処理に用いる情報を取得する。
B.変形例:
(1)上述の第2条件の「囲み線領域を挟む所定の対向位置関係」としては、分離部分領域85s(図6)を用いて特定される位置関係に限らず、内候補オブジェクト領域と外候補オブジェクト領域とが囲み線領域を挟んで対向し得る種々の位置関係を採用可能である。例えば、所定の対向位置関係として、内候補オブジェクト領域と外候補オブジェクト領域との間の最短距離が所定の距離閾値以下である位置関係を、採用してもよい。距離閾値としては、囲み線領域の線幅と同じ長さ、あるいは、囲み線領域の線幅よりも若干長い長さ、を採用可能である(例えば、囲み線領域の線幅の1倍以上2倍以下の範囲内の長さ)。また、所定の対向位置関係として、図9の第2内候補領域82ciと第2外候補領域82coとのように、所定の膨張処理によって、膨張済の内候補オブジェクト領域と膨張済の外候補オブジェクト領域とが接触するような位置関係を、採用してもよい。
(2)接触抽出部422による接触オブジェクト領域を抽出するための条件(「抽出条件」と呼ぶ)としては、上記の第1条件と第2条件と第3条件とが満たされることに限らず、種々の条件を採用可能である。例えば、抽出条件は、内候補オブジェクト領域の色値と外候補オブジェクト領域の色値との間の差分が所定の閾値以下であることである第4条件を含んでもよい。第4条件を採用すれば、互いに異なるオブジェクトを表す内候補オブジェクト領域と外候補オブジェクト領域が1つの接触オブジェクト領域として抽出されることを抑制できる。ここで、候補オブジェクト領域の色値としては、候補オブジェクト領域に含まれる複数の画素のそれぞれの色値から算出される種々の代表値(例えば、平均値、最頻値、中央値)を採用可能である。また、色値の差分としては、特定の色成分の差分を採用可能である。例えば、接触抽出部422は、R成分値とG成分値とB成分値とから輝度値を算出し、輝度値の差分を採用してもよい。
一般的には、囲み線と交差する1つのオブジェクトを表す内候補オブジェクト領域と外オブジェクト領域とを1つの接触オブジェクト領域として抽出するためには、上記の第1条件と第2条件とを含む条件を、抽出条件として採用することが好ましい。例えば、接触抽出部422は、第3条件が満たされない場合であっても、第1条件と第2条件とを満たす内候補オブジェクト領域と外候補オブジェクト領域とを、接触オブジェクト領域として抽出してもよい。
(3)接触抽出部422によって抽出される接触オブジェクト領域としては、内候補オブジェクト領域と外候補オブジェクト領域との両方を含む領域に限らず、外候補オブジェクト領域を含まずに、内候補オブジェクト領域を含む領域を採用してもよい。
(4)処理対象領域(例えば、候補オブジェクト領域)の膨張処理としては、図2のステップS210と図8のステップS510で説明した処理に限らず、処理対象領域の範囲を膨張させる種々の処理を採用可能である。例えば、以下の処理を採用可能である。ここで、処理対象領域に含まれる画素を「領域画素」と呼び、処理対象領域に含まれない画素を「非領域画素」と呼ぶ。膨張処理としては、例えば、複数の非領域画素のうちの、非領域画素とその非領域画素に最も近い領域画素との間の距離が所定の膨張距離以下である非領域画素を選択し、選択された非領域画素の種類を領域画素に変更する処理を採用可能である。この処理によれば、処理対象領域の輪郭が、全周に亘って、所定の膨張距離、拡張される。一般的には、膨張処理としては、処理対象領域の範囲を、その輪郭の全周に亘って拡張する処理を採用可能である。例えば、複数の非領域画素のうちの少なくとも非領域エッジ画素の種類を領域画素に変更する処理を採用可能である。ここで、非領域エッジ画素は、領域画素と接触する非領域画素である。
処理対象領域(例えば、候補オブジェクト領域)の収縮処理としては、図2のステップS210と図8のステップS520で説明した処理に限らず、処理対象領域の範囲を収縮させる種々の処理を採用可能である。収縮処理としては、例えば、複数の領域画素のうちの、領域画素とその領域画素に最も近い非領域画素との間の距離が所定の収縮距離以下である領域画素を選択し、選択された領域画素の種類を非領域画素に変更する処理を採用可能である。この処理によれば、処理対象領域の輪郭が、全周に亘って、所定の収縮距離、収縮される。一般的には、収縮処理としては、処理対象領域の範囲を、その輪郭の全周に亘って収縮する処理を採用可能である。例えば、複数の領域画素のうちの少なくとも領域エッジ画素の種類を非領域画素に変更する処理を採用可能である。ここで、領域エッジ画素は、非領域画素と接触する領域画素である。
(5)領域連結部425によって特定された連結オブジェクト領域(例えば、図9(C)の連結オブジェクト領域82q)の用途としては、隙間領域(例えば、図9(D)の隙間領域82g)の特定に限らず、種々の用途を採用可能である。例えば、図3のステップS242で組合せオブジェクト領域を特定するために、連結オブジェクト領域を用いてもよい。具体的には、接触抽出部422は、領域連結部425によって特定された1つの連結オブジェクト領域を形成する複数の候補オブジェクト領域を、1つの組合せオブジェクト領域として特定してもよい。
(6)囲み線領域から複数の分離部分領域を抽出するための抽出パターン(すなわち、複数の有効部分範囲を表すパターン)としては、図6(B)で説明した格子状のパターン80pに限らず、種々のパターンを採用可能である。例えば、抽出パターンとしては、第1方向Dxに延びる複数のラインと第2方向Dyに延びる複数のラインとで構成される格子ラインによって表される無効部分範囲と、ライン間の領域である有効部分範囲と、を表すパターンを採用してもよい。また、抽出パターンとしては、中心位置から放射状に延びる複数の有効部分範囲を表すパターンを採用してもよい(「放射状パターン」とも呼ぶ)。放射状パターンでは、複数の有効部分範囲と複数の無効部分範囲とのそれぞれは、共通の基準位置から、互いに異なる方向に向かって、放射状に延びる。無効部分範囲としては、例えば、所定幅の直線が採用される。この場合、有効部分範囲の形状は、基準位置を中心とする扇形である。有効部分範囲と無効部分範囲とは、基準位置を中心に時計回りに交互に並ぶ。接触抽出部422は、囲み線領域の内周側に基準位置が位置するように放射状パターンを囲み線領域に重ねることによって、複数の分離部分領域を抽出する。一般には、抽出パターンとしては、複数の有効部分範囲を表す種々のパターンを採用可能である。
(7)囲み線領域から複数の分離部分領域を抽出する方法としては、抽出パターンを用いる方法に限らず、種々の方法を採用可能である。例えば、接触抽出部422は、囲み線領域を、囲み線の延びる方向に沿って等間隔に切断することによって、複数の分離部分領域を取得してもよい。囲み線の延びる方向としては、例えば、囲み線領域の細線化処理によって得られる細線の延びる方向を採用可能である。細線化処理としては、公知の処理(例えば、Hilditchの細線化)を採用可能である。いずれの場合も、複数の分離部分領域としては、囲み線に沿って並ぶ複数の分離部分領域を採用することが好ましい。
(8)隙間領域の色を修正する処理(図8:S540)としては、図9(E)で説明した補間処理に限らず、内候補オブジェクト領域(例えば、第2内候補領域82ci)と外候補オブジェクト領域(例えば、第2外候補領域82co)とのそれぞれの色に応じて隙間領域(例えば、隙間領域82g)内の画素の色を決定する種々の処理を採用可能である。例えば、図9(E)の例において、色変更部430は、第2内候補領域82ci内の画素のうちの対象画素Pxtとの距離が所定の閾値以下である画素と、第2外候補領域82co内の画素のうちの対象画素Pxtとの距離が所定の閾値以下である画素と、のそれぞれの色値を用いて、対象画素Pxtの色値を算出してもよい。算出される色値としては、複数の画素のそれぞれの色値から得られる種々の代表値(例えば、平均値、最頻値、中央値)を採用可能である。
(9)画像処理の手順としては、図2、図3に記載の手順に限らず、種々の手順を採用可能である。例えば、対象画像から、囲み線を構成する領域(すなわち、囲み線領域)と、囲み線を構成しない領域と、を特定する方法としては、図2のステップS205〜S220で説明した方法に限らず、他の種々の方法を採用可能である。例えば、ステップS210を省略してもよい。また、典型的な囲み線領域を表す所定のパターンを用いるパターンマッチングによって、対象画像中の囲み線領域を特定してもよい。また、ステップS255の処理としては、囲み線によって囲まれた(換言すれば、囲み線によって選択された)オブジェクトを消去する処理に限らず、囲み線によって囲まれたオブジェクトを用いる任意の処理を採用可能である。例えば、囲み線によって囲まれた(囲み線によって選択された)オブジェクトを残して他のオブジェクトを消去する処理を採用してもよい。また、隙間領域の色を修正する処理(図3:S248)を省略してもよい。この場合、色変更部430を省略可能である。隙間領域に関しては、囲み線の色がそのまま残っていてもよい。さらに、領域連結部425を省略可能である。この場合、囲み線領域が削除された後の組合せオブジェクト領域を表す処理済データを用いることができる。また、囲み線領域の色を補正する処理(図3:S250)を省略してもよい。
(10)処理済データの用途としては、印刷に限らず、任意の用途を採用可能である。例えば、複合機100の処理済データ取得部230は、取得した処理済データを、将来に利用するために、不揮発性記憶装置130に格納してもよい。また、処理済データ出力部450による処理済データの出力先の装置としては、複合機100に限らず、任意の装置を採用可能である。例えば、処理済データ出力部450は、ネットワーク500に接続された他のサーバ(図示省略)に、処理済データを出力してもよい。
(11)対象画像データとしては、読取実行部160によって読み取られた読取データに限らず、例えば、デジタルカメラなどで撮影された撮影画像データを採用してもよく、また、文書やイラストなどを作成するためのアプリケーションプログラムを用いて生成された画像データを採用してもよい。また、囲み線は、例えば、ペンを用いて記入された囲み線に限られず、上記アプリケーションプログラムを用いて、画像内に描画された囲み線であっても良い。
(12)図1に示す実施例において、画像処理のための機能(例えば、画像処理部390の機能。具体的には、処理部410、411、412、413、420(422、424)、425、430、440、450の機能)は、サーバ300と異なる種類の装置(例えば、デジタルカメラ、スキャナ、パーソナルコンピュータ、携帯電話)によって実現されてもよい。また、ネットワークを介して互いに通信可能な複数の装置(例えば、コンピュータ)が、画像処理部390の機能を一部ずつ分担して、全体として、画像処理部390の機能を提供してもよい(これらの装置を備えるシステムが画像処理装置に対応する)。
上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部あるいは全部をハードウェアに置き換えるようにしてもよい。例えば、図1の抽出部420の機能を、論理回路を有する専用のハードウェア回路によって実現してもよい。
また、本発明の機能の一部または全部がコンピュータプログラムで実現される場合には、そのプログラムは、コンピュータ読み取り可能な記録媒体(例えば、一時的ではない記録媒体)に格納された形で提供することができる。プログラムは、提供時と同一または異なる記録媒体(コンピュータ読み取り可能な記録媒体)に格納された状態で、使用され得る。「コンピュータ読み取り可能な記録媒体」は、メモリーカードやCD−ROMのような携帯型の記録媒体に限らず、各種ROM等のコンピュータ内の内部記憶装置や、ハードディスクドライブ等のコンピュータに接続されている外部記憶装置も含んでいる。
以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。
100...複合機、110...CPU、120...揮発性記憶装置、130...不揮発性記憶装置、132...プログラム、140...表示部、150...操作部、160...読取実行部、170...印刷実行部、180...通信インタフェース、190...データ処理部、210...読取制御部、220...読取データ出力部、230...処理済データ取得部、240...印刷制御部、300...サーバ、310...CPU、320...揮発性記憶装置、330...不揮発性記憶装置、332...プログラム、380...通信インタフェース、390...画像処理部、410...対象データ取得部、411...第1特定部、412...第2特定部、413...第3特定部、420...抽出部、422...接触抽出部、424...内包抽出部、425...領域連結部、430...色変更部、440...オブジェクト処理部、450...処理済データ出力部、500...ネットワーク、900...画像処理システム

Claims (8)

  1. 画像処理装置であって、
    対象画像データによって表される対象画像から、前記対象画像中のオブジェクトを特定するために設けられるオブジェクトとしての囲み線を表す画素が示すべき特定の色の画素を抽出することによって、前記囲み線を表す領域である囲み線領域を特定する第1特定部と、
    前記対象画像から、前記対象画像中の背景の色とは異なる色の画素を抽出することによって、オブジェクトを表す領域であるオブジェクト領域を特定する第2特定部と、
    前記第1特定部で特定された囲み線領域と、前記第2特定部で特定されたオブジェクト領域と、に応じて、前記囲み線とは異なるオブジェクトを表す領域である候補オブジェクト領域を特定する第3特定部と、
    前記特定された候補オブジェクト領域に応じて、前記囲み線と接触するオブジェクトを表す領域である接触オブジェクト領域を抽出する接触抽出部と、
    を備え、
    前記接触抽出部は、
    前記特定された候補オブジェクト領域が、前記囲み線領域の内周側に配置される第1候補オブジェクト領域と、前記囲み線領域の外周側に配置される第2候補オブジェクト領域と、を含むことである第1条件と、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とが前記囲み線領域と接触し、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との位置関係が前記囲み線領域を挟む所定の対向位置関係であることである第2条件と、を含む抽出条件が満たされる場合に、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とを含む領域を、前記接触オブジェクト領域として抽出
    前記接触抽出部は、
    前記囲み線領域内から、前記囲み線領域の内周縁から外周縁まで延びる部分領域であって互いに分離した複数の分離部分領域を抽出し、
    共通の前記分離部分領域と接触する前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とを、前記第2条件を満たす前記第1候補オブジェクト領域と前記第2候補オブジェクト領域として用いる、
    画像処理装置。
  2. 画像処理装置であって、
    対象画像データによって表される対象画像から、前記対象画像中のオブジェクトを特定するために設けられるオブジェクトとしての囲み線を表す画素が示すべき特定の色の画素を抽出することによって、前記囲み線を表す領域である囲み線領域を特定する第1特定部と、
    前記対象画像から、前記対象画像内の背景の色とは異なる色の画素を抽出することによって、オブジェクトを表す領域であるオブジェクト領域を特定する第2特定部と、
    前記第1特定部で特定された囲み線領域と、前記第2特定部で特定されたオブジェクト領域と、に応じて、前記囲み線とは異なるオブジェクトを表す領域である候補オブジェクト領域を特定する第3特定部と、
    前記特定された候補オブジェクト領域に応じて、前記囲み線と接触するオブジェクトを表す領域である接触オブジェクト領域を抽出する接触抽出部と、
    を備え、
    前記接触抽出部は、
    前記特定された候補オブジェクト領域が、前記囲み線領域の内周側に配置される第1候補オブジェクト領域と、前記囲み線領域の外周側に配置される第2候補オブジェクト領域と、を含むことである第1条件と、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とが前記囲み線領域と接触し、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との位置関係が前記囲み線領域を挟む所定の対向位置関係であることである第2条件と、が満たされる場合であっても、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との全体に対する前記第1候補オブジェクト領域の割合が所定値以上であることである第3条件が満たされない場合には、前記第1候補オブジェクト領域を前記接触オブジェクト領域として抽出せずに、
    前記第1条件と前記第2条件と前記第3条件とを含む抽出条件が満たされる場合に、前記第1候補オブジェクト領域を含む領域を前記接触オブジェクト領域として抽出
    前記接触抽出部は、
    前記囲み線領域内から、前記囲み線領域の内周縁から外周縁まで延びる部分領域であって互いに分離した複数の分離部分領域を抽出し、
    共通の前記分離部分領域と接触する前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とを、前記第2条件を満たす前記第1候補オブジェクト領域と前記第2候補オブジェクト領域として用いる、
    画像処理装置。
  3. 請求項1ないし2に記載の画像処理装置であって、さらに、
    前記囲み線領域の内周側に配置される前記第1候補オブジェクト領域と前記囲み線領域の外周側に配置される前記第2候補オブジェクト領域とに、前記候補オブジェクト領域の範囲を膨張させる膨張処理と、前記膨張処理済の前記候補オブジェクト領域の範囲を収縮させる収縮処理と、を行うことによって、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とが前記膨張処理と前記収縮処理とによって連結した領域である連結オブジェクト領域を特定する、領域連結部を備える、画像処理装置。
  4. 請求項3に記載の画像処理装置であって、さらに、
    前記連結オブジェクト領域と、前記連結オブジェクト領域に対応する前記第1候補オブジェクト領域および前記第2候補オブジェクト領域と、に応じて、前記連結オブジェクト領域内に含まれる隙間領域であって、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との間に位置する前記隙間領域を特定し、前記特定した隙間領域の色を、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とのそれぞれの色に応じて、変更する、色変更部を備える、画像処理装置。
  5. 請求項1から4のいずれかに記載の画像処理装置であって、
    前記接触抽出部は、前記分離部分領域として用いるべき範囲を定める複数の有効部分範囲を表す所定のパターンに従って、前記囲み線領域内の前記有効部分範囲に含まれる部分領域を前記分離部分領域として用いる、画像処理装置。
  6. 請求項に記載の画像処理装置であって、
    前記接触抽出部は、前記所定のパターンとして、前記複数の有効部分範囲と、前記分離部分領域として用いるべきではない範囲を定める複数の無効部分範囲とが、格子状に交互に並ぶパターンを用いる、画像処理装置。
  7. コンピュータプログラムであって、
    対象画像データによって表される対象画像から、前記対象画像中のオブジェクトを特定するために設けられるオブジェクトとしての囲み線を表す画素が示すべき特定の色の画素を抽出することによって、前記囲み線を表す領域である囲み線領域を特定する第1特定機能と、
    前記対象画像から、前記対象画像中の背景の色とは異なる色の画素を抽出することによって、オブジェクトを表す領域であるオブジェクト領域を特定する第2特定機能と、
    前記第1特定機能で特定された囲み線領域と、前記第2特定機能で特定されたオブジェクト領域と、に応じて、前記囲み線とは異なるオブジェクトを表す領域である候補オブジェクト領域を特定する第3特定機能と、
    前記特定された候補オブジェクト領域に応じて、前記囲み線と接触するオブジェクトを表す領域である接触オブジェクト領域を抽出する接触抽出機能と、
    をコンピュータに実現させ、
    前記接触抽出機能は、
    前記特定された候補オブジェクト領域が、前記囲み線領域の内周側に配置される第1候補オブジェクト領域と、前記囲み線領域の外周側に配置される第2候補オブジェクト領域と、を含むことである第1条件と、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とが前記囲み線領域と接触し、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との位置関係が前記囲み線領域を挟む所定の対向位置関係であることである第2条件と、を含む抽出条件が満たされる場合に、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とを含む領域を、前記接触オブジェクト領域として抽出する機能を含
    前記接触抽出機能は、
    前記囲み線領域内から、前記囲み線領域の内周縁から外周縁まで延びる部分領域であって互いに分離した複数の分離部分領域を抽出する機能と、
    共通の前記分離部分領域と接触する前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とを、前記第2条件を満たす前記第1候補オブジェクト領域と前記第2候補オブジェクト領域として用いる機能と、
    を含む、コンピュータプログラム。
  8. コンピュータプログラムであって、
    対象画像データによって表される対象画像から、前記対象画像中のオブジェクトを特定するために設けられるオブジェクトとしての囲み線を表す画素が示すべき特定の色の画素を抽出することによって、前記囲み線を表す領域である囲み線領域を特定する第1特定機能と、
    前記対象画像から、前記対象画像内の背景の色とは異なる色の画素を抽出することによって、オブジェクトを表す領域であるオブジェクト領域を特定する第2特定機能と、
    前記第1特定機能で特定された囲み線領域と、前記第2特定機能で特定されたオブジェクト領域と、に応じて、前記囲み線とは異なるオブジェクトを表す領域である候補オブジェクト領域を特定する第3特定機能と、
    前記特定された候補オブジェクト領域に応じて、前記囲み線と接触するオブジェクトを表す領域である接触オブジェクト領域を抽出する接触抽出機能と、
    を備え、
    前記接触抽出機能は、
    前記特定された候補オブジェクト領域が、前記囲み線領域の内周側に配置される第1候補オブジェクト領域と、前記囲み線領域の外周側に配置される第2候補オブジェクト領域と、を含むことである第1条件と、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とが前記囲み線領域と接触し、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との位置関係が前記囲み線領域を挟む所定の対向位置関係であることである第2条件と、が満たされる場合であっても、前記第1候補オブジェクト領域と前記第2候補オブジェクト領域との全体に対する前記第1候補オブジェクト領域の割合が所定値以上であることである第3条件が満たされない場合には、前記第1候補オブジェクト領域を前記接触オブジェクト領域として抽出せずに、
    前記第1条件と前記第2条件と前記第3条件とを含む抽出条件が満たされる場合に、前記第1候補オブジェクト領域を含む領域を前記接触オブジェクト領域として抽出する機能を含
    前記接触抽出機能は、
    前記囲み線領域内から、前記囲み線領域の内周縁から外周縁まで延びる部分領域であって互いに分離した複数の分離部分領域を抽出する機能と、
    共通の前記分離部分領域と接触する前記第1候補オブジェクト領域と前記第2候補オブジェクト領域とを、前記第2条件を満たす前記第1候補オブジェクト領域と前記第2候補オブジェクト領域として用いる機能と、
    を含む、コンピュータプログラム。
JP2013068397A 2013-03-28 2013-03-28 画像処理装置、および、コンピュータプログラム Active JP6160168B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013068397A JP6160168B2 (ja) 2013-03-28 2013-03-28 画像処理装置、および、コンピュータプログラム
US14/225,523 US9219841B2 (en) 2013-03-28 2014-03-26 Image-processing device identifying object in image specified by encircling line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013068397A JP6160168B2 (ja) 2013-03-28 2013-03-28 画像処理装置、および、コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2014191719A JP2014191719A (ja) 2014-10-06
JP6160168B2 true JP6160168B2 (ja) 2017-07-12

Family

ID=51620599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013068397A Active JP6160168B2 (ja) 2013-03-28 2013-03-28 画像処理装置、および、コンピュータプログラム

Country Status (2)

Country Link
US (1) US9219841B2 (ja)
JP (1) JP6160168B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5838984B2 (ja) * 2013-03-19 2016-01-06 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム
JP6107270B2 (ja) * 2013-03-19 2017-04-05 ブラザー工業株式会社 画像処理装置およびコンピュータプログラム
CN104700362A (zh) * 2013-12-06 2015-06-10 富士通株式会社 文档图像处理装置和方法
KR101648964B1 (ko) 2015-04-02 2016-08-30 네이버 주식회사 자동 여백 생성을 이용하여 컨텐츠를 제공하는 시스템 및 방법
KR101654300B1 (ko) 2015-04-03 2016-09-22 네이버 주식회사 모션 연출이 포함된 페이지의 레이어 병합을 이용하여 컨텐츠를 제공하는 시스템 및 방법
JP6540280B2 (ja) 2015-06-30 2019-07-10 ブラザー工業株式会社 画像処理装置およびコンピュータプログラム
DE102016201389A1 (de) * 2016-01-29 2017-08-03 Robert Bosch Gmbh Verfahren zu einer Erkennung von Objekten, insbesondere von dreidimensionalen Objekten
KR101934369B1 (ko) * 2016-03-04 2019-01-03 네이버 주식회사 자동 여백 생성을 이용하여 컨텐츠를 제공하는 시스템 및 방법
JP6870247B2 (ja) * 2016-09-08 2021-05-12 ブラザー工業株式会社 画像解析装置
JP6786973B2 (ja) * 2016-09-08 2020-11-18 ブラザー工業株式会社 画像解析装置
US10288410B2 (en) * 2016-11-10 2019-05-14 The Boeing Company Method and system for identifying wire contact insertion holes of a connector

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2774642B2 (ja) 1990-02-14 1998-07-09 シャープ株式会社 電子写真装置
JP3042945B2 (ja) * 1993-07-07 2000-05-22 富士通株式会社 画像抽出装置
JP3344069B2 (ja) * 1994-04-22 2002-11-11 富士通株式会社 文字切り出し装置
JP3511781B2 (ja) 1996-02-07 2004-03-29 富士ゼロックス株式会社 画像処理装置
US6002404A (en) * 1996-07-09 1999-12-14 Minolta Co., Ltd. Image editing device for processing image data
JP2002208005A (ja) * 2001-01-12 2002-07-26 Minolta Co Ltd 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
TWI241127B (en) * 2004-08-27 2005-10-01 Univ Nat Cheng Kung Image-capturing device and method for removing strangers
JP4585837B2 (ja) * 2004-11-24 2010-11-24 日立コンピュータ機器株式会社 印字データ読取り方法、印字データ読み取り装置、印字データ読み取りプログラム
JP4631749B2 (ja) * 2006-03-03 2011-02-16 富士ゼロックス株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4867400B2 (ja) * 2006-03-06 2012-02-01 富士ゼロックス株式会社 画像処理装置及びプログラム
JP2008018047A (ja) * 2006-07-13 2008-01-31 Fujifilm Corp 欠陥領域補正装置および方法並びにプログラム、放射線検出装置
JP2010199983A (ja) 2009-02-25 2010-09-09 Fuji Xerox Co Ltd 画像処理装置、画像読取装置及び画像形成装置
AU2009251018C1 (en) * 2009-12-17 2013-07-25 Canon Kabushiki Kaisha Generating object representation from bitmap image
JP5920135B2 (ja) * 2012-09-18 2016-05-18 富士ゼロックス株式会社 画像処理装置及びプログラム

Also Published As

Publication number Publication date
JP2014191719A (ja) 2014-10-06
US9219841B2 (en) 2015-12-22
US20140293383A1 (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP6160168B2 (ja) 画像処理装置、および、コンピュータプログラム
JP5838984B2 (ja) 画像処理装置、および、コンピュータプログラム
US20060008113A1 (en) Image processing system and image processing method
JP6098298B2 (ja) 画像処理装置およびコンピュータプログラム
JP2009151571A (ja) 画像データ供給装置及び方法
JP2016032270A (ja) 画像処理装置および画像処理プログラム
JP2007241356A (ja) 画像処理装置および画像処理プログラム
AU2009202451B2 (en) Image processing apparatus, image forming apparatus and program
JP5684466B2 (ja) 複数のオブジェクト種別のオブジェクトに対応する、ラスタ画像バッファ中の少なくとも一つの画素を処理するための方法及びコンピュータで読み取り可能な媒体
JP2020052893A (ja) 画像処理装置、および、コンピュータプログラム
JP6414475B2 (ja) コンピュータプログラム及び制御装置
JP6354619B2 (ja) 画像処理装置、および、コンピュータプログラム
JP6880460B2 (ja) 画像処理装置
JP6550903B2 (ja) 画像処理装置、および、コンピュータプログラム
JP7197830B2 (ja) 画像処理システムおよび画像処理プログラム
JP6303897B2 (ja) 画像処理装置およびコンピュータプログラム
JP6311409B2 (ja) 画像処理装置、および、コンピュータプログラム
JP2005142791A (ja) トラッピング方法、トラッピング装置、トラッピングプログラム、および印刷システム
JP6372397B2 (ja) 画像処理装置、および、コンピュータプログラム
JP2015049794A (ja) 画像処理装置、および、コンピュータプログラム
JP2016134016A (ja) 画像処理装置およびコンピュータプログラム
JP2013150111A (ja) 画像処理装置および画像処理方法
JP2020092363A (ja) 画像処理装置、および、コンピュータプログラム
JP4590168B2 (ja) 画像処理装置
JP2005020316A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170529

R150 Certificate of patent or registration of utility model

Ref document number: 6160168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150