JP2017163407A - 画像処理装置、情報処理装置、および画像処理方法 - Google Patents

画像処理装置、情報処理装置、および画像処理方法 Download PDF

Info

Publication number
JP2017163407A
JP2017163407A JP2016047297A JP2016047297A JP2017163407A JP 2017163407 A JP2017163407 A JP 2017163407A JP 2016047297 A JP2016047297 A JP 2016047297A JP 2016047297 A JP2016047297 A JP 2016047297A JP 2017163407 A JP2017163407 A JP 2017163407A
Authority
JP
Japan
Prior art keywords
luminance
pixel
difference
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016047297A
Other languages
English (en)
Inventor
朋洋 中村
Tomohiro Nakamura
朋洋 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016047297A priority Critical patent/JP2017163407A/ja
Publication of JP2017163407A publication Critical patent/JP2017163407A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Analysis (AREA)

Abstract

【課題】原稿と背景との輝度差が小さい場合でも、原稿と背景との境であるエッジをより適切に判定する画像処理装置、情報処理装置及び画像処理方法を提供する。【解決手段】スキャン部は、スキャン対象物をスキャンし、画像データを出力する。算出部は、画像データの第1の画素の輝度分散と、第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出する。判定部は、輝度分散差の絶対値が輝度分散差閾値を超えている場合又は輝度差の絶対値が輝度差閾値を超えている場合、第1の画素をエッジ画素と判定する。【選択図】図2

Description

本発明は、画像処理装置、情報処理装置、および画像処理方法に関する。
特許文献1には、画像に写真が含まれ、あるいは文字の背景が無地でない場合においても、長い処理時間を必要とせず、画像の傾きを検知することができる画像処理装置、画像処理方法、プログラム、および記録媒体が開示されている。
特開2010−224987号公報
しかし、特許文献1では、輝度差によってエッジを判定している。そのため、特許文献1では、例えば、原稿の地色が白であって、背景の色が白(例えば、スキャナーの原稿を覆う(押さえる)カバーの色が白)である場合、原稿と背景との輝度差が小さく、原稿と背景との境であるエッジを判定することが困難である。
そこで本発明は、画像データのエッジをより適切に判定する技術を提供する。
上記の課題を解決するための本発明の第一の態様は、スキャン対象物をスキャンし、画像データを出力するスキャン部と、前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出する算出部と、前記輝度分散差に基づいて、前記画像データのエッジ画素を判定する判定部と、を有することを特徴とする画像処理装置である。第一の態様によれば、画像処理装置は、色の差が小さい場合でもエッジを適切に判定することができる。
前記判定部は、前記輝度分散差の絶対値が輝度分散差閾値を超えている場合、前記第1の画素を前記エッジ画素と判定する、ことを特徴としてもよい。これにより、画像処理装置は、エッジを適切に判定することができる。
前記算出部は、前記第1の画素の輝度と、前記第2の画素の輝度との輝度差を算出し、前記判定部は、前記輝度分散差の絶対値が前記輝度分散差閾値を超えている場合または前記輝度差の絶対値が輝度差閾値を超えている場合、前記第1の画素を前記エッジ画素と判定する、ことを特徴としてもよい。これにより、画像処理装置は、色の平滑性が小さい場合でもエッジを適切に判定することができる。
前記スキャン対象物を覆うカバーのカバー輝度分散差およびカバー輝度差の発生確率分布を記憶する記憶部、をさらに有し、前記算出部は、前記第1の画素の輝度と、前記第2の画素の輝度との輝度差を算出し、前記判定部は、前記記憶部を参照して、前記輝度分散差および前記輝度差の発生確率を取得し、前記発生確率が発生確率閾値を超えていない場合、前記第1の画素を前記エッジ画素と判定する、ことを特徴としてもよい。これにより、画像処理装置は、カバーやスキャン部の特性に応じて、エッジを適切に判定することができる。
前記スキャン対象物を覆うカバーのカバー輝度分散差の発生確率分布を記憶する記憶部、をさらに有し、前記判定部は、前記記憶部を参照して、前記輝度分散差の発生確率を取得し、前記発生確率が発生確率閾値を超えていない場合、前記第1の画素を前記エッジ画素と判定する、ことを特徴としてもよい。これにより、画像処理装置は、カバーやスキャン部の特性に応じて、エッジを適切に判定することができる。
前記スキャン対象物を覆うカバーのカバー輝度分散差の発生確率分布を生成する生成部、をさらに有し、前記判定部は、前記発生確率分布に基づいて、前記輝度分散差閾値を変更する、ことを特徴としてもよい。これにより、画像処理装置は、適切な輝度分散差閾値を用いて、適切なエッジ判定をすることができる。
前記スキャン対象物を覆うカバーのカバー輝度差の発生確率分布を生成する生成部、をさらに有し、前記判定部は、前記発生確率分布に基づいて、前記輝度差閾値を変更する、ことを特徴としてもよい。これにより、画像処理装置は、適切な輝度差閾値を用いて、適切なエッジ判定をすることができきる。
上記の課題を解決するための本発明の第二の態様は、画像処理装置がスキャンしたスキャン対象物の画像データを、前記画像処理装置から受信する受信部と、前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出する算出部と、前記輝度分散差に基づいて、前記画像データのエッジ画素を判定する判定部と、を有することを特徴とする情報処理装置である。第二の態様によれば、情報処理装置は、色の差が小さい場合でもエッジを適切に判定することができる。
上記の課題を解決するための本発明の第三の態様は、画像処理装置の画像処理方法であって、スキャン対象物をスキャンして画像データを出力するステップと、前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出するステップと、前記輝度分散差に基づいて、前記画像データのエッジ画素を判定するステップと、を含むことを特徴とする画像処理方法。である。第三の態様によれば、画像処理装置は、色の差が小さい場合でもエッジを適切に判定することができる。
上記の課題を解決するための本発明の第四の態様は、情報処理装置の画像処理方法であって、画像処理装置がスキャンしたスキャン対象物の画像データを、前記画像処理装置から受信するステップと、前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出するステップと、前記輝度分散差に基づいて、前記画像データのエッジ画素を判定するステップと、を含むことを特徴とする画像処理方法である。第四の態様によれば、情報処理装置は、色の差が小さい場合でもエッジを適切に判定することができる。
第1の実施の形態に係る画像処理装置の概略斜視図である。 画像処理装置の機能ブロック構成例を示した図である。 スキャン部から出力される原稿の画像データ例を示した図である。 算出部の輝度分散の算出例を説明する図である。 輝度分散差の算出例およびエッジの判定例を説明する図である。 エッジの具体的な判定例を説明する図である。 エッジ判定結果の例を示した図である。 原稿の切り出し例を説明する図のその1である。 原稿の切り出し例を説明する図のその2である。 原稿の切り出し例を説明する図のその3である。 切り出し部によって切り出された画像データ例を示した図である。 画像処理装置の動作例を示したフローチャートである。 情報処理装置の機能ブロック構成例を示した図である。 第2の実施の形態に係る画像処理装置の機能ブロック構成例を示した図である。 記憶部に記憶される背景の輝度分散差および輝度差の発生確率分布のイメージ例を示した図である。 第3の実施の形態に係る画像処理装置の機能ブロック構成例を示した図である。 カバーの輝度分散差の発生確率分布の変化を示した図である。
以下、本発明の実施の形態を、図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態に係る画像処理装置1の概略斜視図である。図1に示す画像処理装置1は、例えば、スキャナーであり、台2と、カバー3と、入力装置4と、を有している。
台2の上部には、画像処理装置1によって画像データが読み込まれるスキャン対象物が置かれる。スキャン対象物は、例えば、原稿である。以下では、スキャン対象物を原稿として説明する。
カバー3は、台2の上部に対し、開閉できるようになっている。カバー3は、台2の上部に対して閉じられることにより、台2の上部に置かれた原稿を押さえる。
入力装置4は、例えば、キー装置やタッチパネルである。入力装置4は、ユーザーから所定の操作を受付ける。
画像処理装置1は、台2の上部に原稿が置かれて、カバー3が閉じられ、入力装置4がユーザーから所定の操作を受付けると、台2の上部に置かれた原稿の画像データを読み込む。
画像処理装置1は、読み込んだ画像データのエッジを判定する。画像処理装置1は、判定したエッジに基づいて、原稿とその周囲の背景(例えば、原稿とともにスキャンされたカバー3の下側の面)とを区別し、画像データの原稿部分を切り出す。
ここで、画像処理装置1は、以下で詳述する輝度分散差を用いて、エッジを判定する。これにより、画像処理装置1は、原稿とその周囲の背景の色が同色(例えば、原稿とその周囲の背景(カバー3)の色が白色)であっても、原稿の枠を示すエッジを適切に判定できる。そして、画像処理装置1は、原稿の枠を示すエッジから、原稿とその周囲の背景とを区別し、原稿部分を切り出すことができる。
画像処理装置1は、切り出した原稿部分の画像データを、例えば、画像処理装置1と接続されたパーソナルコンピュータやタブレット端末等の情報処理装置(図示せず)に送信する。または、画像処理装置1は、切り出した原稿部分の画像データを、例えば、USB(Universal Serial Bus)メモリー等の外部メモリー(図示せず)に記憶する。これにより、ユーザーは、原稿部分のみの画像データを取得することができる。
なお、画像処理装置1は、プリンターや複合機であってもよい。また、画像処理装置1は、ADF(Auto Document Feeder)を備えていてもよい。
図2は、画像処理装置1の機能ブロック構成例を示した図である。図2に示すように、画像処理装置1は、スキャン部11と、制御部12と、通信部13と、入力部14と、記憶部15とを有している。
スキャン部11は、例えば、イメージセンサー(図示せず)を備え、台2に置かれた原稿を光学的にスキャンし、原稿の画像データを出力する。スキャン部11は、例えば、カラー(RGB)の画像データを出力する。スキャン部11から出力された画像データは、記憶部15に記憶される。
図3は、スキャン部11から出力される原稿の画像データ例を示した図である。図3には、背景31と、原稿32と、罫線33と、文字34とが示してある。
背景31は、原稿とともに、スキャン部11によってスキャンされたカバー3に対応している。背景31の色は、例えば、白である。
原稿32は、台2の上部に置かれ、スキャン部11によってスキャンされた原稿に対応している。原稿32の地色は、例えば、白である。
罫線33は、原稿32に描かれている罫線に対応している。罫線33の色は、例えば、黒である。
文字34は、原稿32に描かれている文字を示している。文字34の色は、例えば、黒である。
背景31の色が白であって、原稿32の地色が白である場合、背景31と、背景31に隣接している原稿32の部分との輝度差は小さい。そのため、背景31と原稿32との境界のエッジを、輝度差を用いて判定することは難しい。そこで、画像処理装置1は、後述する輝度分散差を用いて、画像データのエッジを判定する。
図2の説明に戻る。制御部12は、画像処理装置1の動作を統合的に制御する。制御部12は、スキャン部11によってスキャンされた原稿の画像データ(記憶部15に記憶された画像データ)のエッジを、後述する輝度分散差を用いて判定する。そして、制御部12は、判定したエッジに基づいて、背景31と原稿32とを切り分け、原稿32を切り出す。
通信部13は、パーソナルコンピュータやタブレット端末等の情報処理装置と通信を行う。通信部13は、例えば、有線または無線によって、情報処理装置と通信を行う。
入力部14は、入力装置4から、ユーザーからの操作データを受信する。
記憶部15には、制御部12が計算処理や制御処理を行うためのプログラムやデータ等を記憶している。また、記憶部15は、制御部12が所定のアプリケーション機能を実現するためのプログラムやデータ等を記憶している。各種のプログラムやデータ等は、あらかじめ不揮発性の記録媒体に記憶されていてもよいし、制御部12が通信ネットワークを介してサーバーから受信して記憶部15に記憶させてもよい。記憶部15は、例えば、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の各種IC(Integrated Circuit)メモリーやハードディスク、メモリーカードなどの記録媒体等により構成される。
制御部12は、算出部21と、判定部22と、切り出し部23とを有している。制御部12の各部は、例えば、記憶部15に記憶されたプログラムを実行するCPU(Central Processing Unit)によって、その機能が実現される。なお、制御部12の各部は、ASIC(Application Specific Integrated Circuit)などのカスタムIC(Integrated Circuit)によって、その機能を実現してもよいし、CPUとASICとによって、その機能を実現してもよい。
算出部21は、スキャン部11によってスキャンされた原稿のRGBの画像データを、輝度の画像データに変換する。算出部21は、次の式(1)によって、RGBの画像データを輝度の画像データに変換する。
Figure 2017163407
次に、算出部21は、式(1)によって算出した輝度の画像データを用いて、注目画素と、その周囲の画素との輝度平均を算出する。そして、算出部21は、算出した輝度平均を用いて、注目画素の輝度分散を算出する。
図4は、算出部21の輝度分散の算出例を説明する図である。図4に示すマス目は、画素を示している。「P0」は、注目画素を示している。「P1〜P8」は、注目画素の周囲の画素(注目画素に隣接している画素)を示している。以下では、注目画素の周囲の画素を、「周囲画素」と呼ぶことがある。
算出部21は、注目画素P0と、周囲画素P1〜P8との輝度平均を算出する。具体的には、算出部21は、次の式(2)によって、注目画素P0と、周囲画素P1〜P8との輝度平均「Y」を算出する。
Figure 2017163407
ここで、式(2)の「x,y」は、画素の座標を示している。「Y(x,y)」は、座標「x,y」における画素の輝度(式(1)によって算出された輝度)を示している。すなわち、算出部21は、図4に示している太枠内の画素の輝度平均「Y」を算出する。
算出部21は、式(2)によって輝度平均を算出すると、算出した輝度平均を用いて、注目画素P0の輝度分散を算出する。具体的には、算出部21は、次の式(3)によって、注目画素P0の輝度分散「Y」を算出する。
Figure 2017163407
算出部21は、画像データの全ての画素に対し、輝度分散「Ys」を算出する。例えば、算出部21は、注目画素P0をラスタースキャンのように移動し、画像データの全ての画素の輝度分散「Ys」を算出する。
算出部21は、全画素の輝度分散を算出すると、注目画素の輝度分散(本発明の第1の画素の輝度分散に相当する)と、周囲画素の輝度分散(本発明の第2の画素の輝度分散に相当する)との輝度分散差を算出する。そして、判定部22は、算出部21が算出した輝度分散差に基づいて、画像データのエッジを判定する。
図5は、輝度分散差の算出例およびエッジの判定例を説明する図である。図5に示すマス目は、画素を示している。「P0’」は、注目画素を示している。「P1’〜P8’」は、周囲画素を示している。
算出部21は、図5の両矢印に示すように、注目画素P0’の輝度分散と、周囲画素P1’〜P8’のそれぞれの輝度分散との差(輝度分散差)を算出する。例えば、算出部21は、周囲画素P1’と、注目画素P0’との輝度分散差を算出し、周囲画素P2’と、注目画素P0’との輝度分散差を算出し、以下同様にして、周囲画素P8’と、注目画素P0’との輝度分散差を算出する。
判定部22は、算出部21が算出した輝度分散差に基づいて、画像データのエッジを判定する。例えば、判定部22は、注目画素P0’と、周囲画素P1’〜P8’との輝度分散差の絶対値が、少なくとも1つ以上、所定の閾値(以下では、「輝度分散差閾値」と呼ぶことがある)を超えている場合、注目画素P0’をエッジ画素と判定する。
より具体的には、注目画素P0’と、周囲画素P5’との輝度分散差の絶対値だけが、輝度分散差閾値を超えていたとする。この場合、判定部22は、注目画素P0’を、エッジ画素と判定する。
算出部21は、画像データの全ての画素に対し、輝度分散差を算出する。例えば、算出部21は、注目画素P0’をラスタースキャンのように移動し、画像データの全ての画素に対して輝度分散差を算出する。そして、判定部22は、画像データの全ての画素についてエッジを判定する。
このとき、算出部21は、判定部22によって、注目画素P0’がエッジ画素と判定されると、注目画素P0’を次の隣接する画素に移動してもよい。すなわち、算出部21は、8個の周囲画素P1’〜 P8’に対する輝度分散差を算出しなくてもよい。
例えば、算出部21は、注目画素P0’と、周囲画素P1’〜P8’との輝度分散差を、周囲画素P1’から時計回りに順番に算出するとする。判定部22は、周囲画素P5’において、初めて輝度分散差の絶対値が輝度分散差閾値を超えていると判定したとする。この場合、算出部21は、注目画素P0’と、残りの周囲画素P6’〜P8’との輝度分散差を算出せず、注目画素P0’を次の隣接する画素に移動する。そして、算出部21は、前述と同様に、移動した注目画素P0’と、その周囲画素P1’〜P8’との輝度分散差を、周囲画素P1’から時計回りに順番に算出し、判定部22は、算出部21によって算出された輝度分散差に基づいて、移動された注目画素P0’についてエッジを判定する。
もちろん、算出部21は、8個の周囲画素P1’〜P8’の輝度分散差を算出してもよい。そして、判定部22は、算出部21によって算出された8個の輝度分散差のうち、少なくとも1つ以上、輝度分散差閾値を超えていれば、周囲画素P1’〜P8’に囲まれている注目画素P0’をエッジ画素と判定してもよい。
図6は、エッジの具体的な判定例を説明する図である。図6において、図3と同じものには同じ符号が付してある。図6に示す輝度分散差D0〜D3のそれぞれは、矢印A0〜A3のそれぞれの矢先が示す画素の輝度分散差(絶対値)を示している。
矢印A0は、背景31内の画素を示している。背景31は、一般的に一様であるため、矢印A0に示す画素の輝度分散差D0は小さく、輝度分散差閾値(図6に示す「x」)を超えない。これにより、判定部22は、矢印A0に示す画素をエッジでないと判定する。
矢印A1は、背景31と原稿32との境界の画素を示している。背景31と原稿32との境界は、一般的に輝度分散が大きく異なるため、矢印A1に示す画素の輝度分散差D1は大きく、輝度分散差閾値を超える。これにより、判定部22は、矢印A1に示す画素をエッジと判定する。
矢印A2は、原稿32の地の部分(罫線33および文字34でない部分)の画素を示している。原稿32の地の部分は、一般的に一様であるため、矢印A2に示す画素の輝度分散差D2は小さく、輝度分散差閾値を超えない。これにより、判定部22は、矢印A2に示す画素をエッジでないと判定する。
矢印A3は、原稿32の地の部分と、罫線33との境界の画素を示している。原稿32の地の部分と罫線33との境界は、一般的に輝度分散が大きくことなるため、矢印A3に示す画素の輝度分散差D3は大きく、輝度分散差閾値を超える。これにより、判定部22は、矢印A3に示す画素をエッジと判定する。
なお、図6には示していないが、文字34の輝度分散差は、輝度分散差閾値を超え、エッジと判定される。
判定部22は、画素のエッジを判定すると、例えば、その画素の座標と、エッジの判定結果を示すデータとを対応付けて、記憶部15に記憶する。例えば、判定部22は、ある画素がエッジであると判定した場合、その画素の座標と、その画素がエッジであることを示す「1」とを対応づけて、記憶部15に記憶する。一方、判定部22は、ある画素がエッジでないと判定した場合、その画素の座標と、その画素がエッジでないことを示す「0」とを対応づけて、記憶部15に記憶する。
図7は、エッジ判定結果の例を示した図である。図3または図6に示した画像データを、判定部22がエッジ判定すると、例えば、図7に示すようになる。図7に示す黒い部分は、判定部22によってエッジでないと判定された画素を示し、白い部分は、判定部22によってエッジであると判定された画素を示している。
図7に示す黒く塗りつぶした部分内にある、最も大きい白枠は、原稿の枠を示している。判定部22は、輝度分散差に基づいてエッジ画素を判定するので、原稿と背景の地色が同色(例えば、白色)であっても、図7に示すように、背景と原稿との境界をエッジとして判定できる。
図2の説明に戻る。切り出し部23は、判定部22によって判定されたエッジ判定結果に基づいて、スキャン部11から出力された画像データから、原稿部分を切り出す。なお、スキャンされる原稿は、矩形であるいう前提において、切り出し部23は、以下の処理により原稿部分を切り出す。
図8は、原稿の切り出し例を説明する図のその1である。図8には、判定部22が判定したエッジ判定結果が示してある。
切り出し部23は、判定部22が判定したエッジ判定結果の上端から、下端に向けて(+y軸方向に向けて)、エッジ画素を探索する。例えば、切り出し部23は、図8の矢印に示すように、+y軸方向に向けて、判定部22が判定したエッジ判定結果から、エッジ画素(例えば、データが「1」の画素、図6の説明を参照)を探索する。切り出し部23は、最初に探索(発見)したエッジ画素の座標(x,y)を、原稿の上端座標として、記憶部15に記憶する。
なお、切り出し部23は、x座標を1ずつインクリメントしながら、+y軸方向に向けて、最初のエッジ画素を探索する。
図9は、原稿の切り出し例を説明する図のその2である。図9に示す黒丸は、切り出し部23が、+y軸方向に向けて最初に探索したエッジ画素の座標が示してある。なお、図9には、9個のエッジ画素しか示していないが、実際はもっと沢山存在している。
切り出し部23は、+y軸方向において探索した最初のエッジ画素の座標の中央値を、原稿の上端と判定する。
図10は、原稿の切り出し例を説明する図のその3である。図10に示すように、切り出し部23は、+y軸方向に探索したエッジ画素の座標を、y座標値に基づいて降順に並べ替える。そして、切り出し部23は、並べ替えたy座標値の中央値の座標を、原稿の上端として判定する。例えば、切り出し部23は、図10に示す矢印A11の座標のy座標値を、原稿の上端の座標値と判定する。
切り出し部23は、判定部22が判定したエッジ判定結果の下端から、上端に向けても(−y軸方向に向けても)、図8および図9と同様にして、最初のエッジ画素を探索する。そして、切り出し部23は、図10と同様にして、探索したエッジ画素の中央値のy座標値を、原稿の下端の座標値と判定する。
また、切り出し部23は、判定部22が判定したエッジ判定結果の左端から、右端に向けても(+x軸方向に向けても)、図8および図9と同様にして、最初のエッジ画素を探索する。そして、切り出し部23は、図10と同様にして、探索したエッジ画素の中央値のx座標値を、原稿の左端の座標値と判定する。
また、切り出し部23は、判定部22が判定したエッジ判定結果の右端から、左端に向けても(−x軸方向に向けても)、図8および図9と同様にして、最初のエッジ画素を探索する。そして、切り出し部23は、図10と同様にして、探索したエッジ画素の中央値のx座標値を、原稿の右端の座標値と判定する。
そして、切り出し部23は、上記のようにして判定した、原稿の上下左右の端を示す座標値(矩形領域)を用いて、スキャン部11から出力された画像データから、原稿部分を切り出す。
図11は、切り出し部23によって切り出された画像データ例を示した図である。図11において、図3と同じものには同じ符号が付してある。図11に示すように、切り出し部23は、画像データから背景31を除いて、原稿32の部分を切り出す。切り出し部23によって切り出された画像データは、例えば、通信部13によって、情報処理装置へ送信される。または、USBメモリーなどの外部メモリーに記憶される。
なお、原稿の切り出しは、上記の方法に限られない。例えば、切り出し部23は、最も外側にあるエッジ画素の座標を用いて、画像データから、原稿部分を切り出してもよい。例えば、切り出し部23は、図7に示す最も外側にあるエッジ画素(図7に示す最も大きい白枠)の内側を、画像データから切り出してもよい。
図12は、画像処理装置1の動作例を示したフローチャートである。画像処理装置1は、入力装置4がユーザーから所定の操作を受付けると、図12に示すフローチャートの処理を実行する。
まず、スキャン部11は、台2に置かれた原稿をスキャンし、原稿の画像データを出力する(ステップS1)。
次に、算出部21は、式(1)を用いて、ステップS1にて出力された画像データの各画素の輝度変換を行う(ステップS2)。
次に、算出部21は、式(2)および式(3)を用いて、ステップS2にて輝度変換された各画素の輝度分散を算出する(ステップS3)。
次に、算出部21は、ステップS3にて算出された各画素の輝度分散を用いて、注目画素と周囲画素との輝度分散差を算出する(ステップS4)。
次に、判定部22は、ステップS4にて算出された輝度分散差に基づいて、画像データのエッジ画素を判定する(ステップS5)。
なお、算出部21は、例えば、ステップS4において、注目画素をラスタースキャンのように移動させながら、注目画素の輝度分散差を算出する。判定部22は、算出部21が注目画素を移動するたびに、算出部21が算出するその注目画素の輝度分散差に基づいて、画像データのエッジを判定する。
次に、切り出し部23は、ステップS5にて判定されたエッジ画素を用いて、ステップS1にて出力された画像データから、原稿を切り出す(ステップS6)。そして、画像処理装置1は、当該フローチャートの処理を終了する。
なお、算出部21は、ステップS2にて、画像データを輝度変換したが、スキャン部11から輝度の画像データが出力される場合は、輝度変換しなくてもよい。
このように、スキャン部11は、台2に置かれた原稿をスキャンし、原稿の画像データを出力する。算出部21は、画像データの注目画素の輝度分散と、周囲画素の輝度分散との輝度分散差を算出する。そして、判定部22は、輝度分散差に基づいて、画像データのエッジ画素を判定する。これにより、画像処理装置1は、画像データのエッジをより適切に判定することができる。例えば、背景と原稿との輝度差が小さくても、画像処理装置1は、適切にエッジを判定することができる。
なお、算出部21は、注目画素の輝度(本発明の第1の画素の輝度に相当する)と、周囲画素の輝度(本発明の第2の画素の輝度に相当する)との輝度差を算出してもよい。例えば、算出部21は、図5と同様にして、注目画素P0’の輝度と、周囲画素P1’〜P8’のそれぞれの輝度との差(輝度差)を算出してもよい。そして、判定部22は、輝度分散差の絶対値が輝度分散差閾値を超えている場合、または輝度差の絶対値が輝度差閾値を超えている場合、注目画素をエッジ画素と判定してもよい。これによっても、画像処理装置1は、画像データのエッジをより適切に判定することができる。
また、注目画素の画素数は、2以上であってもよい。また、周囲画素の画素数は、2以上であってもよい。
また、図2に示した制御部12の機能は、画像処理装置1とは別の、例えば、パーソナルコンピュータやタブレット端末等の情報処理装置が有していてもよい。
図13は、情報処理装置40の機能ブロック構成例を示した図である。図13に示すように、情報処理装置40は、制御部12aと、I/F部41と、記憶部42とを有している。
図13に示す制御部12a、算出部21a、判定部22、および切り出し部23aは、図2に示した制御部12、算出部21、判定部22、および切り出し部23と同様の機能を有し、その説明を省略する。
I/F部41(本発明の受信部に相当する)は、有線または無線によって、画像処理装置1のスキャン部11がスキャンした原稿の画像データを受信する。受信された画像データは、記憶部42に記憶される。
記憶部42には、制御部12aの機能を実現するアプリケーションプログラムが記憶されている。記憶部42は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの記憶装置である。
制御部12aは、記憶部42に記憶されたアプリケーションプログラムを実行するCPUによって、その機能が実現される。制御部12aは、I/F部41によって受信された画像データ(記憶部42に記憶された画像データ)に対し、上記で説明したのと同様にして輝度分散差を算出する。そして、制御部12aは、エッジ画素を判定して、原稿部分を切り出す。
このように、情報処理装置40が輝度分散差に基づいてエッジ判定を行い、原稿部分を切り出してもよい。
[第2の実施の形態]
第2の実施の形態では、画像処理装置1は、カバー3の輝度分散差および輝度差の発生確率分布を生成する。そして、画像処理装置1は、生成したカバー3の輝度分散差および輝度差の発生確率分布を用いて、エッジ画素を判定する。
図14は、第2の実施の形態に係る画像処理装置1の機能ブロック構成例を示した図である。図14において、図2と同じものには同じ符号を付し、その説明を省略する。図14に示すように、制御部12は、生成部51と、判定部52とを有している。
生成部51は、原稿が台2に置かれないで、カバー3が閉じられた状態での、カバー3の輝度分散差およびカバー3の輝度差の発生確率分布を生成する。すなわち、生成部51は、背景の輝度分散差および輝度差の発生確率分布を生成する。
生成部51は、例えば、スキャン部11のキャリブレーション時、入力装置4がユーザーから所定の操作を受付けたとき、または外部の情報処理装置から指示があったときに、背景の輝度分散差および輝度差の発生確率分布を生成する。生成部51は、生成した背景の輝度分散差および輝度差の発生確率分布を、記憶部15に記憶する。
図15は、記憶部15に記憶される背景の輝度分散差および輝度差の発生確率分布のイメージ例を示した図である。図15には、3軸の直交座標系が示してある。各軸のΔY,ΔY,Pは、輝度分散差、輝度差、および発生確率を示している。
背景(カバー3)は、一般的に無地であり、輝度分散および輝度は一様である。従って、背景の輝度分散差および輝度差の発生確率分布(図15に示す山)は一般的に急峻となる。なお、原稿等は、一般的に、罫線や文字が含まれているため、輝度分散差および輝度差の発生確率分布は緩やかとなる。
図14の説明に戻る。判定部52は、記憶部15を参照し、算出部21が算出した注目画素の輝度分散差および輝度差の発生確率を取得する。
例えば、算出部21は、図6に示した矢印A0の画素の輝度分散差および輝度差を、それぞれ「ΔYs0,ΔYu0」と算出したとする。この場合、判定部52は、例えば、図15に示す発生確率分布により、発生確率DP0を取得する。すなわち、判定部52は、記憶部15より、図6の矢印A0に示す画素の発生確率DP0を取得する。
また、算出部21は、図6に示した矢印A1の画素の輝度分散差および輝度差を、それぞれ「ΔYs1,ΔYu1」と算出したとする。この場合、判定部52は、例えば、図15に示す発生確率分布により、発生確率DP1を取得する。すなわち、判定部52は、記憶部15より、図6の矢印A1に示す画素の発生確率DP1を取得する。
また、算出部21は、図6に示した矢印A2の画素の輝度分散差および輝度差を、それぞれ「ΔYs2,ΔYu2」と算出したとする。この場合、判定部52は、例えば、図15に示す発生確率分布により、発生確率DP2を取得する。すなわち、判定部52は、記憶部15より、図6の矢印A2に示す画素の発生確率DP2を取得する。
また、算出部21は、図6に示した矢印A3の画素の輝度分散差および輝度差を、それぞれ「ΔYs3,ΔYu3」と算出したとする。この場合、判定部52は、例えば、図15に示す発生確率分布により、発生確率DP3を取得する。すなわち、判定部52は、記憶部15より、図6の矢印A3に示す画素の発生確率DP3を取得する。
算出部21は、注目画素を、例えば、ラスタースキャンのように移動し、各注目画素の輝度分散差および輝度差を算出する。そして、判定部52は、算出部21が算出する各注目画素の輝度分散差および輝度差について、発生確率を取得する。
判定部52は、算出部21が算出する注目画素の輝度分散差および輝度差の発生確率が発生確率閾値を超えていない場合、その注目画素をエッジ画素と判定する。例えば、判定部52は、注目画素の輝度分散差および輝度差の発生確率が50%を超えていない場合、その注目画素をエッジ画素と判定する。
具体的には、図6に示した矢印A1,A3の画素の輝度分散差および輝度差の発生確率DP1,DP3(図15のDP1,DP3を参照)は、50%を超えていないとする。この場合、判定部52は、矢印A1,A3に示す画素をエッジ画素と判定する。
このように、記憶部15は、カバー3の輝度分散差および輝度差の発生確率分布を記憶する。判定部52は、記憶部15を参照して、算出部21が算出する注目画素の輝度分散差および輝度差の発生確率を取得し、取得した発生確率が発生確率閾値を超えていない場合、注目画素をエッジ画素と判定する。これにより、画像処理装置1は、画像データのエッジをより適切に判定することができる。例えば、画像処理装置1は、カバー3の色の違いや変化に応じて、適切にエッジを判定することができる。また、画像処理装置1は、カバー3の平滑性の違いや変化に応じて、適切にエッジを判定することができる。また、画像処理装置1は、台2のガラス面とカバー3との距離の違いや変化に応じて、適切にエッジを判定することができる。また、画像処理装置1は、スキャン部11の光源の光量、照射方向の違いや変化に応じて、適切にエッジを判定できる。
なお、上記では、記憶部15にカバー3の輝度分散差および輝度差の発生確率分布を記憶するとしたが、輝度分散差の発生確率分布を記憶してもよい。この場合、判定部52は、記憶部15を参照して、算出部21が算出する注目画素の輝度分散差の発生確率を取得し、取得した発生確率が発生確率閾値を超えていない場合、注目画素をエッジ画素と判定する。なお、輝度分散差の発生確率は、例えば、図15に示したP−ΔY平面(2次元)で示される。
[第3の実施の形態]
第3の実施の形態では、輝度分散差の発生確率分布に基づいて、輝度分散差閾値を変更する。
図16は、第3の実施の形態に係る画像処理装置1の機能ブロック構成例を示した図である。図16において、図2と同じものには同じ符号を付し、その説明を省略する。図16に示すように、制御部12は、生成部61と、判定部62とを有している。
生成部61は、図14で説明した生成部51と同様の動作をする。ただし、生成部61は、カバー3の輝度差の発生確率分布を生成せず、カバー3の輝度分散差の発生確率分布を生成する。すなわち、生成部61は、背景の輝度分散差の発生確率分布を生成する。
カバー3の輝度分散差の発生確率分布は、例えば、経年や汚れ等によって変化する場合がある。例えば、経年や汚れ等によって、カバー3にムラが生じると、カバー3の輝度分散差の発生確率分布は、緩やかになる。
図17は、カバー3の輝度分散差の発生確率分布の変化を示した図である。カバー3の地色が一様である場合、カバー3の輝度分散差の発生確率分布は、図17の(A)に示すように急峻となる。一方、カバー3の地色が、例えば、経年や汚れ等で一様でなくなると、カバー3の輝度分散差の発生確率分布は、図17の(B)に示すように緩やかとなる。
図16の説明に戻る。判定部62は、生成部61が生成したカバー3の輝度分散差の発生確率分布に基づいて、輝度分散差閾値を変更する。例えば、判定部62は、発生確率が50%となる輝度分散差に合わせて、輝度分散差閾値を変更する。
より具体的には、図17の(A)および図17の(B)に示すΔYs11,ΔYs12は、発生確率が50%となる輝度分散差を示している。図17の(A)の場合は、輝度分散差閾値をΔYs11とする。カバー3の輝度分散差の発生確率分布が変わり、図17の(B)になった場合は、輝度分散差閾値をΔYs12とする。
発生確率が50%となる輝度分散差が大きくなった場合に、輝度分散差閾値を大きくなるように変更するのは、カバー3が一様でなくなり、カバー3の輝度分散差が大きくなるためである。すなわち、判定部62は、輝度分散差閾値を大きくして、例えば、経年等によって一様でなくなったカバー3(背景)を、エッジと誤判定しないようにする。
このように、生成部61は、カバー3の輝度分散差の発生確率分布を生成する。判定部62は、輝度分布差の発生確率分布に基づいて、輝度分散差閾値を変更する。これにより、画像処理装置1は、画像データのエッジをより適切に判定することができる。
なお、生成部61は、カバー3の輝度差の発生確率分布を生成してもよい。そして、判定部62は、輝度差の発生確率分布に基づいて、輝度差閾値を変更してもよい。これによっても、画像処理装置1は、画像データのエッジをより適切に判定することができる。
以上、本発明について実施形態を用いて説明したが、画像処理装置1および情報処理装置40の機能構成は、その構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。画像処理装置1および情報処理装置40の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、本発明の技術的範囲は、上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更又は改良を加えることが可能であることが当業者には明らかである。例えば、各実施の形態を組み合わせてもよい。また、そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。また、本発明は、画像処理装置1および情報処理装置40の機能を実現するプログラム、当該プログラムを記憶した記憶媒体として提供することもできる。
1…画像処理装置、2…台、3…カバー、4…入力装置、11…スキャン部、12…制御部、13…通信部、14…入力部、15…記憶部、21…算出部、22…判定部、31…背景、32…原稿、33…罫線、40…情報処理装置、41…I/F部、42…記憶部、51…生成部、52…判定部、61…生成部、62…判定部。

Claims (10)

  1. スキャン対象物をスキャンし、画像データを出力するスキャン部と、
    前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出する算出部と、
    前記輝度分散差に基づいて、前記画像データのエッジ画素を判定する判定部と、
    を有することを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記判定部は、前記輝度分散差の絶対値が輝度分散差閾値を超えている場合、前記第1の画素を前記エッジ画素と判定する、
    ことを特徴とする画像処理装置。
  3. 請求項1に記載の画像処理装置であって、
    前記算出部は、前記第1の画素の輝度と、前記第2の画素の輝度との輝度差を算出し、
    前記判定部は、前記輝度分散差の絶対値が前記輝度分散差閾値を超えている場合または前記輝度差の絶対値が輝度差閾値を超えている場合、前記第1の画素を前記エッジ画素と判定する、
    ことを特徴とする画像処理装置。
  4. 請求項1に記載の画像処理装置であって、
    前記スキャン対象物を覆うカバーのカバー輝度分散差およびカバー輝度差の発生確率分布を記憶する記憶部、をさらに有し、
    前記算出部は、前記第1の画素の輝度と、前記第2の画素の輝度との輝度差を算出し、
    前記判定部は、前記記憶部を参照して、前記輝度分散差および前記輝度差の発生確率を取得し、前記発生確率が発生確率閾値を超えていない場合、前記第1の画素を前記エッジ画素と判定する、
    ことを特徴とする画像処理装置。
  5. 請求項1に記載の画像処理装置であって、
    前記スキャン対象物を覆うカバーのカバー輝度分散差の発生確率分布を記憶する記憶部、をさらに有し、
    前記判定部は、前記記憶部を参照して、前記輝度分散差の発生確率を取得し、前記発生確率が発生確率閾値を超えていない場合、前記第1の画素を前記エッジ画素と判定する、
    ことを特徴とする画像処理装置。
  6. 請求項2または3に記載の画像処理装置であって、
    前記スキャン対象物を覆うカバーのカバー輝度分散差の発生確率分布を生成する生成部、をさらに有し、
    前記判定部は、前記発生確率分布に基づいて、前記輝度分散差閾値を変更する、
    ことを特徴とする画像処理装置。
  7. 請求項3に記載の画像処理装置であって、
    前記スキャン対象物を覆うカバーのカバー輝度差の発生確率分布を生成する生成部、をさらに有し、
    前記判定部は、前記発生確率分布に基づいて、前記輝度差閾値を変更する、
    ことを特徴とする画像処理装置。
  8. 画像処理装置がスキャンしたスキャン対象物の画像データを、前記画像処理装置から受信する受信部と、
    前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出する算出部と、
    前記輝度分散差に基づいて、前記画像データのエッジ画素を判定する判定部と、
    を有することを特徴とする情報処理装置。
  9. 画像処理装置の画像処理方法であって、
    スキャン対象物をスキャンして画像データを出力するステップと、
    前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出するステップと、
    前記輝度分散差に基づいて、前記画像データのエッジ画素を判定するステップと、
    を含むことを特徴とする画像処理方法。
  10. 情報処理装置の画像処理方法であって、
    画像処理装置がスキャンしたスキャン対象物の画像データを、前記画像処理装置から受信するステップと、
    前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出するステップと、
    前記輝度分散差に基づいて、前記画像データのエッジ画素を判定するステップと、
    を含むことを特徴とする画像処理方法。
JP2016047297A 2016-03-10 2016-03-10 画像処理装置、情報処理装置、および画像処理方法 Pending JP2017163407A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016047297A JP2017163407A (ja) 2016-03-10 2016-03-10 画像処理装置、情報処理装置、および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016047297A JP2017163407A (ja) 2016-03-10 2016-03-10 画像処理装置、情報処理装置、および画像処理方法

Publications (1)

Publication Number Publication Date
JP2017163407A true JP2017163407A (ja) 2017-09-14

Family

ID=59857243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016047297A Pending JP2017163407A (ja) 2016-03-10 2016-03-10 画像処理装置、情報処理装置、および画像処理方法

Country Status (1)

Country Link
JP (1) JP2017163407A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10827099B2 (en) 2018-10-12 2020-11-03 Pfu Limited Image processing apparatus for determining a threshold for extracting an edge pixel based on a region corresponding to a surface facing an imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10827099B2 (en) 2018-10-12 2020-11-03 Pfu Limited Image processing apparatus for determining a threshold for extracting an edge pixel based on a region corresponding to a surface facing an imaging device

Similar Documents

Publication Publication Date Title
JP6119689B2 (ja) 電子文書生成システム、電子文書生成装置およびプログラム
US10432820B2 (en) Image processing apparatus, image processing system, control method for image processing apparatus, and non-transitory computer readable medium
JP5766073B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び画像処理システム
JP2014147046A (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2017123015A (ja) 情報処理装置、画像処理方法およびプログラム
JP2017163407A (ja) 画像処理装置、情報処理装置、および画像処理方法
US10896344B2 (en) Information processing apparatus, information processing method, and computer program
US10424051B2 (en) Image analyzing apparatus and non-transitory storage medium storing instructions executable by the image analyzing apparatus
JP6716014B2 (ja) 画像撮像装置、制御方法及び制御プログラム
US20230071008A1 (en) Computer-readable, non-transitory recording medium containing therein image processing program for generating learning data of character detection model, and image processing apparatus
US7957594B2 (en) Outline definition apparatus and outline definition method, and image processing apparatus
JP2012015592A (ja) 画像処理装置
US9692936B2 (en) Image processing apparatus and image processing method for clipping, from a second image, an area at a position corresponding to designated position in a first image
JP6693184B2 (ja) 画像処理装置、および画像処理方法
JP6413450B2 (ja) 画像処理装置、画像形成装置およびプログラム
US10430927B2 (en) Image analyzing apparatus and non-transitory storage medium storing instructions executable by the image analyzing apparatus
US20230196519A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium storing program
US10944877B2 (en) Image processing system, image processing apparatus, and image processing method
JP4916587B1 (ja) 電子書籍の提供方法
JP2019016898A (ja) 画像処理装置、および、コンピュータプログラム
JP2013157968A (ja) 画像処理装置
JP6645143B2 (ja) 画像解析装置
JP6950237B2 (ja) コンピュータプログラム及び画像処理装置
JP6897405B2 (ja) 画像処理装置、および、コンピュータプログラム
US20110096984A1 (en) Image processing device, method for image processing, and image forming apparatus