JP5007851B2 - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP5007851B2 JP5007851B2 JP2011188324A JP2011188324A JP5007851B2 JP 5007851 B2 JP5007851 B2 JP 5007851B2 JP 2011188324 A JP2011188324 A JP 2011188324A JP 2011188324 A JP2011188324 A JP 2011188324A JP 5007851 B2 JP5007851 B2 JP 5007851B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- image
- unit
- edge
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Description
本発明は、画像処理装置及び画像処理プログラムに関するものである。 The present invention relates to an image processing apparatus and an image processing program.
従来より、両面に画像がある原稿の画像を読み取った場合や、原稿を重ねて画像を読み取った場合に、読取対象面の画像だけでなく、裏面や他の原稿の画像が透けて読み取られてしまう、いわゆる裏写りが発生している。この裏写りを除去する技術の一つとして、原稿の両面の画像を読み込み、それら両面の画像を参照することで裏写りの除去を行うことも知られている。 Conventionally, when an image of a document with images on both sides is scanned, or when an image is scanned with the documents overlaid, not only the image on the surface to be scanned but also the image on the back and other documents are scanned through. So-called show-through has occurred. As one of the techniques for removing the show-through, it is also known to remove the show-through by reading images on both sides of a document and referring to the images on both sides.
片面のみの画像から裏写りを除去する方法としては、いわゆる下地除去処理を行うことにより実現していた。下地除去処理は、ある固定値もしくは検出された下地レベルに従って、読み取った画像に対して階調補正を行うものである。 A method of removing show-through from an image on only one side has been realized by performing so-called background removal processing. In the background removal process, gradation correction is performed on a read image in accordance with a certain fixed value or a detected background level.
また別の方法として、例えば特許文献1には、画像中のエッジを検出してエッジ以外の領域に対してカラー閾値処理を行って裏写りを除去することが記載されている。また、例えば特許文献2及び特許文献3には、画像に対して平滑化処理を行った後にエッジ検出を行い、文字や線、枠、絵柄部分以外の領域に対して裏写り除去処理を施すことが記載されている。さらに、例えば特許文献4には、エッジ検出の結果から文字や線、絵柄以外の領域を抽出するとともに、裏写りである可能性が高い画素の検出を行い、これらをもとに裏写り除去処理を施す領域を決定して裏写り除去処理を行うことが記載されている。さらにまた、例えば特許文献5には、裏写り除去処理を行った後の画像について修正の処理を施すことが記載されている。
As another method, for example,
本発明は、エッジ領域付近においても正確に裏写りを除去することができる画像処理装置及び画像処理プログラムを提供することを目的とするものである。 It is an object of the present invention to provide an image processing apparatus and an image processing program that can accurately remove show-through even in the vicinity of an edge region.
本願請求項1に記載の発明は、画像中のエッジ強度を検出するエッジ強度検出手段と、画像の裏写りしていないもとの色を推定する色推定手段と、入力画像から前記エッジ強度検出手段によって検出された前記エッジ強度に従って前記入力画像と前記色推定手段で色を推定した画像とを合成する合成手段を有し、前記色推定手段は、処理対象の画素を含む所定の大きさの領域を注目ブロックとして色空間中の頻度値を求めて色値候補を選出し、該色値候補をもとに得た色を前記裏移りしていないもとの色として推定し、前記合成手段は、前記エッジ強度検出手段で検出したエッジ強度が強ければ入力画像の色に近づけ、エッジ強度が弱ければ色推定手段で推定した色に近づけることを特徴とする画像処理装置である。 According to the first aspect of the present invention, there is provided an edge intensity detecting means for detecting an edge intensity in an image, a color estimating means for estimating an original color that is not show-through of the image, and the edge intensity detection from an input image. Combining the input image and the image whose color is estimated by the color estimation unit according to the edge intensity detected by the unit, the color estimation unit having a predetermined size including the pixel to be processed Obtaining a frequency value in a color space using an area as a block of interest, selecting a color value candidate, estimating a color obtained based on the color value candidate as the original color that has not been reversed, and the combining means Is an image processing apparatus characterized in that it approaches the color of the input image if the edge intensity detected by the edge intensity detection means is strong, and approximates the color estimated by the color estimation means if the edge intensity is weak.
本願請求項2に記載の発明は、本願請求項1に記載の発明の画像処理装置に、さらに、入力画像を縮小する縮小手段を有し、前記エッジ強度検出手段は、前記縮小手段によって縮小された画像を用いて前記エッジ強度を検出し、前記色推定手段は、前記縮小手段によって縮小された画像を用いて色の推定を行うことを特徴とする画像処理装置である。 According to the second aspect of the present invention, the image processing apparatus according to the first aspect of the present invention further includes a reduction means for reducing the input image, and the edge strength detection means is reduced by the reduction means. The image processing apparatus is characterized in that the edge intensity is detected by using an image and the color estimation means performs color estimation using the image reduced by the reduction means.
本願請求項3に記載の発明は、本願請求項1に記載の発明の画像処理装置に、さらに、入力画像を縮小する縮小手段を有し、前記色推定手段は、前記縮小手段によって縮小された画像を用いて色の推定を行うことを特徴とする画像処理装置である。 According to a third aspect of the present invention, the image processing apparatus according to the first aspect of the present invention further includes a reduction means for reducing the input image, and the color estimation means is reduced by the reduction means. An image processing apparatus that performs color estimation using an image.
本願請求項4に記載の発明は、本願請求項1に記載の発明の画像処理装置に、さらに、入力画像を縮小する第1及び第2の縮小手段を有し、前記エッジ強度検出手段は、前記第2の縮小手段によって縮小された画像を用いてエッジ強度を検出するものであり、前記色推定手段は、前記第1の縮小手段によって縮小された画像を用いて色の推定を行うことを特徴とする画像処理装置である。 According to a fourth aspect of the present invention, the image processing apparatus according to the first aspect of the present invention further includes first and second reduction means for reducing an input image, and the edge strength detection means includes: Edge strength is detected using the image reduced by the second reduction means, and the color estimation means performs color estimation using the image reduced by the first reduction means. An image processing apparatus is characterized.
本願請求項5に記載の発明は、コンピュータに、請求項1ないし請求項4のいずれか1項に記載の画像処理装置の機能を実行させることを特徴とする画像処理プログラムである。
An invention according to
本願請求項1に記載の発明によれば、非エッジ領域、エッジ領域を区別することなく、エッジ強度に応じた裏写りの除去処理を行うことができる。 According to the first aspect of the present invention, the show-through removal process according to the edge strength can be performed without distinguishing between the non-edge region and the edge region.
本願請求項2に記載の発明によれば、本願請求項1に記載の発明の効果に加え、処理対象となる入力画像が網点画像を含む場合であっても、網点画像に左右されることなくエッジ強度を検出することができ、また網点画像についても裏写りを除去することができる。 According to the second aspect of the present invention, in addition to the effect of the first aspect of the present invention, even if the input image to be processed includes a halftone image, it depends on the halftone image. Edge strength can be detected without any problem, and show-through can be removed from a halftone image.
本願請求項3に記載の発明によれば、本願請求項1に記載の発明の効果に加え、処理対象となる入力画像が網点画像を含む場合であっても、裏写りを除去することができる。 According to the third aspect of the present invention, in addition to the effect of the first aspect of the present invention, the show-through can be removed even when the input image to be processed includes a halftone image. it can.
本願請求項4に記載の発明によれば、本願請求項1に記載の発明の効果に加え、色の推定とエッジ強度の検出を、それぞれの処理に最適な解像度により行うことができ、処理対象となる入力画像が網点画像を含む場合であっても、裏写りを除去することができる。
According to the invention described in
本願請求項5に記載の発明によれば、本願請求項1ないし請求項4のいずれか1項に記載の発明の効果を得ることができる。
According to the invention described in
図1は、本発明の第1の実施の形態を示すブロック図である。図中、11は縮小部、12はエッジ判定部、13は色推定部である。入力画像はどのようなものでもよいが、裏写りを除去するための処理を行うことから、特に裏写りが生じている画像を入力画像とするとよい。裏写りは、上述のように例えば両面に画像が形成された原稿を読み取った場合や、原稿を重ねて画像を読み取った場合に発生することが多く、入力画像としてそのような読取画像であってよい。 FIG. 1 is a block diagram showing a first embodiment of the present invention. In the figure, 11 is a reduction unit, 12 is an edge determination unit, and 13 is a color estimation unit. Any input image may be used. However, since a process for removing show-through is performed, an image in which show-through has occurred is preferably used as the input image. As described above, show-through often occurs when, for example, a document with images formed on both sides is read, or when an image is read with the documents overlapped. Good.
縮小部11は、入力画像に対して縮小処理を施す。縮小方法としてはどのような公知の方法を用いてもよい。縮小率も任意であるが、スクリーン処理された網点画像領域について、網点がつぶれるようにする。
The
エッジ判定部12は、縮小部11で縮小された画像をもとに、画像中のエッジを判定する。エッジの判定方法は任意であり、種々の公知の方法を適用することができる。判定結果は色推定部13に送られる。
The
色推定部13は、画像中に裏写りした画像が含まれている場合に、裏写りしていない、もとの色を推定する。このとき、エッジ判定部12によるエッジ判定結果に従って行う。この例では、エッジ判定部12によるエッジ判定結果がエッジを示しているエッジ領域については、入力画像を用いて色の推定を行う。また、エッジ判定部12によるエッジ判定結果がエッジ以外であることを示している非エッジ領域については、縮小部11で縮小された画像を用いて、処理対象の画素の色の推定を行う。さらに、色の推定の際の各種の処理パラメータ(設定)を、エッジ領域と非エッジ領域とで異ならせることができる。
The
図2は、色推定部の一例を示すブロック図、図3は、同じく動作の一例の説明図である。図中、21は色ヒストグラム算出部、22は色値候補選出部、23は推定色決定部、24はパラメータ入力部である。図1における色推定部13は、例えば図2に示すような構成により実現することができる。
FIG. 2 is a block diagram illustrating an example of a color estimation unit, and FIG. 3 is an explanatory diagram of an example of the operation. In the figure, 21 is a color histogram calculation unit, 22 is a color value candidate selection unit, 23 is an estimated color determination unit, and 24 is a parameter input unit. The
色ヒストグラム算出部21は、処理対象の画素を含む所定の大きさの領域を注目ブロックとし、その注目ブロック内のそれぞれの画素の色のヒストグラムを算出する。図3(A)において太線で囲んだ部分を注目ブロックの一例とし、この範囲内の画素の色のヒストグラムを算出する。算出されたヒストグラムは、図3(B)に示すような、例えば3次元の色空間中の頻度値となる。
The color
色値候補選出部22は、処理対象の画素の色を置き換える、すなわち裏写りしていない、もとの色の候補(色値候補)を選出する。そのための処理として、まず、処理対象の画素の色に対応する色空間中の位置から一定の部分色空間内のヒストグラムを2次微分し、頻度の凸部の色(頻度が局所最大値となる色)を求める。求められた頻度の凸部の色を色値候補とする。
The color value
図3(B)における黒丸を処理対象の画素の色に対応する位置とし、その黒丸を頂点とする3次元領域(部分色空間)を2次微分の対象としている。図3(C)には、その2次微分の対象となる3次元領域のみを取り出して示しており、黒丸は2次微分により頻度が凸部となる色を示している。この色が色値候補となる。 A black circle in FIG. 3B is set to a position corresponding to the color of the pixel to be processed, and a three-dimensional area (partial color space) having the black circle as a vertex is set as an object of secondary differentiation. In FIG. 3C, only the three-dimensional region that is the target of the secondary differentiation is extracted and shown, and the black circle indicates a color whose frequency becomes a convex portion by the secondary differentiation. This color is a color value candidate.
推定色決定部23は、色値候補選出部22で選出された色値候補から、裏写り前のもとの色と推定される推定色を決定する。決定方法としてはいくつかの方法が考えられる。例えば色値候補のうち、色値候補の頻度値が最大のものや、処理対象の画素の色との色差が小さいもの、明度が高いもの、などを選択することができる。もちろん、これらを組み合わせたり、他の条件により選択することもできる。あるいは、複数の色値候補の中間色を推定色として決定したり、処理対象の画素の色との関係から重み付け演算して決定するなど、様々な方法で推定色を決定することができる。
The estimated
パラメータ入力部24は、キーボード等の入力装置から入力されたり、あるいは予め記憶されているパラメータを取得し、色ヒストグラム算出部21、色値候補選出部22、推定色決定部23の各部に設定する。例えばエッジ判定部12から渡されるエッジ判定結果をもとにパラメータを変更することができる。
The
図4は、色推定部の動作の一例を示すフローチャートである。なお、図4に示す動作の一例では、処理対象の1画素に対する処理について示している。この処理対象の画素は、入力画像における各画素を順に処理対象の画素として以下の処理を実行することになる。このとき、エッジ判定部12で非エッジ領域と判定された画素については、処理対象とすべき入力画像の画素の位置に対応する、縮小部11で縮小された画像の画素を処理対象とし、縮小された画像を用いて以下の処理を実行する。
FIG. 4 is a flowchart illustrating an example of the operation of the color estimation unit. In the example of the operation illustrated in FIG. 4, processing for one pixel to be processed is illustrated. With respect to the pixel to be processed, the following processing is executed with each pixel in the input image as the pixel to be processed in order. At this time, for the pixels determined to be non-edge regions by the
まずS101において、処理対象となる画素(注目画素)Pの近傍に注目ブロックW(P)を定義する(図3(A))。この注目ブロックW(P)の定義の仕方は任意であるが、例えば、注目画素Pを中心としてn画素×n画素の正方形(nは自然数)とすることができる。図3(A)に示した例では、注目ブロックW(P)が5画素×5画素の正方形である例を示している。もちろん注目ブロックとして含める画素数や形状は任意に設定可能である。 First, in S101, a target block W (P) is defined in the vicinity of a pixel (target pixel) P to be processed (FIG. 3A). The method of defining the target block W (P) is arbitrary, but can be a square of n pixels × n pixels (n is a natural number) with the target pixel P as the center. In the example illustrated in FIG. 3A, the target block W (P) is a square of 5 pixels × 5 pixels. Of course, the number of pixels and the shape to be included as the target block can be arbitrarily set.
なお、非エッジ領域では縮小部11で縮小した画像を使用するので、同じ画素数の注目ブロックを用いた場合、エッジ領域で入力画像を用いる場合に比べて、入力画像上では広い範囲を参照することになる。従って、非エッジ領域では広い範囲の画素の色から推定を行うことができ、逆にエッジ領域については狭い範囲の画素の色からの推定を行うことでエッジを保存することができる。もちろん、さらにエッジ領域と非エッジ領域とで注目ブロックの大きさを変更してもよい。このとき、入力画像上での参照範囲として、エッジ領域よりも非エッジ領域の場合の参照範囲の方が広くなるように設定するとよい。この注目ブロックの大きさや形状などは、予め色ヒストグラム算出部21に設定しておくほか、パラメータ入力部24が設定してもよい。
In addition, since the image reduced by the
続いてS102において、注目ブロックW(P)内にある画素(図3(A)に示した例では5×5=25画素)について、色ヒストグラム算出部21で色ヒストグラム(すなわち色空間における頻度分布)を算出する。
Subsequently, in S102, the color
続いてS103において、注目画素Pの画素値の色空間における位置の近傍に部分色空間を定義する。図3(B)においては、注目画素Pの画素値V(P)の色空間における位置を黒丸で示し、当該位置を一つの頂点とする立方体を部分色空間S(P)として定義した例を示す。この部分色空間内は、注目画素Pの画素値を置き換えるべき色値(換言すれば裏写り前のもとの色値と推定される推定色値)を探索する領域である。部分色空間S(P)の位置やサイズ、形状については、固定しておいてもよいし、画像データの特性、あるいは注目画素Pの画素値などに基づいて適宜設定してもよい。例えば形状としては直方体や球などであってもよい。ただし、通常、裏写りが起きている画素の画素値は、本来の画像の色と不所望の画像の色との減法混色となるので、このことを考慮して部分色空間S(P)の位置を決定するのが好ましい。図3(B)においては、V(P)によりも明度が高い領域に部分色空間S(P)が位置している場合が示されている。 Subsequently, in S103, a partial color space is defined in the vicinity of the position of the pixel value of the target pixel P in the color space. In FIG. 3B, an example in which the position of the pixel value V (P) of the target pixel P in the color space is indicated by a black circle and a cube having the position as one vertex is defined as the partial color space S (P). Show. This partial color space is an area for searching for a color value to replace the pixel value of the target pixel P (in other words, an estimated color value estimated as the original color value before show-through). The position, size, and shape of the partial color space S (P) may be fixed, or may be set as appropriate based on the characteristics of the image data, the pixel value of the target pixel P, or the like. For example, the shape may be a rectangular parallelepiped or a sphere. However, normally, the pixel value of the pixel where the show-through occurs is a subtractive color mixture of the color of the original image and the color of the undesired image. Therefore, in consideration of this, the partial color space S (P) The position is preferably determined. FIG. 3B shows a case where the partial color space S (P) is located in a region where the brightness is higher than V (P).
また、部分色空間S(P)を立方体とする場合、この立方体のサイズ(一辺の長さ)については、例えば、注目画素の画素値に基づき、以下のようにして決定することができる。すなわち、注目画素Pの画素値V(P)の明度をB(P)、注目画素Pのエッジ度をE(P)とすると、一辺の長さLを以下の式に従って決定する。
L=f[B(P)];f[x]はxの単調増加関数 (1)
L=g[E(P)];g[x]はxの単調減少関数 (2)
When the partial color space S (P) is a cube, the size (length of one side) of the cube can be determined as follows based on the pixel value of the pixel of interest, for example. That is, if the brightness of the pixel value V (P) of the target pixel P is B (P) and the edge level of the target pixel P is E (P), the length L of one side is determined according to the following equation.
L = f [B (P)]; f [x] is a monotonically increasing function of x (1)
L = g [E (P)]; g [x] is a monotonically decreasing function of x (2)
例えば、f(x)=a×x(n) である。ここで、aは正の定数、nは1以上の実数である。g(x)は、例えば−a×x(n) である。あるいはg(x)=a×exp(−xn )のような指数減少関数であってもよい。すなわち、式(1)においては、注目画素が明るいほど、部分色空間S(P)のサイズを大きく設定する。部分色空間S(P)のサイズを大きくすれば、その中に含まれる画素の数も大きくなる。従って、注目画素の画素値から色値が離れた(すなわち色空間における距離が大きい)画素が候補として選択され得るようにするのである。これは、明度の高い画素ほど、より明度の高い色値に置き換えないと裏写りを完全に除去するのが難しくなるという経験的事実を考慮したものである。 For example, f (x) = a × x (n) . Here, a is a positive constant and n is a real number of 1 or more. g (x) is, for example, −a × x (n) . Alternatively, an exponentially decreasing function such as g (x) = a × exp (−x n ) may be used. That is, in Expression (1), the size of the partial color space S (P) is set larger as the target pixel is brighter. If the size of the partial color space S (P) is increased, the number of pixels included in the partial color space S (P) also increases. Therefore, a pixel whose color value is separated from the pixel value of the target pixel (that is, a distance in the color space is large) can be selected as a candidate. This is based on an empirical fact that a pixel having a higher lightness is difficult to completely remove the show-through unless replaced with a color value having a higher lightness.
また、式(2)においては注目画素Pのエッジ度が低いほど、部分色空間S(P)のサイズを大きく設定するのが好ましい。これは、エッジ度が高い(すなわちその画素がエッジ領域およびその付近にある)場合は、注目画素の画素値V(P)から色値が大きく離れた画素を候補として選出することがないようにするためである。エッジ部においては、濃度変化が大きく、また裏写り前のもとの色として複数の色が存在する可能性が低くない。そのため、誤った色をもとの色として推定しないように、エッジ部においては部分色空間S(P)のサイズを小さくするとよい。また非エッジ領域については広い色範囲から色の推定を行うことができ、裏写りで色が変化している場合でも良好に裏写り前の色を推定することができる。なお、エッジ度はエッジ判定部12から取得することができる。あるいは、エッジ判定部12から渡されるエッジ領域か非エッジ領域かの判定結果を用いて、部分色空間S(P)のサイズを変更してもよい。
In Equation (2), it is preferable to set the size of the partial color space S (P) to be larger as the edge degree of the pixel of interest P is lower. This means that when the degree of edge is high (that is, the pixel is in the edge region and its vicinity), a pixel whose color value is far away from the pixel value V (P) of the target pixel is not selected as a candidate. It is to do. In the edge portion, the density change is large, and the possibility that a plurality of colors exist as the original color before show-through is not low. For this reason, the size of the partial color space S (P) is preferably reduced at the edge portion so that an incorrect color is not estimated as the original color. For the non-edge region, the color can be estimated from a wide color range, and the color before show-through can be estimated well even when the color changes due to show-through. The edge degree can be acquired from the
なお、上述の式(1)と式(2)を組み合わせて明度およびエッジ度の両者を考慮し、以下の式に従って一辺の長さLを算出してもよい。
L=q1×f[B(P)]+q2×g[E(P)] (3)
ここで、q1、q2は重み係数である。上述のような部分色空間S(P)のサイズや形状の設定は、色値候補選出部22で行うほか、パラメータ入力部24で行ってもよい。
Note that the length L of one side may be calculated according to the following formula in consideration of both the brightness and the edge degree by combining the above formula (1) and formula (2).
L = q1 × f [B (P)] + q2 × g [E (P)] (3)
Here, q1 and q2 are weighting factors. The setting of the size and shape of the partial color space S (P) as described above may be performed by the
続いてS104において、色値候補選出部22は、S102で算出した色ヒストグラムから、ピーク位置(すなわち頻度が局所最大値をとる画素値)およびその値(頻度ピーク値)を決定する。ピーク位置は、例えば、3次元色ヒストグラムの微分値および2次微分値を計算することにより決定することができる。そして、ピーク位置のうち部分色空間S(P)内に存在する画素値を抽出する。
Subsequently, in S104, the color value
続いてS105において、色値候補選出部22は、抽出した画素値のなかから、所定数(例えば「3」)だけ選出し、これを色値候補とする。選出方法としては、例えば3次元色ヒストグラムの2次微分値の値に基づきピークの鋭さが大きいものから順に選出する。あるいは、頻度ピーク値の大きいものから順に選出する。あるいは、抽出したピーク位置の数が所定数に達しない場合は、抽出して全てのピーク位置の画素値を色値候補として選出してもよい。図3(C)においては、3つの色値候補C1(P)、C2(P)およびC3(P)が選出された場合を示している。
Subsequently, in S105, the color value
続いてS106において、推定色決定部23は、色値候補に基づき注目画素Pに対する裏写りしていないもとの色を推定する。裏写り前の元の色の推定は、以下の4つの基準の少なくともいずれか1つを採用することにより行うことができる。なお、以下ではn=1,2,・・・,Nであって、Nは選出された色値候補の総数を表す。
(ア)色値候補Cn(P)の頻度値:(具体的には、頻度値が大きい色値候補ほど、もとの色値に近いと判定する)
(イ)注目画素の画素値V(P)と色値候補Cn(P)の色値の差:(具体的には、注目画素の画素値V(P)との色差が小さいほど、もとの色値に近いと判定する)
(ウ)注目画素のエッジ度E(P)と色値候補Cn(P)の明度との関係:(具体的には、注目画素のエッジ度E(P)が小さいほど、より高明度の色値候補がもとの色値に近いと判定する)
(エ)注目画素の画素値V(P)のうちの明度値と色値候補Cn(P)の明度値との関係:(具体的には、注目画素Pの明度が高いほど、より明度の高い色値候補がもとの色値に近いと判定する)
これらの基準のいずれかを用い、もとの色値に最も近いと判定した色値候補Cn(P)を推定色として、注目画素の画素値V(P)を置換する。例えば基準(ア)を採用する場合、頻度値が最大の色値候補Cn(P)により注目画素値の画素値V(P)を置換する。
Subsequently, in S106, the estimated
(A) Frequency value of color value candidate Cn (P): (Specifically, a color value candidate having a larger frequency value is determined to be closer to the original color value)
(A) Difference in color value between the pixel value V (P) of the target pixel and the color value candidate Cn (P): (Specifically, the smaller the color difference from the pixel value V (P) of the target pixel, Determined to be close to the color value)
(C) Relationship between the edge degree E (P) of the target pixel and the brightness of the color value candidate Cn (P): (Specifically, the smaller the edge degree E (P) of the target pixel is, the higher the brightness color is. Determine that the value candidate is close to the original color value)
(D) Relationship between the brightness value of the pixel value V (P) of the target pixel and the brightness value of the color value candidate Cn (P): (Specifically, the higher the brightness of the target pixel P, the more the brightness Determines that a high color value candidate is close to the original color value)
Using any of these criteria, the pixel value V (P) of the target pixel is replaced with the color value candidate Cn (P) determined to be closest to the original color value as the estimated color. For example, when the standard (a) is adopted, the pixel value V (P) of the target pixel value is replaced with the color value candidate Cn (P) having the maximum frequency value.
また、上述した4つの基準を組み合わせて推定色を決定してもよい。具体的には、各色値候補Cn(P)に対し以下の数式で定義される真色値度Dn(P)を各々算出し、その中で最も高い真色値度D(=Max{D1(P),D2(P),・・・,DN(P)})を有する色値候補を推定色と決定する。なお、Max(Xn)(n=1、2、・・・)は、X1、X2、・・・の最大値を表す。真色値度Dn(P)は、例えば以下のようにして求めることができる。
Dn(P)=w1×f1[Sn(P)/Max(Sn(P))]
+w2×g1[ABS(V(P)−Cn(P))]
+w3×g2[E(P)]×f2[Bn(P)]
+w4×f3[B(P)]×f4[Bn(P)] (4)
上記の式において、fi[X](i=1〜4)はXの単調増加関数、gj[X](j=1〜2)はXの単調減少関数である。また、Sn(P)は色値候補Cn(P)の頻度値、wm(m=1〜4,wm>0)はそれぞれ上記基準(1)ないし(4)に対応する重み係数である。さらに、B(P)およびBn(P)は、それぞれ注目画素Pの明度および色値候補Cn(P)の明度を表す。また、ABS(X)はXの絶対値を表す。
Further, the estimated color may be determined by combining the above four criteria. Specifically, the true color value degree Dn (P) defined by the following formula is calculated for each color value candidate Cn (P), and the highest true color value degree D (= Max {D1 ( P), D2 (P),..., DN (P)}) are determined as estimated colors. Note that Max (Xn) (n = 1, 2,...) Represents the maximum value of X1, X2,. The true color value degree Dn (P) can be obtained, for example, as follows.
Dn (P) = w1 × f1 [Sn (P) / Max (Sn (P))]
+ W2 × g1 [ABS (V (P) −Cn (P))]
+ W3 × g2 [E (P)] × f2 [Bn (P)]
+ W4 × f3 [B (P)] × f4 [Bn (P)] (4)
In the above equation, fi [X] (i = 1 to 4) is a monotonically increasing function of X, and gj [X] (j = 1 to 2) is a monotonically decreasing function of X. Sn (P) is a frequency value of the color value candidate Cn (P), and wm (m = 1 to 4, wm> 0) is a weighting factor corresponding to each of the above criteria (1) to (4). Further, B (P) and Bn (P) represent the brightness of the target pixel P and the brightness of the color value candidate Cn (P), respectively. ABS (X) represents the absolute value of X.
式(4)から判るように、第1項ないし第4項はそれぞれ上記基準(ア)ないし(エ)からの寄与を表している。なお、各基準に対応する重み係数wmの値は任意であるが、例えば、w1>w2>w3>w4となるように設定するのが好ましい。すなわち、この場合は、色値候補Cn(P)から推定色を選ぶに際し、基準(ア)(すなわち色値候補Cn(P)の頻度値Sn(P))が相対的に最も重視され、基準(エ)(すなわち注目画素の画素値V(P)のうちの明度値B(P)と色値候補Cn(P)の明度値Bn(P)との関係)が相対的に最も軽視されることになる。 As can be seen from the equation (4), the first to fourth terms represent the contributions from the above criteria (a) to (d), respectively. In addition, although the value of the weighting coefficient wm corresponding to each reference is arbitrary, for example, it is preferable to set so that w1> w2> w3> w4. That is, in this case, when the estimated color is selected from the color value candidates Cn (P), the reference (a) (that is, the frequency value Sn (P) of the color value candidate Cn (P)) is regarded as the most important. (D) (that is, the relationship between the lightness value B (P) of the pixel value V (P) of the target pixel and the lightness value Bn (P) of the color value candidate Cn (P)) is relatively lightened. It will be.
また、色値候補のうちの一つを選択することにより推定色を決定するのではなく、複数の色値候補の中間色を求めて推定色を決定してもよい。具体的には、注目画素Pに対応する真色値CT(P)の値を以下の数式に従って算出することができる。
CT(P)=Σn=1 Nkn・Sn(P)・Cn(P) (5)
ここで、knは重み係数であって、例えば、全てのn(n=1,2,・・・,N)に対しkn=1/Max{Sj(P)}である。上記数式から判るように、この例では、計N個の色値候補の各々につき、その色値にその頻度値を乗じて加算することにより、真色値CT(P)を算出する。この真色値を推定色として決定すればよい。この例では、抽出した色値候補の全てを推定色に反映させることができる。
Further, instead of determining the estimated color by selecting one of the color value candidates, the estimated color may be determined by obtaining an intermediate color among a plurality of color value candidates. Specifically, the true color value CT (P) corresponding to the target pixel P can be calculated according to the following mathematical formula.
CT (P) = Σ n = 1 N kn .Sn (P) .Cn (P) (5)
Here, kn is a weighting coefficient, for example, kn = 1 / Max {Sj (P)} for all n (n = 1, 2,..., N). As can be seen from the above formula, in this example, the true color value CT (P) is calculated by multiplying the color value by the frequency value for each of the N total color value candidates. This true color value may be determined as the estimated color. In this example, all of the extracted color value candidates can be reflected in the estimated color.
上式の例は、上記基準(ア)を採用したものであるが、これに限らず、上記(イ)ないし(エ)の少なくとも一つを用いて算出した値を推定色と決定することができる。要は、選定した色値候補の情報(明度等の色値およびその色値の頻度値等)に基づいて、裏写り前のもとの色値と推定される色値を一つ決定することができればよい。 The example of the above formula adopts the above standard (a), but is not limited to this, and the value calculated using at least one of the above (a) to (e) may be determined as the estimated color. it can. In short, based on the selected color value candidate information (color value such as brightness and frequency value of the color value, etc.), one color value to be estimated as the original color value before show-through is determined. If you can.
このようにして、ある注目画素Pについて推定色が決定すると、注目画素を変更して(例えば隣の画素に変更して)同様の処理を行う。このとき、上述のようにエッジ領域については入力画像を用いるが、非エッジ領域については縮小部11で縮小された画像を用いて行う。入力画像を構成する全画素について推定色が決定すると、この入力画像に対する処理が完了する。
In this way, when the estimated color is determined for a certain target pixel P, the same process is performed by changing the target pixel (for example, by changing to a neighboring pixel). At this time, as described above, the input image is used for the edge region, but the non-edge region is used using the image reduced by the
なお、上述の色推定部13の各部で使用する大きさや形状などのパラメータは、パラメータ入力部24からユーザが入力することができる。あるいは、パラメータのセットと画像の所定の特性を予めROM等の記憶手段に記憶しておき、入力画像の特性に最も適合するパラメータセットを記憶手段から読み出して使用してもよい。特に本発明ではエッジ判定部12から渡されるエッジ判定結果をもとにパラメータを切り替えるとよい。
Note that parameters such as size and shape used in each part of the
また、図4に示した処理の一例では、注目画素ごとに注目ブロックWを定義し、その注目ブロック内の画素について色ヒストグラムの算出を行ったが、複数の注目画素に対して同一の注目ブロック(従って同一の頻度ヒストグラム)を用いてもよい。例えば、注目ブロックの大きさを100画素×100画素の領域とすれば、その中心付近の5×5=25個の画素(注目画素群)に対しては、全て当該注目ブロックW(およびその注目ブロックWから算出される色ヒストグラム)を使用する。こうのようにすれば、色ヒストグラム算出処理の回数を減らすことができ、全体の処理速度が向上する。この際、注目ブロックWのサイズが注目画素群のサイズに対して十分大きければ、算出される色ヒストグラムの誤差は無視できるので、裏写り除去能力を実質的に低下させずに済む。 In the example of the process illustrated in FIG. 4, the target block W is defined for each target pixel, and the color histogram is calculated for the pixels in the target block. (Thus, the same frequency histogram) may be used. For example, if the size of the target block is an area of 100 pixels × 100 pixels, the target block W (and the target pixel) are all included in 5 × 5 = 25 pixels (target pixel group) near the center. Color histogram calculated from the block W) is used. In this way, the number of color histogram calculation processes can be reduced, and the overall processing speed is improved. At this time, if the size of the target block W is sufficiently larger than the size of the target pixel group, the error of the calculated color histogram can be ignored, so that the show-through removal capability does not need to be substantially reduced.
図2,図3に示した色推定部13の構成及び図4に示した色推定部13の動作は一例であって、他の方法により裏写りのない、もとの色を推定するように構成してもよい。
The configuration of the
図5は、本発明の第1の実施の形態の第1の変形例を示すブロック図である。図中の符号は図1と同様であり、重複する説明を省略する。この第1の実施の形態における第1の変形例では、エッジ判定部12は、入力画像からエッジの判定を行う。エッジ判定部12におけるエッジ判定手法として、網点画像などにおける網点をエッジとして検出しないような手法を用いることによって、このような構成が可能になる。
FIG. 5 is a block diagram showing a first modification of the first embodiment of the present invention. The reference numerals in the figure are the same as those in FIG. In the first modification example of the first embodiment, the
図6は、本発明の第1の実施の形態の第2の変形例を示すブロック図である。図中、図1と同様の部分には同じ符号を付して、重複する説明を省略する。14は縮小部である。この第1の実施の形態における第2の変形例では、縮小部11とは別に、エッジ判定部12のための縮小部14を設けた例を示している。
FIG. 6 is a block diagram showing a second modification of the first embodiment of the present invention. In the figure, the same parts as those in FIG.
縮小部14は、エッジ判定部12においてエッジの判定が良好に行えるように、入力画像に対して縮小処理を行う。縮小部11とは縮小方式や縮小率を異ならせることができる。なお、縮小部11では、色推定部13で非エッジ領域についての色推定に適した縮小処理を行うことができる。
The
エッジ判定部12は、縮小部14で縮小された画像からエッジの判定を行う。エッジの判定に適した縮小画像が渡されるので、良好にエッジの判定を行うことができる。
The
図7は、本発明の第1の実施の形態の第3の変形例を示すブロック図である。図中の符号は図1と同様であり、重複する説明を省略する。この第1の実施の形態の第3の変形例では、縮小部11を省略した例を示している。網点領域などが存在しないことがわかっている入力画像については、縮小部11で縮小せずに構成することが可能である。この場合、エッジ判定部12は入力画像からエッジの判定を行う。また、色推定部13はエッジ領域及び非エッジ領域とも入力画像から色の推定を行うことになるが、エッジ判定部12から出力されるエッジ判定結果に従って色推定の際の設定を変更するように構成するとよい。例えば色推定部13が図2に示す構成である場合には、エッジ領域については注目ブロックの大きさや部分色空間の大きさなどを小さく設定し、非エッジ領域については逆に注目ブロックの大きさや部分色空間の大きさなどを大きく設定するとよい。
FIG. 7 is a block diagram showing a third modification of the first embodiment of the present invention. The reference numerals in the figure are the same as those in FIG. In the third modification of the first embodiment, an example in which the
図8は、本発明の第2の実施の形態を示すブロック図である。図中、図1と同様の部分には同じ符号を付して重複する説明を省略する。31は適応平滑化部、32は合成部である。この第2の実施の形態では、エッジ領域については適応平滑化部31による処理を施した画像を適用する例を示している。
FIG. 8 is a block diagram showing a second embodiment of the present invention. In the figure, the same parts as those in FIG. 31 is an adaptive smoothing unit, and 32 is a combining unit. In the second embodiment, an example in which an image subjected to processing by the
適応平滑化部31は、この例ではエッジ判定部12によってエッジと判定された領域について、入力画像に対してエッジを保存しつつ平滑化処理を行う。この平滑化処理によってエッジ領域に存在する裏写りした画像を平滑化し、見えにくくする。構成例については後述する。
In this example, the
色推定部13は、この例ではエッジ判定部12によって非エッジと判定された領域について、縮小部11で縮小された画像を用いて色の推定を行う。この色推定部13の構成は、例えば図2に示した構成を用いることができる。このとき、非エッジ領域に対する色推定の設定により処理を行う。
In this example, the
合成部32は、適応平滑化部31から出力されたエッジ領域の平滑化された画像と、色推定部13で色推定された非エッジ領域の画像とを合成する。色推定部13がエッジ領域に対する色の推定に支障がある場合でも、エッジ領域については適応平滑化部31により平滑化処理されて裏写りが見えにくくなった画像を合成するので、全体として裏写りが除去された画像が得られる。
The combining
なお、色推定部13が縮小画像の画素単位で色推定結果を出力する場合には、合成時に解像度を合わせる必要がある。もちろん、色推定部13が入力画像の画素単位で色推定結果を出力する場合には、解像度変換は不要である。
Note that when the
図8に示した例ではエッジ判定部12による判定結果に従って適応平滑化部31あるいは色推定部13のいずれかを動作させるように構成しているが、例えば適応平滑化部31及び色推定部13は入力画像あるいは縮小画像の全面に対して処理を行い、合成部32においてエッジ判定部12によるエッジ判定結果を用いていずれかの出力を選択するように構成することもできる。
In the example illustrated in FIG. 8, either the
図9は、適応平滑化部の一例を示すブロック図である。図中、41は差分絶対値算出部、42は仮平滑化係数決定部、43は正規化部、44は畳み込み演算部である。図8に示した適応平滑化部31の一例として、図9に示すような構成により実現することができる。
FIG. 9 is a block diagram illustrating an example of the adaptive smoothing unit. In the figure, 41 is a difference absolute value calculation unit, 42 is a provisional smoothing coefficient determination unit, 43 is a normalization unit, and 44 is a convolution operation unit. As an example of the
差分絶対値算出部41は、平滑化処理の対象となる注目画素を中心とする所定の大きさのウインドウ領域を設定し、注目画素の値(Viとする)とウインドウ領域内の他の画素の値(Vjとする)との差分の絶対値(Aj=|Vi−Vj|)をそれぞれ算出する。 The difference absolute value calculation unit 41 sets a window area of a predetermined size centered on the target pixel to be smoothed, sets the target pixel value (Vi), and other pixels in the window area. The absolute value (Aj = | Vi−Vj |) of the difference from the value (Vj) is calculated.
仮平滑化係数決定部42は、ウインドウ領域の各画素に対応する平滑化係数(Cj)を仮決定する。平滑化係数Cjを仮決定する方法として、ここでは、ある単調減少関数f()を設定し、Cj=f(Aj)により平滑化係数Cjを仮決定することができる。f()が単調減少関数であることから、エッジのように差分の絶対値が大きい画素については平滑化係数Cjは小さい値となり注目画素への影響を減らすことができ、逆に非エッジ部のように差分の絶対値が小さい画素については平滑化係数Cjを大きい値として平滑化の効果を大きくすることができる。単調減少関数f()は任意であるが、例えば簡単にはCj=1−(1/max(Aj))・Ajのような線形関数や、2次以上の単調減少関数や指数単調減少関数など、様々な関数を適用可能である。なお、式中のmax(Aj)はAjの最大値である。
The temporary smoothing
正規化部43は、仮平滑化係数決定部42で仮に決定された平滑化係数Cjを正規化する。すなわち、ウインドウ領域内の平滑化係数Cjの和が1となるように、演算を行う。具体的には正規化後の平滑化係数をCj’とするとき、Cj’=Cj/ΣCjにより求めることができる。この正規化は、一般に平滑化処理が平滑化係数の和を1としたフィルタ処理であることによる。
The normalizing
畳み込み演算部44は、ウインドウ領域内の各画素値と正規化部43で得られた正規化された平滑化係数とを用いて、いわゆる畳み込み演算を行う。畳み込み演算は、ウインドウ領域内の各画素値と正規化部43で得られた正規化された平滑化係数とを乗算した上で総和を演算することにより行われる。すなわち、演算後の注目画素の値をVi’としたとき、Vi’=ΣCj’・Vjによって演算することができる。
The convolution operation unit 44 performs a so-called convolution operation using each pixel value in the window area and the normalized smoothing coefficient obtained by the
このように、適応平滑化処理では、画像に応じて平滑化係数を決定し、その際に画素値の差分の絶対値の大きさが大きいほど平滑化係数を小さく設定するので、エッジ領域ではエッジが保存され、非エッジ領域では平坦な領域ほど強く平滑化処理が施されることになる。例えばエッジ付近に、裏写りにより画素値が変動している部分が存在すると、エッジ自体は保存され、裏写りによる画素値の変動は平滑化されるため見えにくくすることができる。 As described above, in the adaptive smoothing process, the smoothing coefficient is determined according to the image, and the smoothing coefficient is set smaller as the absolute value of the difference between the pixel values is larger. Is preserved, and in the non-edge region, the flattened region is more strongly smoothed. For example, if there is a portion where the pixel value fluctuates due to show-through in the vicinity of the edge, the edge itself is preserved, and the change in pixel value due to show-through is smoothed so that it can be made difficult to see.
図10は、本発明の第2の実施の形態の第1の変形例を示すブロック図である。図中の符号は図8と同様であり、重複する説明を省略する。この第2の実施の形態における第1の変形例では、エッジ判定部12は、入力画像からエッジの判定を行う。エッジ判定部12におけるエッジ判定手法として、網点画像などにおける網点をエッジとして検出しないような手法を用いることによって、このような構成が可能になる。
FIG. 10 is a block diagram showing a first modification of the second embodiment of the present invention. The reference numerals in the figure are the same as those in FIG. In the first modification example of the second embodiment, the
図11は、本発明の第2の実施の形態の第2の変形例を示すブロック図である。図中、図8及び図6と同様の部分には同じ符号を付して、重複する説明を省略する。この第2の実施の形態における第2の変形例では、第1の実施の形態における第2の変形例と同様に、縮小部11とは別に、エッジ判定部12のための縮小部14を設けた例を示している。このような構成によれば、縮小部11は色推定部13における色推定に最適な縮小処理を行い、縮小部14はエッジ判定部12によるエッジ判定に最適な縮小処理を行うことができる。
FIG. 11 is a block diagram showing a second modification of the second embodiment of the present invention. In the figure, the same parts as those in FIGS. 8 and 6 are denoted by the same reference numerals, and redundant description is omitted. In the second modification example of the second embodiment, as in the second modification example of the first embodiment, a
なお、図7に示した第1の実施の形態の第3の変形例のように、この第2の実施の形態においても縮小部11を設けずに構成することも可能である。
It should be noted that, as in the third modification of the first embodiment shown in FIG. 7, the second embodiment can also be configured without the
図12は、本発明の第3の実施の形態を示すブロック図である。図中、図1と同様の部分には同じ符号を付して重複する説明を省略する。51はエッジ強度検出部、52は補正合成部である。上述の第1,第2の実施の形態では、エッジ判定部12によってエッジ領域か非エッジ領域かにより処理を切り替える例を示した。この第3の実施の形態では、エッジ強度を検出し、そのエッジ強度に応じて色の推定値の適用度合いを変更する例を示している。
FIG. 12 is a block diagram showing a third embodiment of the present invention. In the figure, the same parts as those in FIG. Reference numeral 51 denotes an edge intensity detection unit, and 52 denotes a correction synthesis unit. In the first and second embodiments described above, the
エッジ強度検出部51は、この例では縮小部11で縮小された画像から、画像中のエッジ強度を検出する。例えば画像の1次微分や2次微分、あるいはその他の方法を用いることができる。
In this example, the edge strength detection unit 51 detects the edge strength in the image from the image reduced by the
補正合成部52は、エッジ強度検出部51で検出されたエッジ強度に従って、入力画像と色推定部13で色推定した画像とを合成する。合成の処理の一例としては、入力画像の色と色推定部13で推定された色との間で、エッジ強度が強ければ入力画像の色あるいはその色に近い色とし、エッジ強度が弱ければ色推定部13で推定した色あるいはその色に近い色とするような、エッジ強度をパラメータとする関数により合成することができる。
The
あるいは、色推定部13から、推定した色と縮小画像の色との差分を出力するように構成し、補正合成部52では、色推定部13から出力された差分とエッジ強度から補正量を算出し、入力画像の値に対して補正量を適用して、合成後の値を算出するように構成してもよい。図13は、補正係数を算出するための関数の一例の説明図である。エッジ強度検出部51から得られたエッジ強度を用い、例えば図13に示したような関数により補正係数を求め、その補正係数を色推定部13から出力された推定した色と縮小画像の色との差分に乗算して補正量を求め、その補正量だけ入力画像を補正するように構成することができる。図13(A)には線形の関数を示し、また図13(B)には、ある一定のエッジ強度以上では補正量を所定値に固定した例を示している。もちろん、補正係数を求める関数は任意であり、この例に限られるものではない。また、補正係数と差分とから補正量を求める演算も任意に設定することができる。
Alternatively, the
このように、補正合成部52においてエッジ強度に応じて色推定部13による推定色を用いて入力画像を補正し、これによって入力画像と色推定後の画像とを合成することにより、エッジ領域と非エッジ領域とで処理を分ける必要がなく、またエッジを残したまま、エッジ強度が弱い裏写り部分を除去した画像が得られる。
In this way, the
図14は、本発明の第3の実施の形態の第1の変形例を示すブロック図、図15は、本発明の第3の実施の形態の第2の変形例を示すブロック図である。図中、図12及び図6と同様の部分には同じ符号を付して、重複する説明を省略する。この第3の実施の形態においても、上述の第1,第2の実施の形態と同様の変形が可能である。図14に示す第3の実施の形態における第1の変形例では、エッジ強度検出部51は、入力画像からエッジ強度を検出する。エッジ強度の検出時に、網点画像などにおける網点の影響を受けないようにエッジ強度を検出できれば、このような構成が可能になる。 FIG. 14 is a block diagram showing a first modification of the third embodiment of the present invention, and FIG. 15 is a block diagram showing a second modification of the third embodiment of the present invention. In the figure, the same parts as those in FIGS. 12 and 6 are denoted by the same reference numerals, and redundant description is omitted. Also in the third embodiment, the same modifications as in the first and second embodiments described above are possible. In the first modification example of the third embodiment illustrated in FIG. 14, the edge strength detection unit 51 detects the edge strength from the input image. If the edge strength can be detected so as not to be affected by the halftone dot in the halftone image or the like when detecting the edge strength, such a configuration is possible.
また図15に示す第3の実施の形態における第2の変形例では、第1の実施の形態における第2の変形例と同様に、縮小部11とは別に、エッジ強度検出部51のための縮小部14を設けた例を示している。このような構成によれば、縮小部11は色推定部13における色推定に最適な縮小処理を行い、縮小部14はエッジ強度検出部51によるエッジ強度の検出に最適な縮小処理を行うことができる。
Further, in the second modification example in the third embodiment shown in FIG. 15, as in the second modification example in the first embodiment, in addition to the
さらに、図7に示した第1の実施の形態の第3の変形例のように、この第3の実施の形態においても縮小部11を設けずに構成することも可能である。
Further, as in the third modification of the first embodiment shown in FIG. 7, the third embodiment can also be configured without providing the
図16は、本発明の画像処理装置の機能をコンピュータプログラムで実現した場合におけるコンピュータプログラム及びそのコンピュータプログラムを格納した記憶媒体とコンピュータの一例の説明図である。図中、61はプログラム、62はコンピュータ、71は光磁気ディスク、72は光ディスク、73は磁気ディスク、74はメモリ、81はCPU、82は内部メモリ、83は読取部、84はハードディスク、85,86はインタフェース、87は通信部である。 FIG. 16 is an explanatory diagram of an example of a computer program, a storage medium storing the computer program, and a computer when the functions of the image processing apparatus of the present invention are realized by a computer program. In the figure, 61 is a program, 62 is a computer, 71 is a magneto-optical disk, 72 is an optical disk, 73 is a magnetic disk, 74 is a memory, 81 is a CPU, 82 is an internal memory, 83 is a reading unit, 84 is a hard disk, 85, 86 is an interface, and 87 is a communication unit.
上述の各実施の形態で説明した本発明の画像処理装置の各部の機能の一部または全部を、コンピュータにより実行可能なプログラム61によって実現することが可能である。その場合、そのプログラム61およびそのプログラムが用いるデータなどは、コンピュータが読み取り可能な記憶媒体に記憶することも可能である。記憶媒体とは、コンピュータのハードウェア資源に備えられている読取部83に対して、プログラムの記述内容に応じて、磁気、光、電気等のエネルギーの変化状態を引き起こして、それに対応する信号の形式で、読取部83にプログラムの記述内容を伝達できるものである。例えば、光磁気ディスク71,光ディスク72(CDやDVDなどを含む)、磁気ディスク73,メモリ74(ICカード、メモリカードなどを含む)等である。もちろんこれらの記憶媒体は、可搬型に限られるものではない。
Part or all of the functions of the respective units of the image processing apparatus of the present invention described in the above embodiments can be realized by a
これらの記憶媒体にプログラム61を格納しておき、例えばコンピュータ62の読取部83あるいはインタフェース85にこれらの記憶媒体を装着することによって、コンピュータからプログラム61を読み出し、内部メモリ82またはハードディスク84に記憶し、CPU81によってプログラム61を実行することによって、本発明の画像処理装置の機能を実現することができる。あるいは、ネットワークなどを介してプログラム61をコンピュータ62に転送し、コンピュータ62では通信部87でプログラム61を受信して内部メモリ82またはハードディスク84に記憶し、CPU81によってプログラム61を実行することによって、本発明の画像傾き検出装置または画像処理装置の機能を実現してもよい。なお、コンピュータ62には、このほかインタフェース86を介して様々な装置と接続することができ、例えば情報を表示する表示装置やユーザが情報を入力する入力装置等も接続されている。
The
もちろん、一部の機能についてハードウェアによって構成することもできるし、すべてをハードウェアで構成してもよい。あるいは、他の構成とともに本発明も含めたプログラムとして構成することも可能である。例えば複写機などの画像読取装置や画像形成装置を含む装置において制御プログラムとともに1つのプログラムとして構成し、画像読取装置で読み取られた裏写りを含む画像から裏写りを除去するように構成することもできる。もちろん、他の用途に適用する場合には、その用途におけるプログラムとの一体化も可能である。 Of course, some functions may be configured by hardware, or all may be configured by hardware. Alternatively, it can be configured as a program including the present invention together with other configurations. For example, an apparatus including an image reading apparatus such as a copying machine or an image forming apparatus may be configured as one program together with a control program so as to remove the show-through from an image including the show-through read by the image reading apparatus. it can. Of course, in the case of application to other purposes, integration with a program for that purpose is also possible.
11…縮小部、12…エッジ判定部、13…色推定部、14…縮小部、21…色ヒストグラム算出部、22…色値候補選出部、23…推定色決定部、24…パラメータ入力部、31…適応平滑化部、32…合成部、41…差分絶対値算出部、42…仮平滑化係数決定部、43…正規化部、44…畳み込み演算部、51…エッジ強度検出部、52…補正合成部、61…プログラム、62…コンピュータ、71…光磁気ディスク、72…光ディスク、73…磁気ディスク、74…メモリ、81…CPU、82…内部メモリ、83…読取部、84…ハードディスク、85,86…インタフェース、87…通信部。
DESCRIPTION OF
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011188324A JP5007851B2 (en) | 2006-07-15 | 2011-08-31 | Image processing apparatus and image processing program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006194985 | 2006-07-15 | ||
JP2006194985 | 2006-07-15 | ||
JP2011188324A JP5007851B2 (en) | 2006-07-15 | 2011-08-31 | Image processing apparatus and image processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007039156A Division JP4853653B2 (en) | 2006-07-15 | 2007-02-20 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011244498A JP2011244498A (en) | 2011-12-01 |
JP5007851B2 true JP5007851B2 (en) | 2012-08-22 |
Family
ID=45410588
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011188322A Expired - Fee Related JP5007850B2 (en) | 2006-07-15 | 2011-08-31 | Image processing apparatus and image processing program |
JP2011188324A Expired - Fee Related JP5007851B2 (en) | 2006-07-15 | 2011-08-31 | Image processing apparatus and image processing program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011188322A Expired - Fee Related JP5007850B2 (en) | 2006-07-15 | 2011-08-31 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP5007850B2 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3768052B2 (en) * | 1999-12-14 | 2006-04-19 | 株式会社リコー | Color image processing method, color image processing apparatus, and recording medium therefor |
-
2011
- 2011-08-31 JP JP2011188322A patent/JP5007850B2/en not_active Expired - Fee Related
- 2011-08-31 JP JP2011188324A patent/JP5007851B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011244498A (en) | 2011-12-01 |
JP2012010396A (en) | 2012-01-12 |
JP5007850B2 (en) | 2012-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4853653B2 (en) | Image processing apparatus and image processing program | |
US7720266B2 (en) | Ultrasound image enhancement and speckle mitigation method | |
JP4189467B2 (en) | Image processing device | |
JP4858609B2 (en) | Noise reduction device, noise reduction method, and noise reduction program | |
JP2006221403A (en) | Image processor, image processing method, program for image processing method, and recording medium recording program for image processing method | |
JP5212380B2 (en) | Image correction apparatus, image correction program, and image correction method | |
JP2008167027A (en) | Image processor, image processing method and image processing program | |
US20110122451A1 (en) | Image processing apparatus and image processing method | |
US8213736B2 (en) | Image processing device and image processing method | |
JP2010177739A (en) | Image processing device, image processing method, and image processing program | |
JP4113232B2 (en) | Image processing apparatus and image processing method | |
JP4771428B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP4771087B2 (en) | Image processing apparatus and image processing program | |
JP5007851B2 (en) | Image processing apparatus and image processing program | |
JP4804271B2 (en) | Image processing apparatus and control method thereof | |
JP4437772B2 (en) | Image processing system, image processing method, program, and recording medium therefor | |
JP4708866B2 (en) | Lookup table creation device and method, and lookup table creation program | |
JP2006155572A (en) | Image processor, image forming device, image processing method and computer program | |
JPWO2013027572A1 (en) | Ridge direction extraction device, ridge direction extraction method, ridge direction extraction program | |
JP2006251850A (en) | Image processing system, image processing method, program for image processing method, and recording medium recording the same program | |
JP5146653B2 (en) | Image processing apparatus and image processing program | |
JP2014045398A (en) | Image processing apparatus, and image processing method, and program | |
JP4517288B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP2010206623A (en) | Apparatus and program for processing image | |
JP4534936B2 (en) | Image processing method and image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120502 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120515 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5007851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150608 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |