JP2017169106A - Image reading device - Google Patents

Image reading device Download PDF

Info

Publication number
JP2017169106A
JP2017169106A JP2016053906A JP2016053906A JP2017169106A JP 2017169106 A JP2017169106 A JP 2017169106A JP 2016053906 A JP2016053906 A JP 2016053906A JP 2016053906 A JP2016053906 A JP 2016053906A JP 2017169106 A JP2017169106 A JP 2017169106A
Authority
JP
Japan
Prior art keywords
image
unit
image data
background
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016053906A
Other languages
Japanese (ja)
Inventor
ちひろ 松隈
Chihiro Matsukuma
ちひろ 松隈
のり子 荒井
Noriko Arai
のり子 荒井
達也 並木
Tatsuya Namiki
達也 並木
由利恵 石川
Yurie Ishikawa
由利恵 石川
上田 健次
Kenji Ueda
健次 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2016053906A priority Critical patent/JP2017169106A/en
Publication of JP2017169106A publication Critical patent/JP2017169106A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image reading device that reduces processing time for detecting dust adhering to reading position compared with conventional time.SOLUTION: An image reading device 1 comprises an image data acquisition unit 41 that acquires image data read from a manuscript 20 conveyed in a sub-scanning direction in relation to a first reading area 3a extending in a main scanning direction, an object isolation unit 45 that isolates the image data into a plurality of objects including a ground and a line object of the manuscript 20, and a streak image right processing unit 46 that detects the line object which does not lean in the sub-scanning direction among the line objects isolated by the object isolation unit 45 as a streak image appearing at the image data due to a foreign material which exists in the first reading area 3a.SELECTED DRAWING: Figure 2

Description

本発明は、画像読取装置に関する。   The present invention relates to an image reading apparatus.

従来、できる限り原稿の画像情報を活かしつつ、筋画像を除去又は目立ち難くすることのできる画像読取装置が提案されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there has been proposed an image reading apparatus capable of removing a streak image or making it less conspicuous while utilizing image information of a document as much as possible (see, for example, Patent Document 1).

この当該画像読取装置は、スキャナ部によって読み取られた原稿画像において筋画像に対応する領域にある画素の画素値の平均値DAVを算出する平均値算出部と、平均値DAVが判定基準値DL,DHの間の値である(DL<DAV<DH)か否かを判断する判断部と、DL<DAV<DHでない場合は、筋画像に対応する領域にある各画素の画素値を、周辺画素の画素値に基づいて算出した画素値に置換する置換処理を行い、DL<DAV<DHである場合は、筋画像に対応する領域にある各画素について置換処理を実施せず、当該各画素の画素値を維持する補正部とを備える。   The image reading apparatus includes an average value calculating unit that calculates an average value DAV of pixel values in an area corresponding to a streak image in a document image read by a scanner unit, and the average value DAV is a determination reference value DL, A determination unit that determines whether or not the value is between DH (DL <DAV <DH), and if DL <DAV <DH, the pixel value of each pixel in the region corresponding to the streak image If DL <DAV <DH, the replacement process is performed for each pixel in the region corresponding to the muscle image, and the replacement process is not performed for each pixel. A correction unit that maintains the pixel value.

特開2010−63091号公報JP 2010-63091 A

従来、読取位置に固着したゴミであれば、ゴミプロファイル(ゴミの固着位置情報)等を使用して検知する範囲を特定することが可能であるが、一時的に読取位置に現れる浮遊ゴミの検知に関しては、全画素を走査するなどしてゴミを検知していたため、検知処理に時間を要した。   Conventionally, if dust is stuck at the reading position, the detection range can be specified using a dust profile (dust sticking position information), etc., but detection of floating dust temporarily appearing at the reading position is possible. With regard to, since the dust was detected by scanning all the pixels, the detection process took time.

本発明の目的は、読取位置に固着したゴミを検知する処理時間を従来に比べて短縮する画像読取装置を提供することにある。   An object of the present invention is to provide an image reading apparatus that shortens the processing time for detecting dust adhered to a reading position as compared with the conventional technique.

[1]主走査方向に延びる読取領域に対して副走査方向に搬送される原稿から読み取られた読取信号を画像データとして取得する画像データ取得部と、
前記画像データを前記原稿の下地及び線のオブジェクトを含む複数のオブジェクトに分離するオブジェクト分離部と、
前記オブジェクト分離部により分離された前記線のオブジェクトのうち前記副走査方向に対して傾いていない線のオブジェクトを前記読取領域に存在する異物に起因して前記画像データに現れる筋画像として検知する筋画像検知処理部と、
を備えた画像読取装置。
[2]前記筋画像検知処理部は、前記筋画像が前記下地のオブジェクトに存在するとき、前記筋画像を下地のオブジェクトとみなす処理を行う、前記[1]に記載の画像読取装置。
[3]前記オブジェクト分離部により分離された前記下地のオブジェクト、及び前記筋画像検知処理部によりみなされた前記下地のオブジェクトの画素の画素値を、前記下地の画素値と等価な画素値に変換する下地除去部をさらに備えた前記[2]に記載の画像読取装置。
[4]前記筋画像が前記下地及び前記線以外の他のオブジェクトに存在するとき、前記他のオブジェクトに存在する前記筋画像の画素値を前記他のオブジェクト内の周辺領域の画素値の代表値に置換する置換処理を行う置換処理部を備え、
前記筋画像検知処理部は、前記筋画像が前記他のオブジェクトに存在するとき、前記置換処理部に前記置換処理を行わせる、前記[1]に記載の画像読取装置。
[1] An image data acquisition unit that acquires, as image data, a read signal read from a document conveyed in the sub-scanning direction with respect to a reading region extending in the main scanning direction;
An object separation unit that separates the image data into a plurality of objects including a background and line objects of the document;
A streak that detects a line object that is not inclined with respect to the sub-scanning direction among the line objects separated by the object separation unit as a streak image that appears in the image data due to a foreign substance existing in the reading area. An image detection processing unit;
An image reading apparatus comprising:
[2] The image reading apparatus according to [1], wherein the muscle image detection processing unit performs processing to regard the muscle image as a background object when the muscle image exists in the background object.
[3] The pixel value of the underlying object separated by the object separating unit and the pixel of the underlying object regarded by the line image detection processing unit is converted into a pixel value equivalent to the pixel value of the underlying object. The image reading apparatus according to [2], further including a background removing unit.
[4] When the muscle image exists in an object other than the ground and the line, the pixel value of the muscle image existing in the other object is set as a representative value of the pixel values of the peripheral area in the other object. A replacement processing unit that performs replacement processing for replacing
The image reading apparatus according to [1], wherein the muscle image detection processing unit causes the replacement processing unit to perform the replacement process when the muscle image exists in the other object.

請求項1に係る発明によれば、読取領域に対して副走査方向に搬送される原稿から読み取られた画像データ中に、副走査方向に対して傾いていない線が存在するとき、その線を異物による筋画像であると検知することができる。
請求項2に係る発明によれば、下地に存在する筋画像を下地のオブジェクトとみなすことできる。
請求項3に係る発明によれば、筋画像のうち下地のオブジェクトとみなされた筋画像を一括して消去することができる。
請求項4に係る発明によれば、筋画像のうち下地及び線以外の他のオブジェクトに存在する筋画像を置換処理により消去することができる。
According to the first aspect of the present invention, when there is a line that is not inclined with respect to the sub-scanning direction in the image data read from the document conveyed in the sub-scanning direction with respect to the reading area, the line is It can be detected that the image is a streak image of a foreign object.
According to the second aspect of the present invention, the streak image existing on the ground can be regarded as the ground object.
According to the third aspect of the present invention, it is possible to erase all the streak images regarded as the underlying object from the streak images.
According to the fourth aspect of the present invention, the streak image existing in the object other than the ground and the line in the streak image can be erased by the replacement process.

図1は、本発明の実施の形態に係る画像読取装置の構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an image reading apparatus according to an embodiment of the present invention. 図2は、本実施の形態に係る画像読取装置の制御系の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a control system of the image reading apparatus according to the present embodiment. 図3は、下地除去部が保持するルックアップテーブルの一例を示す図である。FIG. 3 is a diagram illustrating an example of a lookup table held by the background removal unit. 図4は、注目画素と周辺画素との関係の一例を示す図である。FIG. 4 is a diagram illustrating an example of a relationship between a target pixel and peripheral pixels. 図5は、置換処理部が有する補間データ生成回路の構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of an interpolation data generation circuit included in the replacement processing unit. 図6は、画像データ取得部が取得した画像データの一例を示す図である。FIG. 6 is a diagram illustrating an example of image data acquired by the image data acquisition unit. 図7は、置換処理及び下地除去処理後の画像データの一例を示す図である。FIG. 7 is a diagram illustrating an example of image data after the replacement process and the background removal process. 図8は、画像処理部の動作の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the operation of the image processing unit.

以下、本発明の実施の形態について図面を参照して説明する。なお、各図中、実質的に同一の機能を有する構成要素については、同一の符号を付してその重複した説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, in each figure, about the component which has the substantially same function, the same code | symbol is attached | subjected and the duplicate description is abbreviate | omitted.

図1は、本発明の実施の形態に係る画像読取装置の構成例を示す図である。この画像読取装置1は、給紙台21に配置された原稿20を搬送する原稿搬送部2と、原稿20の表面の画像を光学的に読み取る画像読取部3と備える。   FIG. 1 is a diagram illustrating a configuration example of an image reading apparatus according to an embodiment of the present invention. The image reading apparatus 1 includes a document transport unit 2 that transports a document 20 placed on a paper feed tray 21 and an image reading unit 3 that optically reads an image on the surface of the document 20.

また、画像読取装置1は、画像読取部3の光学系を保持する後述するキャリッジ37A、37Bを固定とし、原稿搬送部2によって原稿20を主走査方向にライン状に延びた第1の読取領域3aを通過するように副走査方向Aに搬送させて原稿20の表面から画像データを読み取る「第1の読取モード」と、原稿20を原稿配置台36上に配置して固定とし、キャリッジ37A、37Bを矩形状の第2の読取領域3bに対して副走査方向Aに移動させて原稿20の表面から画像データを読み取る「第2の読取モード」とを有する。   The image reading apparatus 1 also includes a first reading area in which carriages 37A and 37B, which will be described later, holding the optical system of the image reading unit 3 are fixed, and the document 20 extends in a line shape in the main scanning direction by the document conveying unit 2. The first reading mode in which the image data is read from the surface of the original 20 by being conveyed in the sub-scanning direction A so as to pass 3a, the original 20 is arranged and fixed on the original arrangement table 36, the carriage 37A, 37B is moved in the sub-scanning direction A with respect to the rectangular second reading area 3b, and has a “second reading mode” in which image data is read from the surface of the document 20.

原稿搬送部2は、原稿配置台36に対して開閉可能な原稿カバー17に設けられている。原稿搬送部2は、ADF(Automatic Document Feeder)機能を有し、画像が記録された原稿20が配置される給紙台21と、搬送された原稿20が排出される排紙台22と、原稿20を給紙台21から排紙台22へ搬送する搬送機構23とを備える。   The document transport unit 2 is provided on a document cover 17 that can be opened and closed with respect to the document placement table 36. The document transport unit 2 has an ADF (Automatic Document Feeder) function, and includes a paper feed tray 21 on which a document 20 on which an image is recorded is disposed, a paper discharge tray 22 on which the transported document 20 is discharged, a document And a transport mechanism 23 for transporting 20 from the paper feed tray 21 to the paper discharge tray 22.

搬送機構23は、給紙台21に配置された複数の原稿20の束から原稿20を1枚ずつ分離する分離ロール230と、分離した原稿20を搬送する搬送ロール231と、原稿20を第1の読取領域3aに搬送する読取ロール232と、原稿20を排紙台22に排出する排出ロール233、234と、各ロール230〜234を駆動する図示しない駆動部とを備える。   The transport mechanism 23 separates the document 20 one by one from a bundle of a plurality of documents 20 arranged on the sheet feed table 21, a transport roll 231 that transports the separated document 20, and the document 20 as a first. A reading roll 232 transported to the reading area 3 a, discharge rolls 233 and 234 for discharging the document 20 to the discharge table 22, and a drive unit (not shown) that drives the rolls 230 to 234.

画像読取部3は、主走査方向の左右に設けられた一対の光源30A、30Bと、光源30A、30Bからの照明光を第1又は第2の読取領域3a、3bに導く導光体31と、光源30A、30Bからの照明光が第1又は第2の読取領域3a、3bにおける原稿20の表面で反射した反射光を反射する第1乃至第3のミラー32A〜32Cと、第3のミラー32Cからの反射光を集光する縮小光学系のレンズ33と、レンズ33により集光された光を受光して読取信号を出力するラインセンサ34とを備える。   The image reading unit 3 includes a pair of light sources 30A and 30B provided on the left and right in the main scanning direction, and a light guide 31 that guides illumination light from the light sources 30A and 30B to the first or second reading regions 3a and 3b. The first to third mirrors 32A to 32C that reflect the reflected light reflected from the surface of the document 20 in the first or second reading areas 3a and 3b by the illumination light from the light sources 30A and 30B, and the third mirror A reduction optical system lens 33 that collects the reflected light from 32C and a line sensor 34 that receives the light collected by the lens 33 and outputs a read signal are provided.

ラインセンサ34は、複数の固体撮像素子が主走査方向に配列されたものであり、例えばCCD(Charge Coupled Device)ラインセンサを用いることができるが、これに限られるものではなく、CMOS(Comlement Metal-Oxide Semiconductor)イメージセンサ等の他の固体撮像素子アレイでもよい。   The line sensor 34 includes a plurality of solid-state imaging devices arranged in the main scanning direction. For example, a CCD (Charge Coupled Device) line sensor can be used, but the present invention is not limited to this. -Oxide Semiconductor) Other solid-state imaging device arrays such as image sensors may be used.

また、画像読取部3は、光源30A、30B、導光体31、第1乃至第3のミラー32A〜32C、レンズ33及びラインセンサ34を収容する筐体35を有し、筐体35の上部にはガラス等の光透過性部材からなる原稿配置台36を設けている。   The image reading unit 3 includes a housing 35 that houses the light sources 30 </ b> A and 30 </ b> B, the light guide 31, the first to third mirrors 32 </ b> A to 32 </ b> C, the lens 33, and the line sensor 34. Is provided with a document placement table 36 made of a light transmissive member such as glass.

光源30A、30B、導光体31及び第1のミラー32Aは、副走査方向Aに移動可能な第1のキャリッジ37Aに固定され、第2のミラー32B及び第3のミラー32Cは、第2のキャリッジ37Bに固定されている。原稿配置台36の上面からラインセンサ34の受光面までの光路長が常に一定に保持されるように、第2のキャリッジ37Bは、第1のキャリッジ37Aの1/2の移動量で副走査方向Aに移動可能に構成されている。第1及び第2のキャリッジ37A、37Bは、原稿配置台36に配置された原稿20の表面の画像を読み取る場合には、図1に示す位置に不図示のモータにより副走査方向Aに移動するように構成されている。   The light sources 30A, 30B, the light guide 31, and the first mirror 32A are fixed to a first carriage 37A that can move in the sub-scanning direction A, and the second mirror 32B and the third mirror 32C It is fixed to the carriage 37B. The second carriage 37B is moved in the sub-scanning direction by a half movement amount of the first carriage 37A so that the optical path length from the upper surface of the document placement table 36 to the light receiving surface of the line sensor 34 is always kept constant. A is configured to be movable. The first and second carriages 37A and 37B move in the sub-scanning direction A to a position shown in FIG. 1 by a motor (not shown) when reading an image on the surface of the document 20 placed on the document placement table 36. It is configured as follows.

原稿配置台36の第1の読取領域3aや第2の読取領域3bに、ゴミ、原稿20の用紙の紙粉等の異物が固着する場合がある。この場合は、原稿配置台36と原稿20との間に異物が存在するため、原稿20から読み取った画像データには異物の像が現れる。異物が第2の読取領域3bに存在する場合は、ドットの像として画像データに現れるが、第1の読取領域3aに存在する場合は、副走査方向Aに沿った筋状の画像(以下「筋画像」という。)として画像データに現れる。筋画像は視覚的に目立つため、できる限り除去するのが望ましい。   In some cases, foreign matter such as dust and paper dust of the paper of the original 20 may adhere to the first reading area 3a and the second reading area 3b of the document placement table 36. In this case, since a foreign object exists between the document placement table 36 and the document 20, a foreign object image appears in the image data read from the document 20. When foreign matter is present in the second reading area 3b, it appears in the image data as a dot image, but when present in the first reading area 3a, a streak image along the sub-scanning direction A (hereinafter, “ It appears in the image data as “muscle image”. Since the muscle image is visually conspicuous, it is desirable to remove it as much as possible.

また、原稿20は、給紙台21上で傾かないように主走査方向の幅が規制されていたとしても、原稿搬送部2による搬送の際に、原稿20はほとんどが副走査方向Aに対して傾いて搬送されてしまう。本発明は、このことに着目してなされたものである。   Even if the width of the original 20 in the main scanning direction is restricted so that the original 20 does not tilt on the paper feed table 21, most of the original 20 is conveyed with respect to the sub-scanning direction A when being conveyed by the original conveying unit 2. It will be transported tilted. The present invention has been made paying attention to this.

図2は、本実施の形態に係る画像読取装置1の制御系の一例を示すブロック図である。画像読取装置1は、上記の原稿搬送部2、画像読取部3の他に、画像読取部3によって読み取られた画像データに対し筋画像の除去等の画像処理を行う画像処理部4と、原稿搬送部2、画像読取部3及び画像処理部4を制御する制御部10とを備える。   FIG. 2 is a block diagram illustrating an example of a control system of the image reading apparatus 1 according to the present embodiment. In addition to the document conveying unit 2 and the image reading unit 3 described above, the image reading device 1 includes an image processing unit 4 that performs image processing such as striped image removal on the image data read by the image reading unit 3, and a document And a control unit 10 that controls the conveyance unit 2, the image reading unit 3, and the image processing unit 4.

画像処理部4は、画像データ取得部41、下地検知部42、2値化部44、オブジェクト分離部45、筋画像検知処理部46、置換処理部47、及び下地除去部48を備える。   The image processing unit 4 includes an image data acquisition unit 41, a background detection unit 42, a binarization unit 44, an object separation unit 45, a muscle image detection processing unit 46, a replacement processing unit 47, and a background removal unit 48.

画像データ取得部41は、第1の読取領域3aを通過する原稿20からラインセンサ34により読み取られた読取信号を原稿20の1枚分の画像データとして取得する。   The image data acquisition unit 41 acquires a read signal read by the line sensor 34 from the original 20 that passes through the first reading area 3 a as image data for one original 20.

下地検知部42は、画像データ取得部41が取得した画像データから原稿20の下地に対応する画素値の代表値を検知する。下地検知部42は、例えば、画像データ取得部41が取得した画像データの濃度ヒストグラムを生成し、頻度が最も多い画素値を下地の代表値として検知する。なお、下地の代表値としては、原稿20の先端側の1ライン又は複数ラインの平均値でもよく、他の値でもよい。   The background detection unit 42 detects a representative value of the pixel value corresponding to the background of the document 20 from the image data acquired by the image data acquisition unit 41. For example, the background detection unit 42 generates a density histogram of the image data acquired by the image data acquisition unit 41 and detects a pixel value having the highest frequency as a representative value of the background. The representative value of the background may be an average value of one line or a plurality of lines on the leading end side of the document 20, or may be another value.

2値化部44は、画像データ取得部41が取得した画像データを、下地検知部42により検知された下地の代表値を閾値として2値化して2値画像データを生成する。   The binarization unit 44 binarizes the image data acquired by the image data acquisition unit 41 using the representative value of the background detected by the background detection unit 42 as a threshold value, and generates binary image data.

オブジェクト分離部45は、2値化部44から出力された2値画像データに基づいて、原稿20の画像データを画像の種類ごとに原稿20の下地及び線を含む複数のオブジェクト(下地、写真、図形、文字、線等)に分離する。2値画像データを用いることで下地のオブジェクトか下地以外の他のオブジェクトかの分離が容易になる。オブジェクト分離部45は、画像データに含まれるオブジェクトごとに配置(例えば、主走査方向に対応するX方向の位置、副走査方向に対応するY方向の位置、幅、高さ)や、種別(例えば、下地、写真、図形、文字、線等)を抽出する。   Based on the binary image data output from the binarization unit 44, the object separation unit 45 converts the image data of the document 20 into a plurality of objects including the background and lines of the document 20 for each image type (background, photograph, (Figure, character, line, etc.). By using binary image data, it becomes easy to separate a base object or another object other than the base object. The object separation unit 45 is arranged for each object included in the image data (for example, the position in the X direction corresponding to the main scanning direction, the position in the Y direction corresponding to the sub scanning direction, the width and the height), and the type (for example, , Background, photograph, figure, character, line, etc.).

画像データ取得部41には、スキュー角度、すなわち副走査方向Aに対する原稿20又は画像データ取得部41に取得された画像データの傾き角度に関わらず、原稿20の先端からスキューされたままの画像データが格納される。画像データ取得部41に取得された画像データの各画素の座標は、左上の角を原点の座標(0、0)、主走査方向をx座標、副走査方向Aをy座標とすると、(x、y)で表される。   Regardless of the skew angle, that is, the inclination angle of the document 20 or the image data acquired by the image data acquisition unit 41 with respect to the sub-scanning direction A, the image data acquisition unit 41 remains skewed from the leading edge of the document 20. Is stored. The coordinates of each pixel of the image data acquired by the image data acquisition unit 41 are (x) where the upper left corner is the origin coordinate (0, 0), the main scanning direction is the x coordinate, and the sub scanning direction A is the y coordinate. , Y).

筋画像検知処理部46は、オブジェクト分離部45により分離された線のオブジェクトのうち副走査方向Aに対して傾いていない線のオブジェクトを筋画像として検知する。具体的には、筋画像検知処理部46は、オブジェクト分離部45によって線のオブジェクトに分離されたものが、x座標が同一であり、かつ、y座標において予め定められた画素値以上の画素が一定数以上連続すれば、それは異物による筋画像であると判定する。また、筋画像検知処理部46は、副走査方向Aの画素を単純に間引き(例えば、2ラインに1ライン間引く)、間引き後の画像でx座標が同一であり、かつ、y座標において予め定められた画素値以上の画素が5画素以上連続すれば、異物による筋画像であると判定してもよい。   The streak image detection processing unit 46 detects a line object that is not inclined with respect to the sub-scanning direction A among the line objects separated by the object separation unit 45 as a streak image. Specifically, the streak image detection processing unit 46 is divided into line objects by the object separation unit 45, and the pixels having the same x coordinate and a pixel value greater than or equal to a predetermined pixel value in the y coordinate are detected. If it is continuous for a certain number or more, it is determined that the image is a streak image of a foreign object. Further, the streak image detection processing unit 46 simply thins out pixels in the sub-scanning direction A (for example, thins out one line every two lines), and the image after the thinning has the same x coordinate and is predetermined in the y coordinate. If five or more pixels that are equal to or greater than the obtained pixel value are consecutive, it may be determined that the image is a streak image due to a foreign object.

筋画像の画素の座標の一例として、間引いていない場合は、
(x,y)=(100,200)
(x,y)=(100,201)
(x,y)=(100,202)
(x,y)=(100,203)
(x,y)=(100,204)
となる。
As an example of pixel image coordinates,
(X, y) = (100,200)
(X, y) = (100,201)
(X, y) = (100,202)
(X, y) = (100,203)
(X, y) = (100,204)
It becomes.

筋画像の画素の座標の他の例として、1ライン間引いた場合は、
(x,y)=(100,200)
(x,y)=(100,202)
(x,y)=(100,204)
(x,y)=(100,206)
(x,y)=(100,208)
となる。
As another example of the pixel coordinates of the line image,
(X, y) = (100,200)
(X, y) = (100,202)
(X, y) = (100,204)
(X, y) = (100,206)
(X, y) = (100,208)
It becomes.

また、筋画像検知処理部46は、筋画像が下地のオブジェクトに存在するとき、下地のオブジェクトに存在する筋画像の部分を下地のオブジェクトとみなす処理を行い、筋画像が下地及び線以外の他のオブジェクトに存在するとき、他のオブジェクトに存在する筋画像の部分については置換処理部47に置換処理を行わせる。   In addition, when the streak image exists in the background object, the streak image detection processing unit 46 performs processing for regarding the portion of the streak image existing in the background object as the background object, and the streak image is not the background or the line. When the object is present in the object, the replacement processing unit 47 is caused to perform the replacement process for the portion of the muscle image existing in the other object.

置換処理部47は、下地以外の他のオブジェクトに存在する筋画像の画素値を当該オブジェクト内の周辺領域の画素値の代表値に置換する置換処理を行う。置換処理では、例えば、筋画像の主走査方向に隣接する左右領域の複数の画素値の平均値で筋画像の画素値を置き換える。なお、これに限定されず、筋画像の画素値を予め定められた画素値に置換してもよい。例えば、筋画像が写真や文字等のオブジェクトに存在するとき、当該オブジェクトに存在する筋画像の部分については、後述する図4及び図5で説明するように、パターンマッチングにより置換する画素を検索して置換してもよい。   The replacement processing unit 47 performs replacement processing for replacing the pixel value of the muscle image existing in the object other than the background with the representative value of the pixel value of the peripheral area in the object. In the replacement process, for example, the pixel value of the muscle image is replaced with an average value of a plurality of pixel values in the left and right regions adjacent to each other in the main scanning direction of the muscle image. However, the present invention is not limited to this, and the pixel value of the muscle image may be replaced with a predetermined pixel value. For example, when a streak image exists in an object such as a photograph or a character, the pixel of the streak image existing in the object is searched for a pixel to be replaced by pattern matching, as will be described later with reference to FIGS. May be substituted.

下地除去部48は、オブジェクト分離部45により分離された下地のオブジェクト、及び筋画像検知処理部46によりみなされた下地のオブジェクトを下地の画素値と等価な画素値に変換する。具体的には、下地除去部48は、オブジェクト分離部45により分離された下地のオブジェクトについては、図3に示すルックアップテーブルを用いた下地除去処理を行い、筋画像検知処理部47によりみなされた下地のオブジェクトについては、下地の代表値に置き換える処理を行う。   The background removal unit 48 converts the background object separated by the object separation unit 45 and the background object regarded by the streak image detection processing unit 46 into pixel values equivalent to the background pixel values. Specifically, the background removal unit 48 performs background removal processing using the look-up table shown in FIG. 3 on the background object separated by the object separation unit 45 and is regarded by the stripe image detection processing unit 47. For the background object, processing for replacing the background value with the representative value is performed.

図3は、下地除去部48が保持するルックアップテーブルの一例を示す図である。下地除去部48は、図3に示すルックアップテーブル480を保持している。ルックアップテーブル480は、入力値と出力値との関係が定められた変換テーブルの一例である。下地除去部48は、画像データ100のうちオブジェクト分離部45により分離された下地のオブジェクトに属する画素の画素値を入力値とし、ルックアップテーブル480を参照して出力値に変換する。この結果、下地のオブジェクトに属する画素値482が下地の代表値に基づいて定められた閾値(下地除去閾値)481以下のときは、画素値が0になる。すなわち、下地除去閾値481よりも薄い筋画像は、画素値482が0に置き換わる。   FIG. 3 is a diagram illustrating an example of a lookup table held by the background removal unit 48. The background removal unit 48 holds a lookup table 480 shown in FIG. Lookup table 480 is an example of a conversion table in which the relationship between input values and output values is defined. The background removal unit 48 uses the pixel values of pixels belonging to the background object separated by the object separation unit 45 in the image data 100 as input values, and converts them into output values with reference to the lookup table 480. As a result, when the pixel value 482 belonging to the background object is equal to or less than a threshold value (background removal threshold value) 481 determined based on the representative value of the background, the pixel value becomes 0. In other words, the pixel value 482 is replaced with 0 for the streak image thinner than the background removal threshold 481.

次に、置換処理部47による置換処理の一例を図4及び図5を参照して説明する。図4は、注目画素と周辺画素との関係の一例を示す図である。図5は、置換処理部47が有する補間データ生成回路の構成例を示す図である。   Next, an example of replacement processing by the replacement processing unit 47 will be described with reference to FIGS. FIG. 4 is a diagram illustrating an example of a relationship between a target pixel and peripheral pixels. FIG. 5 is a diagram illustrating a configuration example of an interpolation data generation circuit included in the replacement processing unit 47.

次に、補間データ生成回路16R、16G、16Bの構成について説明する。ここでは、Rの補間データ生成回路16Rの場合を例に挙げて説明するが、他の補間データ生成回路16G、16Bについても全く同じ構成となっている。   Next, the configuration of the interpolation data generation circuits 16R, 16G, and 16B will be described. Here, the case of the R interpolation data generation circuit 16R will be described as an example, but the other interpolation data generation circuits 16G and 16B have exactly the same configuration.

補間データ生成回路で16Rは、図4に示すように、ゴミなどの異物が付着したと判定された画素(以下「注目画素」という。)の周辺画素内で、画素データがその注目画素の画素データよりも一定値以上離散した値を持つ画素、すなわち周辺画素内でゴミの影響を受けていない画素を正常画素として認識し、この画素データを用いて補間データを生成する。   In the interpolation data generating circuit 16R, as shown in FIG. 4, the pixel data is the pixel of the target pixel in the peripheral pixels of the pixel (hereinafter referred to as “target pixel”) determined to have foreign matters such as dust attached thereto. A pixel having a value that is more than a predetermined value than the data, that is, a pixel that is not affected by dust in the surrounding pixels is recognized as a normal pixel, and interpolation data is generated using this pixel data.

図5は、補間データ生成回路16Rの構成の一例を示すブロック図である。本例に係る補間データ生成回路16Rでは、周辺画素として、ある注目画素nの主走査方向前後それぞれ4画素(n−4〜n−1)、(n+1〜n+4)、計8画素を設定するものとする。   FIG. 5 is a block diagram showing an example of the configuration of the interpolation data generation circuit 16R. In the interpolation data generation circuit 16R according to this example, four pixels (n−4 to n−1) and (n + 1 to n + 4) before and after the main scanning direction of a certain target pixel n are set as peripheral pixels, for a total of eight pixels. And

図5において、本例に係る補間データ生成回路16Rは、上記8画素の画素データ(LRn−4〜LRn−1)、(LRn+1〜LRn+4)に対応してそれぞれ8個ずつ設けられた減算回路51−1〜51−8と、比較回路52−1〜52−8及び選択回路53−1〜53−8と、2つの加算器54、55と、1つの除算器56とを備える。 In FIG. 5, the interpolation data generation circuit 16R according to this example includes eight subtraction circuits 51 corresponding to the pixel data (LRn−4 to LRn−1) and (LRn + 1 to LRn + 4) of the eight pixels. -1 to 51 -8, it comprises a comparator circuit 52 -1 to 52 -8 and the selection circuit 53 -1 to 53 -8, and two adders 54 and 55, and one of the divider 56.

減算回路51−1〜51−8は、注目画素nの画素データLRnをA入力とし、注目画素nの主走査方向前後それぞれ4画素(n−4〜n−1)、(n+1〜n+4)の各画素データ(LRn−4〜LRn−1)、(LRn+1〜LRn+4)をそれぞれB入力とし、≡A―B≡の減算処理を行う。これらの減算回路51−1〜51−8の各減算結果は、比較回路52−1〜52−8の各A入力となる。 The subtraction circuits 51 -1 to 51 -8 receive the pixel data LRn of the target pixel n as an A input, and each of four pixels (n−4 to n−1) and (n + 1 to n + 4) before and after the main pixel n in the main scanning direction. Each pixel data (LRn−4 to LRn−1) and (LRn + 1 to LRn + 4) are input as B, respectively, and ≡A−B≡ is subtracted. The subtraction results of these subtraction circuits 51 -1 to 51 -8 become the A inputs of the comparison circuits 52 -1 to 52 -8 .

比較回路52−1〜52−8は、CPU18で設定されるスレッシュ・レベルを各B入力とし、このスレッシュ・レベルよりも減算回路51−1〜51−8の各減算結果が大きいか(A>B)否かの比較処理を行う。これらの比較回路52−1〜52−8の比較結果は、選択回路53−1〜53−8に対して各選択入力SELAとして与えられるとともに、加算器55にも供給される。 Comparator circuit 52 -1 to 52 -8, the Suresh level set by the CPU18 as the B input, or the subtraction result of the than Suresh level subtraction circuit 51 -1 to 51 -8 is large (A> B) Comparison processing of whether or not is performed. Comparison of these comparison circuits 52 -1 to 52 -8, together given as the select input SELA to the selecting circuit 53 -1 to 53 -8, also is supplied to the adder 55.

選択回路53−1〜53−8は、注目画素nの主走査方向前後それぞれ4画素(n−4〜n−1)、(n+1〜n+4)の各画素データ(LRn−4〜LRn−1)、(LRn+1〜LRn+4)をそれぞれA入力とし、論理”0”をB入力としており、比較回路52−1〜52−8の比較結果がA>BのときにA入力を、それ以外のときにB入力をそれぞれ選択する。選択回路53−1〜53−8の各選択出力は加算器54に供給される。 The selection circuits 53 -1 to 53 -8 are pixel data (LRn-4 to LRn-1) of four pixels (n-4 to n-1) and (n + 1 to n + 4), respectively, before and after the target pixel n in the main scanning direction. , (LRn + 1 to LRn + 4) are A inputs, and logic “0” is a B input. When the comparison result of the comparison circuits 52 −1 to 52 −8 is A> B, the A input is used. Select each B input. Each selection output of the selection circuits 53 -1 to 53 -8 is supplied to the adder 54.

加算器54は、選択回路53−1〜53−8で周辺画素の画素データ(LRn−4〜LRn−1)、(LRn+1〜LRn+4)を選択されたとき、これらの画素データ(LRn−4〜LRn−1)、(LRn+1〜LRn+4)を積算する。一方、加算器55は、比較回路52−1〜52−8での比較結果がA>Bとなった回路数を積算する。除算器56は、加算器54の積算結果Aを加算器55の積算結果Bで除算する処理を行う。 The adder 54, the pixel data of the surrounding pixels by the selection circuit 53 -1 ~53 -8 (LRn-4~LRn -1), (LRn + 1~LRn + 4) when selected, and the pixel data (LRn-. 4 to LRn-1) and (LRn + 1 to LRn + 4) are integrated. On the other hand, the adder 55, the result of comparison from the comparison circuit 52 -1 to 52 -8 accumulating the number of circuits became A> B. The divider 56 performs a process of dividing the integration result A of the adder 54 by the integration result B of the adder 55.

ここで、上記構成の補間データ生成回路16Rの動作について説明する。本補間データ生成回路16Rには、ある注目画素n画素データLRnと、その周辺画素(n−4〜n−1)、(n+1〜n+4)の各画素データ(LRn−4〜LRn−1)、(LRn+1〜LRn+4)が入力される。   Here, the operation of the interpolation data generation circuit 16R configured as described above will be described. The interpolation data generation circuit 16R includes a certain pixel of interest n pixel data LRn, and pixel data (LRn-4 to LRn-1) of peripheral pixels (n-4 to n-1) and (n + 1 to n + 4), (LRn + 1 to LRn + 4) is input.

減算回路51−1〜51−8では、まず、注目画素nの画素データLRnと周辺画素(n−4〜n−1)、(n+1〜n+4)の各画素データ(LRn−4〜LRn−1)、(LRn+1〜LRn+4)との差分≡A―B≡が算出される。そして、比較回路52−1〜52−8では、注目画素nと周辺画素(n−4〜n−1)、(n+1〜n+4)の各画素データの差分がスレッシュ・レベルと比較され、その比較結果が選択回路53−1〜53−8に与えられる。 In the subtracting circuits 51 -1 to 51 -8 , first, the pixel data LRn of the target pixel n and the pixel data (LRn-4 to LRn-1) of the peripheral pixels (n−4 to n−1) and (n + 1 to n + 4). ), (LRn + 1 to LRn + 4) difference ≡A−B≡ is calculated. Then, in the comparison circuits 52 -1 to 52 -8 , the difference between the pixel data of the target pixel n and the peripheral pixels (n−4 to n−1) and (n + 1 to n + 4) is compared with the threshold level, and the comparison is made. results are given to the selection circuit 53 -1 to 53 -8.

ここで、注目画素nと周辺画素(n−4〜n−1)、(n+1〜n+4)の各画素データの差分が、上記スレッシュ・レベルで決まるある一定範囲内ならば、選択回路53−1〜53−8は周辺画素(n−4〜n−1)、(n+1〜n+4)の各画素データをそのまま選択して出力する。 If the difference between the pixel data of the target pixel n and the peripheral pixels (n−4 to n−1) and (n + 1 to n + 4) is within a certain range determined by the threshold level, the selection circuit 53 −1. to 53 -8 peripheral pixels (n-4~n-1), outputs directly select each pixel data of the (n + 1~n + 4).

選択回路53−1〜53−8から出力された周辺画素(n−4〜n−1)、(n+1〜n+4)の画素データは加算器54で積算される。また、加算器55では、比較回路52−1〜52−8内でA>Bとなった回路数、すなわち正常画素数の積算が行われる。そして、最終的に除算器56において、加算器54の積算値を加算器55の積算値で除算することで、正常画素の各画素データの平均値を求め、この平均値をR補間データとして出力する。 Pixel data of peripheral pixels (n−4 to n−1) and (n + 1 to n + 4) output from the selection circuits 53 −1 to 53 −8 are integrated by the adder 54. Further, the adder 55, A> B and became the number of circuits, namely the integration of the number of normal pixels is performed in the comparator circuit 52 -1 to 52 -8. Finally, the divider 56 divides the integrated value of the adder 54 by the integrated value of the adder 55 to obtain an average value of each pixel data of normal pixels, and outputs this average value as R interpolation data. To do.

なお、本例では、R補間データを生成する場合を例に説明したが、G補間データ、B補間データを生成する場合もR補間データの生成と同様に行われる。   In this example, the case where the R interpolation data is generated has been described as an example. However, the G interpolation data and the B interpolation data are generated in the same manner as the generation of the R interpolation data.

(画像読取装置の動作)
次に、画像読取装置1の動作の一例について図6〜図8を参照して説明する。図8は、画像処理部4の動作の一例を示すフローチャートである。
(Operation of image reader)
Next, an example of the operation of the image reading apparatus 1 will be described with reference to FIGS. FIG. 8 is a flowchart illustrating an example of the operation of the image processing unit 4.

(1)プロファイル及び画像データの取得
ユーザは、原稿20を原稿搬送部2の給紙台21に配置し、図示しない操作部を操作して原稿20の読取りを指示する。
(1) Acquisition of Profile and Image Data The user places the document 20 on the paper feed table 21 of the document transport unit 2 and operates an operation unit (not shown) to instruct reading of the document 20.

制御部10は、原稿搬送部2による原稿20の搬送に基づき第1の読取モードによる読取りを開始する。   The control unit 10 starts reading in the first reading mode based on the conveyance of the document 20 by the document conveyance unit 2.

制御部10は、原稿搬送部2及び画像読取部3を制御して原稿20の搬送と読取りを行わせる。原稿搬送部2は、図示しない駆動部により分離ロール230、搬送ロール231及び読取ロール232を駆動して給紙台21上の原稿20を搬送して第1の読取領域3aを通過させ、さらに排出ロール233、234を駆動して原稿20を排紙台22に排出させる。   The control unit 10 controls the document conveying unit 2 and the image reading unit 3 to convey and read the document 20. The document transport unit 2 drives the separation roll 230, the transport roll 231, and the reading roll 232 by a driving unit (not shown) to transport the document 20 on the paper feed table 21 to pass through the first reading area 3 a and further discharge it. The rolls 233 and 234 are driven to discharge the original 20 onto the paper discharge tray 22.

原稿20が第1の読取領域3aを通過する間にラインセンサ34から読取信号が画像データ取得部41に送信される。画像データ取得部41は、ラインセンサ34からの読取信号を原稿20の1枚分の画像データとして取得する(S1)。   A reading signal is transmitted from the line sensor 34 to the image data acquisition unit 41 while the document 20 passes through the first reading area 3a. The image data acquisition unit 41 acquires the read signal from the line sensor 34 as image data for one sheet of the document 20 (S1).

(2)筋の検知
下地検知部42は、画像データ取得部41が取得した画像データの濃度ヒストグラムを生成し、頻度が最も多い画素値を下地の代表値として検知する(S2)。
(2) Line Detection The background detection unit 42 generates a density histogram of the image data acquired by the image data acquisition unit 41, and detects a pixel value having the highest frequency as a representative value of the background (S2).

図6は、画像データ取得部41が取得した画像データの一例を示す図である。図6に示すように、画像データ100には、筋画像110や、下地のオブジェクト120、図形のオブジェクト140、線のオブジェクト150が含まれている。図6の筋画像110には、周辺が下地のオブジェクト120に存在しているものもあれば、一部が図形のオブジェクト140と重なっている。   FIG. 6 is a diagram illustrating an example of image data acquired by the image data acquisition unit 41. As shown in FIG. 6, the image data 100 includes a streak image 110, a background object 120, a graphic object 140, and a line object 150. In some cases, the streak image 110 shown in FIG. 6 overlaps the graphic object 140 if there is an image whose periphery exists in the underlying object 120.

2値化部44は、画像データ取得部41が取得した画像データを、下地検知部42により検知された下地の代表値を閾値として2値化して2値画像データを生成する。   The binarization unit 44 binarizes the image data acquired by the image data acquisition unit 41 using the representative value of the background detected by the background detection unit 42 as a threshold value, and generates binary image data.

オブジェクト分離部45は、2値化部44により生成された2値画像データに基づいて、原稿20の画像データを画像の種類ごとに原稿20の下地を含む複数のオブジェクト(下地、写真、図形、文字、線等)に分離する。図6に示す画像データ100の場合は、オブジェクト分離部45は、画像データ100を下地のオブジェクト120、図形のオブジェクト140、線のオブジェクト150に分離する。オブジェクト分離部45は、画像データの異物に基づく筋画像も線のオブジェクトとして分離する。   Based on the binary image data generated by the binarization unit 44, the object separation unit 45 converts the image data of the document 20 into a plurality of objects including the background of the document 20 for each type of image (background, photograph, figure, Character, line, etc.). In the case of the image data 100 shown in FIG. 6, the object separation unit 45 separates the image data 100 into a base object 120, a graphic object 140, and a line object 150. The object separation unit 45 also separates the streak image based on the foreign substance of the image data as a line object.

筋画像検知処理部46は、画像データに対して注目した画素(以下「注目画素」という。)が線のオブジェクトに属するか否かを判断する(S4)。   The streak image detection processing unit 46 determines whether or not the pixel focused on the image data (hereinafter referred to as “target pixel”) belongs to the line object (S4).

筋画像検知処理部46は、当該注目画素が線のオブジェクトに属すると判断したとき(S4:Yes)、当該注目画素が筋画像に属するものか否かを判断する(S5)。筋画像検知処理部46は、当該注目画素がオブジェクト分離部45により分離された線のオブジェクトのうち副走査方向Aに対して傾いていない線のオブジェクトであるなら、筋画像に属すると判定する。   When it is determined that the target pixel belongs to the line object (S4: Yes), the muscle image detection processing unit 46 determines whether the target pixel belongs to the muscle image (S5). The streak image detection processing unit 46 determines that the pixel of interest belongs to a streak image if the target pixel is a line object that is not inclined with respect to the sub-scanning direction A among the line objects separated by the object separation unit 45.

筋画像検知処理部46は、当該注目画素が筋画像に属すると判断したとき(S5:Yes)、当該注目画素の周辺が下地のオブジェクトか否かを判断する(S6)。当該注目画素の周辺が下地以外の他のオブジェクトであると判断したとき(S6:No)、当該注目画素の画素値を置換処理部47により置換処理させる。置換処理部47は、画像データの当該注目画素の画素値を当該他のオブジェクト内の周辺領域の画素値の代表値に置換する置換処理を行う(S7)。   When it is determined that the pixel of interest belongs to the muscle image (S5: Yes), the muscle image detection processing unit 46 determines whether or not the periphery of the pixel of interest is a background object (S6). When it is determined that the periphery of the target pixel is an object other than the base (S6: No), the pixel value of the target pixel is replaced by the replacement processing unit 47. The replacement processing unit 47 performs a replacement process of replacing the pixel value of the target pixel of the image data with the representative value of the pixel value of the peripheral area in the other object (S7).

当該注目画素の周辺が下地のオブジェクトであると判断したとき(S6:Yes)、筋画像検知処理部46は、当該注目画素を下地のオブジェクトとみなす処理を行う(S8)。   When it is determined that the periphery of the target pixel is a background object (S6: Yes), the muscle image detection processing unit 46 performs processing for regarding the target pixel as a background object (S8).

(3)下地除去
画像データ100の全ての画素について、上記ステップS4〜S8の処理が終了すると(S9:Yes)、下地除去部48は、下地除去処理を行う(S10)。すなわち、下地除去部48は、画像データ100のうちオブジェクト分離部45により分離された下地のオブジェクトに属する画素の画素値を図3に示すルックアップテーブル480を用いて変換する。また、下地除去部48は、筋画像検知処理部47によりみなされた下地のオブジェクトに対して下地の代表値に置き換える処理を行う。
(3) Background Removal When the processing of steps S4 to S8 is completed for all pixels of the image data 100 (S9: Yes), the background removal unit 48 performs background removal processing (S10). That is, the background removal unit 48 converts pixel values of pixels belonging to the background object separated by the object separation unit 45 in the image data 100 using the lookup table 480 shown in FIG. Further, the background removal unit 48 performs a process of replacing the background object considered by the streak image detection processing unit 47 with the base representative value.

下地除去処理後は、図7に示すように筋の無い又は筋が目立たない画像データ100が生成される。図7に示す画像データ100では、図6では現れていた筋画像110が消えている。   After the background removal processing, image data 100 having no streaks or inconspicuous streaks is generated as shown in FIG. In the image data 100 shown in FIG. 7, the streak image 110 that appeared in FIG. 6 disappears.

以上、本発明の実施の形態を説明したが、本発明は上記の実施の形態に限定されるものではなく、本発明の要旨を変更しない範囲内で種々の変形、実施が可能である。例えば本発明の要旨を変更しない範囲内で、実施の形態のフローにおいて、ステップの追加、削除、変更、入替え等が可能である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and implementations are possible without departing from the scope of the present invention. For example, it is possible to add, delete, change, and replace steps in the flow of the embodiment without departing from the scope of the present invention.

1…画像読取装置、2…原稿搬送部、3…画像読取部、3a…第1の読取領域、
3b…第2の読取領域、4…画像処理部、10…制御部、
17…原稿カバー、20…原稿、21…給紙台、22…排紙台、23…搬送機構、
30A、30B…光源、31…導光体、32A-32C…ミラー、33…レンズ、
34…ラインセンサ、35…筐体、36…原稿配置台、
37A、37B…キャリッジ、
41…画像データ取得部、42…下地検知部、44…2値化部、
45…オブジェクト分離部、46…筋画像検知処理部、47…置換処理部、
48…下地除去部、
230…分離ロール、231…搬送ロール、232…読取ロール、
233…排出ロール、480…ルックアップテーブル、481…下地除去閾値、
482…画素値
DESCRIPTION OF SYMBOLS 1 ... Image reading apparatus, 2 ... Document conveyance part, 3 ... Image reading part, 3a ... 1st reading area,
3b ... second reading area, 4 ... image processing unit, 10 ... control unit,
17 ... Document cover, 20 ... Document, 21 ... Paper tray, 22 ... Paper tray, 23 ... Conveying mechanism,
30A, 30B ... light source, 31 ... light guide, 32A-32C ... mirror, 33 ... lens,
34 ... Line sensor, 35 ... Housing, 36 ... Document placement table,
37A, 37B ... carriage,
41 ... Image data acquisition unit, 42 ... Background detection unit, 44 ... Binarization unit,
45 ... Object separation unit, 46 ... Muscle image detection processing unit, 47 ... Replacement processing unit,
48 ... Underlying part,
230 ... separation roll, 231 ... transport roll, 232 ... reading roll,
233 ... discharge roll, 480 ... look-up table, 481 ... background removal threshold,
482 ... Pixel value

Claims (4)

主走査方向に延びる読取領域に対して副走査方向に搬送される原稿から読み取られた読取信号を画像データとして取得する画像データ取得部と、
前記画像データを前記原稿の下地及び線のオブジェクトを含む複数のオブジェクトに分離するオブジェクト分離部と、
前記オブジェクト分離部により分離された前記線のオブジェクトのうち前記副走査方向に対して傾いていない線のオブジェクトを前記読取領域に存在する異物に起因して前記画像データに現れる筋画像として検知する筋画像検知処理部と、
を備えた画像読取装置。
An image data acquisition unit that acquires, as image data, a read signal read from a document conveyed in the sub-scanning direction with respect to a reading region extending in the main-scanning direction;
An object separation unit that separates the image data into a plurality of objects including a background and line objects of the document;
A streak that detects a line object that is not inclined with respect to the sub-scanning direction among the line objects separated by the object separation unit as a streak image that appears in the image data due to a foreign substance existing in the reading area. An image detection processing unit;
An image reading apparatus comprising:
前記筋画像検知処理部は、前記筋画像が前記下地のオブジェクトに存在するとき、前記筋画像を下地のオブジェクトとみなす処理を行う、
請求項1に記載の画像読取装置。
The muscle image detection processing unit performs a process of regarding the muscle image as a background object when the muscle image exists in the background object.
The image reading apparatus according to claim 1.
前記オブジェクト分離部により分離された前記下地のオブジェクト、及び前記筋画像検知処理部によりみなされた前記下地のオブジェクトの画素の画素値を、前記下地の画素値と等価な画素値に変換する下地除去部をさらに備えた、
請求項2に記載の画像読取装置。
A background removal for converting the pixel value of the background object separated by the object separation unit and the pixel value of the background object regarded by the line image detection processing unit into a pixel value equivalent to the pixel value of the background Part further,
The image reading apparatus according to claim 2.
前記筋画像が前記下地及び前記線以外の他のオブジェクトに存在するとき、前記他のオブジェクトに存在する前記筋画像の画素値を前記他のオブジェクト内の周辺領域の画素値の代表値に置換する置換処理を行う置換処理部を備え、
前記筋画像検知処理部は、前記筋画像が前記他のオブジェクトに存在するとき、前記置換処理部に前記置換処理を行わせる、
請求項1に記載の画像読取装置。

When the muscle image is present in an object other than the ground and the line, the pixel value of the muscle image existing in the other object is replaced with a representative value of a pixel value of a peripheral region in the other object. A replacement processing unit for performing replacement processing;
The muscle image detection processing unit causes the replacement processing unit to perform the replacement process when the muscle image exists in the other object.
The image reading apparatus according to claim 1.

JP2016053906A 2016-03-17 2016-03-17 Image reading device Pending JP2017169106A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016053906A JP2017169106A (en) 2016-03-17 2016-03-17 Image reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016053906A JP2017169106A (en) 2016-03-17 2016-03-17 Image reading device

Publications (1)

Publication Number Publication Date
JP2017169106A true JP2017169106A (en) 2017-09-21

Family

ID=59909235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016053906A Pending JP2017169106A (en) 2016-03-17 2016-03-17 Image reading device

Country Status (1)

Country Link
JP (1) JP2017169106A (en)

Similar Documents

Publication Publication Date Title
US7630102B2 (en) Image reading device and method
JP4844247B2 (en) Image processing apparatus and image processing program
JP6849322B2 (en) Image reader, image forming device
JP6759662B2 (en) Image reader, foreign matter detection method and foreign matter detection program on the reading glass surface of the device
JP2008187531A (en) Image reader and image forming apparatus
JP3706800B2 (en) Image processing system, method, and storage medium
JP4513622B2 (en) Image reading device
JP5683099B2 (en) Image reading apparatus, image reading apparatus control method, and program
JP6645294B2 (en) Image reading device
JP2000310820A (en) Document reading method and document reader
JP2009246471A (en) Image reading apparatus, and image reading method
JP6123540B2 (en) Processing apparatus, document reading apparatus, and image forming apparatus
JP2008028699A (en) Image reading apparatus and image reading method
JP2017169106A (en) Image reading device
JP2001157005A (en) Image reader and image-forming device
JP2005064913A (en) Image reader
JP4038503B2 (en) Image reading apparatus and image forming apparatus
JP2006295404A (en) Image processing apparatus
JP2004328200A (en) Image reader
JP2011023920A (en) Image reading apparatus and image forming apparatus
JP2008028698A (en) Image reading apparatus and image reading method
JP4994810B2 (en) Image reading device
JP5883805B2 (en) Image reading apparatus, image forming apparatus, and image reading method
JP6519808B2 (en) Image processing device
JP2010220133A (en) Image reading device and image forming device