JPH03214967A - Picture reader - Google Patents

Picture reader

Info

Publication number
JPH03214967A
JPH03214967A JP2011141A JP1114190A JPH03214967A JP H03214967 A JPH03214967 A JP H03214967A JP 2011141 A JP2011141 A JP 2011141A JP 1114190 A JP1114190 A JP 1114190A JP H03214967 A JPH03214967 A JP H03214967A
Authority
JP
Japan
Prior art keywords
data
attribute
attribute data
image
discrimination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011141A
Other languages
Japanese (ja)
Inventor
Hiroya Sugawa
須川 寛也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2011141A priority Critical patent/JPH03214967A/en
Priority to US07/642,688 priority patent/US5371610A/en
Publication of JPH03214967A publication Critical patent/JPH03214967A/en
Pending legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To simplify the designation of picture processing by devising the reader such that a designation attribute data includes a correction designation attribute data to correct misdiscrimination by an attribute discrimination means and the said correction attribute data is used to apply reverse picture processing to the picture processing by the discrimination attribute data. CONSTITUTION:A picture data outputted from a trimming/masking section 282 is binarized respectively at a simple binarizing processing section 283 and a pseudo intermediate processing section 284 and the result is inputted simultaneously to a selector 285 as binary picture data DA, DB. A designation attribute data a0 to control binarizing processing is fed to a data selection section 286 together with a discrimination attribute data alpha0 obtained by discriminating the binarizing attribute automatically and an output data is decided in response to the data a0. That is, when the data a0 is logical 0, the discrimination attribute data alpha0 is outputted as the output data as it is, and when the data a0 is '1', the inverted discrimination attribute data alpha0 is outputted.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、原稿を読み取って得た信号に画像処理を施し
た上で、原稿に対応した画像信号を出力する画像読取り
装置に閲する. 〔従来の技術] 従来より、デジタル式の複写機やファクシミリ、OCR
 (光学式文字読取り機)、光ファイリングシステム、
各種ディスプレイ装置などのように、一定の大きさのド
ット(画素)の組み合わせによって画像の作像、記憶、
表示などを行う装置の画像入力手段として、原稿を画素
に細分化して読み取る画像読取り装置(イメージリーグ
)が用いられている. この種の画像読取り装置では、読み取った画像情報が量
子化されデジタルの画像データとして取り扱われるので
、種々の画像処理を容易に行うことができる.一般には
、画像を明瞭にするエッジ(輪郭)強調、画像を自然な
ものにする平滑化(スムージング)などの画質改善のた
めの画像処理と、画像編集のための画像処理とを行うよ
うに構成されている. 画像編集としては、原稿内の特定領域のみを抽出するト
リミング、特定領域を白ぬきとするマスキング、ネガと
ボジとを反転(白黒反転)するリバース、特定色の部分
を他の色に置き換える色変換などが知られている. 画像編集が可能とされた画像読取り装置では、例えば、
特開昭62−181570号公報に示されているように
、画像処理の内容に対応した属性データを記憶するため
の属性メモリが設けられ、この属性メモリに、原稿を細
かく区分した各区分領域毎の属性データを予め記憶させ
ておき、画像の読取りに合わせてリアルタイムで属性デ
ータに基づく画像処理を実行させるようになっている.
これによれば、各区分領域毎に画像処理の内容を指定す
ることができ、複雑多樺な画像編集が可能である. ところで、周知のように、原稿の各画素の濃度に応じた
多値データを2値化するための画像処理(以下「2値化
処理」という)においては、再現画像の品質の上から、
一般に、文字などの線画像に対しては、1つの画素の多
値レベルと一定の閾値レベルとを比較するいわゆる単純
2値処理が適し、写真などの中間調画像に対しては、デ
ィザ法や誤差拡散法などによる疑僚階調処理が適する.
したがって、線画像と中間調画像とが混在する原稿を読
み取る場合には、線画像であるか中間調画像であるかと
いう画像の属性(以下「2値化属性」ということがある
)に応じて2値化処理を切り換える必要がある. このような2値化処理の切り換えを自動的に行うために
、従来より、例えば特開昭62−39978号公報など
に示された種々の手法によって2値化属性を判別する判
別手段を組み入れた画像読取り装置がある.なお、色変
換などのカラー編集が可能とされた画像読取り装置では
、画像の色の属性を判別する手段が組み込まれている。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an image reading device that performs image processing on a signal obtained by reading a document and then outputs an image signal corresponding to the document. [Conventional technology] Conventionally, digital copying machines, facsimile machines, and OCR
(optical character reader), optical filing system,
As in various display devices, images are created, stored, and
An image reading device (Image League) that reads a document by dividing it into pixels is used as an image input means for display devices. In this type of image reading device, the read image information is quantized and treated as digital image data, so various image processing can be easily performed. Generally, it is configured to perform image processing to improve image quality, such as edge enhancement to make the image clearer, smoothing to make the image more natural, and image processing to edit the image. It has been done. Image editing includes trimming to extract only a specific area within a document, masking to whiten out a specific area, reverse to invert the negative and positive (black and white inversion), and color conversion to replace a specific color with another color. etc. are known. For example, in an image reading device that allows image editing,
As shown in Japanese Unexamined Patent Publication No. 181570/1989, an attribute memory is provided for storing attribute data corresponding to the content of image processing, and this attribute memory stores information for each divided area in which the manuscript is divided into fine sections. Attribute data is stored in advance, and image processing based on the attribute data is executed in real time as the image is read.
According to this, the content of image processing can be specified for each segmented area, and complex image editing is possible. By the way, as is well known, in image processing (hereinafter referred to as "binarization processing") for binarizing multi-valued data according to the density of each pixel of a document, from the quality of the reproduced image,
In general, so-called simple binary processing, which compares the multivalue level of one pixel with a certain threshold level, is suitable for line images such as characters, and dithering and other methods are suitable for halftone images such as photographs. Suspicious gradation processing using error diffusion method is suitable.
Therefore, when reading a document that contains a mixture of line images and halftone images, the It is necessary to switch the binarization process. In order to automatically switch the binarization process, discriminating means for discriminating the binarization attribute using various methods disclosed in, for example, Japanese Unexamined Patent Publication No. 62-39978, etc., has been conventionally incorporated. There is an image reading device. Note that an image reading device capable of color editing such as color conversion has a built-in means for determining color attributes of an image.

(発明が解決しようとする課題〕 上述のように2値化属性を判別する判別手段を組み入れ
た画像読取り装置では、通常は各区分領域毎に2値化処
理の指定を行う必要がない.しかしながら、2値化属性
の判別では、原稿の下地色や写真の品位などの影響が太
き《、誤判別が生じることが多い. したがって、誤判別による画質の低下が許容できない場
合には、判別手段を用いることができず、原稿の全領域
にわたって各区分領域毎に予め2値化処理の指定を行わ
なければならないという問題があった.このため、より
精密な画像編集を可能とするために区分領域を細かくす
る程、2値化処理の指定が面倒なものとなる. 本発明は、上述の問題に鑑み、できる限り判別手段の利
用を図り、画像処理の指定の簡略化が可能な画像読取り
装置を提供することを目的としている. 〔課題を解決するための手段〕 上述の課題を解決するため、請求項lの発明は、原稿を
画素に細分化して読み取り、得られた信号に画像処理を
施し、各画素に対応した画像データを出力するように構
成された画像読取り装置において、前記原稿を区分した
各区分領域毎に生成された画像処理のための指定属性デ
ータを記憶する属性記憶手段と、前記原稿の読み取りに
合わせて前記区分領域毎に特定の属性の判別を行い、判
別属性データを生成する属性判別手段と、前記指定属性
データ及び前記判別属性データの内の少なくとも一方に
基づいて画像処理を行う画像処理手段とを備え、前記指
定属性データが、前記属性判別手段による誤判別を補正
するための補正指定属性データを含み、当該補正指定属
性データによって前記判別属性データに基づく画像処理
とは逆の画像処理を施すことが可能に構成されてなるこ
とを特徴としている. 請求項2の発明は、原稿を画素に細分化して読み取り、
得られた信号に画像処理を施し、各画素に対応した画像
データを出力するように構成された画像読取り装置にお
いて、前記原稿を区分した各区分領域毎に生成された画
像処理のための指定属性データを記憶する属性記憶手段
と、前記原稿の読み取りに合わせて前記区分領域毎に特
定の属性の判別を行い、判別属性データを生成する属性
判別手段と、前記指定属性データ及び前記判別属性デー
タの内の少なくとも一方に基づいて画像処理を行う画像
処理手段とを備え、前記指定属性データが、前記特定の
属性を予め指定した判別指定属性データと、画像処理に
て前記判別属性データ及び当該判別指定属性データの内
の一方を優先させるための優先指定属性データとを含み
、任意の前記区分領域についての当該特定の属性に対応
した画像処理の自動実行又は外部指定実行が選択可能に
構成されてなることを特徴としている.〔作 用〕 属性記憶手段は、原稿を区分した各区分領域毎に生成さ
れた画像処理のための指定属性データを記憶する. 属性判別手段は、原稿の読み取りに合わせて区分領域毎
に特定の属性の判別を行い、判別属性データを生成する
. 画像処理手段は、指定属性データ及び判別属性データの
内の少なくとも一方に基づいて画像処理を行う。
(Problems to be Solved by the Invention) In an image reading device incorporating a discriminating means for discriminating binarization attributes as described above, it is usually not necessary to specify binarization processing for each segmented area.However, , when determining binarized attributes, the influence of the background color of the original and the quality of the photograph is significant, which often leads to misclassification. Therefore, if the degradation of image quality due to misclassification is unacceptable, it is necessary to use a discriminating method. There was a problem in that the binarization process had to be specified in advance for each segmented area over the entire area of the manuscript.For this reason, in order to enable more precise image editing, The finer the region, the more troublesome it becomes to specify binarization processing.In view of the above-mentioned problems, the present invention aims to utilize the discriminating means as much as possible, and is an image reading system that can simplify the specification of image processing. [Means for Solving the Problems] In order to solve the above-mentioned problems, the invention of claim 1 reads a document by dividing it into pixels, and performs image processing on the obtained signals. in an image reading device configured to output image data corresponding to each pixel, an attribute storage means for storing designated attribute data for image processing generated for each divided area of the original document. and attribute determination means for determining a specific attribute for each of the divided areas in accordance with the reading of the document and generating determined attribute data, based on at least one of the designated attribute data and the determined attribute data. an image processing means for performing image processing, wherein the designated attribute data includes correction designated attribute data for correcting misclassification by the attribute discriminating means, and the corrected designated attribute data performs image processing based on the determined attribute data. The invention is characterized in that it is configured to be able to perform image processing opposite to that of the image processing method.
In an image reading device configured to perform image processing on the obtained signal and output image data corresponding to each pixel, a specified attribute for image processing generated for each segmented area in which the document is segmented. an attribute storage means for storing data; an attribute determination means for determining a specific attribute for each of the divided areas as the document is read; and an attribute determination means for generating determination attribute data; an image processing unit that performs image processing based on at least one of the above, wherein the specified attribute data includes discrimination specification attribute data that specifies the specific attribute in advance, and the discrimination specification attribute data and the discrimination specification in image processing. and priority designation attribute data for prioritizing one of the attribute data, and is configured such that automatic execution or externally designated execution of image processing corresponding to the specific attribute for any of the divided areas can be selected. It is characterized by [Function] The attribute storage means stores designated attribute data for image processing generated for each segmented area of the manuscript. The attribute discrimination means discriminates a specific attribute for each segmented area as the manuscript is read, and generates discrimination attribute data. The image processing means performs image processing based on at least one of the specified attribute data and the discrimination attribute data.

指定属性データは、属性判別手段による誤判別を補正す
るための補正指定属性データを含むか、又は特定の属性
を予め指定した判別指定属性データと、画像処理にて前
記判別属性データ及び当該判別指定属性データの内の一
方を優先させるための優先指定属性データとを含み、画
像処理手段にて所定の前記区分領域に対して前記判別属
性データに基づく画像処理とは逆の画像処理を施すこと
が可能とされ、又は任意の区分領域についての特定の属
性に対応した画像処理の自動実行又は外部指定実行が選
択可能とされる. 〔実施例〕 以下、本発明の実施例を図面を参照しつつ説明する. 第2図はイメージリーダlの概略の構成を示す断面正面
図である. イメージリーダ1には、直方体状の筐体の上面に最大で
A3サイズの原稿が載置可能な原稿台ガラス2が取り付
けられており、戟置された原稿は原稿カバー3によって
押さえられるようになっている.原稿台ガラス2の走査
方向の前端部にはシェーディング補正用の白色画像から
なる基準パターン14が設けられている. 筐体の内部には、原稿台ガラス2の下方で原稿画像を矢
印M5方向(副走査方向)に走査可能に配置された光学
系、及び原稿画像の濃度に応じた画像データを生成する
電気回路部12が設けられている. 光学系は、露光ランプ4、反射鏡5、ミラー6を有する
第1スライダ13、ミラー7.8を有する第2スライダ
13a,及び主レンズ9などから構成されている.第1
スライダ13の移動速度をVとしたとき、第2スライダ
13aはv/2の速度で移動するように駆動制御される
. 主レンズ9を通過した走査光は、支持部材11に取り付
けられたイメージセンサー10に入射し、電気信号に変
換される。イメージセンサー10は、主走査方向に連続
するように配列した複数個のCCDチップにより構成さ
れ、400画素/インチの解像度で原稿の読取りが可能
とされている.各CCDチップには、多数の受光素子が
1列に配列されており、さらに、各受光素子は3つの領
域に分割され、1つの分割領域が、R(レッド)、G(
グリーン)、B(ブルー)の3色の内の1色の光を受光
するように各受光素子の表面に分光フィルターが設けら
れている.1つの受光素子が原稿画像の1つの画素に対
応し、各受光素子から画素の1色に対する反射光強度に
応じた充電変換信号が電気回路部12へ出力される。
The designated attribute data includes correction designated attribute data for correcting misclassification by the attribute discriminating means, or includes discrimination designated attribute data in which a specific attribute is specified in advance, and the said determined attribute data and the relevant determination designation through image processing. and priority designation attribute data for prioritizing one of the attribute data, and the image processing means can perform image processing opposite to image processing based on the discrimination attribute data on the predetermined segmented area. Automatic execution or externally specified execution of image processing corresponding to specific attributes for any segmented area can be selected. [Examples] Examples of the present invention will be described below with reference to the drawings. Figure 2 is a cross-sectional front view showing the general configuration of the image reader I. The image reader 1 is equipped with a document table glass 2 on the top surface of a rectangular parallelepiped housing on which a document of up to A3 size can be placed, and the placed document is held down by a document cover 3. ing. A reference pattern 14 consisting of a white image for shading correction is provided at the front end of the document platen glass 2 in the scanning direction. Inside the casing, there is an optical system arranged to be able to scan the original image in the direction of arrow M5 (sub-scanning direction) below the original platen glass 2, and an electric circuit that generates image data according to the density of the original image. Section 12 is provided. The optical system includes an exposure lamp 4, a reflecting mirror 5, a first slider 13 having a mirror 6, a second slider 13a having a mirror 7.8, a main lens 9, and the like. 1st
When the moving speed of the slider 13 is V, the second slider 13a is controlled to move at a speed of v/2. The scanning light that has passed through the main lens 9 is incident on the image sensor 10 attached to the support member 11, and is converted into an electrical signal. The image sensor 10 is composed of a plurality of CCD chips arranged continuously in the main scanning direction, and is capable of reading an original at a resolution of 400 pixels/inch. Each CCD chip has a large number of light-receiving elements arranged in a row, and each light-receiving element is divided into three regions, one divided region being R (red), G (
A spectral filter is provided on the surface of each light-receiving element to receive light of one of three colors: green) and B (blue). One light-receiving element corresponds to one pixel of the original image, and each light-receiving element outputs a charging conversion signal to the electric circuit section 12 according to the intensity of reflected light for one color of the pixel.

第1図は電気回路部12のブロック図である.電気回路
部l2は、イメージセンサー10からの光電変換信号を
R,G,Bの各色の信号に分離して所定の増幅を行う色
分離部2l、各色のアナログ信号をA/D変換(量子化
)して8ビットの画像データDm7〜0を出力するデジ
タル化処理部22、画像データDm7〜0の主走査方向
の光量むらやイメージセンサー10のビット間のバラッ
キを補正するためのシェーディング補正部23、2値化
属性及び色属性を判別する画像判別部25、濃度レベル
調整や外部接続機器の濃度特性(T特性)に応じたT変
換を行う濃度変換部26、画像編集処理及び2値化処理
を含む画像処理を行う画像処理部28、データ出力の制
御のための出力制御部29、後述の指定属性データaj
(j=0.1.2・・・)を記憶する属性メモリ30、
属性データ出力制御部3l、クロック発生回路41、シ
ェーディング補正部23から出力される画像データDm
17〜10の1ライン分の記憶を行うラインメモリ24
、各部に各種同期信号を出力する同期信号発生部40、
露光ランブ4の点灯制御を行うランプ制御部4a,走査
用のスキャナモータ16を駆動するためのドライバ16
a,及び、これらの全体を制御するCPU20などから
構成されている. CPU20には、処理プログラムを格納したROM20
a、プログラムの実行に際し、各種フラグやステータス
データなどの一時記憶のためのレジスタ20b及びRA
M2 0 cが内蔵されている.CPU20は、オペレ
ータによる操作手段を備えた外部のホスト装置との間で
、各種のコマンド(制御命令コードデータ)やイメージ
リーダIの動作状態(ステータス)を示すデータの受渡
しのための通信を行い、受信したコマンドに基づいて、
原稿の読み取りに先立って画像編集や2値化処理を規定
する指定属性データajを生成し、これを属性メモリ3
0に格納する. なお、同期信号発生部40により出力される同期信号と
しては、主走査の1ライン毎に出力される水平同期信号
Hsync,1画素毎のデータ伝送タイミングの基準と
なる画素クロック信号SYNCK、イメージリーダlか
らのデータ出力の有効期間を示すイネープル信号VDが
ある.第3図(a)及び(b)は属性メモリ30の構成
を示す図である. 属性メモリ30は、第3図(b)に示されるように、画
像Gを主走査方向及び副走査方向にそれぞれ8画素毎に
区分した8×8のドットマトリクスからなる各区分碩域
E毎にCPU20により生成される指定属性データaj
を記憶可能に構成されている. イメージリーダ1において、指定属性データaO(又は
aO,)及びa3は2値化処理を規定し、指定属性デー
タal.a2は、それぞれネガポジ反転、トリミングを
規定するデータである.第4図は画像判別部25のブロ
ック図である.画像判別部25は、2[化属性判別部2
51、色属性判別部252、及び判別属性データ出力部
253などからなる. 2値化属性判別部251は、区分領域E毎に2値化属性
の判別、すなわち区分領域Eが文字画像に対応するか又
は中間調画像に対応するかを判別し、判別結果を示す1
ビットの判別属性データα0を出力する.また、色属性
判別部252は、区分頷域Eが色編集の対象として指定
された特定色に対応するか否かを判別し、1ビットの判
別属性データαlを出力する. なお、画像判別部25には、区分領域E毎の属性判別を
可能とするために、8ライン分の画像データDm17〜
10を格納するラインメモリ(不図示)が設けられてい
る。
FIG. 1 is a block diagram of the electric circuit section 12. The electric circuit section 12 includes a color separation section 2l that separates the photoelectric conversion signal from the image sensor 10 into R, G, and B color signals and performs predetermined amplification, and A/D conversion (quantization) of the analog signal of each color. ) and outputs 8-bit image data Dm7 to Dm0, and a shading correction unit 23 to correct unevenness in the amount of light in the main scanning direction of the image data Dm7 to Dm0 and variations between bits of the image sensor 10. , an image discrimination section 25 that discriminates binarization attributes and color attributes, a density conversion section 26 that performs density level adjustment and T conversion according to the density characteristics (T characteristics) of externally connected equipment, image editing processing and binarization processing. an image processing unit 28 that performs image processing including
an attribute memory 30 that stores (j=0.1.2...);
Image data Dm output from the attribute data output control section 3l, the clock generation circuit 41, and the shading correction section 23
Line memory 24 that stores one line of numbers 17 to 10
, a synchronization signal generator 40 that outputs various synchronization signals to each part;
A lamp control unit 4a that controls the lighting of the exposure lamp 4, and a driver 16 that drives the scanner motor 16 for scanning.
a, and a CPU 20 that controls these as a whole. The CPU 20 includes a ROM 20 that stores processing programs.
a. Register 20b and RA for temporary storage of various flags and status data during program execution;
It has a built-in M20c. The CPU 20 communicates with an external host device equipped with operator operation means to exchange various commands (control command code data) and data indicating the operating state (status) of the image reader I. Based on the command received,
Prior to reading the original, specified attribute data aj that specifies image editing and binarization processing is generated and stored in the attribute memory 3.
Store at 0. Note that the synchronization signals outputted by the synchronization signal generation section 40 include a horizontal synchronization signal Hsync outputted for each main scanning line, a pixel clock signal SYNCK that serves as a reference for data transmission timing for each pixel, and an image reader l. There is an enable signal VD that indicates the valid period of data output from the . FIGS. 3(a) and 3(b) are diagrams showing the configuration of the attribute memory 30. As shown in FIG. 3(b), the attribute memory 30 stores data for each segmented area E, which is made up of an 8×8 dot matrix that segments the image G into 8-pixel units in the main scanning direction and the sub-scanning direction. Specified attribute data aj generated by the CPU 20
It is configured to be able to memorize. In the image reader 1, designated attribute data aO (or aO,) and a3 define binarization processing, and designated attribute data al. a2 is data specifying negative/positive inversion and trimming, respectively. FIG. 4 is a block diagram of the image discriminator 25. The image discriminating unit 25 has a 2 [attribute discriminating unit 2
51, a color attribute discrimination section 252, a discrimination attribute data output section 253, etc. The binarization attribute determination unit 251 discriminates the binarization attribute for each segmented area E, that is, determines whether the segmented area E corresponds to a character image or a halftone image, and displays the discrimination result.
Output the bit discrimination attribute data α0. Further, the color attribute determination unit 252 determines whether or not the classification nod area E corresponds to a specific color designated as a color editing target, and outputs 1-bit determination attribute data αl. In addition, in order to enable attribute discrimination for each segmented area E, the image discrimination unit 25 includes image data Dm17 to Dm17 for 8 lines.
A line memory (not shown) for storing 10 is provided.

判別属性データαOは、判別対象の区分領域Eが文字画
像に対応する場合には「0」とされ、中間調画像に対応
する場合には「1」とされる。また、判別属性データα
1は、判別対象の区分領域Eが特定色に対応する場合に
は「1」とされ、特定色以外に対応する場合には「0」
とされる.第5図は画像処理部28のブロック図である
The discrimination attribute data αO is set to "0" when the segmented area E to be discriminated corresponds to a character image, and is set to "1" when it corresponds to a halftone image. In addition, the discrimination attribute data α
1 is set to "1" when the segmented area E to be determined corresponds to a specific color, and "0" when it corresponds to a color other than the specific color.
It is said that FIG. 5 is a block diagram of the image processing section 28.

画像処理部28は、フィルタリング部281、トリミン
グ・マスキング部282、単純2値化処理部283、疑
僚中間調処理部284、データ選択部286、セレクタ
285、及びネガ処理部287などから構成されている
. 画像処理部28には、濃度変換部26から画像データD
m27〜20が画素配列順にシリアルに入力される.入
力された画像データDm2 7〜20に対しては、先ず
フィルタリング部281でエッジ強調及びスムージング
などの画質改善のための処理が施される.次に指定属性
データa2に従うトリミング・マスキング部282にて
、データa2が「1」のときには、マスキング処理とし
て強制的に空白部に対応した「0」とされる。データa
2が「0」のときには、そのままトリミング・マスキン
グ部282から出力される(データスルー). トリミング・マスキング部282から出力された画像デ
ータは、単純2値化処理部283及び疑領中間調処理部
284でそれぞれ2値化され、2値画像データDA,D
Bとして同時にセレクタ285に入力される. セレクタ285は、データ選択部286からの出力デー
タDSELOに従って2値画像データDA又はDBの一
方を選択して出力する.データ選択部286には、2値
化属性を自動判別して得られる上述の判別属性データα
0とともに、2値化処理を制御するための指定属性デー
タaOが加えられており、このデータaOの値に応じて
出力データの値が定まる.すなわち、データaOが「0
」であれば、出力データとして判別属性データαOがそ
のまま出力され、データaOが「1」であれば、判別属
性データα0を反転したデータが出力される.つまり、
画像処理部28では、データaOが「0」のときには、
外部からの2値化処理の指定がデフォルトされて画像判
別部25による2値化属性の自動判別に基づいた2値画
像データが出力され、データaOが「1」のときには、
2値化属性の自動判別の結果とは逆の2値化処理を受け
た2値画像データが出力されることになる. ネガ処理部287は、指定属性データa1が「0」であ
れば、セレクタ285から入力された2値画像データを
そのまま出力し、データa1が「1」であれば、値を反
転した2値画像データを出力する.ネガ処理部287か
らのデータ出力に際しては、8画素分ずつのパラレルの
画像データV I DEO 1〜8の形で順次出力され
る.なお、画像処理部28には、区分領域E毎の画像判
別を可能とするために、8ライン分の画像データDm2
7〜20を格納する図外のラインメモリ、及び8ビット
のシリアル/パラレル変換手段が設けられている. 第6図は属性データ出力制御部30のブロック図である
. 属性データ出力制御部30は、判別属性データα0.α
1及び指定属性データajを合わせて5又は6ビットの
属性データa4〜0(又はa5〜OJ)を出力する合成
部301からなる.属性データa4〜0を出力する場合
には、属性データa4.a3は、それぞれ判別属性デー
タα0,α1に対応付けられ、属性データa5〜O,を
出力する場合には、属性データa5,a4がそれぞれ判
別属性データα0.αlに対応することになる. 以下においては、まず、属性データ出力制御部30は属
性データa4〜0を出力するものとして説明する. 第7図は出力制御部29のブロック図、第8図は属性デ
ータa4〜0の出力動作を示すタイミングチャートであ
る. 出力制御部29は、信号SYNCKを8分の1に分周し
た信号1/8・Hsyncを出力する分周器401、信
号Hsyncに従って信号VDをラッチするラッチ回路
402、CPU20からの出力制御データCo−1に応
じて出力制御信号SO,S1をそれぞれ出力するセレク
タ403,404、信号SO,SLにより出力制御され
、それぞれ画像データVIDEO1〜8又は属性データ
a4〜0を出力データDATAとして選択するためのデ
ータラッチ回路405.406などから構成されている
. 信号1/8・Hsyncは、データラッチ回路405,
406のクロック端子(CK)に入力され、セレクタ4
04には選択肢入力としてそのまま加えられ、セレクタ
403にはその選択肢入力としてインバータ407で反
転されて加えられ、また、インバータ408を介して出
力同期信号DSYNCとして外部へ出力される. 信号VDがアクティブ(「L」)になると、分周器40
1、セレクタ403,404からそれぞれ信号1/8−
HSync,So,Slが出力され、出力データDAT
Aの出力が可能となる.第8図及び第1図をも参照しつ
つ、出力データDATAの出力動作を説明する. 原稿の走査が開始されると、1ライン目の先頭の画素に
対応するものから順に画像データDm17〜10が画像
判別部25及び濃度変換部26に入力される.上述のよ
うに、8本のラインに跨がる区分領域E毎に画像判別を
行うために、画像判別部25には8ライン分の画像デー
タDm17〜10が格納されるので、8ライン目までの
走査中における画像判別部25の出力は無効データであ
る.第8図においては、無効データには斜線を付してあ
る.したがって、信号VDは9ライン目の走査開始を示
す信号Hsyncに同期して「L」とされ、画像判別部
25からは、9ライン目の先頭の8画素分の画像データ
Dm17〜10が入力された時点から以後、信号1/8
・HSyncに同期して1ライン目を含む区分領域Eに
対応した判別属性データα0,αlが出力される.属性
メモリ30からは判別属性データα0,α1の出力にタ
イミングを合わせて指定属性データa2〜0が出力され
る. 一方、濃度変換部26にて8ド7}分の遅延が生じる. このため、画像処理部28には、画像判別部25に対し
て8ドット分遅れて9ライン目の画像データDm27〜
20が入力される.画像処理部28においても上述のよ
うに8ライン分の遅延が生じるので、9ライン目の画像
データDm27〜20が入力された時点で、lライン目
の画像データDm27〜20に対する画像処理が完了す
ることとなる.さらに、画像処理部28では、シリアル
/パラレル変換による遅延が生じ、9ライン目の入力時
点からさらに8ドット分遅れて、lライン目に対応した
画像データV I DEO 1〜8が8画素毎にまとめ
て並列出力される. 属性データ出力制御部3lは、画像データVIDEO1
〜日の出力にタイミングを合わせて属性データa4〜0
を出力する. このように出力された画像データVIDEO1〜8及び
属性データa4〜0は、それぞれ出力制御部29のデー
タラッチ回路405.406により、信号1/8・Hs
yncの立ち上がりのタイミングでラッチされる.ただ
し、データラッチ回路405.406では、ラッチデー
タは出力端子(Q)から常時出力されることはなく、出
力は、CPU2 0からの計2ビットの出力制御データ
CO,CIに応じた信号30,Sl (アクティブロー
)によって制御される. すなわち、出力制御データCO,CIがともに「0」の
場合には、信号SOは「L」 (接地レベル)とされ、
信号S1は「H」 (vCCレベル)とされ、データラ
ッチ回路405が出力可能状態となり、データラッチ回
路406の出力端子はハイインピーダンス状態となる.
これにより、出力制御部29からは、出力データDAT
Aとして画像データVIDEO1〜8が走査順に出力さ
れる.また、出力制御データCOが「1」であり且つ出
力制御データClが「O」である場合には、信号so,
siは、それぞれrH,、「LJとされ、出力データD
ATAとして属性データa4〜0が順次出力される。
The image processing section 28 includes a filtering section 281, a trimming/masking section 282, a simple binarization processing section 283, a halftone processing section 284, a data selection section 286, a selector 285, a negative processing section 287, etc. There is. The image processing unit 28 receives image data D from the density conversion unit 26.
m27 to m20 are input serially in the order of pixel arrangement. The input image data Dm2 7 to 20 are first subjected to processing for improving image quality such as edge enhancement and smoothing in the filtering section 281. Next, in the trimming/masking unit 282 according to the designated attribute data a2, when the data a2 is "1", the data is forcibly set to "0" corresponding to the blank area as a masking process. data a
When 2 is "0", the data is output as is from the trimming/masking unit 282 (data through). The image data output from the trimming/masking section 282 is binarized by a simple binarization processing section 283 and a false halftone processing section 284, respectively, and binary image data DA, D are obtained.
B is simultaneously input to the selector 285. The selector 285 selects and outputs either the binary image data DA or DB according to the output data DSELO from the data selection section 286. The data selection unit 286 includes the above-mentioned discrimination attribute data α obtained by automatically discriminating the binarized attribute.
0 as well as specified attribute data aO for controlling the binarization process, and the value of the output data is determined according to the value of this data aO. In other words, data aO is “0”
”, the discrimination attribute data αO is output as is as output data, and if the data aO is “1”, data obtained by inverting the discrimination attribute data α0 is output. In other words,
In the image processing unit 28, when the data aO is "0",
When the external designation of binarization processing is defaulted and binary image data is output based on the automatic discrimination of the binarization attribute by the image discrimination unit 25, and data aO is "1",
Binary image data that has been subjected to a binarization process that is the opposite of the result of automatic discrimination of binarization attributes will be output. If the designated attribute data a1 is "0", the negative processing unit 287 outputs the binary image data input from the selector 285 as is, and if the data a1 is "1", it outputs the binary image data with the values reversed. Output the data. When data is output from the negative processing section 287, it is sequentially output in the form of parallel image data V I DEO 1 to 8 of 8 pixels each. Note that the image processing unit 28 includes 8 lines of image data Dm2 in order to enable image discrimination for each segmented area E.
A line memory (not shown) for storing numbers 7 to 20 and 8-bit serial/parallel conversion means are provided. FIG. 6 is a block diagram of the attribute data output control section 30. The attribute data output control unit 30 outputs the discrimination attribute data α0. α
1 and specified attribute data aj to output 5 or 6 bits of attribute data a4 to 0 (or a5 to OJ). When outputting attribute data a4-0, attribute data a4. a3 is associated with the discrimination attribute data α0, α1, respectively, and when outputting the attribute data a5 to O, the attribute data a5, a4 are respectively associated with the discrimination attribute data α0. This corresponds to αl. In the following description, the attribute data output control section 30 will first be described as one that outputs attribute data a4 to a0. FIG. 7 is a block diagram of the output control section 29, and FIG. 8 is a timing chart showing the output operation of attribute data a4 to a0. The output control unit 29 includes a frequency divider 401 that outputs a signal 1/8·Hsync obtained by dividing the signal SYNCK by 1/8, a latch circuit 402 that latches the signal VD according to the signal Hsync, and output control data Co from the CPU 20. The selectors 403 and 404 respectively output output control signals SO and S1 in accordance with -1, and the outputs are controlled by the signals SO and SL, and are used to select image data VIDEO1 to VIDEO8 or attribute data a4 to 0 as output data DATA, respectively. It consists of data latch circuits 405, 406, etc. The signal 1/8・Hsync is sent to the data latch circuit 405,
406 clock terminal (CK), selector 4
04 as it is as a selection input, the selection input is inverted by an inverter 407 and added to the selector 403, and is outputted to the outside as an output synchronization signal DSYNC via an inverter 408. When signal VD becomes active (“L”), frequency divider 40
1. Signals 1/8- from selectors 403 and 404, respectively.
HSync, So, Sl are output and output data DAT
It becomes possible to output A. The output operation of the output data DATA will be explained with reference to FIGS. 8 and 1. When scanning of the original is started, image data Dm17 to Dm10 are input to the image discrimination section 25 and the density conversion section 26 in order from those corresponding to the first pixel of the first line. As mentioned above, in order to perform image discrimination for each segmented area E spanning eight lines, the image discrimination unit 25 stores eight lines of image data Dm17 to Dm10, so up to the eighth line. The output of the image discriminator 25 during scanning is invalid data. In Figure 8, invalid data is shaded. Therefore, the signal VD is set to "L" in synchronization with the signal Hsync indicating the start of scanning on the 9th line, and the image data Dm17 to Dm10 for the first 8 pixels of the 9th line are input from the image discrimination section 25. From that point onwards, signal 1/8
- In synchronization with HSync, the discrimination attribute data α0 and αl corresponding to the segmented area E including the first line are output. The attribute memory 30 outputs specified attribute data a2 to 0 in synchronization with the output of the discrimination attribute data α0 and α1. On the other hand, a delay of 8 do 7} occurs in the density conversion section 26. Therefore, the image processing section 28 receives the image data Dm27 to Dm27 of the 9th line with a delay of 8 dots relative to the image discriminating section 25.
20 is input. Since a delay of 8 lines occurs in the image processing unit 28 as described above, the image processing for the l-th line image data Dm27-20 is completed when the 9th line image data Dm27-20 is input. That's what happened. Furthermore, in the image processing unit 28, a delay occurs due to serial/parallel conversion, and the image data V I DEO 1 to 8 corresponding to the l-th line are processed every 8 pixels with a delay of 8 dots from the input point of the 9th line. They are all output in parallel. The attribute data output control unit 3l outputs image data VIDEO1.
~Attribute data a4~0 in time with the output of the day
Outputs . The image data VIDEO 1 to VIDEO 8 and the attribute data a 4 to 0 outputted in this way are processed by the data latch circuits 405 and 406 of the output control unit 29, respectively, into signals 1/8·Hs.
It is latched at the rising edge of ync. However, in the data latch circuits 405 and 406, the latch data is not always output from the output terminal (Q), and the output is the signal 30, which corresponds to the total 2-bit output control data CO, CI from the CPU 20. Controlled by Sl (active low). That is, when the output control data CO and CI are both "0", the signal SO is set to "L" (ground level),
The signal S1 is set to "H" (vCC level), the data latch circuit 405 becomes capable of outputting, and the output terminal of the data latch circuit 406 becomes a high impedance state.
As a result, the output control unit 29 outputs the output data DAT.
Image data VIDEO 1 to 8 are output as A in scanning order. Further, when the output control data CO is "1" and the output control data Cl is "O", the signals so,
si are rH, ``LJ, respectively, and the output data D
Attribute data a4 to a0 are sequentially output as ATA.

さらに、出力制御データCOが「0」であり且つ出力制
御データC1が「1」である場合には、信号SO,SL
は、信号1/8・Hsyncに応じてrH,又は「L」
とされ、出力データDATAとして画像データV I 
DEO 1〜8と属性データa4〜0とが交互に出力さ
れる. つまり、イメージリーダ1では、ホスト装置からのコマ
ンド指定によって出力制御データCO,C1を設定して
おくことにより、通常どおりに画像データVIDEO1
〜8を出力させるか、画像編集の領域指定の修正などの
ために属性データa4〜0を出力させるか、または画像
とその属性とを同時に表示させて画像判別の確認を行う
などのために画像データV I DEO 1〜8とこれ
に対応した属性データa4〜Oとを交互に出力させると
いうように、出力データDATAの活用目的や受け側の
データ処理形態などに応じて出力の選択が可能である。
Further, when the output control data CO is "0" and the output control data C1 is "1", the signals SO, SL
is rH or "L" according to the signal 1/8・Hsync
As output data DATA, image data VI
DEO 1-8 and attribute data a4-0 are output alternately. In other words, in the image reader 1, by setting the output control data CO, C1 according to the command specification from the host device, the image data VIDEO1 can be processed as usual.
~8, output attribute data a4~0 for correcting the area specification in image editing, or display the image and its attributes at the same time to confirm image discrimination. The output can be selected depending on the purpose of use of the output data DATA and the data processing form of the receiving side, such as alternately outputting the data V I DEO 1 to 8 and the corresponding attribute data a4 to O. be.

なお、第8図に示されるように、イメージリーダ1では
、画像データV I DEO 1〜8及び属性データa
4〜0を出力する場合において、両者のデータが画像デ
ータV I DEO 1〜8のみを出力する場合の2分
の1の周期で交互に出力されるので、属性データa4〜
0の出力によって画像データD1〜8の出力時間が延長
することはない.また、属性データa4〜0は画像デー
タV I DEO1〜8と同一の信号線を介して出力さ
れ、属性データa4〜0の出力のために専用の信号線を
設ける必要がない. 次に、第9図〜第18図のフローチャートを参照してイ
メージリーダ1の動作を説明する.第9図はCPU20
の動作を概略的に示すメインフローチャートである. 電源が投入されてプログラムがスタートすると、まず、
ステップ#1で初期設定を行う.ステップ#2において
は、ホスト装置からのコマンドの有無をチェックする.
コマンドが有れば、コマンドの種別を判断し(ステップ
#3)、種別に応じて、読取り処理(ステップ#4)、
読取りモード指定処理(ステップ#5)、属性指定処理
(ステップ#6)、出力データ指定処理(ステップ#7
)を実行する. その後、その他の処理(ステップ#8)を実行しステッ
プ#2へ戻り、ステップ#2〜ステップ#8の処理を繰
り返す. 第10図は受信処理のフローチャート、第11図は送信
処理のフローチャートである.これらのルーチンは割り
込みルーチンであり、ホスト装置からのアクセスに応じ
て適時実行される. 第lO図の受信処理においては、まず、受信した信号の
コード解析(ステップ#1l)を行い、ステップ#12
でコマンドの受信が確認された場合には、受信したコマ
ンドをレジスタ20b内の所定領域に格納する(ステッ
プ#13)。
Note that, as shown in FIG. 8, in the image reader 1, image data V I DEO 1 to 8 and attribute data a
In the case of outputting 4 to 0, both data are output alternately at half the cycle of the case of outputting only image data V I DEO 1 to 8, so the attribute data a4 to
Outputting 0 does not extend the output time of image data D1 to D8. Further, the attribute data a4-0 are outputted via the same signal line as the image data V I DEO1-8, and there is no need to provide a dedicated signal line for outputting the attribute data a4-0. Next, the operation of the image reader 1 will be explained with reference to flowcharts shown in FIGS. 9 to 18. Figure 9 shows CPU20
This is a main flowchart schematically showing the operation of. When the power is turned on and the program starts, first,
Perform initial settings in step #1. In step #2, the presence or absence of a command from the host device is checked.
If there is a command, the type of command is determined (step #3), and depending on the type, reading processing (step #4) is performed.
Reading mode specification processing (step #5), attribute specification processing (step #6), output data specification processing (step #7)
). Thereafter, other processing (step #8) is executed, the process returns to step #2, and the processing from step #2 to step #8 is repeated. FIG. 10 is a flowchart of reception processing, and FIG. 11 is a flowchart of transmission processing. These routines are interrupt routines and are executed at appropriate times in response to access from the host device. In the receiving process shown in FIG.
If reception of the command is confirmed, the received command is stored in a predetermined area in the register 20b (step #13).

受信した信号が、ステータスの通知を要求するものであ
れば(ステップ#14)、待機状態やウェイト状態など
のステータスを示すデータをレジスタ20bから読み出
してホスト装置へ送信する.また、受信した信号が予め
定義されているコマンド及びステータス要求の何れにも
対応しない場合には、受信エラーを示すコードデータを
送信する(ステップ#16), 第11図の送信処理においては、前の送信が完了して次
の送信が可能となるのを待ち(ステップ#21)、送信
すべきコードデータをレジスタ2obにセットする(ス
テップ#22),その後、ステップ#23で、続いて送
信すべきコードデータの有無、すなわち送信の要否をチ
ェックし、送信が必要であればステップ#2lへ戻る. 第12図は第9図のステップ#1の初期設定のフローチ
ャートである. まず、ステータスとして、読取り走査のための準備の途
中であることを示すrWA I ”r,,をセットする
.すなわち、レジスタ20b内のステータス用の領域に
rWA I T.に対応したデータを格納する(ステソ
プ#31). 次に、ステ・冫ブ#32で、各部が正常に動作するか否
かをチェックするためのセルフテストを行う. ステップ#33で、異常の有無をチェックし、異常が有
れば、ステップ#37へ移って動作不可コードをホスト
装置へ送信する. 異常が無ければ、ステップ#34へ進み、各部の初期化
を行う。このとき、属性メモリ30に対しては、指定属
性データaO,al,a2として「0」が書き込まれる
。したがって、以降において指定属性データaO〜a2
の書き換えがなければ、、画像処理部28においては、
トリミング及びネガポジ反転の画像編集は施されず、且
つ2値化処理は判別属性データαOに基づいて行われる
ことになる. また、濃度変換部26においては、標準の濃度となるよ
うに設定が行われ、出力制御部29においては、画像デ
ータV r DEO 1〜8と属性データa4〜0が交
互に出力されるようにセレクタ403,404の入力が
選ばれる。
If the received signal requests status notification (step #14), data indicating the status such as standby state or wait state is read from the register 20b and transmitted to the host device. Furthermore, if the received signal does not correspond to any of the predefined commands and status requests, code data indicating a reception error is transmitted (step #16). Wait until the next transmission is possible (step #21), set the code data to be transmitted in register 2ob (step #22), and then wait until the next transmission is possible in step #23. The presence or absence of the code data, that is, the necessity of transmission is checked, and if transmission is necessary, the process returns to step #2l. FIG. 12 is a flowchart of the initial setting of step #1 in FIG. 9. First, as the status, rWA I ``r,, indicating that preparation for read scanning is in progress is set. That is, data corresponding to rWA I T. is stored in the status area in the register 20b. (Step #31) Next, step #32 performs a self-test to check whether each part is working properly. Step #33 checks for any abnormalities. If there is, the process moves to step #37 and an inoperable code is sent to the host device. If there is no abnormality, the process moves to step #34 to initialize each part. At this time, the attribute memory 30 is "0" is written as attribute data aO, al, a2. Therefore, in the following, designated attribute data aO to a2
If there is no rewriting, in the image processing unit 28,
Image editing such as cropping and negative/positive reversal is not performed, and binarization processing is performed based on the discrimination attribute data αO. Further, the density converter 26 is set to have a standard density, and the output controller 29 is set so that the image data V r DEO 1 to 8 and the attribute data a4 to 0 are output alternately. The inputs of selectors 403 and 404 are selected.

これらの初期化の後に、ステップ#35で、第1スライ
ダ13をホーム位置へ移動し、移動が終了すると、ステ
ップ#36で、ステータスを「WAIT,から待機状態
を示すrREADY,に変更する. 第13図は上述の読取り処理のフローチャートである. まず、ステータスを読取り中であることを示すrBUS
YJとし(ステップ#41)、露光ランブ4を点灯する
(ステップ#42). 次に、スキャナモータl6をオンし(ステップ#43)
、第1スライダ13がシェーディング位置、つまり基準
パターン14の直下の位置に達するのを待つ(ステップ
#44). 第1スライダl3が基準パターン14に達すると、シェ
ーディング補正のために基準パターン14を読み取り、
基準画像データ(白色データ)をラインメモリ24に格
納する(ステップ#45).続いて、ステップ#46で
、第1スライダl3が原稿の先端位置に達するのを待ち
、ステノプ#47で、同期信号発生部40をオンして同
期信号を出力させる.これにより、同期信号に従って各
部が動作し、上述のように9ライン目の走査開始後に有
効な画像データVIDEO1〜8及び属性データ84〜
0が交互に出力される. 原稿の走査の終了、すなわち第1スライダl3が原稿の
後端位置に達するのを待ち(ステップ#48)、同期信
号発生部40をオフし(ステップ#49)、スキャナモ
ータ16を一旦オフし(ステップ#50)、露光ランプ
4を消灯する(ステップ#51). そして、スキャナモータ16を逆転させて両スライダ1
3.13aをリターンさせ(ステノプ#52)、第1ス
ライダ13がホーム位置に戻るのを待ち(ステップ#5
3)、スキャナモータ16をオフし(ステップ#54)
、最後に、ステップ#55でステータスをrREADY
,とする.第14図は第9図のステップ#5の読取りモ
ード指定処理のフローチャートである。
After these initializations, the first slider 13 is moved to the home position in step #35, and when the movement is completed, the status is changed from "WAIT" to rREADY, which indicates a standby state, in step #36. Figure 13 is a flowchart of the above-mentioned reading process. First, the rBUS signal indicating that the status is being read.
YJ (step #41), and expose lamp 4 is turned on (step #42). Next, turn on the scanner motor l6 (step #43).
, waits for the first slider 13 to reach the shading position, that is, the position directly below the reference pattern 14 (step #44). When the first slider l3 reaches the reference pattern 14, the reference pattern 14 is read for shading correction,
The reference image data (white data) is stored in the line memory 24 (step #45). Next, in step #46, the first slider l3 reaches the leading edge position of the document, and in step #47, the synchronizing signal generator 40 is turned on to output a synchronizing signal. As a result, each part operates according to the synchronization signal, and as described above, image data VIDEO 1 to 8 and attribute data 84 to 84 are valid after the start of scanning for the 9th line.
0 is output alternately. Wait for the scanning of the original to end, that is, for the first slider l3 to reach the rear end position of the original (step #48), turn off the synchronization signal generator 40 (step #49), and temporarily turn off the scanner motor 16 ( Step #50), and turning off the exposure lamp 4 (Step #51). Then, the scanner motor 16 is reversed so that both sliders 1
3. Return 13a (Stenop #52) and wait for the first slider 13 to return to the home position (Step #5
3) Turn off the scanner motor 16 (step #54)
, Finally, in step #55, set the status to rREADY.
,. FIG. 14 is a flowchart of the reading mode designation process in step #5 of FIG.

ステップ#61で、ステータスをrWAITJとし、ス
テップ#62で、コマンドに含まれているパラメータを
チェックし、パラメータに応じて濃度指定(ステップ#
63)又は出力対象機器の指定などを行うその他の指定
(ステップ#64)を実行する.そして、ステップ#6
5でステータスをrREADYJに戻す. 第15図はステップ#63の濃度指定のフローチャート
である. ステップ#71で、濃度の指定方法が自動であるか否か
をチェックする.指定方法が自動以外であれば、ステッ
プ#74へ移り、そこでオペレータによる指定操作に基
づいてホスト装置から送られるパラメータに応じて濃度
変換部26の設定を行う. ステップ#71で自動と判断された場合には、ステップ
#72で原稿の濃度を検知するための予備走査を行い、
ラインメモリ24に順次格納される画像データDm17
〜10をRAM2 0 cに適時取り込む.そして、ス
テップ#73でRAM20cのデータに基づいて原稿の
濃度を検知した後にステップ#74へ進み、検知結果に
応じて濃度変換部26の設定を行う. 第16図は第9図のステップ#6の属性指定処理のフロ
ーチャートである. まず、ステータスをrWAIT」とし(ステ・冫プ#8
1)、指定の正否をチェックする(ステ・冫プ#82)
. 指定が正しくない場合、例えば、読取り範囲外の領域が
指定された場合や座標指定の順序に誤りがある場合には
、ステップ#85へ移ってエラーコードをホスト装置へ
送信する. 指定が正しい場合には、属性メモリ30に対して指定属
性データaO,at,a2の書き込む属性データ書込み
処理を実行し(ステンプ#83)、ステータスをrRE
ADY,とする(ステップ#84). 第17図はステップ#B3の属性データ書込み処理のフ
ローチャートである. ステップ#91で、ホスト装置からの指定の種別をチェ
ックし、種別に応じてステップ#92〜ステップ#98
の各処理を実行する。
In step #61, the status is set to rWAITJ, and in step #62, the parameters included in the command are checked, and the concentration is specified according to the parameters (step #62).
63) or other specifications such as specifying the output target device (step #64). And step #6
Step 5 returns the status to rREADYJ. FIG. 15 is a flowchart for specifying density in step #63. In step #71, it is checked whether the density specification method is automatic. If the designation method is other than automatic, the process moves to step #74, where the density conversion section 26 is set according to the parameters sent from the host device based on the designation operation by the operator. If automatic is determined in step #71, preliminary scanning is performed to detect the density of the document in step #72.
Image data Dm17 sequentially stored in line memory 24
Load ~10 into RAM20c at the appropriate time. Then, in step #73, the density of the document is detected based on the data in the RAM 20c, and then the process proceeds to step #74, where the density conversion unit 26 is set according to the detection result. FIG. 16 is a flowchart of the attribute specification process in step #6 of FIG. First, set the status to "rWAIT" (step #8
1) Check whether the specification is correct or not (Step #82)
.. If the specification is incorrect, for example, if an area outside the reading range is specified or if there is an error in the order of coordinate specification, the process moves to step #85 and an error code is sent to the host device. If the specification is correct, execute attribute data write processing to write the specified attribute data aO, at, a2 to the attribute memory 30 (step #83), and set the status to rRE.
ADY, (step #84). FIG. 17 is a flowchart of the attribute data writing process in step #B3. In step #91, the type specified from the host device is checked, and steps #92 to #98 are performed according to the type.
Execute each process.

すなわち、2値化属性の自動判別が指定された場合には
、ステップ#92で、指定された区分領域已について、
指定属性データaOを「O」とする. 2値化属性が予め指定された場合には、ステップ#93
で、指定された区分領域已について、指定属性データa
Oを「1」とする. ポジの指定、つまり、白黒反転を行わない旨の指定がな
された場合には、ステップ#94で、指定された区分領
域已について、指定属性データa1を「O」とする.こ
れに対して、ネガの指定、つまり白黒反転を行う旨の指
定がなされた場合には、ステップ#95で、指定された
区分領域已について、指定属性データa1を「l」とす
る。
That is, when automatic discrimination of binarization attributes is specified, in step #92, for the specified segmented area,
Let the specified attribute data aO be "O". If the binarization attribute is specified in advance, step #93
Then, for the specified segmented area, the specified attribute data a
Let O be "1". If a positive designation, that is, a designation not to perform black and white reversal, is made, in step #94, the designated attribute data a1 is set to "O" for the designated segmented area. On the other hand, if a negative designation, that is, a designation to perform black and white reversal, is made, in step #95, the designated attribute data a1 is set to "l" for the designated segmented area.

トリミングが指定された場合には、ステップ#96で、
指定された区分領域E以外について、指定属性データa
2をrlJとし、マスキングが指定された場合には、ス
テップ#97で、指定された区分頌域已について、指定
属性データa2をr1」とする. また、トリミング・マスキング解除が指定された場合に
は、ステップ#98で、指定された区分領域E以外につ
いて、指定属性データa2を「O」に戻す. 第18図は第9図のステップ#7の出力データ指定処理
のフローチャートである. このルーチンでは、最初にステップ#101で出力デー
タDATAの種別をチェックし、種別に応じて、ステッ
プ#l02〜ステップ#104の処理を行う. 画像データV I DEO 1〜8のみの出力が選択さ
れた場合には、ステップ#l02で、出力制1Iデータ
CO,Clをともに「0」とする.属性データ34〜0
のみの出力が選択された場合には、ステップ#l03が
実行され、出力制御データCOは「1」とされ、出力制
御データCIは[OJとされる. また、画像データV I DEO 1〜B及び属性デー
タa4〜0の双方の出力が選択された場合には、ステッ
プ#l04で、出力制御データCOは「0」とされ、出
力制御データC1は「1」とされる, 第19図は請求項2の発明に係る画像処理部28aのブ
ロック図である. 同図において、第5図と同一の機能を有する構成要素に
ついては同一の符号を付しその説明を省略する. 画像処理部28aでは、第5図の画像処理部28におけ
るセレクタ285及びデータ選択部286に代えてセレ
クタ285a及びデータ選択部286aが設けられてい
る. データ選択部286aには、判別属性データα0と、各
区分領域已に対する2値化属性を予め指?した指定属性
データaO■とがそれぞれ選択肢入力として加えられる
とともに、出力の選択を制御するための指定属性データ
a3が加えられる.指定属性データa3の値が「0」の
ときは、判別属性データαOが優先され、出力データD
SELlとして出力される.逆に、指定属性データa3
の値が「1」のときは、指定属性データa(1+が優先
され、出力データDSEL 1として出力される. セレクタ285aは、データ選択部286aからの出力
データDSEL lの値に応じて2値画像データDA,
DBの一方を選択して出力する.つまり、画像処理部2
8aでは、指定属性データa3を属性メモリ30に記憶
させておくことにより、2値化処理について、画像判別
部25による判別結果に基づく自動実行、又は外部から
指定された2値化属性に基づく外部指定実行の選択が可
能である. 第20図は請求項2の発明に係る属性データ書込み処理
のフローチャートである. ?まり、第20図は第19図の画像処理部28aに対応
する. ステップ#291で、ホスト装置からの指定の種別をチ
ェックし、種別に応じてステップ#292〜ステップ#
300の各処理を実行する。なお、ステップ#294〜
ステップ#298は、それぞれ第17図のステップ#9
4〜ステップ#98と同一の処理であるので、説明を省
略する。
If trimming is specified, in step #96,
Specified attribute data a for areas other than the specified segmented area E
2 is set to rlJ, and if masking is specified, in step #97, the specified attribute data a2 is set to r1'' for the specified section range. If trimming/unmasking is designated, in step #98, the designated attribute data a2 is returned to "O" for areas other than the designated segmented area E. FIG. 18 is a flowchart of the output data designation process in step #7 of FIG. In this routine, the type of output data DATA is first checked in step #101, and steps #102 to #104 are performed depending on the type. If output of only image data V I DEO 1 to 8 is selected, in step #l02, both output control 1I data CO and Cl are set to "0". Attribute data 34-0
If the output of only is selected, step #l03 is executed, the output control data CO is set to "1", and the output control data CI is set to [OJ. Furthermore, if output of both the image data V I DEO 1 to B and the attribute data a4 to 0 is selected, in step #l04, the output control data CO is set to "0" and the output control data C1 is set to " FIG. 19 is a block diagram of the image processing section 28a according to the invention of claim 2. In the same figure, components having the same functions as those in FIG. 5 are given the same reference numerals and their explanations will be omitted. The image processing section 28a is provided with a selector 285a and a data selection section 286a in place of the selector 285 and data selection section 286 in the image processing section 28 of FIG. The data selection unit 286a is provided with the discrimination attribute data α0 and the binarization attribute for each segmented area in advance. The designated attribute data aO■ are respectively added as option inputs, and the designated attribute data a3 for controlling the selection of outputs is added. When the value of designated attribute data a3 is "0", priority is given to discrimination attribute data αO, and output data D
Output as SELl. Conversely, specified attribute data a3
When the value of is "1", the specified attribute data a (1+ is given priority and is output as output data DSEL 1. The selector 285a selects a binary value according to the value of the output data DSEL l from the data selection section 286a. Image data DA,
Select one of the DBs and output. In other words, the image processing section 2
8a, by storing designated attribute data a3 in the attribute memory 30, the binarization process can be automatically executed based on the discrimination result by the image discriminator 25, or externally executed based on the binarization attribute specified from the outside. It is possible to select specific execution. FIG. 20 is a flowchart of attribute data writing processing according to the invention of claim 2. ? In other words, FIG. 20 corresponds to the image processing section 28a in FIG. 19. In step #291, the specified type from the host device is checked, and depending on the type, steps #292 to #
300 processes are executed. Note that step #294~
Step #298 is step #9 in FIG. 17, respectively.
Since this process is the same as steps 4 to #98, the explanation will be omitted.

単純2値化処理の指定がなされた場合には、ステップ#
292で、指定された区分領域已について、指定属性デ
ータaO■を「0」とし、疑似中間調処理が指定された
場合には、ステップ#293で、指定された区分頚城已
について、指定属性データaOaを「1」とする. また、2値化処理に間し、上述のように自動判別(判別
属性データαO)を優先する旨の指定がなされた場合に
は、ステップ#299で、指定された区分領域已につい
て、指定属性データa3を「0」とする.これに対して
、外部指定(指定属性データahJ)を優先する旨の指
定がなされた場合には、ステνブ#300で、指定され
た区分領域已について、指定属性データa3を「0」と
する. 上述の実施例によれば、2値化属性の判別結果に対応し
た判別属性データα0が出力されるので、ホスト装置に
て文字認識を行う場合には、判別属性データαOに基づ
いて、文字画像に対応する区分饅域Eのみについて認識
処理を実行することができ認識効率が向上する.また、
イメージリーダ1をファイリングシステムやファクシミ
リの画像読取り手段として用いる場合には、判別属性デ
ータα0に基づいて、画像データV I DEO 1〜
8に対して線画像又は中間調画像のそれぞれに遺したデ
ータ圧縮などのデータ処理を施すことが可能となる. 〔発明の効果〕 本発明によれば、できる限り判別手段の利用が図られ、
画像処理の指定の簡略化が可能となる.
If simple binarization processing is specified, step #
In step #292, the specified attribute data aO■ is set to "0" for the specified segmented area, and if pseudo halftone processing is specified, in step #293, the specified attribute data aO is set to "0" for the specified segmented area. Let aOa be "1". In addition, during the binarization process, if it is specified to give priority to automatic discrimination (discrimination attribute data αO) as described above, in step #299, the specified attribute is Set data a3 to ``0''. On the other hand, if it is specified that the external specification (specified attribute data ahJ) is given priority, in step #300, the specified attribute data a3 is set to "0" for the specified segmented area. do. According to the embodiment described above, the discrimination attribute data α0 corresponding to the discrimination result of the binarized attribute is output, so when character recognition is performed on the host device, the character image is determined based on the discrimination attribute data αO. Recognition processing can be executed only for the segmented bun area E corresponding to , which improves recognition efficiency. Also,
When the image reader 1 is used as an image reading means for a filing system or a facsimile, image data V I DEO 1 to
8, it becomes possible to perform data processing such as data compression on line images or halftone images. [Effects of the Invention] According to the present invention, the discrimination means is utilized as much as possible,
It is possible to simplify the specification of image processing.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係る電気回路部のブロック図、第2図
はイメージリーグの概略の構成を示す断面正面図、第3
図は属性メモリの構成を示す図、第4図は画像判別部の
ブロック図、第5図は画像処理部のブロック図、第6図
は属性データ出力制御部のブロック図、第7図は出力制
御部のブロック図、第8図は属性データの出力動作を示
すタイミングチャート、第9図〜第18図はイメージリ
ーグの動作を示すフローチャート、第19図は請求項2
の発明に係る画像処理部のブロック図、第20図は請求
項2の発明に係る属性データ書込み処理のフローチャー
トである. 1・・・イメージリーグ(画像読取り装置)、25・・
・画像判別部(属性判別手段)、28・・・画像処理部
(N像処理手段)、30・・・属性メモリ(属性記憶手
段)、aO・・・指定属性データ(補正指定属性データ
)、aOJ・・一指定属性データ(判別指定属性データ
)、 al.a2・・・指定属性データ、 a3・・・指定属性データ(優先指定属性データ)、a
5〜0.0J・・・属性データ、 αO.α1・・・判別属性データ、 V I D E O 1〜B ・・・画像データ、Dm
27〜20・・・画像データ(信号)E・・・区分領域
である。
FIG. 1 is a block diagram of the electric circuit section according to the present invention, FIG. 2 is a cross-sectional front view showing the general configuration of the image league, and FIG.
The figure shows the configuration of the attribute memory, Figure 4 is a block diagram of the image discrimination unit, Figure 5 is a block diagram of the image processing unit, Figure 6 is a block diagram of the attribute data output control unit, and Figure 7 is the output A block diagram of the control unit, FIG. 8 is a timing chart showing the output operation of attribute data, FIGS. 9 to 18 are flow charts showing the operation of the image league, and FIG. 19 is a claim 2.
FIG. 20 is a block diagram of the image processing unit according to the invention of claim 2, and FIG. 20 is a flowchart of attribute data writing processing according to the invention of claim 2. 1...Image league (image reading device), 25...
- Image discrimination section (attribute discrimination means), 28... Image processing section (N image processing means), 30... Attribute memory (attribute storage means), aO... Specified attribute data (correction specified attribute data), aOJ... one specified attribute data (discrimination specified attribute data), al. a2...Specified attribute data, a3...Specified attribute data (priority specified attribute data), a
5-0.0J...attribute data, αO. α1...Discrimination attribute data, V I D E O 1-B... Image data, Dm
27-20... Image data (signal) E... Sectional area.

Claims (2)

【特許請求の範囲】[Claims] (1)原稿を画素に細分化して読み取り、得られた信号
に画像処理を施し、各画素に対応した画像データを出力
するように構成された画像読取り装置において、 前記原稿を区分した各区分領域毎に生成された画像処理
のための指定属性データを記憶する属性記憶手段と、 前記原稿の読み取りに合わせて前記区分領域毎に特定の
属性の判別を行い、判別属性データを生成する属性判別
手段と、 前記指定属性データ及び前記判別属性データの内の少な
くとも一方に基づいて画像処理を行う画像処理手段とを
備え、 前記指定属性データが、前記属性判別手段による誤判別
を補正するための補正指定属性データを含み、当該補正
指定属性データによって前記判別属性データに基づく画
像処理とは逆の画像処理を施すことが可能に構成されて
なることを特徴とする画像読取り装置。
(1) In an image reading device configured to read a document by dividing it into pixels, perform image processing on the obtained signal, and output image data corresponding to each pixel, each segmented area into which the document is divided. Attribute storage means for storing designated attribute data for image processing generated in each case; and Attribute determination means for determining a specific attribute for each of the divided areas in accordance with reading of the document and generating discriminating attribute data. and an image processing unit that performs image processing based on at least one of the specified attribute data and the discrimination attribute data, wherein the specified attribute data includes a correction specification for correcting misclassification by the attribute discrimination unit. An image reading device comprising attribute data, and configured to be capable of performing image processing opposite to image processing based on the discrimination attribute data using the correction specifying attribute data.
(2)原稿を画素に細分化して読み取り、得られた信号
に画像処理を施し、各画素に対応した画像データを出力
するように構成された画像読取り装置において、 前記原稿を区分した各区分領域毎に生成された画像処理
のための指定属性データを記憶する属性記憶手段と、 前記原稿の読み取りに合わせて前記区分領域毎に特定の
属性の判別を行い、判別属性データを生成する属性判別
手段と、 前記指定属性データ及び前記判別属性データの内の少な
くとも一方に基づいて画像処理を行う画像処理手段とを
備え、 前記指定属性データが、前記特定の属性を予め指定した
判別指定属性データと、画像処理にて前記判別属性デー
タ及び当該判別指定属性データの内の一方を優先させる
ための優先指定属性データとを含み、任意の前記区分領
域についての当該特定の属性に対応した画像処理の自動
実行又は外部指定実行が選択可能に構成され てなることを特徴とする画像読取り装置。
(2) In an image reading device configured to read a document by dividing it into pixels, perform image processing on the obtained signal, and output image data corresponding to each pixel, each segmented area into which the document is divided. Attribute storage means for storing designated attribute data for image processing generated in each case; and Attribute determination means for determining a specific attribute for each of the divided areas in accordance with reading of the document and generating discriminating attribute data. and an image processing unit that performs image processing based on at least one of the specified attribute data and the discrimination attribute data, the specified attribute data being discrimination specification attribute data that specifies the specific attribute in advance, automatic execution of image processing corresponding to the specific attribute for any of the segmented areas, including priority specification attribute data for giving priority to one of the discrimination attribute data and the discrimination specified attribute data in image processing; An image reading device characterized in that the image reading device is configured such that execution of external designation can be selected.
JP2011141A 1990-01-19 1990-01-19 Picture reader Pending JPH03214967A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011141A JPH03214967A (en) 1990-01-19 1990-01-19 Picture reader
US07/642,688 US5371610A (en) 1990-01-19 1991-01-17 Image data processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011141A JPH03214967A (en) 1990-01-19 1990-01-19 Picture reader

Publications (1)

Publication Number Publication Date
JPH03214967A true JPH03214967A (en) 1991-09-20

Family

ID=11769743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011141A Pending JPH03214967A (en) 1990-01-19 1990-01-19 Picture reader

Country Status (1)

Country Link
JP (1) JPH03214967A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6104832A (en) * 1992-09-11 2000-08-15 Canon Kabushiki Kaisha Image processing method and apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6104832A (en) * 1992-09-11 2000-08-15 Canon Kabushiki Kaisha Image processing method and apparatus
US6385338B1 (en) 1992-09-11 2002-05-07 Canon Kabushiki Kaisha Image processing method and apparatus

Similar Documents

Publication Publication Date Title
US5371610A (en) Image data processing apparatus
US5631983A (en) Image forming system for synthesizing color image data with binary image data which has been colored with a predetermined color during the synthesizing operation
US5602655A (en) Image forming system for single bit image data
US6228125B1 (en) Image processing apparatus for parallel image processing and method therefor
JPH03214967A (en) Picture reader
US6028966A (en) Image reading apparatus and method including pre-scanning
JPH03214965A (en) Picture reader
JPH03214969A (en) Picture reader
JPH03214970A (en) Picture reader
US6055007A (en) Image processing device and image reading device
JP2557480B2 (en) Color image processor
JPH08251355A (en) Image reader
JPH05199404A (en) Variable enlargement processing method for image reader
JPH05268479A (en) Picture reader and picture processing method in picture reader
JP3358133B2 (en) Image processing device
JPH02295351A (en) Picture processing system
JP2557481B2 (en) Color image processor
JP2656561B2 (en) Color image processing equipment
JP3096042B2 (en) Color image reader
JPH05284355A (en) Contrast correction circuit for picture data
JP2926710B2 (en) Image processing device
JP2783739B2 (en) Drop-out color adjustment method
JP3382247B2 (en) Image processing system
JP3147234B2 (en) Color image reader
JP2557479B2 (en) Color image processor