JP2000508460A - How to determine the geometric data of an attention-related image section - Google Patents

How to determine the geometric data of an attention-related image section

Info

Publication number
JP2000508460A
JP2000508460A JP10530445A JP53044598A JP2000508460A JP 2000508460 A JP2000508460 A JP 2000508460A JP 10530445 A JP10530445 A JP 10530445A JP 53044598 A JP53044598 A JP 53044598A JP 2000508460 A JP2000508460 A JP 2000508460A
Authority
JP
Japan
Prior art keywords
image
original
value
relevant
scanner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10530445A
Other languages
Japanese (ja)
Inventor
クラッベンヘフト ウーヴェ―イェンス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heidelberger Druckmaschinen AG
Original Assignee
Heidelberger Druckmaschinen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heidelberger Druckmaschinen AG filed Critical Heidelberger Druckmaschinen AG
Publication of JP2000508460A publication Critical patent/JP2000508460A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 原画の注目関連画像セクションの、位置、寸法及び角度位置のような幾何学的データを自動的に求める方法が提示される。前記原画は、スキャナタブレットないしスキャナドラム上に取り付けられる。このためにスキャンされた原画のスキャンデータから明度像ないし明度画像が取得され、分析される。デジタルエッジフィルタリングにより、主に、水平及び垂直エッジが強調される。フィルタリングされた明度像ないし明度画像から、注目関連した画像セクションに対して適合された直線が求められ、この適合された直線から原画の注目関連した画像セクションが求められる。 (57) Abstract A method is presented for automatically determining geometric data, such as position, dimensions, and angular position, of a relevant image section of interest in an original. The original is mounted on a scanner tablet or scanner drum. For this purpose, a brightness image or a brightness image is obtained from scan data of the scanned original image and analyzed. Digital edge filtering mainly emphasizes horizontal and vertical edges. From the filtered brightness image or brightness image, a fitted line is determined for the relevant image section of interest, and from this fitted straight line the relevant image section of the original image is determined.

Description

【発明の詳細な説明】 注目関連画像セクションの幾何学的データを求める方法 本発明は、電子的複製再現技術の分野に係わり、そして、スキャナタブレット ないしスキャナドラム上に取り付けられる原画の画像セクションの、位置、寸法 及び角度位置のような幾何学的データを自動的に求める方法に関する。 複製技術では、テキスト、グラフィック及び画像のようなすべての被印刷エレ メントを含む印刷ページに対して印刷原画が作製されている。1つの画像に対し てデータは例えば次のようにして生ぜしめられる、即ち、画像がスキャナにて点 状及びライン状にスキャンされ、各画点が色成分に分解され、当該成分の色値が デジタル化されるのである。通常画像は、スキャナにて、色成分、赤、緑、青( R,G,B)に分解される。4色刷りに対して、当該の色成分は、更に、印刷イ ンキシアン、マゼンタ、黄及び黒(C、M、Y、K)に変換される。黒白画像に 対してスキャナは、同じようにグレイ値を有する唯一のコンポーネントを生じさ せるか、又は差し当たり、スキャンされたRGBコンポーネントは事後的に印刷 黒へ換算される。 スキャナは、そこにてスキャナすべき原画がスキャ ナタブレット上に取り付けられるクラットベット形機器であり得る。原画は透明 であり得(スライド又はカラーネガ)、又は反射的(反射画像)であり得る。ス キャナタブレットは照射され、1つのスキャナラインの透明又は反射光がカラー フィルタにより色成分に分解される。色成分の光が、例えば、CCDラインを介 して、さらに離散的画点に分解され、電気信号に分解され、該電気信号は引き続 いてデジタル化される。代替選択的ドラムスキャナを使用することもでき、この ドラムスキャナでは原画が透明なスキャナドラム上へ取付られる。スキャナドラ ムは、原画に応じて(透明か又は反射的)点状に内方又は外方から照射され、そ して、色コンポーネントの透過、ないし反射光は、スキャナヘッドにて光センサ へフォーカシングされ、電気信号に変換される。ここでスキャナドラムは、回転 すると共に、照射装置及びスキャナヘッドはスキャナドラムの軸に沿って動かさ れ、その結果スキャナドラムの表面は、点状及びライン状にスキャンされる。 原画のスキャンを実施するため、複数の原画がスキャナタブレットないしスキ ャナドラムへ取付られ、それらの複数の原画をスキャナは自動的に相次いでスキ ャナし、デジタル化し、記憶するものである。このために、作業準備プロセスに て、スキャナタブレットないしスキャナドラム上での画像の位置、それの寸法及 び角度位置を入力しなければならない。それにより、 スキャナによりスキャンされ、個々の画像に対応付けるべき利用可能なスキャン 面のセクションが規定される。 同時出願(内部書類番号96/958,“Verfahren zur Be stimmung der Geometriedaten von Abta stvorlagen”において、スキャン原画の幾何学的データが全スキャン 面の全体的ないしオーバーオール(overall)スキャンにより粗い分解能でどの ように、自動的に求められるかが記載されている。そのようにして求められた幾 何学的データは、各原画に対して、縁を含めた画像全体を含むスキャン矩形を表 す。細かな分解能での画像スキャンのため、換言すれば、印刷原画の作製のため 利用されるべき画像データの生成のため、たんに注目関連した画像内容のみを含 む、縁のない画像セクションのみが必要とされる。 従来技術によれば注目関連した画像セクションに対する幾何学的データの入力 は時間を要する。このために、比較的わずかな分解能での原画の事前スキャン( プリスキャンPrescan)が実施される。原画の 事前スキャンは、モニタ 上にて表示され、そして、次いでカーソルにより手動的に画像スクリーン上に注 目関連した画像セクションのコーナ点がマーキングされる。事前スキャン、スキ ャニングは、注目関連した画像セクション内で、当該の事前スキャンのスキャン デ ータをグラデーション、コントラスト、色等に関して分析し、それにより、スキ ャナの調整セッティングパラメータを微細な分解能での最終的スキャンのため導 出するため用いられる。他の方法によれば、画像は、取付装着シート上に取り付 けられ、この取付装着シートは、デジタル化タブレットヘセッティングされる。 そこでは注目関連した画像セクションの座標が求められる。それに引き続いて、 取付装着シートがスキャナタブレットないしスキャナドラム上に被着される。こ のために、座標を求めるための装置がスキャナタブレット内に統合化されるよう にした手段も存する。いずれにしろ、座標検出には手動的作業及び所要時間を伴 う。 画像をできるだけ真っ直ぐスキャン面上へ取り付けるべく努力がなされている 一方、注目関連した画像セクションの角度位置の検出は有意義である。取付の際 の画像の精確な配向が作業コストを要し、時間を要するので、画像をたんに近似 的に真っ直ぐに取り付け、精確な配向を事後的に実施すると一層より経済的であ る。幾つかのフラットベットスキャナは、それにより、スキャナタブレットを任 意の所定の角度だけ回転できる装置を有する。それにより、スキャンの際スキャ ン面上での画像の斜めの取り付けを補正できる。そのような回転装置が設けられ ていない場合、スキャンされた画像データを後に1つの計算プロセスで、回転し て、斜めの取り付けを補正するものである。 本発明の課題とするところは、幾何学的データの前述の手動的検出を回避し、 原画の注目関連した画像セクションの位置寸法及び角度位置のような幾何学的デ ータを自動的に求めるための方法を提供することにある。それにより、スキャナ の操作が簡単化され、画像スキャンの自動化が可能になる。前記課題は請求項1 の構成要件及び従属形式請求項2〜9により解決される。 次に本発明を図1〜図5を用いて詳述する。 図1は、画像縁を含めた原画を示し、 図2は、ヒストグラムにて白点及び黒点を決定する様子を示し、 図3は、明度値に対する増幅度関数を示し、 図4は、水平及び垂直エッジに対するエッジフィルタの特性を示し、 図5は、ハフ変換を用いての適合された直線に対するサーチの様子を示す。 図1は、画像2を含めた原画1を示す。原画は、一般的にカラー又は黒白スラ イド、ネガ又は反射形画像である。図1には、例示的に原画としてネガが示して あり、このネガは、簡単な複製の理由からたんに黒白の画点を有する2進画像と して示してある。原画1の注目関連した画像セクション3は、画像情報を含む原 画の部分である。本発明の方法は、自動的に、注目関 連した画像セクションの輪郭4,即ち、画像2と注目関連した画像セクション3 との間の分離線を求める。 第1の処理ステップでは、減少された分解能、例えば60パイクセルPixe l/cmでの原画の事前スキャン(Prescam)が実施される。当該のスキ ャンの記憶されたRGB−スキャンデータから本発明により、可及的に明瞭に注 目関連した画像セクションの輪郭4を表す画像信号が算出される。有利には、そ れは、RGBデータを、CIELAB(CIE=Commission Int ernationaled‘Eclairage)色空間のLABデータへ変換 する場合取得されるLコンポーネントである。明度コンポーネントは、RGB色 空間の重み付けられた加算によっても取得することができる。代替的に個別の色 コンポーネント、例えばRGBデータの緑成分を、明度コンポーネントとして使 用することもできる。 本発明の第2の処理ステップにて、白点Lw─及び黒点Lsが、明度コンポーネ ントの値から求められる。有利には、すべての値の頻度が明度像にて求められ、 累積的ヒストグラムにてプロットされる。白点Lwとして、すべての明度値の5 %に到達するような明度値が定義される。黒点Lsとして、相応にそこにて、ヒ ストグラム中すべての明度値の95%に到達するような明度値が定義付けられる 。それらの%値のもとで本発明により、画像を代表する白及び黒点が得られる 。黒点と白点との差から、明度像のダイナミックレインジDが得られる。 D=Ls─Lw (1) 図2は、白点Lw及び黒点Lsを有する累積的ヒストグラムを示す。本発明にと って、どの%値のもとで、ヒストグラム中、白点及び黒点が設定されるかは重要 でない。0%ないし100%の近くでの任意の%値を選定できる。基本的に0% 及び100%のもとで明度値を選定できる、換言すれば、明度像にて、絶対的に 最も明るい、そして、最も暗い値が色及び黒点として選定できる。但し、極度の 明度値が画像中0%及び100%のもとでたんに稀にわずかしか現れない場合に は白点及び黒点が画像を代表しない可能性がある。 本発明の次の処理ステップにて明度値Lが、画像縁2の明度値の近くで非直線 的関数g{L}により増強、増幅されて明度値にて、注目関連した画像セクショ ンの輪郭4が強調される。図1の例では、原画1は、ネガである、換言すれば、 画像縁2は黒である。要するに、この場合において、黒領域にて明度値Lが増強 、増幅される。反射形原画─それの縁は一般に白である─の場合、明度値Lは、 白領域にて相応に増幅される。増幅される明度値Lgは下式により得られる; Lg=g{L} (2) 図3は、増幅度関数{L}の1例を示し、ここで明度値Lは黒領域にて増幅さ れる。明度値Lが例えば8 ビット精度で表示されるとの前提のもとで、0(黒)と255(白)との間でL に対する値が得られる。明度値0は係数5だけ増強、増幅され、増幅度は、明度 値15まで直線的に係数1へ低下し、255までの残りの明度値に対して係数1 にて保持される。換言すれば、領域0〜15における明度値のみが増幅され、残 りの明度値は変わらない状態におかれる。画像縁が白である場合、例えば、それ に鏡像的関数g{L}が使用され、この鏡像的関数g{L}は、明度値Lを領域 240…255にて増強、増幅し、残りの明度値を変わらない状態におく。 本発明の次の処理ステップでは、デジタルエッジフィルタリングを明度コンポ ーネントに施す。有利には、近似的に水平及び垂直のエッジにて高い出力値を生 じさせ、それにより、そのようなエツジを強調するフィルタが使用される。 図4は、水平エッジ5及び垂直エッジ6に対する簡単フィルタを例示する。水 平フィルタは2X5パイクセルに亘って及んでいる。丸く囲んだ点Pは、実際の パイクセルの位置を表す。フィルタ窓の各位置における値hijがフィルタ係数で ある。フィルタリングは次のようにして実施される、即ち、フィルタ窓の点Pが 、増強、増幅された明度画像Lgの各パイクセル上にセッティングされ、それぞ れの窓位置の下にあるパイクセル値Lgijが係数hijと乗算され加算されるので ある。結果は、ダイナミックレインジDに規準化され、この規準化のため、当該 結果は1/(K1×D)に乗算され、ここで、K1は定数である。各パイクセル のフィルタ値Fhは、次の通りである、即ち、 Fh=〔Σ(hijxLgij)〕/(k1xD)(3) 水平フィルタ5の、90°回転されたバージョンである垂直フィルタに対して 、フィルタ値Fvは相応して次のようにして得られる。 Fv=〔Σ(vijxLgij)〕/(k1xD) (4) 水平方及び垂直エッジフィルタリングのフィルタ値Fh及びFvは本発明によ り引き続いて、1つの生成フィルタ値にまとめられる。有利には各パイクセルに 対して、Fh及びFvの大きさ及びその都度比較的大きな値が合成フィルタ値F としてとられる。Fは次のようにして求める F=Vzmax×max(|Fh|.|Fv|) (5) 但しVzmaxは、選定された最大値の極性である。 本発明にとって、図4に示すエッジフィルタの形状及び係数は、重要でない。 2×5より多い、又は少なくパイクセル及び他の係数を有するフィルタ窓を使用 することもできる。 重要なことは、フィルタリングにより主に、水平及び垂直エッジを強調するこ とである。同様に、式(5)によるのとは別の関数を使用でき、例えば、大きさ |Fh|及び|Fv|の和に比較的大きい値の極性を与えたものを使用できる。 本発明にとって増幅度関数g{L}の精確な形は重要ではない。要はただ明度値 Lが画像縁の色の領域にて関数g{L}により増幅されることである。 図5は、本発明の次の処理ステップを示す。この処理ステップでは注目関連し た画像セクションの4つの頁の各々に対して、最適に適合化された直線が求めら れる。このために、本発明により、処理技術上(アナログ)ハフ変換として公知 の方法(H.Baessmann,P.W.Besslich:Bildver arbeitung Ad Oculos,s. 101−121,sprin ger Verlag 1993)が使用される。先ず、コーナ点A,B,C, Dを有するフィルタリングされた画像Fの書き直しをする矩形7が形成され、こ の矩形7のページは主ないし副スキャン方向に対して並行である。次いで注目関 連した画像セクションの各ページに対して、所定のサーチ領域にて、種々の位置 を有し、種々の角度をなす直線に対して、フィルタ値Fは直線に沿って加算され る。それに対して、和が正ないし負の最大値に達する直線は、注目関連した画像 セクションの当該のページに対する最適に適合された直線として選定される。こ こで、最大値の極性を考慮しなければならない、それというのは、フィルタ値F は、正及び負になり 得るからである。黒から“非黒”への移行の場合、フィルタ値は負であり、“非 黒”から黒への移行の場合、フィルタは正である。従って、ここで考慮される例 では注目関連した画像セクションの左方ページを求めるため、上述の和の最大値 を有する1つの直線をサーチする。注目関連した画像セクションの右方ページに 対して相応に、当該の和の正の最大値を有する直線をサーチしなければならない 。 図5は注目関連した画像セクションの左方ページ面に対するサーチ領域を示す 。水平区間に沿って、点Aから間隔Sをおいて、1つの点Gが設定される。点G を通って、種々の角度αをなして直線8が引かれる。直線の各々に対して、フィ ルタ値Fの和が直線に沿って形成される。当該の数は、α及びsにより規定され る列及び行のもとでα、sマトリクス9内にエントリされる。マトリクスの各セ ルはチェックされた直線のうちの一つに相応する。s及びαの変化により、その ようにして、多数の直線が調べられる。この場合ほぼ垂直の直線がサーチされる ので、パラメータsを一つのストリップに限定し、αを小さな角度領域に限定し て、所要の処理時間を低減できる。 ─smax≦s≦+smax (6) ─αmax≦α≦+αmax 限定のため、例えば smax=10mm及びαmax=15° が選定される。 サーチ動作の後、α、sマトリクス9のどのセルが正ないし負の数値を含むか が調べられる。上述のように、注目関連した画像セクションの左方ページに対し て、そして、黒い画像の場合に対して、負の最大値がサーチされる。s及びαの 所属の値は、注目関連した画像セクションの相応のページを最も精確に表す1つ の直線を規定する。書き直しをする矩形7のコーナ点B,C,Dから出発して、 注目関連した画像セクションの残りの3つのページに対する最適に適合された直 線のサーチ及び決定が相応の仕方で行われる。 ハフ変換を用いての最適に適合された直線のサーチに対するストラテジィは、 勿論多様に変化させ得る。それを通ってサーチ直線が通る点Gは、図5に示すの とは異なって書き直しをする矩形7の上縁に位置しなくてもよい。その点は、例 えば、下縁に位置してもよいし、又は矩形7の半分の高さのところに位置しても よい。ただ重要なことは、注目関連した画像セクションの適合されるべきページ の周りの所定のサーチ領域にて、位置及び角度に関して可能なすべての直線が、 ハフ変換に従って調べなければならないことである。サーチストラテジイを更に 処理時間に鑑みて次のようにして最適化することもできる、即ち、例えば、パラ メータs及びαを先ず粗いステップで変化させ、次いで、ハフ変換値の正ないし 負の最大値の周りに比較的 精細なステップでチェックを継続するのである。 注目関連した画像セクションの4辺に対する見出された直線は、一般に直角を 有する4辺形ではない。従って、本発明の最後ステップでは、適合された直線か ら、1つの画像セクション−矩形が形成される。このことは、多様に行われ得る 。或1つの有利な方法メソッドは次の通りである; a)すべての4つの直線の角度の平均化(ここで、2つの直線に対して90° が加算ないし減算される)。ここで、角度は、ハフ変換の値で重み付けされる。 それというのは、相応の直線に対するハフ変換の(正ないし負)値が大であれば ある程、角度はそれだけ益々“確実”になる。 b)或1つの角度が平均値から、所定の大きさより多くの偏差のずれがあるか 否かのチェック。そうである場合には、平均値は、残りの3つの直線により形成 される。 c)平均角度の使用下での4つの直線を有する画像セクション−矩形の決定( 2つの直線に対して90°モディファイされている)。 注目関連した画像セクションの決定の後、スキャン過程のさらなるシーケンス に対してスキャナの調整セッティングのため見い出された座標及び角度が使用さ れ、例えば、事前スキャン(Prescan)の関連データからグラデーション 、色補正等に対する調整セ ッティングパラメータを求めるため、そして、事後的に、高分解能スキャンのた め、そして、スキャンされた画像データの回転角度補正のため使用される。The present invention relates to the field of electronic reproduction reproduction technology and relates to the field of electronic image reproduction technology, in which an image section of an original image mounted on a scanner tablet or a scanner drum. A method for automatically determining geometric data such as position, dimensions and angular position. In reproduction techniques, print masters are created for printed pages that contain all the printed elements, such as text, graphics, and images. Data for one image is generated, for example, as follows: an image is scanned by a scanner in the form of dots and lines, each pixel is separated into color components, and the color value of the component is calculated. It will be digitized. Normal images are separated into color components, red, green, and blue (R, G, B) by a scanner. For four-color printing, the color components are further converted to the printing inks cyan, magenta, yellow, and black (C, M, Y, K). For black-and-white images, the scanner either produces only one component with the same gray value or, for the moment, the scanned RGB components are subsequently converted to printed black. The scanner may be a cratbed device in which the original to be scanned is mounted on a scanner tablet. The original can be transparent (slide or color negative) or reflective (reflective image). The scanner tablet is illuminated and the transparent or reflected light of one scanner line is separated into color components by a color filter. The light of the color components is further decomposed, for example via a CCD line, into discrete picture points and decomposed into electrical signals, which are subsequently digitized. An alternative selective drum scanner can also be used, in which the original is mounted on a transparent scanner drum. The scanner drum is illuminated from the inside or outside in a point-like manner (transparent or reflective) according to the original image, and the transmitted or reflected light of the color components is focused on the optical sensor by the scanner head, and Converted to a signal. Here, the scanner drum rotates, and the irradiation device and the scanner head are moved along the axis of the scanner drum, so that the surface of the scanner drum is scanned in a point-like manner and a line-like manner. To perform the scanning of the originals, a plurality of originals are attached to a scanner tablet or scanner drum, and the scanners automatically scan, digitize, and store the originals one after another. For this purpose, the position of the image on the scanner tablet or the scanner drum, its dimensions and its angular position must be entered in the work preparation process. Thereby, the sections of the available scan plane which are scanned by the scanner and which correspond to the individual images are defined. In a co-pending application (Internal Document No. 96/958, "Verfahren zur Bestim der Geometrieden von Abta stvoragen", how the geometric data of the scan original is coarse-grained by a global or overall scan of the entire scan plane. The geometric data so determined represents, for each original image, a scan rectangle containing the entire image, including the edges. For image scanning, in other words for generating the image data to be used for the production of the printing original, only borderless image sections, containing only the relevant image content, are needed. Geometry for relevant image sections according to technology Input of the target data takes time, so that a prescan of the original at a relatively low resolution (Prescan) is performed, which is displayed on the monitor and then The cursor manually marks the corner points of the relevant image section on the image screen, and the pre-scanning and scanning are used to convert the scan data of the relevant pre-scan into gradation, contrast, color, etc. within the relevant relevant image section. Is used to derive adjustment settings parameters of the scanner for a final scan with fine resolution.According to another method, the image is mounted on a mounting sheet and the mounting The sheet is set on a digitized tablet. Then, the coordinates of the relevant image section are determined, and subsequently the mounting sheet is mounted on the scanner tablet or the scanner drum, so that the device for determining the coordinates is integrated in the scanner tablet. In any case, the coordinate detection involves manual work and the time required.Efforts have been made to mount the image as straight as possible on the scan plane, while the angular position of the relevant image section of interest. The precise orientation of the image at the time of installation is costly and time consuming, so it would be even better if the image was mounted straight and approximately straight, and the accurate orientation was performed retrospectively. Some flatbed scanners allow the scanner tablet to be moved at any given angle Has a device that can rotate. This makes it possible to correct the oblique attachment of the image on the scan surface during scanning. If such a rotation device is not provided, the scanned image data will be rotated later in one calculation process to correct the oblique mounting. It is an object of the present invention to avoid the aforementioned manual detection of geometrical data and to automatically determine geometrical data such as the position dimensions and angular position of the relevant image section of the original image. It is to provide a method. Thereby, the operation of the scanner is simplified, and the image scanning can be automated. The object is achieved by the features of claim 1 and the dependent claims. Next, the present invention will be described in detail with reference to FIGS. FIG. 1 shows an original image including image edges, FIG. 2 shows how white points and black points are determined by a histogram, FIG. 3 shows an amplification function with respect to a lightness value, and FIG. FIG. 5 shows characteristics of an edge filter with respect to a vertical edge, and FIG. 5 shows how a search is performed on a fitted straight line using the Hough transform. FIG. 1 shows an original image 1 including an image 2. The original is generally a color or black and white slide, negative or reflective image. FIG. 1 exemplarily shows a negative as the original image, which is shown as a binary image with only black and white dots for reasons of simple duplication. The attention-related image section 3 of the original 1 is the part of the original that contains the image information. The method of the present invention automatically determines the contour 4 of the relevant image section of interest, ie, the separation line between the image 2 and the relevant image section 3 of interest. In a first processing step, a prescan of the original at a reduced resolution, for example 60 pixels of Pixel / cm, is performed. From the stored RGB-scan data of the scan in question, the invention calculates an image signal representing the contour 4 of the relevant image section as clearly as possible. Advantageously, it is the L component obtained when converting RGB data into LAB data in a CIELAB (Commission Internationalized'Eclairage) color space. The lightness component can also be obtained by weighted addition of the RGB color space. Alternatively, a separate color component, for example the green component of the RGB data, can be used as the lightness component. In the second processing step of the present invention, the white point Lw─ and the black point Ls are obtained from the value of the lightness component. Advantageously, the frequencies of all values are determined in the brightness image and plotted in a cumulative histogram. A lightness value that reaches 5% of all lightness values is defined as the white point Lw. As a black point Ls, a lightness value corresponding to 95% of all lightness values in the histogram is defined there correspondingly. With these% values, the invention provides white and black points representative of the image. The dynamic range D of the brightness image is obtained from the difference between the black point and the white point. D = Ls─Lw (1) FIG. 2 shows a cumulative histogram having a white point Lw and a black point Ls. It is not important for the present invention under which% value the white point and the black point are set in the histogram. Any% value near 0% to 100% can be selected. Basically, lightness values can be selected under 0% and 100%, in other words, in a lightness image, the absolutely brightest and darkest values can be selected as color and black point. However, if the extreme lightness values appear only rarely at 0% and 100% in the image, the white point and the black point may not represent the image. In the next processing step of the invention, the lightness value L is enhanced and amplified by the non-linear function g {L} near the lightness value of the image edge 2 and, in the lightness value, the contour 4 of the relevant relevant image section Is emphasized. In the example of FIG. 1, the original image 1 is negative, in other words, the image edge 2 is black. In short, in this case, the lightness value L is enhanced and amplified in the black region. In the case of a reflective original, whose edges are generally white, the lightness value L is amplified accordingly in the white area. Lg = g {L} (2) FIG. 3 shows an example of an amplification function {L}, where the brightness value L is amplified in a black region. You. Under the assumption that the brightness value L is displayed with, for example, 8-bit precision, a value for L 1 is obtained between 0 (black) and 255 (white). Brightness value 0 is boosted and amplified by a factor of 5, with the amplification decreasing linearly to a factor of 1 to a brightness value of 15 and held at a factor of 1 for the remaining brightness values up to 255. In other words, only the brightness values in the regions 0 to 15 are amplified, and the remaining brightness values remain unchanged. If the image edge is white, for example, the mirror function g {L} is used, which enhances and amplifies the brightness value L in the regions 240... 255 and the remaining brightness Leave the value unchanged. In the next processing step of the invention, digital edge filtering is applied to the brightness component. Advantageously, filters are used which produce high output values at approximately the horizontal and vertical edges, thereby enhancing such edges. FIG. 4 illustrates a simple filter for the horizontal edge 5 and the vertical edge 6. The horizontal filter extends over 2 × 5 pixels. The circled point P represents the actual position of the pixel. The value hij at each position of the filter window is a filter coefficient. The filtering is performed as follows: the point P of the filter window is set on each pixel of the augmented and amplified brightness image Lg, and the pixel value Lgij below the respective window position is calculated by the coefficient hij Is multiplied and added. The result is normalized to a dynamic range D, for which purpose the result is multiplied by 1 / (K1 × D), where K1 is a constant. The filter value Fh for each pixel is as follows: Fh = [Σ (hijxLgij)] / (k1 × D) (3) For a vertical filter, which is a 90 ° rotated version of the horizontal filter 5, The filter value Fv is correspondingly obtained as follows. Fv = [Σ (vijxLgij)] / (k1 × D) (4) The filter values Fh and Fv for horizontal and vertical edge filtering are subsequently combined into one generated filter value according to the present invention. Advantageously, for each pixel, the magnitude of Fh and Fv and in each case a relatively large value are taken as the synthesis filter value F 1. F The following way determined F = Vz max × max (| Fh |. | Fv |) (5) where Vzmax are polar of the selected maximum value. For the present invention, the shape and coefficients of the edge filter shown in FIG. 4 are not important. Filter windows with more or less than 2 × 5 pixels and other coefficients can also be used. What is important is that filtering primarily emphasizes horizontal and vertical edges. Similarly, another function than that according to equation (5) can be used, for example, the sum of magnitudes | Fh | and | Fv | given a relatively large polarity can be used. The exact form of the amplification function g {L} is not important to the invention. The point is simply that the brightness value L is amplified by the function g {L} in the color region at the image edge. FIG. 5 shows the next processing step of the present invention. In this processing step, an optimally adapted straight line is determined for each of the four pages of the relevant image section of interest. For this purpose, according to the invention, a method (H. Baessmann, PW Besslic: Bilder arbeitung Ad Oculos, s. 101-121, spinger Verlag 1993) known in processing technology as (analog) Hough transform is used. You. First, a rectangle 7 is formed for rewriting a filtered image F having corner points A, B, C, D, the pages of which are parallel to the main or sub-scan direction. Then, for each page of the relevant image section of interest, the filter value F is added along a straight line for a straight line having different positions and different angles in a predetermined search area. In contrast, the straight line whose sum reaches the positive or negative maximum is selected as the best-fit straight line for the relevant page of the relevant image section of interest. Here, the polarity of the maximum value must be taken into account, since the filter value F 2 can be positive and negative. For a transition from black to "non-black", the filter value is negative, and for a transition from "non-black" to black, the filter is positive. Therefore, in the example considered here, one straight line having the maximum value of the above sum is searched to find the left page of the relevant image section of interest. For the right page of the relevant image section of interest, the straight line with the positive maximum of the sum must be searched accordingly. FIG. 5 shows a search area for the left page surface of the image section of interest. One point G is set along the horizontal section at an interval S from the point A. Through the point G a straight line 8 is drawn at various angles α. For each of the straight lines, the sum of the filter values F is formed along the straight line. The number is entered in the α, s matrix 9 under the columns and rows defined by α and s. Each cell of the matrix corresponds to one of the checked straight lines. By changing s and α, a number of straight lines are thus examined. In this case, since a substantially vertical straight line is searched, the required processing time can be reduced by limiting the parameter s to one strip and limiting α to a small angle region. ─smax ≦ s ≦ + smax (6) ─αmax ≦ α ≦ + αmax For the sake of limitation, for example, smax = 10 mm and αmax = 15 ° are selected. After the search operation, it is checked which cell of the α, s matrix 9 contains a positive or negative value. As described above, for the left page of the relevant image section of interest, and for the case of a black image, the negative maximum is searched. The associated values of s and α define one straight line that most accurately represents the corresponding page of the relevant image section of interest. Starting from the corner points B, C, D of the rectangle 7 to be rewritten, the search and determination of the optimally fitted straight line for the remaining three pages of the relevant image section of interest takes place in a corresponding manner. The strategy for searching for a best-fit line using the Hough transform can, of course, vary. The point G through which the search straight line passes may not be located at the upper edge of the rectangle 7 to be rewritten differently from that shown in FIG. The point may be located, for example, at the lower edge or at half the height of the rectangle 7. All that matters is that in a given search area around the page to be matched of the relevant image section of interest, all possible straight lines in terms of position and angle must be examined according to the Hough transform. The search strategy can also be optimized in view of the processing time as follows: for example, the parameters s and α are first changed in coarse steps, then the positive or negative maximum value of the Hough transform value The check continues in relatively fine steps around. The straight lines found for the four sides of the image section of interest are generally not quadrilaterals with right angles. Thus, in the last step of the invention, one image section-rectangle is formed from the fitted straight lines. This can be done in a variety of ways. One advantageous method method is as follows: a) Averaging of the angles of all four lines, where 90 ° is added or subtracted for the two lines. Here, the angle is weighted by the value of the Hough transform. That is, the greater the (positive or negative) value of the Hough transform for the corresponding straight line, the more reliable the angle. b) Checking whether an angle deviates from the average by more than a predetermined amount. If so, the average is formed by the remaining three straight lines. c) Image section with four straight lines using average angle-determination of rectangle (90 ° modified for two straight lines). After determination of the relevant image section of interest, the coordinates and angles found for the adjustment settings of the scanner are used for a further sequence of the scanning process, for example from the relevant data of the prescan (gradation, color correction, etc.). Is used to determine the adjustment setting parameters for, and afterwards, for high resolution scanning and for correcting the rotation angle of the scanned image data.

【手続補正書】 【提出日】1999年7月14日(1999.7.14) 【補正内容】 明細書 注目関連画像セクションの幾何学的データを求める方法 本発明は、電子的複製再現技術の分野に係わり、そして、スキャナタブレット ないしスキャナドラム上に取り付けられる原画の画像セクションの、位置、寸法 及び角度位置のような幾何学的データを自動的に求める方法に関する。 複製技術では、テキスト、グラフィック及び画像のようなすべての被印刷エレ メントを含む印刷ページに対して印刷原画が作製されている。1つの画像に対し てデータは例えば次のようにして生ぜしめられる、即ち、画像がスキャナにて点 状及びライン状にスキャンされ、各画点が色成分に分解され、当該成分の色値が デジタル化されるのである。通常画像は、スキャナにて、色成分、赤、緑、青( R,G,B)に分解される。4色刷りに対して、当該の色成分は、更に、印刷イ ンキシアン、マゼンタ、黄及び黒(C、M、Y、K)に変換される。黒白画像に 対してスキャナは、同じようにグレイ値を有する唯一のコンポーネントを生じさ せるか、又は差し当たり、スキャンされたRGBコンポーネントは事後的に印刷 黒へ換算される。 スキャナは、そこにてスキャナすべき原画がスキャ ナタブレット上に取り付けられるクラットベット形機器であり得る。原画は透明 であり得(スライド又はカラーネガ)、又は反射的(反射画像)であり得る。ス キャナタブレットは照射され、1つのスキャナラインの透明又は反射光がカラー フィルタにより色成分に分解される。色成分の光が、例えば、CCDラインを介 して、さらに離散的画点に分解され、電気信号に分解され、該電気信号は引き続 いてデジタル化される。代替選択的ドラムスキャナを使用することもでき、この ドラムスキャナでは原画が透明なスキャナドラム上へ取付られる。スキャナドラ ムは、原画に応じて( )透明か又は反射的)点状に内方又は外方から照射され 、そして、色コンポーネントの透過、ないし反射光は、スキャナヘッドにて光セ ンサへフォーカシングされ、電気信号に変換される。ここでスキャナドラムは、 回転すると共に、照射装置及びスキャナヘッドはスキャナドラムの軸に沿って動 かされ、その結果スキャナドラムの表面は、点状及びライン状にスキャンされる 。 原画のスキャンを実施するため、複数の原画がスキャナタブレットないしスキ ャナドラムへ取付られ、それらの複数の原画をスキャナは自動的に相次いでスキ ャナし、デジタル化し、記憶するものである。このために、作業準備プロセスに て、スキャナタブレットないしスキャナドラム上での画像の位置、それの寸法及 び角度位置を入力しなければならない。それにより、 スキャナによりスキャンされ、個々の画像に対応付けるべき利用可能なスキャン 面のセクションが規定される。 同時出願(内部書類番号96/958,“Verfahren zur Be stimmung der Geometriedaten von Abta stvorlagen”において、スキャン原画の幾何学的データが全スキャン 面の全体的ないしオーバーオール(overall)スキャンにより粗い分解能でどの ように、自動的に求められるかが記載されている。そのようにして求められた幾 何学的データは、各原画に対して、縁を含めた画像全体を含むスキャン矩形を表 す。細かな分解能での画像スキャンのため、換言すれば、印刷原画の作製のため 利用されるべき画像データの生成のため、たんに注目関連した画像内容のみを含 む、縁のない画像セクションのみが必要とされる。 従来技術によれば注目関連した画像セクションに対する幾何学的データの入力 は時間を要する。このために、比較的わずかな分解能での原画の事前スキャン( プリスキャンPrescan)が実施される。原画の事前スキャンは、モニタ上 にて表示され、そして、次いでカーソルにより手動的に画像スクリーン上に注目 関連した画像セクションのコーナ点がマーキングされる。事前スキャン、スキャ ニングは、注目関連した画像セクション内で、当該の事前スキャンのスキャンデ ータをグラデーション、コントラスト、色等に関して分析し、それにより、スキ ャナの調整セッティングパラメータを微細な分解能での最終的スキャンのため導 出するため用いられる。他の方法によれば、画像は、取付装着シート上に取り付 けられ、この取付装着シートは、デジタル化タブレットへセッティングされる。 そこでは注目関連した画像セクションの座標が求められる。それに引き続いて、 取付装着シートがスキャナタブレットないしスキャナドラム上に被着される。こ のために、座標を求めるための装置がスキャナタブレット内に統合化されるよう にした手段も存する。いずれにしろ、座標検出には手動的作業及び所要時間を伴 う。 画像をできるだけ真っ直ぐスキャン面上へ取り付けるべく努力がなされている 一方、注目関連した画像セクションの角度位置の検出は有意義である。取付の際 の画像の精確な配向が作業コストを要し、時間を要するので、画像をたんに近似 的に真っ直ぐに取り付け、精確な配向を事後的に実施すると一層より経済的であ る。幾つかのフラットベットスキャナは、それにより、スキャナタブレットを任 意の所定の角度だけ回転できる装置を有する。それにより、スキャンの際スキャ ン面上での画像の斜めの取り付けを補正できる。そのような回転装置が設けられ ていない場合、スキャンされた画像データを後に1つの計算プロセスで、回転し て、斜めの取り付けを補正するものである。 国際出願WO 95/12271に記載されている方法では、外部の画像座標 が自動的に求められる。その上に画像が取付られているスキャン面は、スキャン され、2進画像として記憶される。次いで、各スキャンラインに沿って、明度変 化がサーチされ、ここで、短い明度変化がノイズ抑圧フィルタにより考慮外にお かれる。そのように見い出された画像の縁点が直線により適合化され、この直線 の位置は、最小誤差判定尺度を用いて最適化される。そのようにして見出された 直線により、スキャン面上での画像の位置、大きさ及び角度位置が求められる。 米国特許第4774569号明細書に記載されている方法では、1つの画像に 対する書き換えをする矩形がビデオバッファメモリ内に自動的に求められる。H Fフィルタによる、輪郭のシャープ化後各ビデオ行にて、最も左方及び最も右方 向に位置する明度変化が検出される。次いで当該の明度変化の各位置に対して、 ヒストグラムが形成され、ヒストグラムの評価により、書換をする矩形が求めら れる。当該の方法プロセスは、注目関連した画像セクションを求め得ず、亦角度 位置をも求め得ない。 本発明の課題とするところは、幾何学的データの前述の手動的検出を回避し、 原画の注目関連した画像セクションの位置寸法及び角度位置のような幾何学的デ ータを自動的に求めるための方法を提供することにある。それにより、スキャナ の操作が簡単化され、画像スキャンの自動化が可能になる。前記課題は請求項1 の構成要件及び従属形式請求項2〜4により解決される。 次に本発明を図1〜図5を用いて詳述する。 図1は、画像縁を含めた原画を示し、 図2は、ヒストグラムにて白点及び黒点を決定する様子を示し、 図3は、明度値に対する増幅度関数を示し、 図4は、水平及び垂直エッジに対するエッジフィルタの特性を示し、 図5は、ハフ変換を用いての適合された直線に対するサーチの様子を示す。 図1は、画像2を含めた原画1を示す。原画は、一般的にカラー又は黒白スラ イド、ネガ又は反射形画像である。図1には、例示的に原画としてネガが示して あり、このネガは、簡単な複製の理由からたんに黒白の画点を有する2進画像と して示してある。原画1の注目関連した画像セクション3は、画像情報を含む原 画の部分である。本発明の方法は、自動的に、注目関連した画像セクションの輪 郭4,即ち、画像2と注目関連した画像セクション3との間の分離線を求める。 第1の処理ステップでは、減少された分解能、例えば60パイクセルPixe l/cmでの原画の事前ス キャン(Prescam)が実施される。当該のスキャンの記憶されたRGB− スキャンデータから本発明により、可及的に明瞭に注目関連した画像セクション の輪郭4を表す画像信号が算出される。有利には、それは、RGBデータを、C IELAB(CIE=Commission Internationaled ‘Eclairage)色空間のLABデータへ変換する場合取得されるLコン ポーネントである。明度コンポーネントは、RGB色空間の重み付けられた加算 によっても取得することができる。代替的に個別の色コンポーネント、例えばR GBデータの緑成分を、明度コンポーネントとして使用することもできる。 本発明の第2の処理ステップにて、白点Lw─及び黒点Lsが、明度コンポーネ ントの値から求められる。有利には、すべての値の頻度が明度像にて求められ、 累積的ヒストグラムにてプロットされる。白点Lwとして、すべての明度値の5 %に到達するような明度値が定義される。黒点Lsとして、相応にそこにて、ヒ ストグラム中すべての明度値の95%に到達するような明度値が定義付けられる 。それらの%値のもとで本発明により、画像を代表する白及び黒点が得られる。 黒点と白点との差から、明度像のダイナミックレインジDが得られる。 D=Ls─Lw (1) 図2は、白点Lw及び黒点Lsを有する累積的ヒスト グラムを示す。本発明にとって、どの%値のもとで、ヒストグラム中、白点及び 黒点が設定されるかは重要でない。0%ないし100%の近くでの任意の%値を 選定できる。基本的に0%及び100%のもとで明度値を選定できる、換言すれ ば、明度像にて、絶対的に最も明るい、そして、最も暗い値が色及び黒点として 選定できる。但し、極度の明度値が画像中0%及び100%のもとでたんに稀に わずかしか現れない場合には白点及び黒点が画像を代表しない可能性がある。 本発明の次の処理ステップにて明度値Lが、画像縁2の明度値の近くで非直線 的関数g{L}により増強、増幅されて明度値にて、注目関連した画像セクショ ンの輪郭4が強調される。図1の例では、原画1は、ネガである、換言すれば、 画像縁2は黒である。要するに、この場合において、黒領域にて明度値Lが増強 、増幅される。反射形原画─それの縁は一般に白である−の場合、明度値Lは、 白領域にて相応に増幅される。増幅される値Lgは下式に得られる; Lg=g{L} (2) 図3は、増幅度関数{L}の1例を示し、ここで明度値Lは黒領域にて増幅さ れる。明度値Lが例えば8ビット精度で表示されるとの前提のもとで、0(黒) と255(白)との間でLに対する値が得られる。明度値0は係数5だけ増強、 増幅され、増幅度は、明度値15まで直線的に係数1へ低下し、255までの残 りの明度値に対して係数1にて保持される。換言すれば、領域0.15における 明度値は増幅され、残りの明度値は変わらない状態におかれる。画像縁が白であ る場合、例えば、それに鏡像的関数g{L}が使用され、この鏡像的関数g{L }は、明度値Lを領域240…255にて増強、増幅し、残りの明度値を変わら ない状態におく。 本発明の次の処理ステップでは、デジタルエッジフィルタリングを明度コンポ ーネントに施す。有利には、近似的に水平及び垂直のエッジにて高い出力値を生 じさせ、それにより、そのようなエッジを強調するフィルタが使用される。 図4は、水平エッジ5及び垂直エッジ6に対する簡単フィルタを例示する。水 平フィルタは2X5パイセクルに亘って及んでいる。丸く囲んだ点Pは、実際の パイセクルの位置を表す。フィルタ窓の各位置における値hijがフィルタ係数で ある。フィルタリングは次のようにして実施される、即ち、フィルタ窓の点Pが 、増強、増幅された明度画像Lgの各パイセクル上にセッティングされ、それぞ れの窓位置下にあるパイセクル値Lgijが係数hijと乗算され加算されるのであ る。結果は、ダイナミックレインジDに規準化され、この規準化のため、当該結 果は1/(K1×D)に乗算され、ここで、K1は定数である。各パイセクルの フィルタ値Fhは、次の通りである、即ち、 Fh=〔Σ(hijxLgij)〕/(k1xD)(3) 水平フィルタ5の、90°回転されたバージョンである垂直フィルタに対して 、フィルタ値Fvは相応して次のようにして得られる。 Fv=〔Σ(vijxLgij)〕/(k1xD) (4) 水平方及び垂直エッジフィルタリングのフィルタ値Fh及びFvは本発明によ り引き続いて、1つの生成フィルタ値にまとめられる。有利には各パイセクルに 対して、Fh及びFvの大きさ及びその都度比較的大きな値が合成フィルタ値F としてとられる。Fは次のようにして求める F=Vzmax×max(|Fh|.|Fv|) (5) 但しVzmaxは、選定された最大値の極性である。 本発明にとって、図4に示すエッジフィルタの形状及び係数は、重要でない。 2×5より多い、又は少なくパイセクル及び他の係数を有するフィルタ窓を使用 することもできる。 重要なことは、フィルタリングにより主に、水平及び垂直エッジを強調するこ とである。同様に、式(5)によるのとは別の関数を使用でき、例えば、大きさ |Fh|及び|Fv|の和に比較的大きい値の極性を与えたものを使用できる。 本発明にとって増幅度関数g{L}の精確な形は重要ではない。要はただ明度値 Lが画像縁の色の領域にて関数g{L}により増幅さ れることである。 図5は、本発明の次の処理ステップを示す。この処理ステップでは注目関連し た画像セクションの4つの頁の各々に対して、最適に適合化された直線が求めら れる。このために、本発明により、処理技術上(アナログ)ハフ変換として公知 の方法(H.Baessmann,P.W.Besslich:Bildver arbeitung Ad Oculos,S. 101−121,Sprin ger Verlag 1993)が使用される。先ず、コーナ点A,B,C, Dを有するフィルタリングされた画像Fの書き直しをする矩形7が形成され、こ の矩形7のページは主ないし副スキャン方向に対して並行である。次いで注目関 連した画像セクションの各ページに対して、所定のサーチ領域にて、種々の位置 を有し、種々の角度をなす直線に対して、フィルタ値Fは直線に沿って加算され る。それに対して、和が正ないし負の最大値に達する直線は、注目関連した画像 セクションの当該のページに対する最適に適合された直線として選定される。こ こで、最大値の極性を考慮しなければならない、それというのは、フィルタ値F は、正及び負になり得るからである。黒から“非黒”への移行の場合、フィルタ 値は負であり、“非黒”から黒への移行の場合、フィルタは正である。従って、 ここで考慮される例では注目関連した画像セクションの左方ページを求め るため、上述の和の最大値を有する1つの直線をサーチする。注目関連した画像 セクションの右方ページに対して相応に、当該の和の正の最大値を有する直線を サーチしなければならない。 図5は注目関連した画像セクションの左方ページ面に対するサーチ領域を示す 。水平区間に沿って、点Aから間隔Sをおいて、1つの点Gが設定される。点G を通って、種々の角度αをなして直線8が引かれる。直線の各々に対して、フィ ルタ値Fの和が直線に沿って形成される。当該の数は、α及びsにより規定され る列及び行のもとでα、Sマトリクス9内にエントリされる。マトリクスの各行 はチェックされた直線のうちの一つに相応する。S及びαの変化により、そのよ うにして、多数の直線が調べられる。この場合ほぼ垂直の直線がサーチされるの で、パラメータSを一つのストリップに限定し、αを小さな角度領域に限定して 、所要の処理時間を低減できる。 ─Smax≦S≦+Smax (6) ─αmax≦α≦+αmax 限定のため、例えば Smax=10mm及びαmax=15° が選定される。 サーチ動作の後、α、sマトリクス9のどの行が正ないし負の数値を含むかが 調べられる。上述のように、注目関連した画像セクションの左方ページに対して 、そして、黒い画像の場合に対して、負の最大値がサーチされる。s及びαの所 属の値は、注目関連した画像セクションの相応のページを最も精確に表す1つの 直線を規定する。書き直しをする矩形7のコーナ点B,C,Dから出発して、注 目関連した画像セクションの残りの3つのページに対する最適に適合された直線 のサーチ及び決定が相応の仕方で行われる。 ハフ変換を用いての最適に適合された直線のサーチに対するストラテジィは、 勿論多様に変化させ得る。それを通ってサーチ直線が通る点Gは、図5に示すの とは異なって書き直しをする矩形7の上縁に位置しなくてもよい。その点は、例 えば、下縁に位置してもよいし、又は矩形7の半分の高さのところに位置しても よい。ただ重要なことは、注目関連した画像セクションの適合されるべきページ の周りの所定のサーチ領域にて、位置及び角度に関して可能なすべての直線が、 ハフ変換に従って調べなければならないことである。サーチストラテジイを更に 処理時間に鑑みて次のようにして最適化することもできる、即ち、例えば、パラ メータs及びαを先ず粗いステップで変化させ、次いで、ハフ変換値の正ないし 負の最大値の周りに比較的精細なステップでチェックを継続するのである。 注目関連した画像セクションの4辺に対する見出された4辺形は、一般に直角 を有する4辺形ではない。従って、本発明の最後ステップでは、適合された直線 から、1つの画像セクション−矩形が形成される。このことは、多様に行われ得 る。或1つの有利な方法メソッドは次の通りである; a)すべての4つの直線の角度の平均化(ここで、2つの直線に対して90° が加算ないし減算される)。ここで、角度は、ハフ変換の値で重み付けされる。 それというのは、相応の直線に対するハフ変換の(正ないし負)値が大であれば ある程、角度はそれだけ益々“確実”になる。 b)平均値から、所定の大きさより多くの偏差のずれがあるか否かのチェック 。そうである場合には、平均値は、残りの3つの直線により形成される。 c)平均角度に使用下での4つの直線を有する画像セクション−矩形の決定( 2つの直線に対して90°モディファイされている)。 注目関連した画像セクションの決定の際、スキャン過程のさらなるシーケンス に対してスキャナの調整セッティングのため角度が使用され、例えば、事前スキ ャン(Prescan)の関連データからグラデーション、色補正等に対する調 整セッティングパラメータを求めるため、そして、事後的に、高分解能スキャン のため、そして、スキャンされた画像データの回転角度補正のため使用される。 請求の範囲 1. 原画の画像セクションの、位置、寸法及び角度位置のような幾何学的データ を求める方法であって、幾何学的データを、自動的に、原画のスキャン及びスキ ャンデータの解析により求めるようにした注目関連画像セクションの幾何学的デ ータを求める方法において、 ─原画のスキャンデータから明度像ないし明度画像を取得し、 ─画像縁の明度値の領域における明度像を増強、増幅し、 ─明度像に、近似的に水平及び垂直方向のエッジを強調するエッジフィルタリ ングを施し、 ─注目関連した画像セクションの周りの限られたサーチ領域にてハフ(Hou gh)変換を用いて適合された直線を求め、 ─適合された直線から注目関連した画像セクションの幾何学的データを求める ことを特徴とする注目関連画像セクションの幾何学データを求める方法。 2. エッジフィルタリングを明度像のダイナミックレインジに適合することを特 徴とする請求項1記載の方法。 3. 直線のハフ(Hough)変換値を求め、該直線の位置及び角度が注目関連 した画像セクションの周 りのサーチ領域内で変化されるようにしたことを特徴とする請求項1記載の方法 。 4. 適合された直線を、ハフ変換値の最大値を有する直線として求めることを特 徴とする請求項1及び3記載の方法。[Procedure amendment] [Submission date] July 14, 1999 (1999.7.14) [Contents of amendment] Method for determining geometric data of relevant image section of interest in the specification The present invention relates to the field and to a method for automatically determining geometric data, such as position, dimensions and angular position, of an image section of an original image mounted on a scanner tablet or a scanner drum. In reproduction techniques, print masters are created for printed pages that contain all the printed elements, such as text, graphics, and images. Data for one image is generated, for example, as follows: an image is scanned by a scanner in the form of dots and lines, each pixel is separated into color components, and the color value of the component is calculated. It will be digitized. Normal images are separated into color components, red, green, and blue (R, G, B) by a scanner. For four-color printing, the color components are further converted to the printing inks cyan, magenta, yellow, and black (C, M, Y, K). For black-and-white images, the scanner either produces only one component with the same gray value or, for the moment, the scanned RGB components are subsequently converted to printed black. The scanner may be a cratbed device in which the original to be scanned is mounted on a scanner tablet. The original can be transparent (slide or color negative) or reflective (reflective image). The scanner tablet is illuminated and the transparent or reflected light of one scanner line is separated into color components by a color filter. The light of the color components is further decomposed, for example via a CCD line, into discrete picture points and decomposed into electrical signals, which are subsequently digitized. An alternative selective drum scanner can also be used, in which the original is mounted on a transparent scanner drum. The scanner drum is illuminated from the inside or the outside (dots) (transparent or reflective) according to the original image, and the transmitted or reflected light of the color components is focused on the optical sensor by the scanner head, Converted to electrical signals. Here, the scanner drum rotates, and the irradiation device and the scanner head are moved along the axis of the scanner drum, so that the surface of the scanner drum is scanned in a point-like manner and a line-like manner. To perform the scanning of the originals, a plurality of originals are attached to a scanner tablet or scanner drum, and the scanners automatically scan, digitize, and store the originals one after another. For this purpose, the position of the image on the scanner tablet or the scanner drum, its dimensions and its angular position must be entered in the work preparation process. Thereby, the sections of the available scan plane which are scanned by the scanner and which correspond to the individual images are defined. In a co-pending application (Internal Document No. 96/958, "Verfahren zur Bestim der Geometrieden von Abta stvoragen", how the geometric data of the scan original is coarse-grained by a global or overall scan of the entire scan plane. The geometric data so determined represents, for each original image, a scan rectangle containing the entire image, including the edges. For image scanning, in other words for generating the image data to be used for the production of the printing original, only borderless image sections, containing only the relevant image content, are needed. Geometry for relevant image sections according to technology The input of the target data takes time, so that a prescan of the original with a relatively small resolution (Prescan) is performed, the prescan of the original is displayed on the monitor, and then The cursor manually marks the corner points of the relevant image section on the image screen, and the pre-scanning and scanning are used to convert the scan data of the relevant pre-scan into gradation, contrast, color, etc. within the relevant relevant image section. Is used to derive adjustment settings parameters of the scanner for a final scan with fine resolution.According to another method, the image is mounted on a mounting sheet and the mounting The sheet is set on a digitized tablet. Then, the coordinates of the relevant image section are determined, and subsequently the mounting sheet is mounted on the scanner tablet or the scanner drum, so that the device for determining the coordinates is integrated in the scanner tablet. In any case, the coordinate detection involves manual work and the time required.Efforts have been made to mount the image as straight as possible on the scan plane, while the angular position of the relevant image section of interest. The precise orientation of the image at the time of installation is costly and time consuming, so it would be even better if the image was mounted straight and approximately straight, and the accurate orientation was performed retrospectively. Some flatbed scanners allow the scanner tablet to be moved at any given angle With a rolling apparatus capable. This makes it possible to correct the oblique attachment of the image on the scan surface during scanning. If such a rotation device is not provided, the scanned image data will be rotated later in one calculation process to correct the oblique mounting. In the method described in International Application WO 95/12271, external image coordinates are automatically determined. The scan surface on which the image is mounted is scanned and stored as a binary image. Along each scan line, a brightness change is then searched, where short brightness changes are ignored by the noise suppression filter. The edges of the image so found are fitted by a straight line, and the position of this straight line is optimized using a minimum error criterion. From the straight line thus found, the position, size and angular position of the image on the scan plane are determined. In the method described in U.S. Pat. No. 4,774,569, a rewriting rectangle for one image is automatically found in the video buffer memory. After the sharpening of the outline by the HF filter, the lightness changes located at the leftmost and rightmost positions are detected in each video line. Next, a histogram is formed for each position of the brightness change, and a rectangle to be rewritten is obtained by evaluating the histogram. Such a method process cannot determine the relevant image section of interest, nor can it determine the angular position. It is an object of the present invention to avoid the aforementioned manual detection of geometrical data and to automatically determine geometrical data such as the position dimensions and angular position of the relevant image section of the original image. It is to provide a method. Thereby, the operation of the scanner is simplified, and the image scanning can be automated. The object is achieved by the features of claim 1 and the dependent claims. Next, the present invention will be described in detail with reference to FIGS. FIG. 1 shows an original image including image edges, FIG. 2 shows how white points and black points are determined by a histogram, FIG. 3 shows an amplification function with respect to a lightness value, and FIG. FIG. 5 shows characteristics of an edge filter with respect to a vertical edge, and FIG. 5 shows how a search is performed on a fitted straight line using the Hough transform. FIG. 1 shows an original image 1 including an image 2. The original is generally a color or black and white slide, negative or reflective image. FIG. 1 exemplarily shows a negative as the original image, which is shown as a binary image with only black and white dots for reasons of simple duplication. The attention-related image section 3 of the original 1 is the part of the original that contains the image information. The method of the present invention automatically determines the contour 4 of the relevant image section of interest, ie, the separation line between the image 2 and the relevant image section 3 of interest. In a first processing step, a prescan of the original at a reduced resolution, for example 60 pixels of Pixel / cm, is performed. From the stored RGB scan data of the scan in question, an image signal representing the contour 4 of the relevant image section as clearly as possible is calculated according to the invention. Advantageously, it is the L component obtained when converting RGB data to LAB data in CIELAB (Commission Internationalized 'Eclairage) color space. The lightness component can also be obtained by weighted addition of the RGB color space. Alternatively, a separate color component, for example the green component of the RGB data, can be used as the lightness component. In the second processing step of the present invention, the white point Lw─ and the black point Ls are obtained from the value of the lightness component. Advantageously, the frequencies of all values are determined in the brightness image and plotted in a cumulative histogram. A lightness value that reaches 5% of all lightness values is defined as the white point Lw. As a black point Ls, a lightness value corresponding to 95% of all lightness values in the histogram is defined there correspondingly. With these% values, the invention provides white and black points representative of the image. The dynamic range D of the brightness image is obtained from the difference between the black point and the white point. D = Ls─Lw (1) FIG. 2 shows a cumulative histogram having a white point Lw and a black point Ls. It is not important for the present invention under which% value the white point and the black point are set in the histogram. Any% value near 0% to 100% can be selected. Basically, the lightness value can be selected under 0% and 100%, in other words, in the lightness image, the absolutely brightest and darkest values can be selected as the color and black point. However, if the extreme lightness values appear only rarely at 0% and 100% in the image, the white point and the black point may not represent the image. In the next processing step of the invention, the lightness value L is enhanced and amplified by the non-linear function g {L} near the lightness value of the image edge 2 and, in the lightness value, the contour 4 of the relevant relevant image section Is emphasized. In the example of FIG. 1, the original image 1 is negative, in other words, the image edge 2 is black. In short, in this case, the lightness value L is enhanced and amplified in the black region. In the case of a reflective original—its edges are generally white—the brightness value L is amplified accordingly in the white area. The amplified value Lg is given by the following equation: Lg = g {L} (2) FIG. 3 shows an example of the amplification function {L}, where the lightness value L is amplified in the black region. . Under the assumption that the brightness value L is displayed with, for example, 8-bit precision, a value for L is obtained between 0 (black) and 255 (white). Brightness value 0 is boosted and amplified by a factor of 5, and the amplification is linearly reduced to a factor of 1 to a brightness value of 15 and held at a factor of 1 for the remaining brightness values up to 255. In other words, the lightness value in region 0.15 is amplified and the remaining lightness values are left unchanged. If the image edge is white, for example, it uses the mirror function g {L}, which enhances and amplifies the brightness value L in the region 240... Leave the value unchanged. In the next processing step of the invention, digital edge filtering is applied to the brightness component. Advantageously, a filter is used that produces high output values at approximately horizontal and vertical edges, thereby enhancing such edges. FIG. 4 illustrates a simple filter for the horizontal edge 5 and the vertical edge 6. The horizontal filter extends over 2 × 5 pixels. The circled point P represents the actual position of the pixel. The value hij at each position of the filter window is a filter coefficient. The filtering is performed as follows: the point P of the filter window is set on each pixel of the augmented and amplified brightness image Lg, and the pixel value Lgij under each window position is determined by the coefficients hij and They are multiplied and added. The result is normalized to a dynamic range D, for which purpose the result is multiplied by 1 / (K1 × D), where K1 is a constant. The filter value Fh for each pixel is as follows: Fh = [Σ (hijxLgij)] / (k1 × D) (3) For a vertical filter, which is a 90 ° rotated version of the horizontal filter 5, The filter value Fv is correspondingly obtained as follows. Fv = [Σ (vijxLgij)] / (k1 × D) (4) The filter values Fh and Fv for horizontal and vertical edge filtering are subsequently combined into one generated filter value according to the present invention. Advantageously, the magnitudes of Fh and Fv and in each case relatively large values are taken as synthesis filter values F 1 for each of the circles. F The following way determined F = Vz max × max (| Fh |. | Fv |) (5) where Vzmax are polar of the selected maximum value. For the present invention, the shape and coefficients of the edge filter shown in FIG. 4 are not important. Filter windows with more or less than 2 × 5 pixels and other coefficients can also be used. What is important is that filtering primarily emphasizes horizontal and vertical edges. Similarly, another function than that according to equation (5) can be used, for example, the sum of magnitudes | Fh | and | Fv | given a relatively large polarity can be used. The exact form of the amplification function g {L} is not important to the invention. The point is simply that the brightness value L is amplified by the function g {L} in the color region at the image edge. FIG. 5 shows the next processing step of the present invention. In this processing step, an optimally adapted straight line is determined for each of the four pages of the relevant image section of interest. For this purpose, according to the invention, a method known as (analog) Hough transform in processing technology (H. Baessmann, PW Besslic: Bilder arbeitung Ad Oculos, S. 101-121, Springger Verlag 1993) is used. You. First, a rectangle 7 is formed for rewriting a filtered image F having corner points A, B, C, D, the pages of which are parallel to the main or sub-scan direction. Then, for each page of the relevant image section of interest, the filter value F is added along a straight line for a straight line having different positions and different angles in a predetermined search area. In contrast, the straight line whose sum reaches the positive or negative maximum is selected as the best-fit straight line for the relevant page of the relevant image section of interest. Here, the polarity of the maximum value must be taken into account, since the filter value F 2 can be positive and negative. For a transition from black to "non-black", the filter value is negative, and for a transition from "non-black" to black, the filter is positive. Therefore, in the example considered here, one straight line having the maximum value of the above sum is searched to find the left page of the relevant image section of interest. For the right page of the relevant image section of interest, the straight line with the positive maximum of the sum must be searched accordingly. FIG. 5 shows a search area for the left page surface of the image section of interest. One point G is set along the horizontal section at an interval S from the point A. Through the point G a straight line 8 is drawn at various angles α. For each of the straight lines, the sum of the filter values F is formed along the straight line. The number is entered in the α, S matrix 9 under the columns and rows defined by α and s. Each row of the matrix corresponds to one of the checked straight lines. With the changes in S and α, a number of straight lines are thus examined. In this case, since a substantially vertical straight line is searched, the required processing time can be reduced by limiting the parameter S to one strip and limiting α to a small angle region. ─Smax ≦ S ≦ + Smax (6) ─αmax ≦ α ≦ + αmax For the sake of limitation, for example, Smax = 10.0 mm and αmax = 15 ° are selected. After the search operation, it is checked which row of the α, s matrix 9 contains a positive or negative value. As described above, for the left page of the relevant image section of interest, and for the case of a black image, the negative maximum is searched. The associated values of s and α define one straight line that most accurately represents the corresponding page of the relevant image section of interest. Starting from the corner points B, C, D of the rectangle 7 to be rewritten, a search and determination of the optimally fitted straight line for the remaining three pages of the relevant image section of interest takes place in a corresponding manner. The strategy for searching for a best-fit line using the Hough transform can, of course, vary. The point G through which the search straight line passes does not have to be located at the upper edge of the rectangle 7 to be rewritten differently from that shown in FIG. The point may be located, for example, at the lower edge or at half the height of the rectangle 7. All that matters is that in a given search area around the page to be matched of the relevant image section of interest, all possible straight lines in terms of position and angle must be examined according to the Hough transform. The search strategy can also be optimized in view of the processing time as follows: for example, the parameters s and α are first changed in coarse steps, then the positive or negative maximum value of the Hough transform value The check continues in relatively fine steps around. The quadrilateral found for the four sides of the image section of interest is generally not a quadrangle with a right angle. Thus, in the last step of the invention, one image section-rectangle is formed from the fitted straight lines. This can be done in a variety of ways. One advantageous method method is as follows: a) Averaging of the angles of all four straight lines (where 90 ° is added or subtracted for two straight lines). Here, the angle is weighted by the value of the Hough transform. That is, the higher the (positive or negative) value of the Hough transform for the corresponding straight line, the more reliable the angle. b) Check if there is a deviation of more than a predetermined amount from the average value. If so, the average is formed by the remaining three straight lines. c) Image section with four straight lines under use at average angle-determination of rectangle (90 ° modified for two straight lines). In the determination of the relevant image section of interest, the angles are used for the adjustment settings of the scanner for further sequences of the scanning process, for example by adjusting the adjustment setting parameters for gradation, color correction etc. from the relevant data of the prescan. It is used for determining and afterwards for high resolution scanning and for correcting the rotation angle of the scanned image data. Claims 1. A method for determining geometric data, such as position, dimensions and angular position, of an image section of an original, wherein the geometric data is automatically obtained by scanning the original and analyzing the scanned data. In the method for obtaining the geometric data of the section of the related image of interest, the method obtains a brightness image or a brightness image from scan data of an original image, ─ enhances and amplifies a brightness image in a brightness value area of an image edge, ─ the brightness image is subjected to edge filtering to emphasize the horizontal and vertical edges approximately; Determining a straight line, and calculating geometric data of the relevant image section of interest from the fitted straight line. Method of determining the academic data. 2. The method according to claim 1, wherein the edge filtering is adapted to the dynamic range of the brightness image. 3. The method of claim 1 wherein a Hough transform of the straight line is determined such that the position and angle of the straight line are varied within a search area around the relevant image section of interest. 4. The method according to claim 1, wherein the fitted straight line is determined as a straight line having a maximum value of the Hough transform value.

Claims (1)

【特許請求の範囲】 1. 原画の画像セクションの、位置、寸法及び角度位置のような幾何学的データ を求める方法において、 幾何学的データを、自動的に、原画のスキャン及びスキャンデータの解析に より求めることを特徴とする注目関連画像セクションの幾何学的データを求める 方法。 2. 原画のスキャンデータから明度像ないし明度画像を取得することを特徴とす る請求項1記載の方法。 3. 画像縁の領域における明度像ないし明度画像を増強、増幅することを特徴と する請求項1及び2記載の方法。 4. 明度像ないし明度画像にエッジフィルタリングを施すことを特徴とする請求 項1から3までのうち1項記載の方法。 5. エッジフィルタリングは、近似的に水平及び垂直方向のエッジを強調するよ うにしたことを特徴とする請求項1から4までのうち1項記載の方法。 6. エッジフィルタリングは明度像ないし明度画像のダイナミックレインジに適 合されるようにしたことを特徴とする請求項1から5までのうち1項記載の方法 。 7. エッジフィルタリングされた原画にて注目関連した画像セクションに対して 適合された直線を求める ことを特徴とする請求項1から6までのうち1項記載の方法。 8. 適合された直線をハフ(Hough)変換により求めることを特徴とする請 求項1から7までのうち1項記載の方法。 9. 適合化された直線から注目関連した画像セクションの幾何学的データを求め ることを特徴とする請求項1から8までのうち1項記載の方法。[Claims] 1. Geometric data, such as position, dimensions and angular position of the original image section In the method of seeking     Automatically scans original data and analyzes scanned data using geometric data Find geometric data of the relevant image section of interest characterized by Method. 2. A lightness image or a lightness image is acquired from scan data of an original image. The method according to claim 1. 3. It is characterized in that it enhances and amplifies the brightness image or the brightness image in the image edge area. 3. The method according to claim 1 or 2, wherein 4. Claims characterized by performing edge filtering on a brightness image or a brightness image Item 4. The method according to Item 1 out of Items 1 to 3. 5. Edge filtering enhances approximately horizontal and vertical edges. 5. The method according to claim 1, wherein the method comprises the steps of: 6. Edge filtering is suitable for light images or dynamic range of light images. 6. A method as claimed in claim 1, wherein the steps are combined. . 7. For the relevant image section of interest in the edge filtered original image Find fitted line 7. The method according to claim 1, wherein the method comprises the steps of: 8. A method for determining a fitted line by a Hough transform. 8. The method according to claim 1 of claim 1 to claim 7. 9. Find the geometric data of the relevant image section from the fitted line The method according to claim 1, wherein the method comprises:
JP10530445A 1997-01-08 1997-12-18 How to determine the geometric data of an attention-related image section Pending JP2000508460A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19700352.4 1997-01-08
DE1997100352 DE19700352A1 (en) 1997-01-08 1997-01-08 Procedure for determining the geometry data of the relevant image section
PCT/DE1997/002947 WO1998031135A1 (en) 1997-01-08 1997-12-18 Method for determining the geometrical data of a given image segment

Publications (1)

Publication Number Publication Date
JP2000508460A true JP2000508460A (en) 2000-07-04

Family

ID=7816945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10530445A Pending JP2000508460A (en) 1997-01-08 1997-12-18 How to determine the geometric data of an attention-related image section

Country Status (4)

Country Link
EP (1) EP0950311A1 (en)
JP (1) JP2000508460A (en)
DE (1) DE19700352A1 (en)
WO (1) WO1998031135A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19836071A1 (en) * 1998-08-10 2000-02-17 Schlafhorst & Co W Process for the detection of thread residues on spinning head sleeves
FR2803157B1 (en) * 1999-12-22 2002-12-13 Sagem SCANNER ANALYSIS METHOD AND SCANNING APPARATUS WITH AUTOMATIC DETERMINATION OF THE AREA TO BE ANALYZED
EP1229494B1 (en) * 2001-01-17 2007-03-21 FUJIFILM Corporation Method, apparatus and program storage medium for determining the outline of a scanned image
US7457010B2 (en) 2003-05-29 2008-11-25 Hewlett-Packard Development Company, L.P. System and method for fast scanning

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62204379A (en) * 1986-03-05 1987-09-09 Canon Inc Picture processor
JPH04319647A (en) * 1991-04-19 1992-11-10 Inax Corp Inspecting method for tile unit
JPH05258146A (en) * 1992-03-13 1993-10-08 Glory Ltd Correction device for oblique running data of paper sheet or the like
JPH05344318A (en) * 1992-06-10 1993-12-24 Canon Inc Picture inputting device
JPH07220066A (en) * 1994-01-28 1995-08-18 Matsushita Electric Ind Co Ltd Picture processor
JPH08294007A (en) * 1995-04-20 1996-11-05 Mita Ind Co Ltd Image processing unit

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2130837B (en) * 1982-10-01 1987-04-23 Canon Kk Facsimile processing control
US4887151A (en) * 1986-06-30 1989-12-12 Canon Kabushiki Kaisha Encoding apparatus for color image data with block-by-block individual quantizing or individual encoding of luminosity, structure, and color information
JPH0724425B2 (en) * 1986-09-02 1995-03-15 富士写真フイルム株式会社 Image processing method and apparatus
US4774569A (en) * 1987-07-24 1988-09-27 Eastman Kodak Company Method for adaptively masking off a video window in an overscanned image
US4962539A (en) * 1988-02-18 1990-10-09 Fuji Photo Film Co., Ltd. Method of recognizing layout and subdivision patterns of radiation images
US5054098A (en) * 1990-05-21 1991-10-01 Eastman Kodak Company Method of detecting the skew angle of a printed business form
DE4105284A1 (en) * 1991-02-20 1992-11-05 Bacher Gmbh B METHOD AND DEVICE FOR VIDEO SUPPORTED ASSEMBLY
US5452374A (en) * 1992-04-06 1995-09-19 Ricoh Corporation Skew detection and correction of a document image representation
US5568571A (en) * 1992-12-14 1996-10-22 University Microfilms, Inc. Image enhancement system
US5818976A (en) * 1993-10-25 1998-10-06 Visioneer, Inc. Method and apparatus for document skew and size/shape detection
US5528387A (en) * 1994-11-23 1996-06-18 Xerox Corporation Electronic image registration for a scanner

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62204379A (en) * 1986-03-05 1987-09-09 Canon Inc Picture processor
JPH04319647A (en) * 1991-04-19 1992-11-10 Inax Corp Inspecting method for tile unit
JPH05258146A (en) * 1992-03-13 1993-10-08 Glory Ltd Correction device for oblique running data of paper sheet or the like
JPH05344318A (en) * 1992-06-10 1993-12-24 Canon Inc Picture inputting device
JPH07220066A (en) * 1994-01-28 1995-08-18 Matsushita Electric Ind Co Ltd Picture processor
JPH08294007A (en) * 1995-04-20 1996-11-05 Mita Ind Co Ltd Image processing unit

Also Published As

Publication number Publication date
EP0950311A1 (en) 1999-10-20
WO1998031135A1 (en) 1998-07-16
DE19700352A1 (en) 1998-07-09

Similar Documents

Publication Publication Date Title
US7227990B2 (en) Color image processing device and color image processing method
JP4139760B2 (en) Image processing method and apparatus, and image processing program
US7885459B2 (en) Image processing method and apparatus therefor
JPH0766977A (en) Picture processing unit
JPH07184070A (en) Color shift correction and color shift correction device
US7602967B2 (en) Method of improving image quality
JP5760785B2 (en) Image processing apparatus and image processing system
JP2002300402A (en) Image processor, processing method and recording medium
US6718059B1 (en) Block selection-based image processing
CN101166226B (en) Image compensation in regions of low image contrast
JP2000508461A (en) How to determine the geometric data of the original scan
JP2000508460A (en) How to determine the geometric data of an attention-related image section
JPH1075374A (en) Image processing unit and its method
JPH10341339A (en) Method and device for generating bit map expressing original image and for generating output image from plural separated colors
JPH10283470A (en) Image processor, image processing method and recording medium
JP2000261653A (en) Image processing unit
JP3137702B2 (en) Image processing device
JP2003051944A (en) Image processing method, image processing system, program and storage medium
JP3077204B2 (en) Image reading device
JP3587740B2 (en) Image processing device
JP2598601B2 (en) Analysis and correction method of image gradation of original image
JP3121026B2 (en) Color image processing equipment
JP2006107018A (en) Method and apparatus for image analysis, method and system for image processing, and operation program therefor
JP3445847B2 (en) Image processing device
JPH0821079B2 (en) Image quality improving method and apparatus