JP2010183416A - Image processing apparatus and method, program, and recording medium - Google Patents
Image processing apparatus and method, program, and recording medium Download PDFInfo
- Publication number
- JP2010183416A JP2010183416A JP2009026068A JP2009026068A JP2010183416A JP 2010183416 A JP2010183416 A JP 2010183416A JP 2009026068 A JP2009026068 A JP 2009026068A JP 2009026068 A JP2009026068 A JP 2009026068A JP 2010183416 A JP2010183416 A JP 2010183416A
- Authority
- JP
- Japan
- Prior art keywords
- cluster
- clusters
- image processing
- pixel
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title description 33
- 238000011156 evaluation Methods 0.000 claims abstract description 35
- 238000012937 correction Methods 0.000 claims description 112
- 230000010354 integration Effects 0.000 claims description 19
- 238000003672 processing method Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 21
- 238000004458 analytical method Methods 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 229920006395 saturated elastomer Polymers 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、カラー画像の各画素を複数のクラスタに分割し、クラスタ分割結果に応じて画像処理を行う画像処理装置、画像処理方法、プログラムおよび記録媒体に関し、カラーMFP、カラープリンタ、デジタルカメラの付属ソフト等に好適な技術である。 The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium that divide each pixel of a color image into a plurality of clusters and perform image processing according to the cluster division result, and relates to a color MFP, a color printer, and a digital camera. This is a technique suitable for attached software.
画像を複数のクラスタに分割する従来のクラスタリング技術として、1画素に対して1クラスタを割り当てた初期状態からスタートし、それらを1ステップ毎に統合していく階層的クラスタリングや、あるいは、予めクラスタ数と各クラスタのクラスタ代表値を設定し、各画素をクラスタ代表値との距離を評価していずれかのクラスタに割り当てた後、クラスタ間で所属画素を移動させてクラスタ内距離を最小にしていくK平均法がある。 As a conventional clustering technique for dividing an image into a plurality of clusters, the clustering is started from an initial state in which one cluster is assigned to one pixel and is integrated for each step, or the number of clusters in advance. And set the cluster representative value of each cluster, evaluate the distance of each pixel to the cluster representative value and assign it to one of the clusters, then move the belonging pixel between the clusters to minimize the intra-cluster distance There is a K-average method.
従来のクラスタリング技術はいずれも、各画素を複数クラスタに一旦領域分割する前段処理と、統合(あるいは分割)を行う後段処理で実現される。特許文献1に記載の方法もまた、カラー画像を色情報に基づいて領域分割した後、分割領域を統合する方法である。
All of the conventional clustering techniques are realized by a pre-stage process in which each pixel is once divided into a plurality of clusters and a post-stage process in which integration (or division) is performed. The method described in
階層的クラスタリングは圧倒的に多くの処理時間を要する問題があり、K平均法はクラスタ数とクラスタ代表値の初期値の設定次第で結果が意外に大きく変わってしまう問題がある。特許文献1は前段の領域分割について方法が特定されていない。それに対して、特許文献2は、画素毎に所属するクラスタを判定して領域分割する前段処理の中で、クラスタ数0からスタートし、最初の画素が入力されたらその画素の値をクラスタ代表値(クラスタ代表点)とする新規クラスタを追加し(この時点でクラスタ数は1)、その後は次の画素が入力される度にクラスタ代表値との距離に基づき必要に応じて新規クラスタを追加する。この方法によれば、クラスタ数が固定でなく、画像に対応したクラスタのみ追加されるため、不要なクラスタとの距離を計算する処理時間を省略できるし、クラスタ数とクラスタ代表値の初期値によって結果が大きく変わることがない。
Hierarchical clustering has an overwhelming problem that much processing time is required, and the K-means method has a problem that the result changes greatly depending on the setting of the number of clusters and the initial values of cluster representative values.
しかし、特許文献2はクラスタ数が固定でないことから、画像によってはクラスタ数が不要に増加してクラスタリングの前段処理部分で計算時間が嵩んでしまうケースがある。前段処理後のクラスタ分割結果を観察したところ、特にノイズが大きい画像でクラスタ数が増加する問題が起こる。注目画素とその時点で存在する各クラスタのクラスタ代表値との距離を算出し、予め設定した距離閾値以内のクラスタが既存クラスタの中になければ新規クラスタを追加することになるが、ノイズの起伏部分(山または谷)で新規クラスタが発生しやすいためである。ノイズの影響からクラスタ数が増加したとしても、後段処理部分で上手く他のクラスタと統合できれば最終的に得られるクラスタ分割結果としては問題ない(特許文献2のように、所属数が少ないクラスタを他のクラスタに統合する簡易的な後段処理でも良好な結果が得られる)が、処理途中でクラスタ数が増えれば増えるだけ処理順が遅い画素に要する処理時間が増えてしまう。
However, in
本発明は上記した課題に鑑みてなされたもので、
本発明の目的は、カラー画像内の各画素を色情報に基づき複数のクラスタに分割するクラスタ分割において、クラスタリングの前段処理の中で、新規クラスタの追加だけでなく、既存クラスタの統合を随時行うことにより、処理途中でクラスタ数が増えすぎるのを抑え、処理を高速化すると共に、ノイズの起伏部分で追加される新規クラスタは、領域的な連続性が低いという特徴があるので、クラスタの領域的な連続性を評価し、連続性が低いクラスタから順に随時統合することにより、処理を高速化した上で最終的なクラスタ分割の精度を維持する画像処理装置、画像処理方法、プログラムおよび記録媒体を提供することにある。
The present invention has been made in view of the above problems,
An object of the present invention is not only to add a new cluster but also to integrate existing clusters as needed during clustering in which each pixel in a color image is divided into a plurality of clusters based on color information. In this way, the number of clusters is not increased too much during processing, speeding up the processing, and new clusters added in the undulating part of noise are characterized by low regional continuity. Image processing apparatus, image processing method, program, and recording medium for maintaining the accuracy of final cluster division after speeding up processing by evaluating continuous continuity and integrating from time to time in order of clusters with low continuity Is to provide.
本発明は、カラー画像内の各画素を色情報に基づき複数のクラスタに分割するクラスタ分割手段を有し、前記クラスタ分割手段の出力に応じて画像処理を行う画像処理装置であって、前記クラスタ分割手段は、新規クラスタの追加、および、既存クラスタの統合を随時行いながら前記各画素を複数のクラスタに分割することを最も主要な特徴とする。 The present invention is an image processing apparatus having cluster dividing means for dividing each pixel in a color image into a plurality of clusters based on color information, and performing image processing in accordance with an output of the cluster dividing means, The dividing means has the main feature of dividing each pixel into a plurality of clusters while adding new clusters and integrating existing clusters as needed.
本発明によれば、画像内の各画素をクラスタ分割する途中段階で、新規クラスタの追加と既存クラスタの統合を随時行うので、処理途中でのクラスタ数の増加が抑制され、処理が高速化される。 According to the present invention, the addition of a new cluster and the integration of existing clusters are performed at any time during the process of dividing each pixel in the image into clusters, so that the increase in the number of clusters during the process is suppressed and the processing is speeded up. The
以下、発明の実施の形態について図面により詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、従来のクラスタリングと本発明のクラスタリングの相違を説明する図である。説明を簡単にするために、クラスタリング対象領域に、1つのオブジェクトが存在するものとし、背景をクラスタ0、オブジェクトをクラスタ1としてクラスタ分割したいケースについて図示した。
FIG. 1 is a diagram for explaining the difference between the conventional clustering and the clustering of the present invention. In order to simplify the description, it is assumed that one object exists in the clustering target area, the background is
オブジェクト領域内部にノイズがあり、ノイズに反応して本来発生して欲しくないクラスタ2が発生している(これも説明を簡単にするために、ノイズに反応して発生するクラスタが1つとしているが、実際はもっと多くのクラスタが発生する)。
There is noise inside the object area, and there is a
従来のクラスタリング(a)では、前段処理途中でクラスタ0とクラスタ1とクラスタ2が発生し、その後の前段処理では常に各画素と3つのクラスタ代表値との距離を計算することになる。
本発明のクラスタリング(b)では、前段処理途中でクラスタ2をクラスタ1に統合するので、統合後の前段処理では各画素と2つのクラスタ代表値との距離の計算を行えば良い。
In the conventional clustering (a),
In the clustering (b) of the present invention, the
図2は、本発明の実施例の構成を示す。輝度変換部10は、ビットマップ形式の入力画像データの各画素のRGB値を、次式で輝度Yに変換する。
Y=0.30×R+0.59×G+0.11×B
ヒストグラム作成部11は、輝度Yのヒストグラムを作成する。RGBが0〜255の各8bitの値を持つ場合で説明すると、Yも0〜255の値を持つことになる。
FIG. 2 shows the configuration of an embodiment of the present invention. The luminance conversion unit 10 converts the RGB value of each pixel of the input image data in the bitmap format into luminance Y by the following equation.
Y = 0.30 × R + 0.59 × G + 0.11 × B
The histogram creation unit 11 creates a brightness Y histogram. In the case where RGB has a value of 8 bits each of 0 to 255, Y also has a value of 0 to 255.
閾値決定部12は、作成したヒストグラムに基づき、画像内における被写体領域、暗部領域、ハイライト領域を判定するための閾値th1,th2を求める。図3(a)は、ヒストグラムの例を示す。閾値th1はハイライト領域と被写体領域の境界に該当する閾値、閾値th2は被写体領域内における暗部領域とその他の領域の境界に該当する閾値である。図3(b)は、画像を領域判定した結果の一例を示す。上空部分がハイライト領域、被写体である建築物の影領域であって、何が写っているか視認困難な部分が暗部領域、それ以外の被写体部分が暗部領域以外の被写体領域として領域判定されている。閾値決定部12では、このような領域判定を行うための閾値th1,th2を決定する。
The threshold
図4(a)は、閾値決定部12の構成を示す。ヒストグラム形状から適応的に背景と対象物を分離する二値化閾値を求める判別分析法を2回使用して閾値を決定する。
FIG. 4A shows the configuration of the threshold
図4(b)は、判別分析法を説明する図である。簡単に説明すると、ヒストグラムの入力の最小値st〜閾値Tまでを一つのクラス、閾値T〜入力の最大値enまでを一つのクラスとして、判別分析法の評価値である(クラス間分散/クラス内分散)が最大になる閾値Tを求めることで、背景と対象物がよく分離され(即ちクラス間分散が大きい)、かつ、背景内および対象物内がよくまとまっている(即ちクラス内分散が小さい)二値化閾値を求める方法である。 FIG. 4B illustrates the discriminant analysis method. Briefly, it is an evaluation value of the discriminant analysis method with one class from the minimum value st to the threshold value T of the histogram and one class from the threshold value T to the maximum value en of the input (inter-class variance / class By obtaining a threshold value T that maximizes (internal variance), the background and the object are well separated (ie, the variance between classes is large), and the inside of the background and the object are well organized (ie, the variance within the class is This is a method of obtaining a (small) binarization threshold.
判別分析法を用いることにより、分析範囲内における(局所的ではなく大局的な)谷位置を探すことができる。なお、判別分析法は、谷位置に該当する閾値を探すための手段として適切であるため、本実施例では判別分析法を使用した例を提示するが、判別分析法に近い精度で画像に対して適応的に谷位置を探すことができる方法であれば他の方法でも構わない。 By using the discriminant analysis method, it is possible to find a valley position (not local but global) within the analysis range. Note that the discriminant analysis method is suitable as a means for searching for the threshold value corresponding to the valley position, so in this embodiment, an example using the discriminant analysis method is presented. Any other method may be used as long as it can adaptively search for the valley position.
判別分析法120では、ヒストグラムの入力値の最小値から最大値までを分析範囲として(図5の分析範囲1)判別分析法を適用し、閾値th1を求める。判別分析法121では、ヒストグラムの入力値のうち最小値から閾値th1までの暗い側を分析範囲として(図5の分析範囲2)判別分析法を適用し、閾値th2を求める。
In the
画像サンプリング部30は、使用する画像データの画素数が大きすぎると処理に時間がかかり、また性能面でも解像度が高すぎるとノイズの影響から階調補正のための補正量が正確に求められないことがあるので、画像が所定サイズよりも大きい場合には、画像を平均値でサンプリングする。例えば、長辺が640画素よりも大きい場合に、サンプリングを実施し、長辺の画素数が640の3倍の画像が入力された場合には、3×3画素毎に平均値を求めてサンプリング画像の画素値とする。
The
階調補正テーブル作成部19は、補正量決定部18が決定した最終的な補正量Δに応じて階調補正テーブルを生成する。入力画像データや抽出した色情報等に基づき、暗部補正量生成部15は、暗部領域の視認性向上に着目した補正量を生成し、ハイライト補正量生成部16は、ハイライト領域の階調つぶれ抑制に着目した補正量を生成し、補正量決定部18は、最終的な補正量Δを決定する。
The gradation correction table creation unit 19 generates a gradation correction table according to the final correction amount Δ determined by the correction
図6は、最終的に作成する補正テーブルの形状を示したものである。補正テーブルは輝度Yの変換テーブルとする。制御点は、始点0と終点255以外では、入力Y=th1,th2,Yaの3点であり、各区間内では直線形状とする。制御点th1とth2は前述の閾値決定部12から出力される閾値であり、制御点Yaは後述の暗部補正量生成部15から出力される暗部領域内の制御点である。補正量Δは、制御点Yaにおける入力Yに対する出力Yの増加分を表したものである。暗部領域における0≦入力Y<Yaの傾きα1は、YaとΔにより決まる。制約条件として、暗部領域以外の被写体領域に該当するth2≦入力Y<th1で、傾きα3を1にして階調性を保存し、Ya≦入力Y<th2は区間境界で傾きが急激に変化することを防止するため傾きα2を傾きα1とα3の中間とする。これにより、3つの制御点と補正量Δが決まれば、補正テーブル全体が決まる。また、3つの制御点が決まっていれば、もう一つの情報は補正量Δでなくα4であっても、あるいは補正テーブルが通るどこか一点の入力と出力のデータセットであっても、上記制約条件から補正テーブル全体を決定することが可能である。
FIG. 6 shows the shape of the correction table to be finally created. The correction table is a luminance Y conversion table. The control points are input Y = th1, th2, and Ya except for the
階調補正部20は、生成した補正テーブルを基に、入力画像データの各画素に対して階調補正を施す。RGBから輝度変換により輝度Yを算出し、算出した輝度Yを入力として補正テーブルを参照して出力Yを求め、RGBの各信号に対して(出力Y/入力Y)を乗算したものを階調補正後のRGBとする。
The
図7は、暗部補正量生成部15の構成を示す。クラスタリング部153は、領域判定結果から暗部領域の画素であるか否かの情報を取得し、色変換部152でLabに変換したサンプリング画像データを入力として、クラスタリングを行う。
FIG. 7 shows the configuration of the dark part correction
暗部領域判定部150は、サンプリング画像の各画素が暗部領域に属するか否かを、閾値th2に基づき判定する。サンプリング画像のRGB値から輝度Yを求め、輝度Yを閾値th2と比較する。
・Y<th2、かつ、Max(R,G,B)−Min(R,G,B)<50ならば、暗部領域の画素であると判定する。
The dark
If Y <th2 and Max (R, G, B) −Min (R, G, B) <50, it is determined that the pixel is in the dark area.
暗部領域の画素の判定条件にMax(R,G,B)−Min(R,G,B)<50を加えているのは、彩度が比較的高く、視認可能な領域を暗部から除外して判定するためである。 The reason for adding Max (R, G, B) −Min (R, G, B) <50 to the determination condition of the pixel in the dark area is to exclude the visible area from the dark area because the saturation is relatively high. It is for judging.
領域面積率計算部151では、被写体領域内に占める暗部領域の比率を暗部面積率Pdとして求める。図8は、領域面積率計算部151の構成を示す。被写体画素数計数部1510は、ヒストグラムと閾値th1から、被写体領域の画素数Naを計数する。被写体領域の画素数はヒストグラムにおける0≦Y<th1の画素数を全て足し合わせることで求められる。同様に、暗部画素数計数部1511は、ヒストグラムと閾値th2から、暗部領域の画素数Ncを計数する。暗部領域の画素数はヒストグラムにおける0≦Y<th2の画素数を全て足し合わせることにより求められる。
暗部面積率計算部1512では、被写体領域における暗部領域の面積率Pdを次式で求める。
Pd=Nc/Na
In the area area
The dark area
Pd = Nc / Na
図7に戻り、色変換部152は、クラスタリングで色差計算を行うため、RGBで表されている画素値をL*a*b*に変換しておく。
Returning to FIG. 7, the
図9は、クラスタリング部153の構成を示す。予備クラスタリング部156は、色差に応じて1つ以上のクラスタに分割し(前段処理)、その後、クラスタ統合部157では、画素数の少ないクラスタを他のクラスタに統合する(後段処理)。
FIG. 9 shows the configuration of the
なお、本実施例では、クラスタ代表値はクラスタの平均L*a*b*であり、各クラスタのクラスタ代表値との距離は平均L*a*b*間の色差に該当する。 In this embodiment, the cluster representative value is the average L * a * b * of the clusters, and the distance from each cluster representative value corresponds to the color difference between the average L * a * b *.
図10は、予備クラスタリング部156の処理フローチャートである。注目画素のLabを順次入力し(ステップ1561)、クラスタリングを行う。画像先端からスタートして初めて暗部領域の画素が入力された時点では、クラスタ数Nが初期化されてN=0にセットされた状態であるため(ステップ1560)、色差による条件分岐(ステップ1565)で“No”の方に進み、新規クラスタの追加(ステップ1567)において、注目画素を唯一の所属画素とする新規クラスタを追加する(N=1になる)。
FIG. 10 is a processing flowchart of the
その後は、順次入力される注目画素のL*a*b*値に対して、暗部領域の画素であれば(ステップ1570でYes)、各クラスタの平均L*a*b*との色差を求め(ステップ1563)、その中で色差最小のクラスタ番号jと色差dE_minの組を抽出する(ステップ1564)。色差による条件分岐(ステップ1565)で、色差dE_minが予め設定された閾値dE_th以下であれば“Yes”の方に進み、クラスタjに注目画素を追加する(ステップ1566)。色差による条件分岐(1565)で色差dE_minが予め設定された閾値dE_thより大きければ“No”の方に進み、その時点でのクラスタ数Nが予め設定されたクラスタ数上限値N_max未満であれば新規クラスタを追加し(ステップ1567)、クラスタ数Nが上限値N_maxに達していれば、既存クラスタの統合と新規クラスタの追加を行う(ステップ1568)。 Thereafter, if the L * a * b * value of the pixel of interest sequentially input is a pixel in the dark area (Yes in step 1570), the color difference from the average L * a * b * of each cluster is obtained. (Step 1563), a set of the cluster number j with the smallest color difference and the color difference dE_min is extracted (Step 1564). If the color difference dE_min is equal to or smaller than a preset threshold value dE_th in the conditional branching by color difference (step 1565), the process proceeds to “Yes”, and the target pixel is added to the cluster j (step 1566). If the color difference dE_min is larger than the preset threshold value dE_th in the conditional branch (1565) due to the color difference, the process proceeds to “No”, and if the cluster number N at that time is less than the preset cluster number upper limit value N_max, it is new. Clusters are added (step 1567). If the number N of clusters has reached the upper limit value N_max, the existing clusters are integrated and new clusters are added (step 1568).
新規クラスタを追加するか否かの境界色差を表しているのがdE_thであり、暗部の何が写っているかはっきり視認できない領域を対象としていることを考慮してdE_th=3くらいの小さい値に設定しておくのが適当である。画像後端まで到達して入力するLabデータが無くなった時点で、クラスタリング終了となる。 DE_th represents the boundary color difference whether or not to add a new cluster, and is set to a small value such as dE_th = 3 in consideration of the fact that the area where the dark part is not clearly visible is targeted. It is appropriate to keep it. Clustering ends when the Lab data reaches the rear end of the image and there is no more Lab data to input.
既存クラスタであるクラスタjに注目画素を追加する処理(ステップ1566)について説明する。図11(a)は、ステップ1566の処理フローチャートである。クラスタjの所属画素数n(j)を1つカウントアップし(ステップ1569)、平均L*a*b*を再計算する(ステップ1570)。
(再計算後の平均L*)=((再計算前の平均L*)×(n(j)−1)+(注目画素のL*))/n(j)
(再計算後の平均a*)=((再計算前の平均a*)×(n(j)−1)+(注目画素のa*))/n(j)
(再計算後の平均b*)=((再計算前の平均b*)×(n(j)−1)+(注目画素のb*))/n(j)
A process (step 1566) of adding a target pixel to the cluster j that is an existing cluster will be described. FIG. 11A is a process flowchart of
(Average L * after recalculation) = ((Average L * before recalculation) × (n (j) −1) + (L * of target pixel)) / n (j)
(Average a * after recalculation) = ((Average a * before recalculation) × (n (j) −1) + (a * of target pixel)) / n (j)
(Average b * after recalculation) = ((Average b * before recalculation) × (n (j) −1) + (b * of target pixel)) / n (j)
次に、クラスタjの連続性評価値len(j)を再計算する(ステップ1571)。連続性評価値の定義について説明する。クラスタの連続性評価値は、そのクラスタに属する各画素の連続性評価値の平均で定義する。各画素の連続性評価値は次のように定義する。図12(a)の注目画素eの連続性評価値は、近傍4画素(a,b,c,d)の所属クラスタを参照して求める。
「注目画素eの連続性評価値=近傍4画素(a,b,c,d)のうち注目画素eと同じクラスタに属する画素数」
つまり、各画素の持つ連続性評価値は0〜4の値になる。クラスタの連続性評価値も、その平均値であるので0〜4の値になり、領域的に塊で存在するクラスタは評価値が3前後の大きい値になり、点在するクラスタは0〜1前後の小さい値になる。
クラスタjの連続性評価値len(j)の再計算は、以下の式で行える。
(再計算後のlen[j])=((再計算前のlen[j])×(n(j)−1)+(注目画素の連続性評価値))/n(j)
Next, the continuity evaluation value len (j) of the cluster j is recalculated (step 1571). The definition of the continuity evaluation value will be described. The continuity evaluation value of a cluster is defined by the average of the continuity evaluation values of pixels belonging to the cluster. The continuity evaluation value of each pixel is defined as follows. The continuity evaluation value of the target pixel e in FIG. 12A is obtained by referring to the cluster to which the four neighboring pixels (a, b, c, d) belong.
“Continuity evaluation value of the target pixel e = the number of pixels belonging to the same cluster as the target pixel e among the four neighboring pixels (a, b, c, d)”
That is, the continuity evaluation value of each pixel is a value from 0 to 4. Since the continuity evaluation value of the cluster is also an average value thereof, the value is 0 to 4, and the cluster which is present as a cluster in the region has a large evaluation value of around 3, and the scattered clusters are 0 to 1. Small value before and after.
Recalculation of the continuity evaluation value len (j) of the cluster j can be performed by the following formula.
(Len [j] after recalculation) = ((len [j] before recalculation) × (n (j) −1) + (continuity evaluation value of target pixel)) / n (j)
図12(b)〜(d)は、クラスタ分割結果の一例に対する連続性評価値を示す。図12(b)のクラスタ分割結果の例では、クラスタ1に分割される領域内に、ノイズ部分と思われるクラスタ2が点在している。その時、クラスタ1の連続性評価値は2.81で比較的大きく、領域的な連続性が高い(c)。クラスタ2の連続性評価値は0.25で比較的小さく、領域的な連続性が低い(d)。この連続性評価値に基づきクラスタ統合を行うので、クラスタ2はクラスタ統合の対象になりやすい。
12B to 12D show continuity evaluation values for an example of the cluster division result. In the example of the cluster division result in FIG. 12B,
新規クラスタの追加(ステップ1567)について説明する。図11(b)は、ステップ1567の処理フローチャートである。クラスタ数をカウントアップし(ステップ1572)、クラスタNの所属画素数を初期化してn(N)=1に設定し(ステップ1573)、平均L*a*bに注目画素のL*a*bを設定する(ステップ1574)。連続性評価値も初期化してlen(N)=0に設定する(ステップ1575)。
The addition of a new cluster (step 1567) will be described. FIG. 11B is a process flowchart of
既存クラスタの統合&新規クラスタの追加(ステップ1568)について説明する。図11(c)は、ステップ1568の処理フローチャートである。その時点での各クラスタの連続性評価値を比較し、連続性評価値が最も小さいクラスタを選択する(以降、該当クラスタをクラスタXと表記する)(ステップ1600)。クラスタXが統合対象のクラスタになる。クラスタXと他のクラスタの平均L*a*b*間の色差を計算し(ステップ1601)、色差最小のクラスタを抽出する(以降、該当クラスタをクラスタYと表記する)(ステップ1602)。クラスタYが統合先のクラスタになる。
The integration of existing clusters and the addition of new clusters (step 1568) will be described. FIG. 11C is a process flowchart of
クラスタXをクラスタYへ統合すべく、クラスタYの所属画素数n(Y)にクラスタXの所属画素数n(X)を加算し(ステップ1603)、クラスタYの平均L*a*b*を再計算する(ステップ1604)。
(クラスタYの再計算後の平均L*)=((クラスタYの再計算前の平均L*)×(n(Y)−n(X))+(クラスタXの平均L*)×n(X))/n(Y)
(クラスタYの再計算後の平均a*)=((クラスタYの再計算前の平均a*)×(n(Y)−n(X))+(クラスタXの平均a*)×n(X))/n(Y)
(クラスタYの再計算後の平均b*)=((クラスタYの再計算前の平均b*)×(n(Y)−n(X))+(クラスタXの平均b*)×n(X))/n(Y)
In order to integrate cluster X into cluster Y, the number n (X) of pixels belonging to cluster X is added to the number n (Y) of pixels belonging to cluster Y (step 1603), and the average L * a * b * of cluster Y is calculated. Recalculation is performed (step 1604).
(Average L * after recalculation of cluster Y) = ((average L * before recalculation of cluster Y) × (n (Y) −n (X)) + (average L * of cluster X) × n ( X)) / n (Y)
(Average a * after recalculation of cluster Y) = ((Average a * before recalculation of cluster Y) × (n (Y) −n (X)) + (Average a * of cluster X) × n ( X)) / n (Y)
(Average b * after recalculation of cluster Y) = ((average b * before recalculation of cluster Y) × (n (Y) −n (X)) + (average b * of cluster X) × n ( X)) / n (Y)
次に、クラスタXを消去して新規クラスタを追加すべく、クラスタXを新規クラスタで置換する。クラスタXの所属画素数を初期化してn(X)=1に設定し(ステップ1605)、平均L*a*b*に注目画素のL*a*b*を設定する(ステップ1606)。連続性評価値も初期化してlen(X)=0に設定する(ステップ1607)。 Next, in order to erase the cluster X and add a new cluster, the cluster X is replaced with the new cluster. The number of pixels belonging to the cluster X is initialized and set to n (X) = 1 (step 1605), and the L * a * b * of the pixel of interest is set to the average L * a * b * (step 1606). The continuity evaluation value is also initialized and len (X) = 0 is set (step 1607).
図10のクラスタ統合部157の処理を説明すると、予備クラスタリング部156で分割されたクラスタのうち、ある程度画素数が少ないクラスタは被写体を有意な塊単位で抽出する上において不要または重要性が低いクラスタである。
The processing of the
図13は、クラスタ統合部157の処理フローチャートである。各クラスタを順次見ていき、クラスタの画素数が所定閾値n_thより小さいか否かを判定し(ステップ1612)、小さい場合は注目クラスタiの平均L*a*b*と他のクラスタの平均L*a*b*との色差を求め(ステップ1613)、他のクラスタ全てに対して求めた色差のうち最小のものに該当するクラスタ番号jを抽出し(ステップ1614)、クラスタiをクラスタjに統合する(ステップ1615)。クラスタjの画素数にクラスタiの画素数を加算し、クラスタiの画素数を0に変更する。
FIG. 13 is a process flowchart of the
統合するクラスタの画素数境界である閾値n_thは、暗部領域の画素数に対して例えば15%(10%〜20%程度に設定するのが適当)の画素数に相当する値を画像毎に求めて、それを閾値とする。 The threshold value n_th, which is the boundary of the number of pixels of the cluster to be integrated, is obtained for each image, for example, a value corresponding to the number of pixels of 15% (suitably set to about 10% to 20%) with respect to the number of pixels in the dark area. That is the threshold value.
図7に戻り、判断部154は、クラスタ数に応じて階調補正を行うか否かを判断する。クラスタ数が1であれば階調補正を行わないと判断し、クラスタ数が1以外であれば階調補正を行うと判断する。これにより、夜空を背景に花火を撮影した画像のように暗部に該当する夜空に何もオブジェクトが潜んでおらず、明るく補正する必要がない画像が入力された場合に、階調補正を行わないと判断して処理することができる。
Returning to FIG. 7, the
図14は、暗部補正量決定部155の構成を示す。判断部154が階調補正を行わないと判断した場合は、選択部159は、Δ1=Δ1a(=0)を補正量として選択出力することにより、実質的に階調補正を無効にする。判断部154が階調補正を行うと判断した場合は、補正量算出部158が算出した補正量Δ1bを選択して、Δ1=Δ1bを補正量として出力する。
FIG. 14 shows a configuration of the dark part correction
図15は、補正量算出部158の構成を示す。第一のクラスタ抽出部1580は、クラスタリング結果から各クラスタの画素数を比較して画素数が最も多いクラスタとその次に多いクラスタを抽出する。2つのクラスタのうち明度が高い方をクラスタA、明度が低い方をクラスタBと表記する。色差計算部1582では、クラスタAとクラスタBの補正前の平均Lab同士の色差dE1を計算しておく。補正量生成部1592は補正量Δ1bを設定して、仮補正テーブル生成部1591は補正量に応じた仮補正テーブルを作成する。階調補正部1585は仮補正テーブルを用いた階調補正を、クラスタAの平均Labを色変換部1584でRGBに変換したRGB_aと、クラスタBの平均Labを同じくRGBに変換したRGB_bに対して行い、階調補正後の値を色変換部1586で再度Lab信号に変換する。色差計算部1587では、クラスタAとクラスタBの補正後の平均Lab同士の色差dE2を計算する。色差比計算部1588は補正前の色差dE1と補正後の色差dE2の比率を計算して求める。
FIG. 15 shows a configuration of the correction
第二のクラスタ抽出部1581では、クラスタリング結果から最も暗いクラスタを抽出する。最も暗いクラスタをクラスタCと表記する。ちなみに、画像によってはクラスタBとクラスタCが同じクラスタを指すこともあるが、それでも構わない。階調補正部1585は仮補正テーブルを用いた階調補正を、クラスタCの平均Labを色変換部1584でRGBに変換したRGB_cに対して行い、階調補正後の値を色変換部1586で再度Lab信号に変換する。
The second
暗部補正量判定部1589では、以下の終了条件1または終了条件2を満たせば、その時点での補正量Δ1bを出力して終了する。どちらの終了条件も満たさなければ、補正量生成部1592は変更した補正量を発生させ、終了条件を満足するまで処理を繰り返す。
[終了条件1]クラスタAとクラスタBの補正前後の色差比が、色差比目標値設定部1583に設定された目標値Xd以上である。
[終了条件2]クラスタCの階調補正後の平均Lが、最暗クラスタの明度上限設定部1590に設定された上限値Lc_th以上である。
If the
[End Condition 1] The color difference ratios before and after the correction of cluster A and cluster B are equal to or greater than the target value Xd set in the color difference ratio target
[End Condition 2] The average L after tone correction of the cluster C is equal to or higher than the upper limit value Lc_th set in the lightness upper
画素数が最も大きいクラスタと次に大きいクラスタの色差が補正前のX倍になるように補正するということは、他の面積の狭いクラスタ同士の色差比に着目して補正するよりも視認性が向上したことが観察者に認識されやすく、非常に効果的である。また、最も暗いクラスタが明るく補正されすぎないように補正量を制限することは、暗部ノイズが目立つ副作用を防止するのに有効である。 The correction so that the color difference between the cluster having the largest number of pixels and the next largest cluster is X times before correction is more visible than the correction by paying attention to the color difference ratio between other clusters having a small area. The improvement is easily recognized by the observer and is very effective. Further, limiting the correction amount so that the darkest cluster is not corrected too brightly is effective in preventing a side effect in which dark part noise is conspicuous.
図16は、最暗クラスタの補正量制限を説明する図である。(a)は暗部を示し、(b)は暗部を拡大した図である。図16のYcとYc_thは最暗クラスタの補正量制限をわかりやすく表現したものであり、YcがクラスタCの補正後の輝度を表しており、Yc_thは上限値を輝度で表している。 FIG. 16 is a diagram for explaining the correction amount limitation of the darkest cluster. (A) shows a dark part, (b) is the figure which expanded the dark part. In FIG. 16, Yc and Yc_th express the correction amount limitation of the darkest cluster in an easy-to-understand manner, Yc represents the luminance after correction of cluster C, and Yc_th represents the upper limit value in luminance.
補正量生成部1592は、Δ1b=0を初期値として、補正量生成の要求がある度に、Δ1bに+1したものを次の補正量として発生させる。仮補正テーブル生成部1591では、RGB_aを輝度変換して求めた輝度Yaを制御点として、図16のような補正テーブルを作成する。制御点YaはクラスタA(面積が大きい2つのクラスタのうち明るい方)の輝度に該当する。制御点Yaにおける出力がYa+Δ1bになるように補正テーブルを作成し、暗部領域以外は暗部補正量生成部15で使用されず、どのように設定してもよいので、図16のように、Ya≦入力Y<255は直線で結んでおけば良い。
The correction
色差比目標値設定部1583では、暗部面積率Pdに応じて色差比の目標値Xd=3.5×Pdを算出する。算出式は数十枚のサンプル画像を用意してどのくらいに設定すれば、ほぼ全ての画像(少なくとも用意したサンプルの8割)で適正な明るさに補正されるかを主観評価結果から導出したものである。被写体における暗部領域の占める割合が大きいほど暗部の視認性向上を重視した方が高評価を得る傾向があり、暗部領域の占める割合が小さいほど暗部以外の被写体画質を重視した方が高評価が得られ、暗部の視認性向上に対する要求レベルが下がる傾向があった。
The color difference ratio target
最暗クラスタの明度上限設定部1590では、Lc_thが15くらいの値(10〜18の間)に設定されるようにしておくのが適当である。これは予め決めておいた固定値でよい。
It is appropriate that the lightness upper
図2に戻り、ハイライト補正量生成部16では、補正テーブルのハイライト領域における傾きα4’を補正量として求め、出力する。これはハイライトが階調補正によって白飛びするのを抑制するために行う処理である。サンプリング画像の各画素を閾値th1と比較し、閾値th1以上であればハイライト領域の画素であると判定する。更に、ハイライト領域のRGB値全てが255である画素(白画素)を除外した領域を対象として、対象領域における飽和度が予め設定された飽和度上限値Xh以下になることを終了条件とし、終了条件を満たすα4’を求める。
Returning to FIG. 2, the highlight correction
図17のように、th1を制御点とし、ハイライト領域で傾きがα4’になる仮補正テーブルを作成し、傾きα4’=0からはじめてα4’を徐々に大きくしていく。ハイライト領域以外はハイライト補正量生成部16で使用されないので、仮補正テーブルでは図17のように、0≦入力Y<th1を直線で結んでおけば良い。
As shown in FIG. 17, a temporary correction table having a slope α4 ′ in the highlight area is created using th1 as a control point, and α4 ′ is gradually increased starting from the slope α4 ′ = 0. Since areas other than the highlight area are not used by the highlight correction
飽和度は、対象領域における飽和画素の割合である。飽和画素は、階調補正前後のRGB値を参照し、RGB3信号のうち補正後の値が(255−x1)以上に飽和した信号数が、補正前に255に飽和している信号数よりも多ければ、階調補正によって飽和した画素(=飽和画素)であると判断する。x1は(255−x1)が目視でほぼ飽和していると認定されるくらいの値、x1=20くらいに設定しておくのが適当である。 The degree of saturation is the ratio of saturated pixels in the target area. The saturated pixel refers to RGB values before and after gradation correction, and the number of signals in which the corrected value of RGB3 signals is saturated to (255−x1) or more is greater than the number of signals saturated to 255 before correction. If so, it is determined that the pixel is saturated by the gradation correction (= saturated pixel). It is appropriate to set x1 to a value such that (255−x1) is recognized as being almost saturated visually, and about x1 = 20.
図2に示す補正量決定部18の構成を、図18に示す。補正量Δ2算出部180では、最終的に求める図6の階調補正テーブルと同様に、図19に示した関係を使って、ハイライトの傾きがα4’である場合の補正量Δ2を求める。暗部補正量生成部15で生成された補正量Δ1と、ハイライト補正量生成部16で生成された傾きα4’から求めた補正量Δ2とを、最小値選択部181で比較し、最小のものを選択して出力する(Δ=min(Δ1,Δ2))。
The configuration of the correction
以上説明したように、本実施例によれば、クラスタリングの前段処理の中で、予め設定したクラスタ数の上限値を超えないように、新規クラスタの追加だけでなく、既存クラスタの統合を随時行うため、処理を高速化することができる。また、連続性評価値に基づき統合対象となるクラスタを選択するため、いずれにしても最終的には不要なクラスタを前段処理の途中の段階で統合することで処理を高速化し、かつ、最終的なクラスタリング後段処理後のクラスタ分割の精度を維持することができる。 As described above, according to the present embodiment, not only the addition of new clusters but also integration of existing clusters is performed as needed so that the upper limit value of the number of clusters set in advance is not exceeded in the pre-processing of clustering. Therefore, the processing can be speeded up. In addition, since clusters to be integrated are selected based on the continuity evaluation value, in any case, unnecessary clusters are eventually integrated at a stage in the middle of the previous processing, and the processing speed is increased. It is possible to maintain the accuracy of cluster division after the post-clustering process.
本実施例では、前述の通り、画像の暗部領域をクラスタリング対象領域としているため、新規クラスタを追加するか否かの判定条件に当たる色差閾値をdE_th=3程度の小さい値に設定する必要があった。これは通常画像に対して適用する閾値よりもかなり小さい。また、暗部領域では暗電流の影響もあり比較的大きいノイズが発生しやすい。そのため、暗部領域をクラスタリング対象領域とする場合、本発明が問題としているノイズの起伏に反応してクラスタ数が増加する問題が特に発生しやすく、本発明の効果が非常に大きいと言える(但し、暗部領域のみをクラスタリング対象領域とする場合以外にも、効果の大きさが違うだけで、本発明の効果はある)。 In this embodiment, as described above, since the dark area of the image is the clustering target area, it is necessary to set the color difference threshold corresponding to the determination condition as to whether or not to add a new cluster to a small value of about dE_th = 3. . This is much smaller than the threshold applied to normal images. In the dark area, a relatively large noise is likely to occur due to the influence of dark current. Therefore, when the dark region is a clustering target region, the problem that the number of clusters increases in response to the noise undulation that is a problem of the present invention is particularly likely to occur, and it can be said that the effect of the present invention is very large (however, In addition to the case where only the dark area is set as the clustering target area, only the magnitude of the effect is different and the effect of the present invention is obtained).
なお、本発明のクラスタ分割結果の適用先の画像処理は、階調補正のみに限定されるものではない。別の適用例を2つ挙げる。 Note that the image processing to which the cluster division result of the present invention is applied is not limited to gradation correction only. Two other application examples are given.
適用例1:
特許文献2と同様に、クラスタ分割結果に基づき減色処理を行い、文字色を一色に統一する際に、本発明のクラスタリング高速化技術を適用する。文字文書原稿をスキャナで読み取ると、例えば黒一色であった文字に色成分が混入して黒一色でなくなる。クラスタ分割し、画素値を所属クラスタの代表値で置換することにより、本来黒一色であった文字を黒一色に再生することができるようになる。
Application example 1:
Similar to Patent
適用例2:
画像の色数や画像の代表色に応じて、画像を分類する際に、本発明のクラスタリング高速化技術を適用する。色数(クラスタ数)や代表色(所属画素数が最大のクラスタ代表値)を画像特徴として含み、画像特徴が近い画像同士を近くに配置分類した画像一覧を表示してユーザーに提示することで、ユーザーが素早く類似画像を見つけられるようになる。
Application example 2:
The clustering speed-up technology of the present invention is applied when classifying images according to the number of image colors or the representative colors of the images. By displaying the image list that includes the number of colors (number of clusters) and representative colors (cluster representative value with the largest number of assigned pixels) as image features, and images that are close to each other and arranged close together, and present them to the user , Users can quickly find similar images.
本発明によれば、カラー画像内の各画素を色情報に基づき複数のクラスタに分割するクラスタ分割において、画像内の全画素を一旦クラスタ分割してからクラスタの統合(あるいは分割)行うのではなく、各画素をクラスタ分割する途中段階において、新規クラスタの追加、および、既存クラスタの統合を随時行うため、処理途中でクラスタ数が増えすぎるのを抑え、処理を高速化することができる。 According to the present invention, in cluster division in which each pixel in a color image is divided into a plurality of clusters based on color information, all the pixels in the image are not divided into clusters and then integrated (or divided). In the middle of dividing each pixel into clusters, addition of new clusters and integration of existing clusters are performed as needed, so that it is possible to suppress the number of clusters from increasing during the processing and to speed up the processing.
本発明によれば、同一クラスタに属する画素の領域的な連続性を評価する連続性評価値を算出し、既存クラスタの統合は、連続性評価値に基づき、領域的な連続性が低いクラスタを優先して他のクラスタへ統合するため、処理を高速化した上で最終的なクラスタ分割の精度を維持することができる。 According to the present invention, the continuity evaluation value for evaluating the regional continuity of pixels belonging to the same cluster is calculated, and the integration of the existing clusters is based on the continuity evaluation value. Since the integration is prioritized into other clusters, the accuracy of the final cluster division can be maintained while speeding up the processing.
本発明によれば、既存クラスタの統合は、新規クラスタの追加によりクラスタの数が予め設定された上限値を超える場合に随時実施するため、処理途中でクラスタ数が予め設定した上限値を超えないように制御することができ、処理を高速化できる。 According to the present invention, the integration of existing clusters is performed whenever the number of clusters exceeds a preset upper limit due to the addition of a new cluster, so the number of clusters does not exceed the preset upper limit during the process. And the processing can be speeded up.
本発明によれば、新規クラスタの追加は、注目画素が属するクラスタが既存クラスタの中に存在しないと判定された場合に随時実施し、クラスタ数が固定でなく画像に対応したクラスタのみ追加されるため、不要なクラスタとの距離を計算する処理時間が省略され、クラスタ数とクラスタ代表値の初期値に左右されないクラスタ分割結果を得ることができる。 According to the present invention, the new cluster is added whenever it is determined that the cluster to which the pixel of interest belongs does not exist in the existing cluster, and only the cluster corresponding to the image is added without the number of clusters being fixed. Therefore, the processing time for calculating the distance to an unnecessary cluster is omitted, and a cluster division result that is not affected by the number of clusters and the initial value of the cluster representative value can be obtained.
本発明によれば、画像の暗部領域を判定してクラスタ分割を行う対象領域とする場合に対して本発明のクラスタリング高速化技術を適用するため、新規クラスタを追加するか否かの判定条件に当たる色差閾値設定と暗電流の影響からノイズの起伏に反応してクラスタ数が増加する問題が特に発生しやすいケースに対して特に、本発明の処理の高速化(かつクラスタ分割の精度維持)効果を発揮することができる。 According to the present invention, since the clustering speed-up technology of the present invention is applied to the case where the dark region of the image is determined and set as the target region for cluster division, the determination condition whether or not to add a new cluster is met. Especially for cases where the problem of increasing the number of clusters in response to noise undulations due to the color difference threshold setting and the influence of dark current is particularly likely to occur. It can be demonstrated.
本発明は特に高速化に効果があるため、その点を強調して説明したが、実装上はメモリを節約できる効果もある。従来方式(特許文献2のクラスタリング)では、クラスタ数がいくつまで増えるかわからないので、各クラスタのデータ(所属画素数、代表値)を保存するためのメモリを予めかなり余裕を持って確保しておくか、あるいは、動的に確保する必要があった。一方、本発明によれば、クラスタ数が増えすぎないように(予め設定した上限値を超えないように)制御できるため、各クラスタのデータを保存するためのメモリを節約できる。 Since the present invention is particularly effective in increasing the speed, it has been described with emphasis on this point, but there is also an effect of saving memory in terms of mounting. In the conventional method (clustering in Patent Document 2), it is not known how many clusters the number of clusters will increase. Therefore, a memory for storing data (number of belonging pixels, representative value) of each cluster is secured in advance with a considerable margin. Or it was necessary to secure dynamically. On the other hand, according to the present invention, control can be performed so that the number of clusters does not increase excessively (so as not to exceed a preset upper limit value), so that memory for storing data of each cluster can be saved.
本発明は、前述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(CPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても達成される。この場合、記憶媒体から読出されたプログラムコード自体が前述した各実施例の機能を実現することになる。プログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスク、不揮発性のメモリカード、ROMなどを用いることができる。また、コンピュータが読出したプログラムコードを実行することにより、前述した実施例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した各実施例の機能が実現される場合も含まれる。さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した各実施例の機能が実現される場合も含まれる。また、本発明の実施例の機能等を実現するためのプログラムは、ネットワークを介した通信によってサーバから提供されるものでも良い。 The present invention supplies a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and a program in which a computer (CPU or MPU) of the system or apparatus is stored in the storage medium. This is also achieved by reading and executing the code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments. As a storage medium for supplying the program code, for example, a hard disk, an optical disk, a magneto-optical disk, a nonvolatile memory card, a ROM, or the like can be used. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program code. A case where part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included. Further, after the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. This includes the case where the CPU or the like provided in the board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. Further, the program for realizing the functions and the like of the embodiments of the present invention may be provided from a server by communication via a network.
10 輝度変換部
11 ヒストグラム作成部
12 閾値決定部
15 暗部補正量生成部
16 ハイライト補正量生成部
18 補正量決定部
19 階調補正テーブル作成部
20 階調補正部
30 画像サンプリング部
DESCRIPTION OF SYMBOLS 10 Brightness conversion part 11
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009026068A JP2010183416A (en) | 2009-02-06 | 2009-02-06 | Image processing apparatus and method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009026068A JP2010183416A (en) | 2009-02-06 | 2009-02-06 | Image processing apparatus and method, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010183416A true JP2010183416A (en) | 2010-08-19 |
Family
ID=42764582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009026068A Pending JP2010183416A (en) | 2009-02-06 | 2009-02-06 | Image processing apparatus and method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010183416A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014197243A (en) * | 2012-05-22 | 2014-10-16 | 株式会社リコー | Pattern processor, pattern processing method and pattern processing program |
JP2015060315A (en) * | 2013-09-17 | 2015-03-30 | 株式会社リコー | Representative color extraction apparatus, representative color extraction method, program, and recording medium |
WO2015056481A1 (en) * | 2013-10-18 | 2015-04-23 | Ricoh Company, Ltd. | Image processing apparatus, image processing system, image processing method, and recording medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07160879A (en) * | 1993-12-07 | 1995-06-23 | Toppan Printing Co Ltd | Picture processing method |
JPH11306334A (en) * | 1998-02-17 | 1999-11-05 | Fuji Xerox Co Ltd | Picture processor and picture processing method |
JP2006229280A (en) * | 2005-02-15 | 2006-08-31 | Ricoh Co Ltd | Image processing apparatus and method, and program and recording medium |
WO2007023726A1 (en) * | 2005-08-22 | 2007-03-01 | Ns Solutions Corporation | Information processing system |
JP2007272457A (en) * | 2006-03-30 | 2007-10-18 | Canon Inc | Image processing method and apparatus |
-
2009
- 2009-02-06 JP JP2009026068A patent/JP2010183416A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07160879A (en) * | 1993-12-07 | 1995-06-23 | Toppan Printing Co Ltd | Picture processing method |
JPH11306334A (en) * | 1998-02-17 | 1999-11-05 | Fuji Xerox Co Ltd | Picture processor and picture processing method |
JP2006229280A (en) * | 2005-02-15 | 2006-08-31 | Ricoh Co Ltd | Image processing apparatus and method, and program and recording medium |
WO2007023726A1 (en) * | 2005-08-22 | 2007-03-01 | Ns Solutions Corporation | Information processing system |
JP2007272457A (en) * | 2006-03-30 | 2007-10-18 | Canon Inc | Image processing method and apparatus |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014197243A (en) * | 2012-05-22 | 2014-10-16 | 株式会社リコー | Pattern processor, pattern processing method and pattern processing program |
JP2015060315A (en) * | 2013-09-17 | 2015-03-30 | 株式会社リコー | Representative color extraction apparatus, representative color extraction method, program, and recording medium |
WO2015056481A1 (en) * | 2013-10-18 | 2015-04-23 | Ricoh Company, Ltd. | Image processing apparatus, image processing system, image processing method, and recording medium |
JP2015079443A (en) * | 2013-10-18 | 2015-04-23 | 株式会社リコー | Image processing apparatus, image processing system, image processing method, program and recording medium |
US9621763B2 (en) | 2013-10-18 | 2017-04-11 | Ricoh Company, Ltd. | Image processing apparatus, image processing system, image processing method, and recording medium converting gradation of image data in gradation conversion range to emphasize or reduce shine appearance |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9251573B2 (en) | Device, method, and storage medium for high dynamic range imaging of a combined image having a moving object | |
JP4590471B2 (en) | Method and system for estimating background color | |
JP5253835B2 (en) | Image generating apparatus, image generating method, and computer program | |
JP4795473B2 (en) | Image processing apparatus and control method thereof | |
US8472720B2 (en) | Image processing method, apparatus and program | |
JP5212380B2 (en) | Image correction apparatus, image correction program, and image correction method | |
US9773193B2 (en) | Image processing apparatus, image processing method, and program | |
JP2005228340A (en) | Image analysis device, image analysis method, and blob identification device | |
US8290255B2 (en) | Image processing method, image processing apparatus, and program | |
US8538191B2 (en) | Image correction apparatus and method for eliminating lighting component | |
JP5218767B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
US20120070084A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5645612B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
CN114022790A (en) | Cloud layer detection and image compression method and device in remote sensing image and storage medium | |
JP5539488B2 (en) | Judgment of transparent fill based on reference background color | |
JP2010183416A (en) | Image processing apparatus and method, program, and recording medium | |
US20220270232A1 (en) | Apparatus for adjusting parameter related to defect detection for image processing for image processing, method for information processing, and program | |
CN110111280B (en) | Low-illumination image enhancement method for multi-scale gradient domain guided filtering | |
JP5089797B2 (en) | Image processing apparatus and control method thereof | |
JP5004305B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP6370080B2 (en) | Image processing apparatus, image processing method, and program. | |
JP4441300B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium storing the program | |
US20190259168A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP4516994B2 (en) | Method and system for determining the background color of a digital image | |
CN112950523A (en) | Definition evaluation value calculation method and device, camera and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120619 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121024 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130306 |